WO2019188009A1 - パターンエッジ検出方法 - Google Patents

パターンエッジ検出方法 Download PDF

Info

Publication number
WO2019188009A1
WO2019188009A1 PCT/JP2019/008345 JP2019008345W WO2019188009A1 WO 2019188009 A1 WO2019188009 A1 WO 2019188009A1 JP 2019008345 W JP2019008345 W JP 2019008345W WO 2019188009 A1 WO2019188009 A1 WO 2019188009A1
Authority
WO
WIPO (PCT)
Prior art keywords
pattern
edge
image
edges
teacher data
Prior art date
Application number
PCT/JP2019/008345
Other languages
English (en)
French (fr)
Inventor
政洋 大家
Original Assignee
株式会社Ngr
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Ngr filed Critical 株式会社Ngr
Priority to US17/040,533 priority Critical patent/US11436736B2/en
Priority to KR1020207030084A priority patent/KR20200135991A/ko
Priority to CN201980021715.6A priority patent/CN111902844A/zh
Publication of WO2019188009A1 publication Critical patent/WO2019188009A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/07Investigating materials by wave or particle radiation secondary emission
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/401Imaging image processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/50Detectors
    • G01N2223/507Detectors secondary-emission detector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/611Specific applications or type of materials patterned objects; electronic devices
    • G01N2223/6116Specific applications or type of materials patterned objects; electronic devices semiconductor wafer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Definitions

  • the present invention relates to a pattern edge detection method applicable to a semiconductor inspection apparatus that performs pattern inspection using pattern design data.
  • An optical pattern inspection apparatus using a die-to-die comparison method is used for pattern inspection of a wafer in a manufacturing process of a semiconductor integrated circuit or pattern inspection of a photomask for forming the pattern.
  • This die-to-die comparison method is a method of detecting defects by comparing images obtained from the same position of a semiconductor device called a die to be inspected and the adjacent die.
  • a method called die-to-database comparison is used for inspection of a photomask called a reticle in which no adjacent die exists.
  • This method is a method in which the mask data is converted into an image to replace the image of the proximity die used in the die-to-die comparison method, and the same inspection as described above is performed.
  • the mask data is data obtained by applying photomask correction to design data (see, for example, Patent Document 1).
  • the corner round of the pattern formed on the wafer is detected as a defect.
  • a corner round is formed by applying a smoothing filter to an image converted from mask data so that the corner round is not detected as a defect.
  • the corner round formed by the smoothing filter is not equal to the actual corner round formed on the wafer, the actual corner round may be detected as a defect. Therefore, if the allowable pattern deformation amount is set so as to ignore the difference between the corner rounds, there is a problem that minute defects existing outside the corner cannot be detected.
  • Repeated defects are defined as defects that occur repeatedly in all dies on a wafer due to a photomask defect or the like. Repeated defects occur in both the die to be inspected and the adjacent die to be compared, and cannot be detected by die-to-die comparison. Therefore, wafer inspection by a die-to-database comparison method is required.
  • a pattern formed on a wafer is imaged and an inspection based on design data is performed on this image.
  • pattern edge detection based on design data is performed prior to this inspection.
  • this edge detection cannot be performed accurately, and erroneous edge detection or detection failure may occur on the image.
  • the reason for this is that in the conventional method, a method of detecting an edge on an image based on design data based on a certain rule has been used, but in the method based on a certain rule, the image quality or pattern deformation of the image is changed. This makes it impossible to detect an appropriate edge.
  • the present invention provides a method capable of highly accurate edge detection using machine learning.
  • Machine learning is applied to pattern edge detection.
  • this method first, as a learning of a machine learning algorithm, an image of a pattern to be inspected and an image of a detected pattern edge are used as teacher data, a model for detecting a pattern edge from the image is generated, and the model is used.
  • the edge of the pattern is detected from the image to be actually inspected.
  • the process by machine learning is more accurate than the process based on the conventional fixed rule, and can realize a redundant process with respect to data change.
  • the machine learning algorithm By learning the machine learning algorithm using the teacher data, it becomes possible to perform highly accurate and highly redundant processing on the data equivalent to the teacher data. Therefore, it is expected that the edge detection model generated by machine learning can appropriately detect the edge of the pattern.
  • Cases where teacher data is inappropriate for learning are as follows.
  • Case 1.1 Pattern contains defects.
  • the pattern edge detected by the die-to-database method may not correspond to the actual pattern edge. Therefore, a pattern including a defect should not be included in the teacher data.
  • Case 1.2 Pattern edge deformation is large or pattern edge deformation amount is discontinuous. In this case, in the process of creating the pattern edge image included in the teacher data, there is a high possibility that the edge detection has failed or an incorrect pattern edge not corresponding to the edge has been detected.
  • Case 1.3 The number of pattern edges included in the teacher data is largely unbalanced for each pattern type. In this case, an edge detection model generated using a small number of pattern edges may not be able to detect edges accurately or with high accuracy.
  • the edge detected by machine learning since the edge detected by machine learning is not associated with the design data, it is necessary to associate the detected edge with the design data. In this association step, the detected edge may be erroneously associated with the design data. This is referred to as Case 2.1.
  • a method for detecting an edge of a pattern comprising: generating an image of a pattern; detecting an edge of the pattern on the image based on a reference pattern generated from design data of the pattern; A pattern that satisfies a predetermined ineligibility condition by repeatedly generating an image of the image and detecting edges of the pattern on the image to create teacher data candidates including a plurality of images and a plurality of corresponding pattern edges.
  • teacher data is determined, an edge detection model is generated by machine learning using the teacher data, an image of another pattern is generated, and the edge A method is provided for detecting edges of the other pattern on the image using a detection model.
  • the ineligible condition is that the pattern includes a defect.
  • the ineligibility condition is that a bias inspection value of a pattern edge exceeds a preset upper limit or falls below a preset lower limit, and the bias inspection value corresponds to design data corresponding to the pattern edge. Is an index value indicating the magnitude and direction of the deviation from the edge of the reference pattern generated from.
  • the ineligible condition is that the edge of the pattern was not correctly detected in creating the teacher data candidate.
  • the ineligible condition is that a bias inspection value of a pattern edge is outside a preset range, and the bias inspection value is determined from an edge of a reference pattern generated from corresponding design data of the pattern edge. It is an index value indicating the magnitude and direction of the deviation.
  • the ineligible condition is that the bias inspection value of the pattern edge changes discontinuously, and the bias inspection value is determined based on the deviation of the deviation of the pattern edge from the edge of the reference pattern generated from the corresponding design data. It is an index value indicating the size and direction.
  • the ineligible condition is that a bias inspection value of a pattern edge is outside a preset range, and the bias inspection value changes discontinuously, and the bias inspection value corresponds to the pattern edge.
  • This is an index value indicating the magnitude and direction of the deviation from the edge of the reference pattern generated from the design data to be generated.
  • the method classifies the plurality of images included in the teacher data candidate into a plurality of image groups according to a pattern type, and the number of images belonging to each of the plurality of classified image groups is the same.
  • the method further includes removing an image from the teacher data candidate.
  • a method for detecting an edge of a pattern comprising: generating an image of a pattern; detecting an edge of the pattern on the image based on a reference pattern generated from design data of the pattern; Generation of the image and detection of the edge of the pattern on the image are repeated to create teacher data consisting of a plurality of images and corresponding pattern edges, and an edge detection model is machined using the teacher data. Generating by learning, generating an image of another pattern, detecting the edge of the other pattern on the image using the edge detection model, and generating the edge detection model by machine learning Each of the plurality of pattern edges included in the teacher data is divided into a plurality of edges according to an edge attribute based on the design data.
  • a step of generating a machine learning a plurality of edge detection model for each of a plurality of edges which are the divided, a method is provided.
  • the step of detecting edges of the image of the other pattern includes detecting the plurality of edges of the other pattern on the image using the plurality of edge detection models, respectively, and detecting the plurality of detected edges. This is a step of associating with design data of another pattern.
  • the above cases 1.1, 1.2, 1.3 and 2.1 are improved. That is, teacher data is improved, and as a result, pattern edge detection accuracy using machine learning is improved.
  • FIG. 1 It is a figure which shows the structure of the perceptron which makes a part of forward propagation type
  • FIG. 6 is a schematic diagram showing five patches extracted from a sample image, luminance values output from a forward propagation neural network, and patches of a pattern edge image corresponding to the positions of the patches extracted from the sample image. .
  • FIG. 1 is a schematic diagram showing an embodiment of a pattern inspection apparatus.
  • the pattern inspection apparatus includes a main control unit 1, a storage device 2, an input / output control unit 3, an input device 4, a display device 5, a printing device 6, and an image generation device 7.
  • the main control unit 1 is composed of a CPU (Central Processing Unit) and the like, and controls the entire apparatus in an integrated manner.
  • a storage device 2 is connected to the main control unit 1.
  • the storage device 2 can take the form of a hard disk, solid state drive, flexible disk, optical disk, or the like.
  • the input / output control unit 3 prints an input device 4 such as a keyboard and a mouse, a display device 5 such as a display for displaying input data and calculation results, and inspection results and the like to the main control unit 1.
  • a printing device 6 such as a printer is connected.
  • the main control unit 1 has an internal memory (internal storage device) for storing a control program such as an OS (Operating System), a program for detecting pattern edges, and necessary data, etc. Perform detection and edge detection model generation.
  • a control program such as an OS (Operating System)
  • OS Operating System
  • a program for detecting pattern edges, and necessary data, etc. Perform detection and edge detection model generation.
  • These programs can be stored in a flexible disk, an optical disk or the like, and read into a memory, a hard disk or the like before being executed.
  • FIG. 2 is a schematic diagram showing an embodiment of the image generating apparatus 7 of the pattern inspection apparatus.
  • the image generation device 7 includes an irradiation system device 10, a sample chamber 20, and a secondary electron detector 30.
  • the image generation device 7 is a scanning electron microscope.
  • the irradiation system device 10 includes an electron gun 11, a focusing lens 12 that focuses primary electrons emitted from the electron gun 11, and an X deflector 13 that deflects an electron beam (charged particle beam) in the X and Y directions. And a Y deflector 14 and an objective lens 15.
  • the sample chamber 20 includes an XY stage 21 that is movable in the X and Y directions.
  • a wafer W which is a sample, is carried into and out of the sample chamber 20 by the wafer transfer device 40.
  • the primary electrons emitted from the electron gun 11 are focused by the focusing lens 12, and then focused by the objective lens 15 while being deflected by the X deflector 13 and the Y deflector 14.
  • the surface of the wafer W is irradiated.
  • the secondary electron detector 30 When primary electrons are irradiated onto the wafer W, secondary electrons are emitted from the wafer W, and the secondary electrons are detected by the secondary electron detector 30.
  • the focusing lens 12 and the objective lens 15 are connected to a lens control device 16, and this lens control device 16 is connected to a control computer 50.
  • the secondary electron detector 30 is connected to the image acquisition device 17, and this image acquisition device 17 is also connected to the control computer 50.
  • the secondary electron intensity detected by the secondary electron detector 30 is converted into a potential contrast image by the image acquisition device 17.
  • An irradiation region of primary electrons that can acquire a maximum potential contrast image without distortion is defined as a visual field.
  • the X deflector 13 and the Y deflector 14 are connected to a deflection control device 18, and this deflection control device 18 is also connected to the control computer 50.
  • the XY stage 21 is connected to an XY stage control device 22, and this XY stage control device 22 is also connected to a control computer 50 in the same manner.
  • the wafer transfer device 40 is connected to the control computer 50.
  • the control computer 50 is connected to the operation computer 60.
  • FIG. 3 is a flowchart of die-to-database inspection without using machine learning.
  • the image generation device 7 including a scanning electron microscope generates a pattern sample image (step 1).
  • the pattern is formed on the surface of a wafer that is a sample.
  • a pattern to be subjected to edge detection may be referred to as a wafer pattern.
  • the main control unit 1 shown in FIG. 1 performs a corner round process on the design data pattern to generate a reference pattern (step 2).
  • a corner round process for example, a method of replacing the corner portion of the design data pattern with an arc can be used.
  • the value of the radius of the arc is specified as the inspection setting value.
  • the main control unit 1 arranges the origins 130 of the luminance profiles at regular intervals on the edge of the reference pattern 111 generated in step 2 (step 3 in FIG. 3).
  • the distance between the origins 130 of adjacent luminance profiles is, for example, a distance corresponding to one pixel size.
  • the main control unit 1 draws a perpendicular line 140 that passes through the origin 130 of the luminance profile arranged in step 3 (step 4 in FIG. 3).
  • the perpendicular lines are line segments perpendicular to the edge of the reference pattern 111 and are arranged at equal intervals.
  • the main control unit 1 acquires the luminance value of the sample image on each vertical line 140 and creates a luminance profile of the sample image from these luminance values (step 5 in FIG. 3).
  • FIG. 6 is a graph showing an example of a luminance profile.
  • the vertical axis represents the luminance value
  • the horizontal axis represents the position on the vertical line 140.
  • the luminance profile represents a distribution of luminance values along the vertical line 140.
  • the main control unit 1 detects a pattern edge on the sample image based on the luminance profile (step 6 in FIG. 3).
  • a threshold method a straight line approximation method, or the like is used.
  • a pattern edge is detected using a threshold method.
  • a threshold method which is one method of pattern edge detection from a luminance profile, will be described with reference to FIG. Let the threshold be x [%].
  • the main control unit 1 determines a sampling point P having the largest luminance value in the luminance profile, and sets the position of this sampling point as a peak point.
  • the main control unit 1 determines the sampling point having the smallest luminance value in the region outside the pattern from the peak point P, and sets the position of this sampling point as the bottom point B.
  • an edge luminance value that internally divides the luminance value at the peak point P into x: (100 ⁇ x) from the luminance value at the bottom point B is determined.
  • the position of the sampling point Q on the luminance profile having the luminance value is set as the edge detection position.
  • the main control unit 1 searches for the luminance value of the sampling point from the peak point P toward the bottom point B as shown in FIG.
  • the sampling point S1 whose luminance value first falls below the edge luminance value is determined, the sampling point S2 on one peak point side is determined, and the edge luminance value is obtained by linear interpolation of the two sampling points S1 and S2.
  • the corresponding edge detection position is determined.
  • the main control unit 1 connects the edge detection positions on the respective luminance profiles in order with lines.
  • reference numeral 150 indicates the edge detection position described above
  • reference numeral 200 indicates a pattern edge including a plurality of edge detection positions 150 connected by dotted lines. In this way, the main control unit 1 can detect the pattern edge on the sample image based on the luminance profile.
  • the line segment connecting the origin 130 of the luminance profile and the edge detection position 150 is defined as a bias line 160.
  • the main control unit 1 calculates a bias inspection value defined as the length of the bias line 160 extending from the edge detection position 150 outside the reference pattern 111. Further, the main control unit 1 calculates a bias inspection value defined as a value obtained by multiplying the length of the bias line 160 extending from the edge detection position 150 inside the reference pattern 111 by ⁇ 1 (step 7 in FIG. 3). ).
  • the bias inspection value is an index value indicating the magnitude and direction of the deviation of the pattern edge from the edge of the reference pattern 111 generated from the corresponding design data.
  • the main control unit 1 can distinguish between “thick deformation” and “thin deformation” of the wafer pattern based on the bias inspection value.
  • a positive bias inspection value means that the wafer pattern is thickly deformed
  • a negative bias inspection value means that the wafer pattern is thinly deformed.
  • An upper limit and a lower limit may be predetermined for the bias inspection value. In this case, when the bias inspection value exceeds the upper limit, the main control unit 1 detects the part where the bias inspection value is calculated as a fat defect, and when the bias inspection value falls below the lower limit, the main inspection unit 1 detects the bias inspection. The part whose value is calculated can be detected as a thin defect as a detection (step 8 in FIG. 3).
  • FIG. 9 is a flowchart for generating an edge detection model by machine learning.
  • Generation of an edge detection model using machine learning is executed by the main control unit 1 shown in FIG.
  • the image generation device 7 including a scanning electron microscope generates a pattern sample image (step 1).
  • the main control unit 1 acquires a sample image from the image generation device 7.
  • the pattern is formed on the surface of a wafer that is a sample.
  • a pattern to be subjected to edge detection may be referred to as a wafer pattern.
  • step 2 the pattern inspection apparatus shown in FIG. 1 performs die-to-database inspection without using machine learning according to the flowchart shown in FIG. Steps 1 and 2 in FIG. 9 are repeated a plurality of times, and sample image generation and pattern edge detection are repeated. As a result, a plurality of sample images and a plurality of corresponding pattern edges are acquired by the main control unit 1. All of the acquired plurality of sample images and the corresponding plurality of pattern edges constitute a teacher data candidate.
  • the main control unit 1 determines teacher data used for machine learning by excluding pattern edges and corresponding sample images that satisfy a predetermined ineligibility condition from teacher data candidates (step 3). ).
  • the teacher data is determined using the sample image and the pattern edge detection result.
  • the ineligible conditions are (i) that the pattern includes a defect, and (ii) that the edge of the pattern was not correctly detected in creating the teacher data candidate.
  • FIG. 10 is a flowchart for explaining determination of teacher data in step 3 of FIG.
  • the edge of the pattern determined to contain a defect in the die-to-database inspection and the corresponding sample image are removed from the teacher data candidates.
  • the edge of the pattern whose bias inspection value exceeds the upper limit, the corresponding sample image, the edge of the pattern whose bias inspection value falls below the lower limit, and the corresponding sample image are removed from the teacher data candidates.
  • pattern edges that may not have been correctly detected in the die-to-database inspection and corresponding sample images are removed from the teacher data candidates.
  • An example of a pattern edge that may not have been correctly detected is a pattern edge that is largely deformed.
  • the bias inspection value used in the defect determination in the die-to-database inspection can be used as the size and direction of deformation of the pattern edge. More specifically, a pattern edge whose bias inspection value is outside a preset range is determined as a pattern edge having a large deformation. If the deformation of the pattern edge is large, the edge detection may not be performed normally. Accordingly, such pattern edges and corresponding sample images are removed from the teacher data candidates.
  • the bias inspection value is an index value indicating the magnitude and direction of the deviation of the pattern edge from the edge of the reference pattern generated from the corresponding design data. Therefore, when edge detection is not performed correctly, the bias test value becomes discontinuous, and as a result, the bias test value changes rapidly.
  • FIG. 11 is a diagram showing an example of a pattern in which the bias inspection value becomes discontinuous due to an erroneous detection of an edge.
  • Reference numeral 300 is a reference pattern generated from the design data
  • reference numeral 301 is an actual wafer pattern created based on the design data.
  • the bias inspection value changes discontinuously.
  • the bias check value indicated by the bias line 305 has a positive sign
  • the bias check value indicated by the adjacent bias line 306 has a negative sign
  • the bias test value indicated by the bias line 307 has a negative sign
  • the bias test value indicated by the adjacent bias line 308 has a positive sign.
  • the pattern edge and the corresponding pattern edge when the bias inspection value changes abruptly, for example, when the difference between the bias inspection values of two adjacent bias lines is greater than or equal to a predetermined threshold value, the pattern edge and the corresponding pattern edge.
  • Remove sample images from candidate teacher data For example, when the difference between the bias inspection values of two adjacent bias lines 305 and 306 in FIG. 11 is 30% or more of the width D of the reference pattern 300, the sample image is removed from the teacher data candidate.
  • a plurality of sample images included in the teacher data candidates are classified into a plurality of image groups according to the type of design data pattern.
  • FIG. 12 shows an example of design data, and shows three types of patterns.
  • Reference numerals 400, 410, and 420 represent design data used for classification of sample images.
  • Reference numerals 401, 402, 403, and 404 represent patterns included in the design data 400.
  • Reference numerals 411 and 412 represent design data 410.
  • the reference numerals 421, 422, and 423 represent patterns included in the design data 420.
  • FIG. 13 is a histogram showing a result of classifying a plurality of sample images obtained when the die-to-database inspection is performed into a plurality of image groups according to the type of design data pattern.
  • the vertical axis indicates the type of design data pattern
  • the horizontal axis indicates the number of sample images.
  • the main control unit 1 removes sample images from the teacher data candidates so that the number of sample images belonging to each of the plurality of classified image groups becomes the same.
  • the main control unit 1 gives a warning to the teacher data so as to notify the user that there is a pattern type with a small number of sample images. To do.
  • the accuracy of machine learning can be improved by reducing the bias of the pattern type (that is, increasing the comprehensiveness of the pattern type used for the teacher data).
  • the total number of teacher data can be reduced by reducing the variation in the pattern type of the teacher data.
  • the main control unit 1 sets each of the plurality of pattern edges included in the teacher data determined in step 3 of FIG. 9 as design attributes as edge attributes based on the design data. Are divided into a plurality of edges according to the pattern edge direction.
  • FIG. 14 is a diagram showing sample images of the wafer patterns 501 and 502
  • FIG. 15 is a diagram showing design data 505 and 506 of the wafer patterns 501 and 502 shown in FIG.
  • FIG. 16 is a diagram in which the wafer patterns 501 and 502 are superimposed on the reference patterns 507 and 508 generated by performing the corner round process on the design data 505 and 506.
  • the luminance profile origins 130 are arranged on the reference patterns 507 and 508 at equal intervals, and the bias line 160 extends from the origin 130 to the edge detection position.
  • FIG. 17 is a diagram in which edge detection positions are connected by lines and configured as detected pattern edges 510 and 511.
  • 18 is a diagram showing upper edges 510a and 511a divided from the pattern edge shown in FIG. 17, and
  • FIG. 19 is a diagram showing left edges 510b and 511b divided from the pattern edge shown in FIG. 20 is a diagram showing lower edges 510c and 511c divided from the pattern edge shown in FIG. 17, and
  • FIG. 21 is a diagram showing right edges 510d and 511d divided from the pattern edge shown in FIG. .
  • FIG. 22 is a diagram for explaining the direction of the pattern edge. As shown in FIG. 22, the pattern edge direction is determined based on the edge angle ⁇ of the reference patterns 507 and 508. This angle ⁇ is defined as the counterclockwise angle of the normal drawn from the inside to the outside of the pattern from the reference line RL.
  • FIG. 23 is a table of reference patterns 507 and 508 classified based on the edge angle ⁇ . Pattern edges 510 and 511 detected based on the reference patterns 507 and 508 are in accordance with the angle ⁇ of the reference patterns 507 and 508, the right edges 510d and 511d, the upper edges 510a and 511a, the left edges 510b and 511b, the lower It is divided into side edges 510c and 511c.
  • Step 5 of FIG. 9 the main control unit 1 performs pattern edge imaging for each of the plurality of divided edges. Furthermore, in Step 6 of FIG. 9, the main control unit 1 generates training of a machine learning algorithm for each of a plurality of divided edges, that is, a plurality of edge detection models by machine learning using the teacher data.
  • a method using a forward propagation neural network as a machine learning algorithm will be described.
  • FIG. 24 is a diagram showing the structure of a perceptron forming a part of a forward propagation neural network.
  • the unit value u is expressed as w1x1 + w2x2 +... + Wnxn + b, which is the product of each component of the input feature value and the corresponding connection weight, and the bias term b.
  • FIG. 25 is a diagram showing an activation function.
  • a ramp function (ReLU) is used as the activation function.
  • FIG. 26 is a diagram of a forward propagation neural network in which perceptrons are multilayered.
  • a forward propagation type neural network there are multiple layers of perceptrons. From the input layer to the output layer, the output of one perceptron is input to the next perceptron. The calculation is performed sequentially from the input side layer, and finally the output value y is calculated.
  • the input feature quantity of the forward propagation type neural network is the luminance value of the pixels constituting the sample image included in the teacher data.
  • FIG. 27 is a conceptual diagram showing how a plurality of luminance values input to the input layer are converted into one luminance value by the forward propagation neural network.
  • the luminance values of the nine adjacent pixels of the sample image are input to the input layer 601, and the luminance value of one pixel located at the center of the nine pixels is Output to the output layer 610. That is, the main control unit 1 inputs a plurality of luminance values x1 to x9 of the sample image whose edges are to be detected to the input layer 601. An image area composed of a certain number of pixels is called a patch.
  • the luminance values x1 to x9 of the pixels in the patch of the sample image are sequentially propagated to the units of the intermediate layers 602 to 605 of the forward propagation type neural network, and finally the luminance value y is output from the output layer 610.
  • This luminance value y is assigned to the luminance value of the pixel of the output image corresponding to the pixel located at the center of the patch of the sample image.
  • FIG. 28 is a conceptual diagram showing how the forward propagation neural network learns so that the output image becomes the image of the corresponding pattern edge in response to the input of the sample image included in the teacher data.
  • learning refers to a connection weight for coupling units of the forward propagation neural network so that the output image becomes an image of the corresponding pattern edge with respect to the input of the sample image.
  • the edge detection model includes the connection weights that have been adjusted.
  • a sample image is used as a training image for learning
  • a corresponding pattern edge image is used as a learning teacher image.
  • the main control unit 1 generates a plurality of edge detection models by machine learning for each of a plurality of edges divided according to the edge attribute using the teacher data.
  • the luminance vector of the patch extracted from the sample image is X1
  • the luminance value of the patch X1 output from the forward propagation neural network is y
  • the luminance value of the patch T1 of the pattern edge image corresponding to the position of the patch X1 is Assuming t, it is desirable that the luminance value y output from the forward propagation neural network is as close as possible to the luminance value t of the pattern edge image.
  • FIG. 29 shows five patches extracted from the sample image, luminance values output from the forward propagation type neural network, and patches of the pattern edge image corresponding to the positions of the patches extracted from the sample image. It is a schematic diagram.
  • the patch luminance vectors X1, X2,..., X5 extracted from the sample image are converted into luminance values y1, y2,.
  • the luminance values y1, y2,..., Y5 are respectively compared with the luminance values t1, t2,.
  • FIG. 30 is a schematic diagram showing a patch extracted from a sample image.
  • the patch has a luminance vector composed of a plurality of luminance values.
  • the patch is 3 pixels square. Therefore, the patch has nine pixels, and the luminance value of each pixel is represented by xi1, xi2, xi3, xi4, xi5, xi6, xi7, xi8, xi9. That is, the patch is represented by the following brightness vector.
  • Luminance vector Xi [xi1, xi2, xi3, xi4, xi5, xi6, xi7, xi8, xi9] i is a number for specifying a patch.
  • the mean square error defined below is used as an evaluation index of the closeness between yi and ti.
  • E ⁇ (yi-ti) 2 / N N is the number of patches to be evaluated simultaneously. If the mean square error E is small, the output image is expected to be closer to the pattern edge image.
  • the main control unit 1 updates the connection weight so that the mean square error E becomes small. For example, in the weight parameter w ⁇ between the unit ⁇ of the Mth layer and the unit ⁇ of the M + 1st layer, the main control unit 1 obtains a partial differential value ⁇ E / ⁇ w ⁇ with respect to w ⁇ of E, and weights It is conceivable to use a gradient method in which the parameter w ⁇ is replaced by w ⁇ - ⁇ * ⁇ E / ⁇ w ⁇ .
  • is a learning coefficient and is a predetermined numerical value.
  • learning can be promoted by using Adam's method or stochastic gradient method.
  • the error back propagation method is known as an algorithm for efficiently calculating the partial differential ⁇ E / ⁇ w ⁇ by using the chain rule of the composite function.
  • FIG. 31 is a flow of edge inspection using the edge detection model.
  • Edge inspection using the edge detection model is executed by the main control unit 1 shown in FIG.
  • the image generating device 7 composed of a scanning electron microscope generates a pattern image (step 1).
  • the main control unit 1 acquires a pattern image from the image generation device 7.
  • the pattern is formed on the surface of a wafer that is a sample.
  • the pattern generated in Step 1 is a pattern different from the pattern used for creating the teacher data candidate.
  • the main control unit 1 applies a plurality of edge detection models generated for each of the plurality of divided edges to the pattern image, and performs pattern edge detection. For example, the main control unit 1 detects the upper edge using the edge detection model for the upper edge, detects the right edge using the edge detection model for the right edge, and detects the edge for the left edge. The left edge is detected using the detection model, and the lower edge is detected using the edge detection model for the lower edge.
  • the connection weight included in each edge detection model has already been optimized by learning using teacher data.
  • a plurality of images of a plurality of detected edges are generated. Each image of the detected edge is the same size as the sample image. In each image of the detected edge, a numerical value of 1 is assigned to a pixel corresponding to the edge, and a numerical value of 0 is assigned to a pixel not corresponding to the edge.
  • step 3 the plurality of detected edges are associated with the design data of the pattern imaged in step 1.
  • FIG. 32 is a flowchart for explaining step 3 in FIG.
  • the main control unit 1 performs a corner round process on the design data to generate a reference pattern.
  • the edge of the reference pattern is divided into a plurality of edges according to the pattern edge direction as an edge attribute based on the design data, like the pattern edge of the teacher data.
  • FIG. 33 is a diagram showing pattern design data 701 and 702
  • FIG. 34 is a diagram showing reference patterns 703 and 704 generated by performing corner round processing on the design data 701 and 702 shown in FIG.
  • FIG. 35 is a diagram showing the right edges 703a and 704a divided from the reference patterns 703 and 704.
  • FIG. 36 is a diagram in which the edge detection origin 706 is arranged on the right edges 703a and 704a shown in FIG.
  • the edge detection origins 706 are arranged at equal intervals on the right edges 703a and 704a.
  • FIG. 37 is a diagram showing the right edges 708 and 709 detected in step 2 of FIG.
  • FIG. 38 is a diagram for explaining step 3 in FIG.
  • the main control unit 1 uses the right edge 703a generated from the design data to generate images of the right edges 708 and 709 detected using the edge detection model for the right side. , 704a, and a perpendicular line 710 passing through the edge detection origin 706 is drawn.
  • the length of the perpendicular line 710 is a length specified by a fixed value or an external parameter, and the perpendicular line 710 is drawn toward both the outside and the inside of the right edges 703a and 704a.
  • the intersection between the perpendicular 710 and the detected right edges 708 and 709 is the edge position.
  • FIG. 39 is a diagram showing a bias line 711 that is a line segment from the edge detection origin 706 to the edge position.
  • the right edges 703a and 704a generated from the design data and the right edges 708 and 709 detected using the edge detection model are associated with each other by a bias line 711.
  • bias lines are also created for the upper edge, the left edge, and the lower edge of the pattern classified by the edge attribute based on the design data, and information on those bias lines is integrated based on the design data, Configure die-to-database test results.
  • the main control unit 1 determines the defect of the wafer pattern based on the length of the bias line, that is, the bias inspection value, similarly to the die-to-database inspection that does not use machine learning.
  • the present invention can be used for a pattern edge detection method applicable to a semiconductor inspection apparatus that performs pattern inspection using pattern design data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Immunology (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

本発明は、パターンの設計データを用いてパターン検査を行う半導体検査装置に適用可能なパターンエッジ検出方法に関するものである。本方法は、パターンの画像を生成し、パターンの設計データから生成された基準パターンに基づいて、画像上のパターンのエッジを検出し、パターンの画像の生成と、画像上のパターンのエッジの検出を繰り返して、複数の画像と、対応する複数のパターンエッジからなる教師データ候補を作成し、予め定められた不適格条件を満たすパターンエッジおよび対応する画像を、教師データ候補から排除することで、教師データを決定し、教師データを用いてエッジ検出モデルを機械学習により生成し、他のパターンの画像を生成し、エッジ検出モデルを用いて、画像上の他のパターンのエッジを検出する。

Description

パターンエッジ検出方法
 本発明は、パターンの設計データを用いてパターン検査を行う半導体検査装置に適用可能なパターンエッジ検出方法に関する。
 半導体集積回路の製造工程におけるウェハのパターン検査、あるいはそのパターン形成用のホトマスクのパターン検査には、ダイ・ツー・ダイ(die to die)比較方法を用いた光学式パターン検査装置が使われている。このダイ・ツー・ダイ比較方法は、検査対象のダイと呼ばれる半導体デバイスとその近接ダイの同じ位置から得られる画像どうしを比較することで欠陥を検出する方法である。
 一方、近接ダイの存在しないレチクルと呼ばれるホトマスクの検査には、ダイ・ツー・データベース(die to database)比較と呼ばれる方法が使用されている。この方法は、マスクデータを画像に変換してダイ・ツー・ダイ比較方法で用いた近接ダイの画像の代わりとし、前述同様の検査をする方法である。マスクデータとは設計データにホトマスク用の補正を施して得られるデータである(例えば、特許文献1参照)。
 しかし、ダイ・ツー・データベース比較方法をウェハ検査に使用すると、ウェハに形成されたパターンのコーナーラウンドが欠陥として検出される。ホトマスクの検査では、マスクデータから変換された画像にスムージングフィルタを施してコーナーラウンドを形成することで、コーナーラウンドを欠陥として検出しないようにしている。しかしながら、スムージングフィルタによって形成されたコーナーラウンドは、ウェハに形成された実際のコーナーラウンドに等しくないので、実際のコーナーラウンドが欠陥として検出されてしまうことがある。そこで、これらのコーナーラウンドの違いを無視するように許容パターン変形量を設定すると、コーナー以外に存在する微小欠陥を検出できないという問題が発生している。
 半導体集積回路生産での問題に注目すると、ゴミなどに起因するランダム欠陥よりも繰り返し発生する欠陥が重要視されている。繰り返し発生する欠陥(システマティック欠陥)とは、ホトマスク不良などを原因としてウェハ上の全ダイにおいて繰り返し発生する欠陥と定義される。繰り返し発生する欠陥は検査対象のダイおよびその比較対象の近接ダイの両方に発生しているため、ダイ・ツー・ダイ比較では検出できない。ゆえに、ダイ・ツー・データベース比較方式でのウェハ検査が必要とされている。
米国特許第5563702号明細書
 ダイ・ツー・データベース方式では、ウェハ上に形成されたパターンの撮像を行い、この画像において設計データを基準とした検査を行う。この検査の前に、設計データを基準としたパターンのエッジ検出を行う。しかしながら、このエッジ検出が正確に行えず、画像上の誤ったエッジの検出や検出失敗を起こす場合がある。この理由としては、従来の方法では一定のルールに基づいて設計データに基づいて画像上のエッジを検出する方法が利用されてきたが、一定のルールに基づく方法では画像の像質やパターンの変形によって適切なエッジの検出ができなくなるためである。
 そこで、本発明は、機械学習を用いて精度の高いエッジ検出ができる方法を提供する。
 パターンのエッジ検出には、機械学習が適用される。この方法においては、まず機械学習アルゴリズムの学習として、検査対象のパターンの画像と、検出されたパターンエッジの画像を教師データとして用い、画像からパターンエッジを検出するモデルを生成し、そしてモデルを用いて、実際の検査の対象となる画像からパターンのエッジを検出する。
 機械学習による処理は、従来の一定のルールに基づく処理よりも、高精度であり、データの変化に対し冗長な処理が実現できる。教師データを用いて機械学習アルゴリズムの学習を行うことで、教師データと同等なデータに対し高精度かつ冗長性の高い処理ができるようになる。したがって、機械学習により生成されたエッジ検出モデルは、パターンのエッジを適切に検出できると期待される。
 一方で、教師データが機械学習アルゴリズムの学習に不適切である場合、エッジ検出モデルの精度が悪くなり、さらにそのようなエッジ検出モデルを用いたエッジ検出の精度が悪くなる。
 教師データが学習に不適切であるケースとは、以下のような場合である。
 ケース1.1:パターンに欠陥が含まれる。この場合、ダイ・ツー・データベース方式によって検出されたパターンエッジは、実際のパターンエッジに対応しないことがある。したがって、欠陥を含むパターンは、教師データに含まれるべきではない。
 ケース1.2:パターンエッジの変形が大きい、またはパターンエッジの変形量が不連続である。この場合、教師データに含まれるパターンエッジ画像を作成する過程において、エッジ検出に失敗した、あるいはエッジに対応しない間違ったパターンエッジが検出された可能性が高い。
 ケース1.3:教師データに含まれるパターンエッジの数が、パターンの種類ごとに大きく不均衡となっている。この場合、数の少ないパターンエッジを用いて生成されたエッジ検出モデルは、エッジを正確または高精度に検出できない場合がある。
 また、機械学習により検出されたエッジは、設計データとは関連付けられたものではないので、検出されたエッジを設計データに関連付ける必要がある。この関連付け工程において、検出されたエッジと設計データとの関連付けを誤る場合がある。これをケース2.1と称する。
 一態様では、パターンのエッジを検出する方法であって、パターンの画像を生成し、前記パターンの設計データから生成された基準パターンに基づいて、前記画像上の前記パターンのエッジを検出し、パターンの画像の生成と、前記画像上の前記パターンのエッジの検出を繰り返して、複数の画像と、対応する複数のパターンエッジからなる教師データ候補を作成し、予め定められた不適格条件を満たすパターンエッジおよび対応する画像を、前記教師データ候補から排除することで、教師データを決定し、前記教師データを用いてエッジ検出モデルを機械学習により生成し、他のパターンの画像を生成し、前記エッジ検出モデルを用いて、画像上の前記他のパターンのエッジを検出する、方法が提供される。
 前記不適格条件は、パターンが欠陥を含むことである。
 前記不適格条件は、パターンエッジのバイアス検査値が、予め設定された上限を上回るか、または予め設定された下限を下回ることであり、前記バイアス検査値は、前記パターンエッジの、対応する設計データから生成された基準パターンのエッジからの偏差の大きさおよび方向を示す指標値である。
 前記不適格条件は、前記教師データ候補の作成において、パターンのエッジが正しく検出されなかったことである。
 前記不適格条件は、パターンエッジのバイアス検査値が予め設定された範囲外にあることであり、前記バイアス検査値は、前記パターンエッジの、対応する設計データから生成された基準パターンのエッジからの偏差の大きさおよび方向を示す指標値である。
 前記不適格条件は、パターンエッジのバイアス検査値が不連続的に変化することであり、前記バイアス検査値は、前記パターンエッジの、対応する設計データから生成された基準パターンのエッジからの偏差の大きさおよび方向を示す指標値である。
 前記不適格条件は、パターンエッジのバイアス検査値が予め設定された範囲外にあり、かつ前記バイアス検査値が不連続的に変化することであり、前記バイアス検査値は、前記パターンエッジの、対応する設計データから生成された基準パターンのエッジからの偏差の大きさおよび方向を示す指標値である。
 前記方法は、前記教師データ候補に含まれる前記複数の画像を、パターンの種類に従って複数の画像グループに分類し、前記分類された複数の画像グループにそれぞれ属する画像の数が同じになるように、前記教師データ候補から画像を除去する工程をさらに含む。
 一態様では、パターンのエッジを検出する方法であって、パターンの画像を生成し、前記パターンの設計データから生成された基準パターンに基づいて、前記画像上の前記パターンのエッジを検出し、パターンの画像の生成と、前記画像上の前記パターンのエッジの検出を繰り返して、複数の画像と、対応する複数のパターンエッジからなる教師データを作成し、前記教師データを用いてエッジ検出モデルを機械学習により生成し、他のパターンの画像を生成し、前記エッジ検出モデルを用いて、画像上の前記他のパターンのエッジを検出する工程を含み、前記エッジ検出モデルを機械学習により生成する工程は、前記教師データに含まれる複数のパターンエッジのそれぞれを、設計データに基づくエッジ属性に従って複数のエッジに分割し、前記教師データを用いて、前記分割された複数のエッジごとに複数のエッジ検出モデルを機械学習により生成する工程である、方法が提供される。
 前記他のパターンの画像のエッジを検出する工程は、画像上の前記他のパターンの複数のエッジを、前記複数のエッジ検出モデルを用いてそれぞれ検出し、前記検出された複数のエッジを、前記他のパターンの設計データに関連付ける工程である。
 上述した態様によれば、上記ケース1.1、1.2、1.3、2.1が改善される。すなわち、教師データが改善され、結果として機械学習を用いたパターンエッジの検出精度が向上される。
パターン検査装置の一実施形態を示す模式図である。 パターン検査装置の画像生成装置の一実施形態を示す模式図である。 機械学習を用いないダイ・ツー・データベース検査のフローチャートである。 設計データから作成された基準パターンのエッジ上に等間隔に配置された輝度プロファイルの原点を示す図である。 輝度プロファイルの原点を通る垂線を示す図である。 輝度プロファイルの一例を示すグラフである。 エッジ検出の一実施形態を説明する図である。 それぞれの輝度プロファイル上のエッジ検出位置を順に線で繋げることで形成されたエッジを示す図である。 機械学習によってエッジ検出モデルを生成するフローチャートである。 教師データの決定を説明するフローチャートである。 エッジの誤検出に起因してバイアス検査値が不連続となったパターンの一例を示す図である。 設計データの例を示す図である。 複数のサンプル画像を、設計データのパターンの種類に従って複数の画像グループに分類した結果を示すヒストグラムである。 ウェハパターンのサンプル画像を示す図である。 図14に示すウェハパターンの設計データを示す図である。 設計データにコーナーラウンド処理を施すことで生成された基準パターンに、ウェハパターンを重ね合わせた図である。 エッジ検出位置を線で結び、検出されたパターンエッジとして構成した図である。 図17に示すパターンエッジから分割された上側のエッジを示す図である。 図17に示すパターンエッジから分割された左側のエッジを示す図である。 図17に示すパターンエッジから分割された下側のエッジを示す図である。 図17に示すパターンエッジから分割された右側のエッジを示す図である。 パターンエッジの方向を説明するための図である。 エッジの角度に基づいて分割された基準パターンのテーブルである。 順伝播型ニューラルネットワークの一部分をなすパーセプトロンの構造を示す図である。 活性化関数を示した図である。 パーセプトロンを多層化した順伝播型ニューラルネットワークの図である。 入力層に入力された複数の輝度値が、順伝播型ニューラルネットワークによって1つの輝度値に変換される様子を示した概念図である。 教師データに含まれるサンプル画像の入力に対して、出力される画像が、対応するパターンエッジの画像となるように順伝播型ニューラルネットワークが学習する様子を示した概念図である。 サンプル画像から抽出された5個のパッチと、順伝播型ニューラルネットワークから出力された輝度値と、サンプル画像から抽出されたパッチのそれぞれの位置に対応するパターンエッジ画像のパッチを示す模式図である。 サンプル画像から抽出されたパッチを示す模式図である。 エッジ検出モデルを用いたエッジ検査のフローである。 検出された複数のエッジが、パターンの設計データに関連付けられるステップを説明するフローチャートである。 パターンの設計データを示す図である。 図33に示す設計データにコーナーラウンド処理を施すことで生成された基準パターンを示す図である。 基準パターンから分割された右側エッジを示す図である。 図35に示す右側エッジにエッジ検出原点を配置した図である。 図31のステップ2で検出された右側エッジを示す図である。 図32のステップ3を説明する図である。 エッジ検出原点からエッジ位置までの線分であるバイアス線を示す図である。
 以下、本発明の実施形態について図面を参照して説明する。図1は、パターン検査装置の一実施形態を示す模式図である。本実施形態におけるパターン検査装置は、主制御部1、記憶装置2、入出力制御部3、入力装置4、表示装置5、印刷装置6、および画像生成装置7を備える。
 主制御部1はCPU(Central Processing Unit)等により構成され、装置全体を統括的に制御する。主制御部1には記憶装置2が接続されている。記憶装置2は、ハードディスク、ソリッドステートドライブ、フレキシブルディスク、光ディスク等の形態をとることができる。また、主制御部1には、入出力制御部3を介して、キーボード、マウス等の入力装置4、入力データ、計算結果等を表示するディスプレイ等の表示装置5、および検査結果等を印刷するプリンタ等の印刷装置6が接続されている。
 主制御部1は、OS(Operating System)等の制御プログラム、パターンエッジ検出のためのプログラム、および所要データ等を格納するための内部メモリ(内部記憶装置)を有し、これらプログラム等によりパターンエッジ検出およびエッジ検出モデルの生成を実行している。これらのプログラムは、フレキシブルディスク、光ディスク等に記憶しておき、実行前にメモリ、ハードディスク等に読み込ませて実行されるようにすることができる。
 図2は、パターン検査装置の画像生成装置7の一実施形態を示す模式図である。図2に示すように、画像生成装置7は、照射系装置10と試料室20と2次電子検出器30とを備えている。本実施形態では、画像生成装置7は走査型電子顕微鏡である。
 照射系装置10は、電子銃11と、電子銃11から放出された1次電子を集束する集束レンズ12と、電子線(荷電粒子線)を、X方向,Y方向に偏向するX偏向器13およびY偏向器14と、対物レンズ15とから構成されている。試料室20はX方向,Y方向に可動のXYステージ21を備えている。試料室20にはウェハ搬送装置40によって試料であるウェハWが搬出入されるようになっている。
 照射系装置10においては、電子銃11から放出された1次電子は集束レンズ12で集束された後に、X偏向器13およびY偏向器14で偏向されつつ対物レンズ15により集束されて試料であるウェハWの表面に照射される。
 ウェハWに1次電子が照射されるとウェハWからは2次電子が放出され、2次電子は2次電子検出器30により検出される。集束レンズ12および対物レンズ15はレンズ制御装置16に接続され、このレンズ制御装置16は制御コンピュータ50に接続されている。2次電子検出器30は画像取得装置17に接続され、この画像取得装置17も同様に制御コンピュータ50に接続されている。2次電子検出器30で検出された2次電子強度が画像取得装置17によって電位コントラスト像に変換される。歪みの無い最大の電位コントラスト像を取得できる1次電子の照射領域を視野と定義する。
 X偏向器13およびY偏向器14は、偏向制御装置18に接続され、この偏向制御装置18も同様に制御コンピュータ50に接続されている。XYステージ21は、XYステージ制御装置22に接続され、このXYステージ制御装置22も同様に制御コンピュータ50に接続されている。またウェハ搬送装置40も同様に制御コンピュータ50に接続されている。制御コンピュータ50は、操作コンピュータ60に接続されている。
 図3は、機械学習を用いないダイ・ツー・データベース検査のフローチャートである。走査型電子顕微鏡からなる画像生成装置7は、パターンのサンプル画像を生成する(ステップ1)。本実施形態では、パターンは、試料であるウェハの表面に形成されている。以下の説明では、エッジ検出の対象となるパターンをウェハパターンと称することがある。
 次に、図1に示す主制御部1は、設計データのパターンに対してコーナーラウンド処理を行い、基準パターンを生成する(ステップ2)。コーナーラウンド処理では、例えば、設計データのパターンのコーナー部を円弧で置換する方法を用いることができる。円弧の半径の値は検査設定値として指定される。
 図4に示すように、主制御部1は、上記ステップ2で生成された基準パターン111のエッジ上に輝度プロファイルの原点130を等間隔で配置する(図3のステップ3)。隣接する輝度プロファイルの原点130間の距離は、例えば、1ピクセルサイズに相当する距離である。
 図5に示すように、主制御部1は、上記ステップ3で配置した輝度プロファイルの原点130を通る垂線140を引く(図3のステップ4)。垂線は、基準パターン111のエッジに垂直な線分であり、等間隔に配列されている。主制御部1は、各垂線140上のサンプル画像の輝度値を取得し、これらの輝度値からサンプル画像の輝度プロファイルを作成する(図3のステップ5)。
 図6は、輝度プロファイルの一例を示すグラフである。図6において、縦軸は輝度値を表し、横軸は垂線140上の位置を表す。輝度プロファイルは、垂線140に沿った輝度値の分布を表す。主制御部1は、輝度プロファイルに基づいてサンプル画像上のパターンエッジを検出する(図3のステップ6)。パターンエッジ検出には、しきい値法、直線近似法などが使用される。本実施形態では、しきい値法を用いてパターンエッジを検出する。
 輝度プロファイルからのパターンエッジ検出の一方法であるしきい値法について図6を参照して説明する。しきい値をx[%]とする。主制御部1は、輝度プロファイルにおいて、最も大きな輝度値を有するサンプリング点Pを決定し、このサンプリング点の位置をピーク点とする。次に、主制御部1は、ピーク点Pよりもパターンの外側の領域において、最も小さな輝度値を有するサンプリング点を決定し、このサンプリング点の位置をボトム点Bとする。次に、ピーク点Pとボトム点Bの間において、ボトム点Bでの輝度値からピーク点Pでの輝度値をx:(100-x)に内分するエッジ輝度値を決定し、このエッジ輝度値を持つ輝度プロファイル上のサンプリング点Qの位置をエッジ検出位置とする。
 決定されたエッジ輝度値を持つサンプリング点が輝度プロファイル上にない場合は、図7に示すように、主制御部1は、ピーク点Pからボトム点Bに向かってサンプリング点の輝度値を探索し、輝度値が上記エッジ輝度値を最初に下回ったサンプリング点S1を決定し、その一つピーク点側のサンプリング点S2を決定し、この2つのサンプリング点S1,S2の線形補間によりエッジ輝度値に対応するエッジ検出位置を決定する。
 図8に示すように、主制御部1は、それぞれの輝度プロファイル上のエッジ検出位置を順に線で繋げる。図8において、符号150は上述したエッジ検出位置を示し、符号200は、点線で繋げられた複数のエッジ検出位置150からなるパターンエッジを示している。このようにして、主制御部1は、輝度プロファイルに基づいて、サンプル画像上のパターンエッジを検出することができる。
 図8において、輝度プロファイルの原点130とエッジ検出位置150をつないだ線分は、バイアス線160と定義される。主制御部1は、基準パターン111の外側にあるエッジ検出位置150から延びるバイアス線160の長さとして定義されるバイアス検査値を計算する。さらに、主制御部1は、基準パターン111の内側にあるエッジ検出位置150から延びるバイアス線160の長さに-1を掛けた値として定義されるバイアス検査値を計算する(図3のステップ7)。バイアス検査値は、パターンエッジの、対応する設計データから生成された基準パターン111のエッジからの偏差の大きさおよび方向を示す指標値である。
 このようにすると、主制御部1は、バイアス検査値に基づいて、ウェハパターンの「太り変形」と「細り変形」を区別することができる。例えば、正のバイアス検査値は、ウェハパターンが太り変形であることを意味し、負のバイアス検査値は、ウェハパターンが細り変形であることを意味する。バイアス検査値に対して上限および下限を予め定めてもよい。この場合、主制御部1は、バイアス検査値が上限を上回った場合は、そのバイアス検査値が算出された部位を太り欠陥として検出し、バイアス検査値が下限を下回った場合は、そのバイアス検査値が算出された部位を細り欠陥として検出として検出することができる(図3のステップ8)。
 図9は機械学習によってエッジ検出モデルを生成するフローチャートである。機械学習を用いたエッジ検出モデルの生成は、図1に示す主制御部1によって実行される。走査型電子顕微鏡からなる画像生成装置7は、パターンのサンプル画像を生成する(ステップ1)。主制御部1は、画像生成装置7からサンプル画像を取得する。本実施形態では、パターンは、試料であるウェハの表面に形成されている。以下の説明では、エッジ検出の対象となるパターンをウェハパターンと称することがある。
 ステップ2では、図1に示すパターン検査装置は、機械学習を用いないダイ・ツー・データベース検査を図3に示すフローチャートに従って行う。図9のステップ1およびステップ2は複数回繰り返され、サンプル画像の生成とパターンエッジの検出が繰り返し行われる。結果として、複数のサンプル画像と、対応する複数のパターンエッジが主制御部1によって取得される。取得された複数のサンプル画像と、対応する複数のパターンエッジの全ては、教師データ候補を構成する。
 次に、主制御部1は、予め定められた不適格条件を満たすパターンエッジおよび対応するサンプル画像を、教師データ候補から排除することで、機械学習に使用される教師データを決定する(ステップ3)。教師データの決定は、サンプル画像とパターンエッジの検出結果を用いて行われる。本実施形態では、不適格条件は、(i)パターンが欠陥を含むこと、および(ii)教師データ候補の作成において、パターンのエッジが正しく検出されなかったこと、である。
 図10は、図9のステップ3における教師データの決定を説明するフローチャートである。図10のステップ1では、ダイ・ツー・データベース検査において欠陥を含むと判定されたパターンのエッジと、対応するサンプル画像は、教師データ候補から除去される。すなわち、バイアス検査値が上限を上回ったパターンのエッジと、対応するサンプル画像、およびバイアス検査値が下限を下回ったパターンのエッジと、対応するサンプル画像は、教師データ候補から除去される。
 図10のステップ2において、ダイ・ツー・データベース検査においてパターンエッジ検出が正しく行われなかった可能性のあるパターンエッジおよび対応するサンプル画像が教師データ候補から除去される。パターンエッジ検出が正しく行われなかった可能性のあるパターンエッジの一例は、変形が大きいパターンエッジである。パターンエッジの変形の大きさおよび方向には、例えば、ダイ・ツー・データベース検査における欠陥判定で使用されたバイアス検査値を用いることができる。より具体的には、バイアス検査値が予め設定した範囲外にあるパターンエッジは、変形が大きいパターンエッジと決定される。パターンエッジの変形が大きい場合、エッジ検出が正常に行われなかった可能性がある。したがって、このようなパターンエッジおよび対応するサンプル画像は教師データ候補から除去される。
 ダイ・ツー・データベース検査においてパターンエッジ検出が正しく行われなかった可能性のあるパターンエッジの他の例は、バイアス検査値が不連続に変化するパターンエッジである。バイアス検査値は、パターンエッジの、対応する設計データから生成された基準パターンのエッジからの偏差の大きさおよび方向を示す指標値である。したがって、エッジ検出が正しく行われなかった場合、バイアス検査値は不連続となり、結果として、バイアス検査値が急激に変化する。
 図11は、エッジの誤検出に起因してバイアス検査値が不連続となったパターンの一例を示す図である。符号300は設計データから生成された基準パターンであり、符号301は、設計データに基づいて作成された実際のウェハパターンである。基準パターン300のエッジに沿って、バイアス検査値が不連続に変化している。具体的には、バイアス線305で示されるバイアス検査値は正の符号であるのに対して、隣接するバイアス線306で示されるバイアス検査値は負の符号である。また、バイアス線307で示されるバイアス検査値は負の符号であるのに対して、隣接するバイアス線308で示されるバイアス検査値は正の符号である。
 この例のように、バイアス検査値が急激に変化する場合、例えば隣接する2つのバイアス線のバイアス検査値の差が所定のしきい値以上であるである場合には、そのパターンエッジおよび対応するサンプル画像を教師データ候補から除去する。例えば、図11の隣接する2つのバイアス線305,306のバイアス検査値の差が、基準パターン300の幅Dの30%以上である場合は、そのサンプル画像は教師データ候補から除去される。
 図10のステップ3では、教師データ候補に含まれる複数のサンプル画像を、設計データのパターンの種類に従って複数の画像グループに分類する。図12は設計データの例を示すであり、3種類のパターンを示している。符号400,410,420は、サンプル画像の分類に使用される設計データを表し、符号401,402,403,404は、設計データ400に含まれるパターンを表し、符号411,412は、設計データ410に含まれるパターンを表し、符号421,422,423は、設計データ420に含まれるパターンを表している。
 図13は、ダイ・ツー・データベース検査を実施したときに得られた複数のサンプル画像を、設計データのパターンの種類に従って複数の画像グループに分類した結果を示すヒストグラムである。図13において、縦軸は設計データのパターンの種類を示し、横軸はサンプル画像の数を示している。
 図10のステップ4では、主制御部1は、分類された複数の画像グループにそれぞれ属するサンプル画像の数が同じになるように、教師データ候補から、サンプル画像を除去する。サンプル画像の数が予め設定した値を下回るパターン種が存在する場合、主制御部1は、教師データに警告を付与し、サンプル画像の数が少ないパターン種が存在することをユーザーに知らせるようにする。
 このようにすることで、パターンの種類の偏りを低減させる(すなわち、教師データに用いるパターンの種類の網羅性を高める)ことで、機械学習の精度を向上できる。また、教師データのパターンの種類の偏りを低減させることで、教師データの総数を減らせる。
 図9に戻り、図9のステップ4において、主制御部1は、図9のステップ3で決定された教師データに含まれる複数のパターンエッジのそれぞれを、設計データに基づくエッジ属性としての設計データのパターンエッジ方向に従って、複数のエッジに分割する。
 図14はウェハパターン501,502のサンプル画像を示す図であり、図15は図14に示すウェハパターン501,502の設計データ505,506を示す図である。図16は、設計データ505,506にコーナーラウンド処理を施すことで生成された基準パターン507,508に、ウェハパターン501,502を重ね合わせた図である。図16において、基準パターン507,508上に輝度プロファイルの原点130が等間隔に配置され、原点130からエッジ検出位置までバイアス線160が延びている。
 図17は、エッジ検出位置を線で結び、検出されたパターンエッジ510,511として構成した図である。図18は図17に示すパターンエッジから分割された上側のエッジ510a,511aを示す図であり、図19は図17に示すパターンエッジから分割された左側のエッジ510b,511bを示す図であり、図20は図17に示すパターンエッジから分割された下側のエッジ510c,511cを示す図であり、図21は図17に示すパターンエッジから分割された右側のエッジ510d,511dを示す図である。
 図22は、パターンエッジの方向を説明するための図である。図22に示すように、パターンエッジの方向は、基準パターン507,508のエッジの角度θに基づいて定められる。この角度θは、パターン内側から外側に引いた法線の、基準線RLからの反時計回りの角度と定義される。図23はエッジの角度θに基づいて分類された基準パターン507,508のテーブルである。基準パターン507,508に基づいて検出されたパターンエッジ510,511は、基準パターン507,508の角度θに従って、右側のエッジ510d,511d、上側のエッジ510a,511a、左側のエッジ510b,511b、下側のエッジ510c,511cに分割される。
 図9のステップ5において、主制御部1は、分割された複数のエッジごとにパターンエッジの画像化を行う。さらに、図9のステップ6において、主制御部1は、教師データを用いて、分割された複数のエッジごとに機械学習アルゴリズムのトレーニング、すなわち複数のエッジ検出モデルを機械学習により生成する。以下、機械学習アルゴリズムとして順伝播型ニューラルネットワークを用いる方法において説明する。
 図24は、順伝播型ニューラルネットワークの一部分をなすパーセプトロンの構造を示す図である。入力のベクトル(入力特徴量、x1,x2…,xn)の各成分に対し、結合重みw1,w2,…,wnがある。ユニットの値uは、入力特徴量の各成分と対応する結合重みとの積、およびバイアス項bの和であるw1x1+w2x2+…+wnxn+bとして表される。パーセプトロンの出力yは、ユニットの値uを活性化関数f(・)に入力した値y=f(u)である。
 図25は活性化関数を示した図である。本実施形態においては、活性化関数にはランプ関数(ReLU)を用いる。ランプ関数は次のように定義される。
 u<0であればf(u)=0、u≧0であればf(u)=u
 図26は、パーセプトロンを多層化した順伝播型ニューラルネットワークの図である。順伝播型ニューラルネットワークでは、複数層のパーセプトロンがある。入力側の層から出力側の層に、あるパーセプトロンの出力が次のパーセプトロンに入力される。計算は入力側の層から順次行い、最終的に出力値yを計算する。
 本実施例においては、順伝播型ニューラルネットワークの入力特徴量は、教師データに含まれるサンプル画像を構成するピクセルの輝度値である。図27は入力層に入力された複数の輝度値が、順伝播型ニューラルネットワークによって1つの輝度値に変換される様子を示した概念図である。図27に示す順伝播型ニューラルネットワークでは、サンプル画像の隣接する9つのピクセルのそれぞれの輝度値が入力層601に入力され、上記9つのピクセルのうちの中心に位置する1つのピクセルの輝度値が出力層610に出力される。すなわち、主制御部1は、エッジを検出すべきサンプル画像の複数の輝度値x1~x9を、入力層601に入力する。ある設定された数のピクセルから構成される画像領域はパッチと呼ばれる。サンプル画像のパッチ内のピクセルの輝度値x1~x9は、順伝播型ニューラルネットワークの中間層602~605のユニットに順に伝播し、最後に輝度値yが出力層610から出力される。この輝度値yは、サンプル画像のパッチの中心に位置するピクセルに対応する出力画像のピクセルの輝度値に割り当てられる。
 図28は、教師データに含まれるサンプル画像の入力に対して、出力される画像が、対応するパターンエッジの画像となるように順伝播型ニューラルネットワークが学習する様子を示した概念図である。ここで、学習とは、サンプル画像の入力に対して、出力される画像が、対応するパターンエッジの画像となるように、順伝播型ニューラルネットワークのユニット間を結合する結合重みを主制御部1が自動で調節することであり、エッジ検出モデルは調節が完了した結合重みを含む。本実施形態では、サンプル画像は、学習用の訓練画像として使用され、対応するパターンエッジの画像は、学習用の教師画像として使用される。
 本実施形態では、主制御部1は、教師データを用いて、エッジ属性に従って分割された複数のエッジごとに複数のエッジ検出モデルを機械学習により生成する。サンプル画像から抽出されたパッチの輝度ベクトルをX1とし、前記順伝播型ニューラルネットワークから出力されたパッチX1の輝度値をyとし、パッチX1の位置に対応するパターンエッジ画像のパッチT1の輝度値をtとすると、順伝播型ニューラルネットワークから出力される輝度値yはできるだけパターンエッジ画像の輝度値tに近いことが望ましい。
 図29は、サンプル画像から抽出された5個のパッチと、順伝播型ニューラルネットワークから出力された輝度値と、サンプル画像から抽出されたパッチのそれぞれの位置に対応するパターンエッジ画像のパッチを示す模式図である。サンプル画像から抽出されたパッチの輝度ベクトルX1,X2,…,X5は、順伝播型ニューラルネットワークによって輝度値y1,y2,…,y5にそれぞれ変換される。輝度値y1,y2,…,y5は、パターンエッジ画像の対応するパッチの輝度値t1,t2,…,t5とそれぞれ比較される。
 図30は、サンプル画像から抽出されたパッチを示す模式図である。パッチは、複数の輝度値からなる輝度ベクトルを有する。図30に示す例では、パッチは3ピクセル四方の大きさである。したがって、パッチは9つのピクセルを持ち、それぞれのピクセルの輝度値はxi1,xi2,xi3,xi4,xi5,xi6,xi7,xi8,xi9で表される。すなわち、パッチは以下に示す輝度ベクトルで表される。
  輝度ベクトルXi=[xi1,xi2,xi3,xi4,xi5,xi6,xi7,xi8,xi9]
iはパッチを指定する番号である。
 一実施形態では、yiとtiとの間の近さの評価指標には、次に定義する平均二乗誤差が用いられる。
 E=Σ(yi-ti)2/N
 Nは同時に評価するパッチの数である。
 前記平均二乗誤差Eが小さければ出力画像がよりパターンエッジ画像に近いことが期待される。
 主制御部1は、前記平均二乗誤差Eが小さくなるように結合重みを更新する。例えば、M番目の層のユニットαとM+1番目の層のユニットβとの間の重みパラメータwαβにおいて、主制御部1は、Eのwαβに関する偏微分値∂E/∂wαβを求め、重みパラメータwαβを、wαβ-ε*∂E/∂wαβに置き換える勾配法を用いることが考えられる。ここで、εは学習係数であり、あらかじめ定められる数値である。その他、アダムの方法、確率的勾配法を用いることで学習を進めることができる。また、偏微分∂E/∂wαβの計算を、合成関数の連鎖律を用いて効率よく計算を進めるアルゴリズムとして誤差逆伝播法が知られている。
 上記のようにして、結合重みが最適化され、分割された複数のエッジごとに複数のエッジ検出モデルが生成される。図31は、エッジ検出モデルを用いたエッジ検査のフローである。エッジ検出モデルを用いたエッジ検査は、図1に示す主制御部1によって実行される。走査型電子顕微鏡からなる画像生成装置7は、パターンの画像を生成する(ステップ1)。主制御部1は、パターンの画像を画像生成装置7から取得する。本実施形態では、パターンは、試料であるウェハの表面に形成されている。このステップ1で生成されるパターンは、教師データ候補の作成に使用されたパターンとは異なるパターンである。
 ステップ2では、主制御部1は、分割された複数のエッジごとに生成された複数のエッジ検出モデルをパターンの画像に適用し、パターンのエッジ検出を行う。例えば、主制御部1は、上側のエッジ用のエッジ検出モデルを用いて上側のエッジを検出し、右側のエッジ用のエッジ検出モデルを用いて右側のエッジを検出し、左側のエッジ用のエッジ検出モデルを用いて左側のエッジを検出し、下側のエッジ用のエッジ検出モデルを用いて下側のエッジを検出する。それぞれのエッジ検出モデルに含まれる結合重みは、教師データを用いた学習により、既に最適化されている。エッジ検出結果として、検出された複数のエッジの複数の画像が生成される。検出されたエッジの各画像は、サンプル画像と同じ大きさである。この検出されたエッジの各画像では、エッジに対応する画素には1の数値が割り当てられ、エッジに対応しない画素には0の数値が割り当てられる。
 ステップ3では、検出された複数のエッジは、ステップ1で撮像されたパターンの設計データに関連付けられる。図32は図31のステップ3を説明するフローチャートである。ステップ1では、主制御部1は、設計データにコーナーラウンド処理を施し、基準パターンを生成する。基準パターンのエッジは、教師データのパターンエッジと同様に、設計データに基づくエッジ属性としてのパターンエッジ方向に従って複数のエッジに分割される。
 図33はパターンの設計データ701,702を示す図であり、図34は図33に示す設計データ701,702にコーナーラウンド処理を施すことで生成された基準パターン703,704を示す図であり、図35は、基準パターン703,704から分割された右側エッジ703a,704aを示す図である。
 図32のステップ2では、主制御部1は、図35に示す右側エッジ703a,704aにエッジ検出原点を配置する。図36は、図35に示す右側エッジ703a,704aにエッジ検出原点706を配置した図である。エッジ検出原点706は、右側エッジ703a,704a上に等間隔に配置される。図37は、図31のステップ2で検出された右側エッジ708,709を示す図である。
 図38は、図32のステップ3を説明する図である。図38に示すように、図32のステップ3では、主制御部1は、右側用のエッジ検出モデルを使って検出された右側エッジ708,709の画像を、設計データから生成された右側エッジ703a,704aの画像に重ね合わせ、エッジ検出原点706を通る垂線710を引く。垂線710の長さは、固定値または外部パラメータで指定される長さであり、垂線710は右側エッジ703a,704aの外側と内側の両方に向かって引かれる。この垂線710と、検出された右側エッジ708,709との交点は、エッジ位置である。図32のステップ4では、エッジ検出原点706からエッジ位置までの線分であるバイアス線を作成する。図39は、エッジ検出原点706からエッジ位置までの線分であるバイアス線711を示す図である。設計データから生成された右側エッジ703a,704aと、エッジ検出モデルを使って検出された右側エッジ708,709とは、バイアス線711によって相互に関連付けられる。
 同様にして、設計データに基づくエッジ属性によって分類されたパターンの上側エッジ、左側エッジ、および下側エッジについてもバイアス線が作成され、それらのバイアス線の情報は、設計データに基づいて統合され、ダイ・ツー・データベース検査結果を構成する。
 図31に戻り、主制御部1は、機械学習を用いないダイ・ツー・データベース検査と同様に、バイアス線の長さ、すなわちバイアス検査値に基づいてウェハパターンの欠陥判定を行う。
 上述した実施形態は、本発明が属する技術分野における通常の知識を有する者が本発明を実施できることを目的として記載されたものである。上記実施形態の種々の変形例は、当業者であれば当然になしうることであり、本発明の技術的思想は他の実施形態にも適用しうる。したがって、本発明は、記載された実施形態に限定されることはなく、特許請求の範囲によって定義される技術的思想に従った最も広い範囲に解釈されるものである。
 本発明は、パターンの設計データを用いてパターン検査を行う半導体検査装置に適用可能なパターンエッジ検出方法に利用可能である。
 1   主制御部
 2   記憶装置
 3   入出力制御部
 4   入力装置
 5   表示装置
 6   印刷装置
 7   画像生成装置
10   照射系装置
11   電子銃
12   集束レンズ
13   X偏向器
14   Y偏向器
15   対物レンズ
16   レンズ制御装置
17   画像取得装置
20   試料室
21   XYステージ
22   XYステージ制御装置
30   2次電子検出器
40   ウェハ搬送装置
50   制御コンピュータ
60   操作コンピュータ

Claims (10)

  1.  パターンのエッジを検出する方法であって、
     パターンの画像を生成し、
     前記パターンの設計データから生成された基準パターンに基づいて、前記画像上の前記パターンのエッジを検出し、
     パターンの画像の生成と、前記画像上の前記パターンのエッジの検出を繰り返して、複数の画像と、対応する複数のパターンエッジからなる教師データ候補を作成し、
     予め定められた不適格条件を満たすパターンエッジおよび対応する画像を、前記教師データ候補から排除することで、教師データを決定し、
     前記教師データを用いてエッジ検出モデルを機械学習により生成し、
     他のパターンの画像を生成し、
     前記エッジ検出モデルを用いて、画像上の前記他のパターンのエッジを検出する、方法。
  2.  請求項1に記載の方法であって、
     前記不適格条件は、パターンが欠陥を含むことである、方法。
  3.  請求項2に記載の方法であって、
     前記不適格条件は、パターンエッジのバイアス検査値が、予め設定された上限を上回るか、または予め設定された下限を下回ることであり、
     前記バイアス検査値は、前記パターンエッジの、対応する設計データから生成された基準パターンのエッジからの偏差の大きさおよび方向を示す指標値である、方法。
  4.  請求項1に記載の方法であって、
     前記不適格条件は、前記教師データ候補の作成において、パターンのエッジが正しく検出されなかったことである、方法。
  5.  請求項4に記載の方法であって、
     前記不適格条件は、パターンエッジのバイアス検査値が予め設定された範囲外にあることであり、
     前記バイアス検査値は、前記パターンエッジの、対応する設計データから生成された基準パターンのエッジからの偏差の大きさおよび方向を示す指標値である、方法。
  6.  請求項4に記載の方法であって、
     前記不適格条件は、パターンエッジのバイアス検査値が不連続的に変化することであり、
     前記バイアス検査値は、前記パターンエッジの、対応する設計データから生成された基準パターンのエッジからの偏差の大きさおよび方向を示す指標値である、方法。
  7.  請求項4に記載の方法であって、
     前記不適格条件は、パターンエッジのバイアス検査値が予め設定された範囲外にあり、かつ前記バイアス検査値が不連続的に変化することであり、
     前記バイアス検査値は、前記パターンエッジの、対応する設計データから生成された基準パターンのエッジからの偏差の大きさおよび方向を示す指標値である、方法。
  8.  請求項1に記載の方法であって、
     前記教師データ候補に含まれる前記複数の画像を、パターンの種類に従って複数の画像グループに分類し、
     前記分類された複数の画像グループにそれぞれ属する画像の数が同じになるように、前記教師データ候補から画像を除去する工程をさらに含む、方法。
  9.  パターンのエッジを検出する方法であって、
     パターンの画像を生成し、
     前記パターンの設計データから生成された基準パターンに基づいて、前記画像上の前記パターンのエッジを検出し、
     パターンの画像の生成と、前記画像上の前記パターンのエッジの検出を繰り返して、複数の画像と、対応する複数のパターンエッジからなる教師データを作成し、
     前記教師データを用いてエッジ検出モデルを機械学習により生成し、
     他のパターンの画像を生成し、
     前記エッジ検出モデルを用いて、画像上の前記他のパターンのエッジを検出する工程を含み、
     前記エッジ検出モデルを機械学習により生成する工程は、
      前記教師データに含まれる複数のパターンエッジのそれぞれを、設計データに基づくエッジ属性に従って複数のエッジに分割し、
      前記教師データを用いて、前記分割された複数のエッジごとに複数のエッジ検出モデルを機械学習により生成する工程である、方法。
  10.  請求項9に記載の方法であって、
     前記他のパターンの画像のエッジを検出する工程は、
      画像上の前記他のパターンの複数のエッジを、前記複数のエッジ検出モデルを用いてそれぞれ検出し、
      前記検出された複数のエッジを、前記他のパターンの設計データに関連付ける工程である、方法。
PCT/JP2019/008345 2018-03-27 2019-03-04 パターンエッジ検出方法 WO2019188009A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/040,533 US11436736B2 (en) 2018-03-27 2019-03-04 Pattern edge detection method
KR1020207030084A KR20200135991A (ko) 2018-03-27 2019-03-04 패턴 에지 검출 방법
CN201980021715.6A CN111902844A (zh) 2018-03-27 2019-03-04 图案边缘检测方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-059802 2018-03-27
JP2018059802A JP6964031B2 (ja) 2018-03-27 2018-03-27 パターンエッジ検出方法

Publications (1)

Publication Number Publication Date
WO2019188009A1 true WO2019188009A1 (ja) 2019-10-03

Family

ID=68061339

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/008345 WO2019188009A1 (ja) 2018-03-27 2019-03-04 パターンエッジ検出方法

Country Status (6)

Country Link
US (1) US11436736B2 (ja)
JP (1) JP6964031B2 (ja)
KR (1) KR20200135991A (ja)
CN (1) CN111902844A (ja)
TW (1) TWI798380B (ja)
WO (1) WO2019188009A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021060860A (ja) * 2019-10-08 2021-04-15 アイコンヤマト株式会社 自動図化装置、自動図化方法および自動図化プログラム
EP3806131A3 (en) * 2019-10-08 2021-06-23 FEI Company Low kev ion beam image restoration by machine learning for object localization

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11380516B2 (en) 2017-04-13 2022-07-05 Fractilia, Llc System and method for generating and analyzing roughness measurements and their use for process monitoring and control
US10522322B2 (en) 2017-04-13 2019-12-31 Fractilia, Llc System and method for generating and analyzing roughness measurements
US10176966B1 (en) 2017-04-13 2019-01-08 Fractilia, Llc Edge detection system
JP2020139905A (ja) * 2019-03-01 2020-09-03 セイコーエプソン株式会社 検査装置、検査方法、およびプログラム
EP4089624A4 (en) 2020-01-09 2023-10-25 Hitachi High-Tech Corporation IMAGE PRODUCTION SYSTEM AND NON-VOLATILE COMPUTER-READABLE MEDIUM
JP7451384B2 (ja) 2020-01-10 2024-03-18 東レエンジニアリング先端半導体Miテクノロジー株式会社 パターンエッジ検出方法、パターンエッジ検出装置、パターンエッジ検出をコンピュータに実行させるためのプログラムが記録された記録媒体
CN114945801A (zh) * 2020-01-10 2022-08-26 塔斯米特株式会社 图案边缘检测方法、图案边缘检测装置、记录有用于让计算机执行图案边缘检测的程序的记录介质
US11416977B2 (en) * 2020-03-10 2022-08-16 Applied Materials, Inc. Self-measurement of semiconductor image using deep learning
WO2021192119A1 (ja) * 2020-03-25 2021-09-30 ソニーグループ株式会社 情報処理装置、プログラム、および方法
CN111612897B (zh) * 2020-06-05 2023-11-10 腾讯科技(深圳)有限公司 三维模型的融合方法、装置、设备及可读存储介质
TWI798650B (zh) * 2021-02-25 2023-04-11 環球晶圓股份有限公司 自動光學檢測方法、自動光學檢測系統及記錄媒體
JP2023183314A (ja) * 2022-06-15 2023-12-27 株式会社Sumco ウェーハの判定方法、判定プログラム、判定装置、ウェーハの製造方法及びウェーハ
CN116168041B (zh) * 2023-04-26 2023-07-11 湖南隆深氢能科技有限公司 一种应用于贴合装置的实时检测方法及其系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04125779A (ja) * 1990-09-18 1992-04-27 Toshiba Corp 画像処理方法
JPH0546764A (ja) * 1991-08-12 1993-02-26 Fujitsu Ltd エツジ抽出システム
JP2001175857A (ja) * 1999-12-16 2001-06-29 Nec Corp 参照画像作成方法、パターン検査装置及び参照画像作成プログラムを記録した記録媒体
JP2006012069A (ja) * 2004-06-29 2006-01-12 Olympus Corp 分類装置及び分類方法
JP2013058036A (ja) * 2011-09-07 2013-03-28 Canon Inc 画像処理装置、画像処理プログラム、ロボット装置及び画像処理方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5563702A (en) 1991-08-22 1996-10-08 Kla Instruments Corporation Automated photomask inspection apparatus and method
US5475766A (en) * 1991-09-05 1995-12-12 Kabushiki Kaisha Toshiba Pattern inspection apparatus with corner rounding of reference pattern data
US6400838B2 (en) * 1997-07-29 2002-06-04 Kabushiki Kaisha Toshiba Pattern inspection equipment, pattern inspection method, and storage medium storing pattern inspection program
JP2007192652A (ja) * 2006-01-19 2007-08-02 Advanced Mask Inspection Technology Kk パターン検査装置、パターン検査方法、及び検査対象試料
JP4943304B2 (ja) * 2006-12-05 2012-05-30 株式会社 Ngr パターン検査装置および方法
US20080270970A1 (en) * 2007-04-27 2008-10-30 Nikon Corporation Method for processing pattern data and method for manufacturing electronic device
JP4542164B2 (ja) * 2008-03-18 2010-09-08 アドバンスド・マスク・インスペクション・テクノロジー株式会社 パターン検査装置、パターン検査方法及びプログラム
JP5429869B2 (ja) * 2008-12-22 2014-02-26 株式会社 Ngr パターン検査装置および方法
JP5525421B2 (ja) * 2010-11-24 2014-06-18 株式会社日立ハイテクノロジーズ 画像撮像装置および画像撮像方法
US8953869B2 (en) * 2012-06-14 2015-02-10 Kla-Tencor Corporation Apparatus and methods for inspecting extreme ultra violet reticles
JP6004956B2 (ja) * 2013-01-29 2016-10-12 株式会社日立ハイテクノロジーズ パターン評価装置、及び、パターン評価装置を備えた外観検査装置
US9778205B2 (en) * 2014-03-25 2017-10-03 Kla-Tencor Corporation Delta die and delta database inspection
US20160154922A1 (en) * 2014-12-01 2016-06-02 Globalfoundries Inc. Optical proximity correction taking into account wafer topography
WO2016121073A1 (ja) * 2015-01-30 2016-08-04 株式会社 日立ハイテクノロジーズ パターンマッチング装置、及びパターンマッチングのためのコンピュータプログラム
US9875536B2 (en) * 2015-03-31 2018-01-23 Kla-Tencor Corp. Sub-pixel and sub-resolution localization of defects on patterned wafers
US9547745B1 (en) * 2015-07-27 2017-01-17 Dmo Systems Limited System and method for discovering unknown problematic patterns in chip design layout for semiconductor manufacturing
US10811323B2 (en) * 2016-03-01 2020-10-20 Asml Netherlands B.V. Method and apparatus to determine a patterning process parameter

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04125779A (ja) * 1990-09-18 1992-04-27 Toshiba Corp 画像処理方法
JPH0546764A (ja) * 1991-08-12 1993-02-26 Fujitsu Ltd エツジ抽出システム
JP2001175857A (ja) * 1999-12-16 2001-06-29 Nec Corp 参照画像作成方法、パターン検査装置及び参照画像作成プログラムを記録した記録媒体
JP2006012069A (ja) * 2004-06-29 2006-01-12 Olympus Corp 分類装置及び分類方法
JP2013058036A (ja) * 2011-09-07 2013-03-28 Canon Inc 画像処理装置、画像処理プログラム、ロボット装置及び画像処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021060860A (ja) * 2019-10-08 2021-04-15 アイコンヤマト株式会社 自動図化装置、自動図化方法および自動図化プログラム
EP3806131A3 (en) * 2019-10-08 2021-06-23 FEI Company Low kev ion beam image restoration by machine learning for object localization
US11355305B2 (en) 2019-10-08 2022-06-07 Fei Company Low keV ion beam image restoration by machine learning for object localization

Also Published As

Publication number Publication date
JP6964031B2 (ja) 2021-11-10
CN111902844A (zh) 2020-11-06
TWI798380B (zh) 2023-04-11
KR20200135991A (ko) 2020-12-04
US20210027473A1 (en) 2021-01-28
JP2019174940A (ja) 2019-10-10
US11436736B2 (en) 2022-09-06
TW201942796A (zh) 2019-11-01

Similar Documents

Publication Publication Date Title
JP6964031B2 (ja) パターンエッジ検出方法
JP7002949B2 (ja) 画像評価方法及び画像評価装置
JP2019008599A (ja) 順伝播型ニューラルネットワークを用いた画像ノイズ低減方法
US7383530B2 (en) System and method for examining mask pattern fidelity
TW490591B (en) Pattern inspection apparatus, pattern inspection method, and recording medium
US6757645B2 (en) Visual inspection and verification system
JP5065943B2 (ja) 製造プロセスモニタリングシステム
JP4686257B2 (ja) マスク製造システム、マスクデータ作成方法、及び半導体装置の製造方法
JP4787673B2 (ja) パターン検査装置および方法
JP5429869B2 (ja) パターン検査装置および方法
TW201942769A (zh) 用於圖案語意分割之深度學習
JP2020510864A (ja) 2つのフォトマスクを比較することによるフォトマスクの検査
WO2018224349A1 (en) Measurement method and apparatus
JP2011191296A (ja) パターン検査装置および方法
US20210311384A1 (en) Measurement method and apparatus
JP2009222454A (ja) パターン測定方法及びパターン測定装置
JP2019011972A (ja) パターンエッジ検出方法
WO2020152925A1 (ja) 画像評価装置及び方法
JP4597509B2 (ja) パターン検査装置およびパターン検査方法
WO2022230338A1 (ja) 欠陥を検出するシステム、及びコンピュータ可読媒体
CN113242956A (zh) 图像匹配方法以及用于执行图像匹配处理的运算系统
WO2019145278A1 (en) Pre-scan feature determination methods and systems
WO2020043367A1 (en) Multi-beam inspection methods and systems
EP4266246A1 (en) Automated defect classification and detection
US20230005157A1 (en) Pattern-edge detection method, pattern-edge detection apparatus, and storage medium storing program for causing a computer to perform pattern-edge detection

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19778236

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20207030084

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19778236

Country of ref document: EP

Kind code of ref document: A1