WO2020158261A1 - 画像マッチング判定方法、画像マッチング判定装置、および画像マッチング判定方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体 - Google Patents

画像マッチング判定方法、画像マッチング判定装置、および画像マッチング判定方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2020158261A1
WO2020158261A1 PCT/JP2019/050631 JP2019050631W WO2020158261A1 WO 2020158261 A1 WO2020158261 A1 WO 2020158261A1 JP 2019050631 W JP2019050631 W JP 2019050631W WO 2020158261 A1 WO2020158261 A1 WO 2020158261A1
Authority
WO
WIPO (PCT)
Prior art keywords
pattern
image
cad
matching
matching process
Prior art date
Application number
PCT/JP2019/050631
Other languages
English (en)
French (fr)
Inventor
伸一 中澤
芳賀 継彦
Original Assignee
Tasmit株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tasmit株式会社 filed Critical Tasmit株式会社
Publication of WO2020158261A1 publication Critical patent/WO2020158261A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to an image matching process for aligning a pattern on design data with a pattern on an image, and more particularly to a method and an apparatus for determining an error in image matching.
  • a pattern inspection method of a semiconductor device using a die-to-database technology is known (for example, refer to Patent Document 1).
  • a typical pattern inspection method is to generate an image of a pattern on a wafer with a scanning electron microscope, compare a CAD pattern on design data (also referred to as CAD data) with a pattern on the image, and check the pattern on the wafer. Detecting defects.
  • a pre-process of such a pattern inspection method a matching process for aligning the CAD pattern on the design data with the pattern on the image is performed.
  • the above matching process is automatically performed by a computer using an image matching algorithm.
  • the computer may fail the matching process. For example, in the case of the CAD pattern 501 as shown in FIG. 15 and the pattern 502 on the image, the matching result shown in FIG. 16 is correct, but the computer fails the matching process as shown in FIG. Sometimes.
  • the amount of deviation between the CAD pattern 501 and the pattern 502 on the image may be used to determine whether or not the matching process has succeeded.
  • the amount of deviation between patterns is large, there is a high possibility that the matching process has failed.
  • the matching process itself may be performed correctly. Therefore, it is difficult to accurately determine whether or not the matching process has succeeded, based on the shift amount between the patterns.
  • the present invention provides a method and apparatus capable of accurately determining whether or not the matching process between patterns has succeeded.
  • an object having a pattern created based on a CAD pattern on design data is moved to a predetermined imaging position by a moving stage, and a real image of the pattern of the object at the predetermined imaging position is displayed.
  • the CAD pattern shape data, the shift amount, and the movement vector of the moving stage are input to a model constructed by machine learning, and the calculation is executed according to an algorithm defined by the model to obtain the model.
  • Provides an image matching determination method that outputs an index value indicating whether the matching processing has succeeded or failed.
  • the model includes shape data of a plurality of CAD patterns and a plurality of real images of a plurality of actual patterns respectively created based on the plurality of CAD patterns, of the moving stage that is moved when generating the real images. It is a model constructed by machine learning using a movement vector and training data including at least shift amounts between the plurality of CAD patterns and the plurality of patterns on the real image.
  • the combination of the CAD pattern subjected to the matching process and the pattern on the real image is a plurality of CAD patterns in the image list displayed on the display screen and a corresponding pattern on the plurality of real images. Is one of a plurality of combinations.
  • the display of a combination of the CAD pattern on which the matching process is performed and a pattern on the actual image is displayed.
  • the method further includes the step of changing the display method on the screen.
  • the display of the combination of the CAD pattern on which the matching process is performed and the pattern on the actual image is displayed.
  • the method further includes the step of changing the display method on the screen.
  • the index value indicates that the matching process has failed, the matching process between the CAD pattern and the pattern on the actual image is executed again.
  • an image generation device that generates an image of an object, and an arithmetic system including design data including design information of a pattern formed on the object are provided, and the arithmetic system stores the design data and a program.
  • Storage device and a processing device that executes a calculation according to the program, and the calculation system issues a command to the image generation device to generate a pattern created based on a CAD pattern on the design data.
  • An object having is moved to a predetermined imaging position by a moving stage, a real image of the pattern of the object at the predetermined imaging position is acquired from the image generating device, and a movement vector of the moving stage is calculated, Matching processing is performed between the CAD pattern and the pattern on the actual image, the amount of deviation between the CAD pattern and the pattern on the actual image is calculated, and the shape data of the CAD pattern and the amount of deviation are calculated.
  • the matching process from the model succeeds or fails.
  • an image matching determination device that executes the step of outputting an index value indicating that according to the program.
  • the model is moved when generating shape data of a plurality of CAD patterns on design data and a plurality of real images of a plurality of actual patterns respectively created based on the plurality of CAD patterns. It is a model constructed by machine learning using the movement vector of the movement stage and the training data including at least the shift amounts of the plurality of CAD patterns and the plurality of patterns on the real image.
  • the combination of the CAD pattern subjected to the matching process and the pattern on the real image is a plurality of CAD patterns in the image list displayed on the display screen and a corresponding pattern on the plurality of real images. Is one of a plurality of combinations.
  • the arithmetic system displays on the display screen a combination of the CAD pattern subjected to the matching process and a pattern on the actual image. It is configured to change the display method in.
  • the arithmetic system displays on the display screen a combination of the CAD pattern on which the matching process is performed and a pattern on the actual image. It is configured to change the display method in.
  • the arithmetic system is configured to execute the matching process between the CAD pattern and the pattern on the actual image again when the index value indicates that the matching process has failed. ing.
  • a command is issued to the image generation device, an object having a pattern created based on a CAD pattern on design data is moved to a predetermined imaging position by a moving stage, and the object is in the predetermined imaging position.
  • a real image of the pattern of the object is acquired from the image generation device, a movement vector of the moving stage is calculated, a matching process between the CAD pattern and the pattern on the real image is executed, and the CAD pattern is obtained.
  • Calculating the amount of deviation from the pattern on the actual image inputting the shape data of the CAD pattern, the amount of deviation, and the movement vector of the moving stage to a model constructed by machine learning, and using the model.
  • a computer readable recording program for causing a computer to execute a step of outputting an index value indicating whether the matching process has succeeded or failed from the model by performing a calculation according to a defined algorithm. Recording medium is provided.
  • the moving vector (including moving distance and moving direction) of the moving stage includes a mechanical error, and this mechanical error causes a positional deviation between the CAD pattern and the pattern on the actual image.
  • the larger the movement vector of the moving stage the larger the amount of deviation between the CAD pattern and the pattern on the actual image.
  • the matching process itself may be performed correctly, that is, the matching process may be successful.
  • the model outputs the index value indicating the result of the matching process that reflects the moving vector of the moving stage. You can
  • FIG. 6 is a flowchart illustrating an embodiment of building a model by machine learning. It is a figure which shows an example of a CAD pattern. It is a figure which shows an example of the SEM image of the pattern actually created based on the CAD pattern shown in FIG.
  • FIG. 5 is a diagram showing an example in which the matching process of the CAD pattern shown in FIG. 3 and the pattern on the SEM image shown in FIG. 4 has succeeded. It is a figure which shows the example which the matching process of the CAD pattern shown in FIG. 3 and the pattern on the SEM image shown in FIG. 4 failed. It is a schematic diagram which shows an example of the model used for machine learning.
  • FIG. 9 is a flowchart illustrating an embodiment of a method of determining whether or not the alignment (that is, the matching process) between the CAD pattern and the pattern on the SEM image is successful using the model.
  • It is a schematic diagram which shows an example of the image list created by the image matching device. It is a schematic diagram which shows an example which changes the display method of the combination of the CAD pattern and the pattern on a SEM image which the matching process succeeded. It is a schematic diagram which shows the other example which changes the display method of the combination of the CAD pattern and the pattern on a SEM image which the matching process succeeded. It is a schematic diagram which shows another example which changes the display method of the combination of the CAD pattern and the pattern on a SEM image which the matching process succeeded.
  • FIG. 1 is a schematic diagram showing an embodiment of an image matching determination device.
  • the image matching determination device includes a scanning electron microscope 50 and a calculation system 150.
  • the scanning electron microscope 50 is an example of an image generation device that generates an image of an object.
  • the scanning electron microscope 50 is connected to the arithmetic system 150, and the operation of the scanning electron microscope 50 is controlled by the arithmetic system 150.
  • the arithmetic system 150 includes a storage device 162 in which a database 161 and a program are stored, a processing device 163 that executes an arithmetic operation according to an instruction included in the program, and a display screen 165 that displays an image and a GUI (graphical user interface). ing.
  • the arithmetic system 150 further includes an input device 170 including a mouse 170a and a keyboard 170b. The user can move the image appearing on the display screen 165 by operating the mouse 170a and/or the keyboard 170b.
  • the computing system 150 has at least one computer.
  • the computing system 150 may be an edge server connected to the scanning electron microscope 50 by a communication line, or a cloud server connected to the scanning electron microscope 50 via a network such as the Internet.
  • the computing system 150 may be a combination of multiple servers.
  • the computing system 150 may be a combination of an edge server and a cloud server that are mutually connected by a communication network such as the Internet or a local area network, or a combination of a plurality of servers that are not connected by the communication network.
  • the scanning electron microscope 50 includes an electron gun 111 that emits an electron beam composed of primary electrons (charged particles), a focusing lens 112 that focuses the electron beam emitted from the electron gun 111, and an X deflector that deflects the electron beam in the X direction. 113, a Y deflector 114 for deflecting the electron beam in the Y direction, and an objective lens 115 for focusing the electron beam on a wafer 124 as a sample.
  • an electron gun 111 that emits an electron beam composed of primary electrons (charged particles)
  • a focusing lens 112 that focuses the electron beam emitted from the electron gun 111
  • an X deflector that deflects the electron beam in the X direction.
  • a Y deflector 114 for deflecting the electron beam in the Y direction
  • an objective lens 115 for focusing the electron beam on a wafer 124 as a sample.
  • the focusing lens 112 and the objective lens 115 are connected to the lens controller 116, and the operations of the focusing lens 112 and the objective lens 115 are controlled by the lens controller 116.
  • the lens controller 116 is connected to the arithmetic system 150.
  • the X deflector 113 and the Y deflector 114 are connected to the deflection controller 117, and the deflection operations of the X deflector 113 and the Y deflector 114 are controlled by the deflection controller 117.
  • This deflection control device 117 is also connected to the arithmetic system 150.
  • the secondary electron detector 130 and the backscattered electron detector 131 are connected to the image acquisition device 118.
  • the image acquisition device 118 is configured to convert the output signals of the secondary electron detector 130 and the backscattered electron detector 131 into an image.
  • the image acquisition device 118 is also connected to the calculation system 150.
  • the moving stage 121 arranged in the sample chamber 120 is connected to the stage controller 122, and the position of the moving stage 121 is controlled by the stage controller 122.
  • the stage controller 122 is connected to the arithmetic system 150.
  • a wafer transfer device 140 for mounting the wafer 124 on the moving stage 121 in the sample chamber 120 is also connected to the arithmetic system 150.
  • the electron beam emitted from the electron gun 111 is focused by the focusing lens 112, is then deflected by the X deflector 113 and the Y deflector 114, is focused by the objective lens 115, and is irradiated on the surface of the wafer 124.
  • the wafer 124 is irradiated with primary electrons of the electron beam, secondary electrons and reflected electrons are emitted from the wafer 124.
  • Secondary electrons are detected by the secondary electron detector 130, and reflected electrons are detected by the reflected electron detector 131.
  • the detected secondary electron signal and the reflected electron signal are input to the image acquisition device 118 and converted into an image.
  • the image is transmitted to the computing system 150.
  • the design data of the pattern formed on the wafer 124 is stored in the storage device 162 in advance.
  • the design data of the pattern includes pattern design information such as the coordinates of the vertices of the pattern, the position, shape, and size of the pattern, the number of the layer to which the pattern belongs.
  • a database 161 is built in the storage device 162.
  • the design data of the pattern is stored in the database 161 in advance.
  • the computing system 150 can read design data from the database 161 stored in the storage device 162.
  • CAD computer-aided design
  • the matching process is performed as follows. First, a wafer as an object having an actual pattern created based on a CAD pattern on design data is placed on the moving stage 121.
  • the arithmetic system 150 issues a command to the stage control device 122 of the scanning electron microscope 50 to move the moving stage 121 together with the wafer to a predetermined imaging position. This imaging position is calculated based on the position of the CAD pattern.
  • the arithmetic system 150 can acquire the position of the CAD pattern from the design data.
  • the scanning electron microscope 50 generates an SEM image of the pattern formed on the wafer.
  • the computing system 150 acquires the SEM image from the scanning electron microscope 50 and stores the SEM image in the storage device 162.
  • the arithmetic system 150 superimposes the CAD pattern and the pattern on the SEM image and calculates the amount of deviation between these two patterns.
  • the calculation of the shift amount between patterns can be performed using a known technique. In one example, the arithmetic system 150 calculates a shift amount that is a relative position between the edge of the CAD pattern and the edge of the pattern on the SEM image.
  • the shift amount calculated in this way can be used as an index indicating whether or not the matching process between the CAD pattern and the pattern on the SEM image has succeeded.
  • the calculated shift amount is small, the actual shift amount between the CAD pattern and the pattern on the SEM image may be large.
  • the calculated shift amount may be small even though the actual shift amount between the CAD pattern and the pattern on the image is large.
  • the moving stage 121 moves to the imaging position calculated based on the position of the CAD pattern.
  • the movement vector (including the movement distance and the movement direction) of the movement stage 121 includes a mechanical error. That is, a mechanical error due to the mechanism of the moving stage 121 is inevitably present between the calculated imaging position and the actual position of the moving stage 121 that has moved to the imaging position. This mechanical error causes misalignment between the CAD pattern and the pattern on the SEM image.
  • the larger the movement vector of the moving stage 121 the larger the positional deviation between the CAD pattern and the pattern on the actual image, that is, the deviation amount of the matching process.
  • the matching process itself in this case is performed correctly (that is, the matching process itself is successful).
  • the result of the matching process between the CAD pattern and the pattern on the image may change due to various factors. Therefore, in the present embodiment, whether or not the pattern matching processing has succeeded, that is, the result of the pattern matching processing is determined using a model constructed by machine learning.
  • the arithmetic system 150 executes model building using machine learning and determination of the result of matching processing using the model.
  • the computing system 150 includes at least one computer.
  • the first computer executes the step of building the model, and the second computer uses the model to determine the matching result.
  • You may execute.
  • the model created by the first computer may be stored in a recording medium such as a semiconductor memory (for example, a USB flash drive) or an optical disc (for example, a CD-ROM) and then read from the semiconductor memory to the second computer.
  • the model created on the first computer may be sent to the second computer over a communication network such as the Internet or a local area network.
  • FIG. 2 is a flowchart illustrating an embodiment of building a model by machine learning.
  • the arithmetic system 150 specifies the CAD pattern on the design data.
  • FIG. 3 is a diagram showing an example of a CAD pattern.
  • reference numeral 101 indicates a CAD pattern.
  • the design data is data including design information of the pattern formed on the wafer, and specifically, the coordinates of the vertex of the pattern, the position, shape, and size of the pattern, the number of the layer to which the pattern belongs, and the like of the pattern. Contains design information.
  • the CAD pattern on the design data is a virtual pattern defined by the design information of the pattern included in the design data.
  • This step 1-1 is a step of identifying a CAD pattern from a plurality of CAD patterns included in the design data. In this step 1-1, a single CAD pattern or a plurality of CAD patterns may be designated.
  • the arithmetic system 150 acquires the shape data and the position of the designated CAD pattern from the design data.
  • the shape data of the CAD pattern includes, for example, the coordinates of the vertices of the CAD pattern.
  • the arithmetic system 150 issues a command to the scanning electron microscope 50 to take a predetermined image of the wafer having the pattern created based on the CAD pattern specified in step 1-1 by the moving stage 121. Move to position.
  • the predetermined imaging position is calculated in advance based on the position of the CAD pattern.
  • the arithmetic system 150 calculates the movement vector of the movement stage 121.
  • the movement vector of the movement stage 121 is a vector from a predetermined reference point to the image pickup position.
  • the arithmetic system 150 can calculate the movement vector of the movement stage 121 from the position of the reference point and the imaging position.
  • the arithmetic system 150 stores the movement vector (including the movement distance and the movement direction) calculated by the movement stage 121 in the storage device 162.
  • step 1-5 the arithmetic system 150 issues a command to the scanning electron microscope 50 to cause the scanning electron microscope 50 to generate an SEM image of the pattern of the wafer on the moving stage 121 at the imaging position.
  • the pattern appearing in the SEM image is a pattern actually created based on the CAD pattern designated in step 1-1.
  • the computing system 150 acquires the SEM image from the scanning electron microscope 50 and stores the SEM image in the storage device 162.
  • FIG. 4 is a diagram showing an example of an SEM image of a pattern actually created based on the CAD pattern 101 shown in FIG.
  • reference numeral 104 represents an SEM image
  • reference numeral 105 represents a pattern appearing on the SEM image 104, that is, an actual pattern corresponding to the CAD pattern 101 shown in FIG.
  • step 1-6 the arithmetic system 150 executes a matching process between the CAD pattern specified in step 1-1 and the pattern on the SEM image generated in step 1-5.
  • the matching process is a process of aligning the CAD pattern on the design data with the pattern on the SEM image.
  • step 1-7 the amount of deviation between the CAD pattern and the pattern on the SEM image is calculated. Basically, it is preferable that the amount of deviation between these two patterns is small.
  • the calculation of the shift amount between patterns can be performed using a known technique.
  • the arithmetic system 150 stores the calculated shift amount in the storage device 162.
  • step 1-8 the user determines whether or not the matching process executed by the computing system 150 in step 1-6 has succeeded. More specifically, the arithmetic system 150 displays the CAD pattern indicating the result of the matching process and the pattern on the SEM image on the display screen 165, and the user can check the CAD pattern on the display screen 165 on the SEM image. Determine if the pattern is properly aligned.
  • FIG. 5 is a diagram showing an example in which the matching process of the CAD pattern 101 shown in FIG. 3 and the pattern 105 on the SEM image shown in FIG. 4 has succeeded.
  • each edge and each vertex of CAD pattern 101 is adjacent to the corresponding edge and corresponding vertex of pattern 105 on the SEM image.
  • FIG. 6 is a diagram showing an example in which the matching process of the CAD pattern 101 shown in FIG. 3 and the pattern 105 on the SEM image shown in FIG. 4 has failed.
  • each edge and each vertex of the CAD pattern 101 is adjacent to another edge and vertex different from the corresponding edge and the corresponding vertex of the pattern 105 on the SEM image.
  • step 1-9 the user inputs the correct answer value indicating whether the matching process executed in step 1-6 was successful or failed to the arithmetic system 150 via the input device 170.
  • the arithmetic system 150 stores the correct answer value in the storage device 162.
  • the correct answer value indicating that the matching processing has succeeded is 1, and the correct answer value indicating that the matching processing has failed is 0.
  • the correct answer may be a numerical value within the range of 0 to 1. For example, if the matching process is highly likely to be successful, 0.8 may be input as the correct answer value.
  • the specific numerical value of the correct value representing the result of the matching process is not particularly limited. For example, the correct answer value indicating that the matching process has succeeded may be 100, and the correct answer value indicating that the matching process has failed may be a numerical value other than 0.
  • step 1-10 the arithmetic system 150 causes the shape data of the CAD pattern acquired in step 1-2, the movement vector of the moving stage 121 calculated in step 1-4, and the two patterns calculated in step 1-7. Training data including the amount of gap and the correct value input in step 1-9 is created.
  • step 1-11 the arithmetic system 150 uses the training data to determine model parameters (weighting factors, etc.) by machine learning. More specifically, the arithmetic system 150 executes a calculation according to an algorithm defined by the model to determine whether the matching process between the CAD pattern and the pattern on the SEM image is successful or unsuccessful from the model. The index value shown is output, and the parameter that can minimize the difference between the index value and the correct answer value is determined.
  • the computing system 150 and the scanning electron microscope 50 repeat the above-mentioned steps 1-1 to 1-11 a predetermined number of times to build a model by machine learning. That is, the model is the moving stage 121 that is moved when generating the shape data of the plurality of CAD patterns on the design data and the plurality of SEM images of the plurality of actual patterns respectively created based on the plurality of CAD patterns. Motion vectors, displacement amounts between the plurality of CAD patterns and patterns on the plurality of SEM images, and a plurality of correct answers representing results of matching processing between the plurality of CAD patterns and the patterns on the plurality of SEM images. Constructed by machine learning using training data containing values. The model thus constructed by machine learning is also referred to as a trained model.
  • the computing system 150 stores the model in the storage device 162. The same design data may be used, or a plurality of design data may be used, while steps 1-1 to 1-11 are repeated.
  • FIG. 7 is a schematic diagram showing an example of a model used for machine learning.
  • the model is a neural network having an input layer 201, a plurality of intermediate layers (also referred to as hidden layers) 202, and an output layer 203.
  • the shape data of the CAD pattern, the movement vector of the moving stage 121, and the shift amount between the CAD pattern and the pattern on the SEM image are input to the input layer 201 of the model.
  • the output layer 203 outputs an index value indicating whether the matching process between the CAD pattern and the pattern on the SEM image has succeeded or failed.
  • Deep learning is suitable as the machine learning algorithm. Deep learning is a learning method based on a neural network in which an intermediate layer is multi-layered. In this specification, machine learning using a neural network including an input layer, a plurality of intermediate layers (hidden layers), and an output layer is referred to as deep learning. Models built using deep learning can accurately determine the outcome of matching processes that may change due to various factors.
  • step 2-1 the arithmetic system 150 specifies the CAD pattern on the design data.
  • step 2-2 the arithmetic system 150 acquires the shape data of the specified CAD pattern and the position of the CAD pattern from the design data.
  • step 2-3 the arithmetic system 150 issues a command to the scanning electron microscope 50 to take a predetermined image on the wafer having the pattern created based on the CAD pattern specified in step 2-1 by the moving stage 121. Move to position.
  • the predetermined imaging position is calculated in advance based on the position of the CAD pattern.
  • step 2-4 the arithmetic system 150 calculates the movement vector of the movement stage 121 that has moved from the reference point to the imaging position.
  • the arithmetic system 150 stores the movement vector calculated by the movement stage 121 in the storage device 162.
  • step 2-5 the arithmetic system 150 issues a command to the scanning electron microscope 50 to cause the scanning electron microscope 50 to generate an SEM image of the pattern of the wafer on the moving stage 121 at the imaging position.
  • the pattern appearing in the SEM image is a pattern actually created based on the CAD pattern specified in step 2-1.
  • the computing system 150 acquires the SEM image from the scanning electron microscope 50 and stores the SEM image in the storage device 162.
  • step 2-6 the arithmetic system 150 executes a matching process between the CAD pattern specified in step 2-1 and the pattern on the SEM image generated in step 2-5.
  • step 2-7 the shift amount between the CAD pattern and the pattern on the SEM image is calculated.
  • the arithmetic system 150 stores the calculated shift amount in the storage device 162.
  • step 2-8 the arithmetic system 150 causes the shape data of the CAD pattern acquired in step 2-2, the movement vector of the moving stage 121 calculated in step 2-4, and the two patterns calculated in step 2-7.
  • the gap amount is input to the model.
  • Step 2-9 the arithmetic system 150 executes the calculation according to the algorithm defined by the model to determine whether the matching process between the CAD pattern and the pattern on the SEM image is successful or unsuccessful from the model. Outputs the indicated index value. When the correct answer value indicating that the matching process is completely successful is 1 and the correct answer value indicating that the matching process is completely failed is 0, the index value is a numerical value within the range of 0 to 1.
  • the arithmetic system 150 compares the index value with a threshold value and determines whether the matching process has succeeded or failed based on the comparison result. In the present embodiment, the arithmetic system 150 determines that the matching process has succeeded when the index value is equal to or larger than the threshold value, and determines that the matching process has failed when the index value is smaller than the threshold value.
  • the threshold value is stored in advance in the storage device 162.
  • the model uses the index value indicating the result of the matching process that reflects the moving vector of the moving stage 121. Can be output.
  • the arithmetic system 150 can accurately determine whether the matching process has succeeded or failed based on the result of comparison between the index value and the threshold value.
  • design data contains design information for many patterns. Therefore, there are many CAD patterns defined by the design information included in the design data.
  • the arithmetic system 150 executes matching processing for each of these CAD patterns, and calculates the amount of deviation between the CAD pattern and the corresponding pattern on the SEM image. That is, the arithmetic system 150 repeats the matching process and the shift amount calculation while changing the CAD pattern one after another. Further, the arithmetic system 150 creates an image list including a plurality of CAD patterns, a plurality of corresponding SEM images, and a plurality of corresponding shift amounts, and displays the image list on the display screen 165.
  • FIG. 9 is a schematic diagram showing an example of an image list created by the image matching device.
  • the image list includes many combinations including at least the CAD pattern, the corresponding SEM image, and the shift amount between the CAD pattern and the pattern on the SEM image.
  • the combination of the CAD pattern 101 shown in FIG. 3 and the pattern 105 on the SEM image shown in FIG. 4 is one of the plurality of combinations shown in FIG. 9.
  • the arithmetic system 150 is constructed by machine learning for the amount of deviation between the shape data of each CAD pattern on the image list, the movement vector of the moving stage 121, and the pattern on the image corresponding to the CAD pattern.
  • the index value is output from the model, the index value is compared with a threshold value, and whether the matching process is successful based on the comparison result, Or, determine if it has failed.
  • the arithmetic system 150 displays the combination of the CAD pattern subjected to the matching process and the pattern on the SEM image on the display screen 165. It is configured to change the way. For example, the arithmetic system 150 may add a strikethrough line to the item of the combination on the image list (see FIG. 10), change the display color of the item of the combination on the image list (see FIG. 11), or The item is deleted from the image list (see FIG. 12), or the item of the above combination is moved to another position on the image list (see FIG. 13).
  • the way of displaying the combination of the CAD pattern for which the matching process is successful and the pattern on the SEM image on the display screen 165 changes. Based on the image list on the display screen 165, the user visually recognizes a combination of the CAD pattern that failed in the matching process and the pattern on the SEM image from the combination of the CAD pattern that succeeded in the matching process and the pattern on the SEM image. It can be easily sorted out.
  • the combination that failed in the matching process suggests that the CAD pattern and the pattern on the SEM image may not have been correctly aligned, as in the example shown in FIG.
  • the user manually performs, on the display screen 165, the matching process between the CAD pattern and the pattern on the SEM image, that is, the alignment process between the CAD pattern and the pattern on the SEM image, on the display screen 165 for the combination for which the matching process has failed. Execute.
  • the arithmetic system 150 can accurately determine the result of the matching process for all the combinations listed in the image list by using the model constructed by machine learning.
  • the user can re-execute the matching process only for the combination determined to have failed in the matching process, and thus the labor of the user can be reduced.
  • the arithmetic system 150 when the index value is smaller than the threshold value, that is, when the matching process fails, the arithmetic system 150 performs the matching process of the CAD pattern subjected to the matching process and the pattern on the SEM image. May be executed again. In this case, the arithmetic system 150 may change the setting parameter of the matching process and then re-execute the matching process.
  • the arithmetic system 150 displays the display screen 165 of the combination of the CAD pattern subjected to the matching process and the pattern on the SEM image.
  • the display method above may be changed.
  • the computing system 150 may change the display color of the combination item on the image list or move the combination item to another position on the image list.
  • the way of displaying the combination of the CAD pattern for which the matching process has failed and the pattern on the SEM image on the display screen 165 changes. Based on the image list on the display screen 165, the user visually recognizes a combination of the CAD pattern that failed in the matching process and the pattern on the SEM image from the combination of the CAD pattern that succeeded in the matching process and the pattern on the SEM image. It can be easily sorted out.
  • FIG. 14 is a schematic diagram showing an embodiment of the configuration of the arithmetic system 150.
  • the computing system 150 is composed of a dedicated computer or a general-purpose computer.
  • the computing system 150 includes a storage device 162 in which programs and data are stored, and a processing device 163 such as a CPU (central processing unit) or GPU (graphic processing unit) that performs computations according to the programs stored in the storage device 162.
  • a processing device 163 such as a CPU (central processing unit) or GPU (graphic processing unit) that performs computations according to the programs stored in the storage device 162.
  • An input device 170 for inputting data, programs, and various information to the storage device 162, an output device 190 for outputting a processing result or processed data, and a communication network such as the Internet or a local area network
  • the communication device 195 for performing the operation is provided.
  • the storage device 162 includes a main storage device 162A accessible by the processing device 163 and an auxiliary storage device 162B for storing data and programs.
  • the main storage device 162A is, for example, a random access memory (RAM)
  • the auxiliary storage device 162B is a storage device such as a hard disk drive (HDD) or a solid state drive (SSD).
  • HDD hard disk drive
  • SSD solid state drive
  • the input device 170 includes a keyboard and a mouse, and further includes a recording medium reading device 182 for reading data from the recording medium and a recording medium port 184 to which the recording medium is connected.
  • the recording medium is a non-transitory tangible computer-readable recording medium, and is, for example, an optical disc (eg, CD-ROM, DVD-ROM) or a semiconductor memory (eg, USB flash drive, memory card). is there.
  • Examples of the recording medium reading device 182 include an optical drive such as a CD-ROM drive and a DVD-ROM drive, and a memory reader.
  • a USB port is an example of the recording medium port 184.
  • the program and/or data stored in the recording medium is introduced into the arithmetic system 150 via the input device 170 and stored in the auxiliary storage device 162B of the storage device 162.
  • the output device 190 includes a display screen 165 and a printing device 192.
  • the computing system 150 including at least one computer operates according to a program electrically stored in the storage device 162. That is, the arithmetic system 150 issues a command to the scanning electron microscope 50 to move the wafer having a pattern created based on the CAD pattern on the design data to a predetermined imaging position by the moving stage 121, and to perform the predetermined imaging.
  • the SEM image of the pattern of the wafer at the position is acquired from the scanning electron microscope 50, the movement vector of the moving stage 121 is calculated, the matching process between the CAD pattern and the pattern on the SEM image is executed, and the CAD pattern and the SEM are obtained.
  • the deviation amount from the pattern on the image is calculated, the shape data of the CAD pattern, the deviation amount, and the movement vector of the moving stage 121 are input to the model constructed by machine learning, and the calculation is performed according to the algorithm defined by the model.
  • the step of outputting an index value indicating whether the matching processing has succeeded or failed from the model is executed.
  • a program for causing the computing system 150 to execute these steps is recorded in a computer-readable recording medium that is a non-transitory tangible material, and is provided to the computing system 150 via the recording medium.
  • the program may be input to the computing system 150 from the communication device 195 via a communication network such as the Internet or a local area network.
  • the present invention can be used for a method and an apparatus for determining an image matching error for aligning a pattern on design data with a pattern on an image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

画像マッチング判定方法は、設計データ上のCADパターンに基づいて作成されたパターンを有する対象物を移動ステージにより所定の撮像位置まで移動させ、所定の撮像位置にある対象物のパターンの実画像を生成し、移動ステージの移動ベクトルを算出し、CADパターンと、実画像上のパターンとのマッチング処理を実行し、CADパターンと、実画像上のパターンとのずれ量を算出し、CADパターンの形状データと、ずれ量と、移動ステージの移動ベクトルを、機械学習により構築されたモデルに入力し、モデルによって定義されたアルゴリズムに従って計算を実行することで、モデルから、マッチング処理が成功したか、または失敗したかを示す指標値を出力する。

Description

画像マッチング判定方法、画像マッチング判定装置、および画像マッチング判定方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
 本発明は、設計データ上のパターンと、画像上のパターンとの位置合わせを行うための画像マッチング処理に関し、特に画像マッチングのエラーを判定するための方法および装置に関する。
 ダイ・ツー・データベース(Die to Database)技術を用いた半導体デバイスのパターン検査方法が知られている(例えば特許文献1参照)。代表的なパターン検査方法は、ウェーハ上のパターンの画像を走査電子顕微鏡で生成し、設計データ(CADデータともいう)上のCADパターンと画像上のパターンとを比較して、ウェーハ上のパターンの欠陥を検出することである。このようなパターン検査方法の前処理として、設計データ上のCADパターンを、画像上のパターンに位置合わせするマッチング処理が行われる。
 上記マッチング処理は、画像マッチングアルゴリズムを用いてコンピュータにより自動的に行われる。しかしながら、ウェーハ上のパターンがCADパターンに比べて大きく変形している場合、あるいはCADパターンが繰り返しパターンである場合は、コンピュータはマッチング処理に失敗することがある。例えば、図15に示すようなCADパターン501と、画像上のパターン502の場合、図16に示すマッチング結果が正しいのであるが、コンピュータは、図17に示すように、マッチング処理に失敗してしまうことがある。
特開2011-17705号公報 特開2016-173615号公報
 マッチング処理に成功したか否かを判定するために、CADパターン501と、画像上のパターン502とのずれ量が用いられることがある。一般に、パターン間のずれ量が大きいと、マッチング処理に失敗した可能性が高い。しかしながら、パターン間のずれ量が大きい場合でも、マッチング処理自体は正しく行われていることがある。このため、パターン間のずれ量に基づいて、マッチング処理が成功したか否かを正確に判定することは難しい。
 そこで、本発明は、パターン間のマッチング処理に成功したか否かを正確に判定することができる方法および装置を提供する。
 一態様では、設計データ上のCADパターンに基づいて作成されたパターンを有する対象物を移動ステージにより所定の撮像位置まで移動させ、前記所定の撮像位置にある前記対象物の前記パターンの実画像を生成し、前記移動ステージの移動ベクトルを算出し、前記CADパターンと、前記実画像上のパターンとのマッチング処理を実行し、前記CADパターンと、前記実画像上のパターンとのずれ量を算出し、前記CADパターンの形状データと、前記ずれ量と、前記移動ステージの移動ベクトルを、機械学習により構築されたモデルに入力し、前記モデルによって定義されたアルゴリズムに従って計算を実行することで、前記モデルから、前記マッチング処理が成功したか、または失敗したかを示す指標値を出力する、画像マッチング判定方法が提供される。
 一態様では、前記モデルは、複数のCADパターンの形状データと、前記複数のCADパターンに基づいてそれぞれ作成された複数の実際のパターンの複数の実画像を生成するときに移動した前記移動ステージの移動ベクトルと、前記複数のCADパターンと前記複数の実画像上のパターンとのずれ量を少なくとも含む訓練データを用いて機械学習により構築されたモデルである。
 一態様では、前記マッチング処理を行った前記CADパターンと前記実画像上のパターンの組み合わせは、表示画面上に表示された画像リスト内の複数のCADパターンと、対応する複数の実画像上のパターンの複数の組み合わせのうちの1つである。
 一態様では、前記画像マッチング判定方法は、前記マッチング処理が成功したことを前記指標値が示している場合は、前記マッチング処理を行った前記CADパターンと前記実画像上のパターンの組み合わせの前記表示画面上での表示の仕方を変化させる工程をさらに含む。
 一態様では、前記画像マッチング判定方法は、前記マッチング処理が失敗したことを前記指標値が示している場合は、前記マッチング処理を行った前記CADパターンと前記実画像上のパターンの組み合わせの前記表示画面上での表示の仕方を変化させる工程をさらに含む。
 一態様では、前記マッチング処理が失敗したことを前記指標値が示している場合は、前記CADパターンと、前記実画像上のパターンとのマッチング処理を再度実行する。
 一態様では、対象物の画像を生成する画像生成装置と、前記対象物に形成されたパターンの設計情報を含む設計データを含む演算システムを備え、前記演算システムは、前記設計データおよびプログラムが格納された記憶装置と、前記プログラムに従って演算を実行する処理装置を備えており、前記演算システムは、前記画像生成装置に指令を発して、前記設計データ上のCADパターンに基づいて作成されたパターンを有する対象物を移動ステージにより所定の撮像位置まで移動させ、前記所定の撮像位置にある前記対象物の前記パターンの実画像を前記画像生成装置から取得し、前記移動ステージの移動ベクトルを算出し、前記CADパターンと、前記実画像上のパターンとのマッチング処理を実行し、前記CADパターンと、前記実画像上のパターンとのずれ量を算出し、前記CADパターンの形状データと、前記ずれ量と、前記移動ステージの移動ベクトルを、機械学習により構築されたモデルに入力し、前記モデルによって定義されたアルゴリズムに従って計算を実行することで、前記モデルから、前記マッチング処理が成功したか、または失敗したかを示す指標値を出力するステップを前記プログラムに従って実行する、画像マッチング判定装置が提供される。
 一態様では、前記モデルは、設計データ上の複数のCADパターンの形状データと、前記複数のCADパターンに基づいてそれぞれ作成された複数の実際のパターンの複数の実画像を生成するときに移動した前記移動ステージの移動ベクトルと、前記複数のCADパターンと前記複数の実画像上のパターンとのずれ量を少なくとも含む訓練データを用いて機械学習により構築されたモデルである。
 一態様では、前記マッチング処理を行った前記CADパターンと前記実画像上のパターンの組み合わせは、表示画面上に表示された画像リスト内の複数のCADパターンと、対応する複数の実画像上のパターンの複数の組み合わせのうちの1つである。
 一態様では、前記演算システムは、前記マッチング処理が成功したことを前記指標値が示している場合は、前記マッチング処理を行った前記CADパターンと前記実画像上のパターンの組み合わせの前記表示画面上での表示の仕方を変化させるように構成されている。
 一態様では、前記演算システムは、前記マッチング処理が失敗したことを前記指標値が示している場合は、前記マッチング処理を行った前記CADパターンと前記実画像上のパターンの組み合わせの前記表示画面上での表示の仕方を変化させるように構成されている。
 一態様では、前記演算システムは、前記マッチング処理が失敗したことを前記指標値が示している場合は、前記CADパターンと、前記実画像上のパターンとのマッチング処理を再度実行するように構成されている。
 一態様では、画像生成装置に指令を発して、設計データ上のCADパターンに基づいて作成されたパターンを有する対象物を移動ステージにより所定の撮像位置まで移動させ、前記所定の撮像位置にある前記対象物の前記パターンの実画像を前記画像生成装置から取得し、前記移動ステージの移動ベクトルを算出し、前記CADパターンと、前記実画像上のパターンとのマッチング処理を実行し、前記CADパターンと、前記実画像上のパターンとのずれ量を算出し、前記CADパターンの形状データと、前記ずれ量と、前記移動ステージの移動ベクトルを、機械学習により構築されたモデルに入力し、前記モデルによって定義されたアルゴリズムに従って計算を実行することで、前記モデルから、前記マッチング処理が成功したか、または失敗したかを示す指標値を出力するステップをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体が提供される。
 移動ステージの移動ベクトル(移動距離と移動方向を含む)には機械的誤差が含まれており、この機械的誤差はCADパターンと実画像上のパターンとの間の位置ずれを引き起こす。一般に、移動ステージの移動ベクトルが大きいほど、CADパターンと実画像上のパターンとの間のずれ量が大きくなる。しかしながら、移動ステージの移動ベクトルが大きくても、マッチング処理自体は正しく行われている、すなわちマッチング処理に成功していることもある。本発明によれば、CADパターンの形状データのみならず、移動ステージの移動ベクトルがモデルに入力されるので、モデルは移動ステージの移動ベクトルを反映したマッチング処理の結果を示す指標値を出力することができる。
画像マッチング判定装置の一実施形態を示す模式図である。 機械学習によりモデルを構築する一実施形態を説明するフローチャートである。 CADパターンの一例を示す図である。 図3に示すCADパターンに基づいて実際に作成されたパターンのSEM画像の一例を示す図である。 図3に示すCADパターンと、図4に示すSEM画像上のパターンのマッチング処理が成功した例を示す図である。 図3に示すCADパターンと、図4に示すSEM画像上のパターンのマッチング処理が失敗した例を示す図である。 機械学習に使用されるモデルの一例を示す模式図である。 モデルを用いて、CADパターンとSEM画像上のパターンとの位置合わせ(すなわちマッチング処理)が成功したか否かを判定する方法の一実施形態を説明するフローチャートである。 画像マッチング装置によって作成された画像リストの一例を示す模式図である。 マッチング処理が成功したCADパターンとSEM画像上のパターンの組み合わせの表示の仕方を変える一例を示す模式図である。 マッチング処理が成功したCADパターンとSEM画像上のパターンの組み合わせの表示の仕方を変える他の例を示す模式図である。 マッチング処理が成功したCADパターンとSEM画像上のパターンの組み合わせの表示の仕方を変えるさらに他の例を示す模式図である。 マッチング処理が成功したCADパターンとSEM画像上のパターンの組み合わせの表示の仕方を変えるさらに他の例を示す模式図である。 演算システムの構成の一実施形態を示す模式図である。 CADパターンと画像上のパターンの一例を示す図である。 コンピュータがマッチング処理に成功した一例を示す図である。 コンピュータがマッチング処理に失敗した一例を示す図である。
 以下、本発明の実施形態について図面を参照して説明する。
 図1は、画像マッチング判定装置の一実施形態を示す模式図である。図1に示すように、画像マッチング判定装置は、走査電子顕微鏡50および演算システム150を備えている。走査電子顕微鏡50は、対象物の画像を生成する画像生成装置の一例である。走査電子顕微鏡50は、演算システム150に接続されており、走査電子顕微鏡50の動作は演算システム150によって制御される。
 演算システム150は、データベース161およびプログラムが格納された記憶装置162と、プログラムに含まれる命令に従って演算を実行する処理装置163と、画像およびGUI(グラフィカルユーザーインターフェイス)などを表示する表示画面165を備えている。演算システム150は、マウス170aおよびキーボード170bを備えた入力装置170をさらに備えている。ユーザーは、マウス170aおよび/またはキーボード170bを操作して、表示画面165上に現れた画像を移動させることができる。
 演算システム150は、少なくとも1台のコンピュータを備えている。例えば、演算システム150は、走査電子顕微鏡50に通信線で接続されたエッジサーバであってもよいし、インターネットなどのネットワークによって走査電子顕微鏡50に接続されたクラウドサーバであってもよい。演算システム150は、複数のサーバの組み合わせであってもよい。例えば、演算システム150は、インターネットまたはローカルエリアネットワークなどの通信ネットワークにより互いに接続されたエッジサーバとクラウドサーバとの組み合わせ、あるいは通信ネットワークで接続されていない複数のサーバの組み合わせであってもよい。
 走査電子顕微鏡50は、一次電子(荷電粒子)からなる電子ビームを発する電子銃111と、電子銃111から放出された電子ビームを集束する集束レンズ112、電子ビームをX方向に偏向するX偏向器113、電子ビームをY方向に偏向するY偏向器114、電子ビームを試料であるウェーハ124にフォーカスさせる対物レンズ115を有する。
 集束レンズ112および対物レンズ115はレンズ制御装置116に接続され、集束レンズ112および対物レンズ115の動作はレンズ制御装置116によって制御される。このレンズ制御装置116は演算システム150に接続されている。X偏向器113、Y偏向器114は、偏向制御装置117に接続されており、X偏向器113、Y偏向器114の偏向動作は偏向制御装置117によって制御される。この偏向制御装置117も同様に演算システム150に接続されている。二次電子検出器130と反射電子検出器131は画像取得装置118に接続されている。画像取得装置118は二次電子検出器130と反射電子検出器131の出力信号を画像に変換するように構成される。この画像取得装置118も同様に演算システム150に接続されている。
 試料チャンバー120内に配置される移動ステージ121は、ステージ制御装置122に接続されており、移動ステージ121の位置はステージ制御装置122によって制御される。このステージ制御装置122は演算システム150に接続されている。ウェーハ124を、試料チャンバー120内の移動ステージ121に載置するためのウェーハ搬送装置140も同様に演算システム150に接続されている。
 電子銃111から放出された電子ビームは集束レンズ112で集束された後に、X偏向器113、Y偏向器114で偏向されつつ対物レンズ115により集束されてウェーハ124の表面に照射される。ウェーハ124に電子ビームの一次電子が照射されると、ウェーハ124からは二次電子および反射電子が放出される。二次電子は二次電子検出器130により検出され、反射電子は反射電子検出器131により検出される。検出された二次電子の信号、および反射電子の信号は、画像取得装置118に入力され画像に変換される。画像は演算システム150に送信される。
 ウェーハ124上に形成されたパターンの設計データは、記憶装置162に予め記憶されている。パターンの設計データは、パターンの頂点の座標、パターンの位置、形状、および大きさ、パターンが属する層の番号などのパターンの設計情報を含む。記憶装置162には、データベース161が構築されている。パターンの設計データは、データベース161内に予め格納される。演算システム150は、記憶装置162に格納されているデータベース161から設計データを読み出すことが可能である。
 次に、設計データ上のCADパターンと、走査電子顕微鏡50によって生成されたウェーハの画像上のパターンとのマッチング処理について説明する。以下の説明では、画像生成装置である走査電子顕微鏡50によって生成された実画像を、SEM画像という。ウェーハ上のパターンは、設計データ(CADデータともいう)に基づいて形成されている。CADは、コンピュータ支援設計(computer-aided design)の略語である。
 マッチング処理は、次のようにして行われる。まず、設計データ上のCADパターンに基づいて作成された実パターンを有する対象物としてのウェーハが移動ステージ121上に置かれる。演算システム150は、走査電子顕微鏡50のステージ制御装置122に指令を発し、移動ステージ121を、ウェーハとともに、所定の撮像位置まで移動させる。この撮像位置は、CADパターンの位置に基づいて算出される。演算システム150はCADパターンの位置を設計データから取得することができる。
 走査電子顕微鏡50は、ウェーハに形成されているパターンのSEM画像を生成する。演算システム150は、SEM画像を走査電子顕微鏡50から取得し、SEM画像を記憶装置162内に記憶する。演算システム150は、CADパターンと、SEM画像上のパターンとを重ね合わせ、これら2つのパターンの間のずれ量を算出する。パターン間のずれ量の算出は、公知の技術を用いて行うことができる。一例では、演算システム150は、CADパターンのエッジと、SEM画像上のパターンのエッジとの相対位置であるずれ量を算出する。
 このようにして算出されたずれ量は、CADパターンと、SEM画像上のパターンとのマッチング処理が成功したか否かを示す指標として使用できる。しかしながら、算出されたずれ量が小さくても、CADパターンと、SEM画像上のパターンとの実際のずれ量が大きい場合もある。例えば、繰り返しパターンでは、図17に示すように、CADパターンと、画像上のパターンとの実際のずれ量が大きいにもかかわらず、算出されたずれ量は小さい場合がある。
 逆に、算出されたずれ量が大きくても、マッチング処理自体は成功している場合もある。例えば、ウェーハ上のパターンを撮像する前、移動ステージ121は、CADパターンの位置に基づいて算出された撮像位置まで移動する。移動ステージ121の移動ベクトル(移動距離および移動方向を含む)には機械的誤差が含まれている。すなわち、算出された撮像位置と、撮像位置に移動した移動ステージ121の実際の位置との間には、移動ステージ121の機構に起因した機械的誤差が必然的に存在する。この機械的誤差はCADパターンとSEM画像上のパターンとの間の位置ずれを引き起こす。一般に、移動ステージ121の移動ベクトルが大きいほど、CADパターンと実画像上のパターンとの間の位置ずれ、すなわちマッチング処理のずれ量が大きくなる。しかしながら、この場合のマッチング処理自体は、正しく行われている(つまり、マッチング処理自体は成功している)。
 このように、CADパターンと、画像上のパターンとのマッチング処理の結果は、様々な因子に起因して変わりうる。そこで、本実施形態では、機械学習により構築されたモデルを用いて、パターンのマッチング処理が成功したか否か、すなわちパターンのマッチング処理の結果を判定する。本実施形態では、演算システム150は、機械学習を用いたモデルの構築と、モデルを用いたマッチング処理の結果の判定を実行する。
 演算システム150は、少なくとも1つのコンピュータを含む。演算システム150が第1コンピュータおよび第2コンピュータを含む複数のコンピュータを備える場合は、第1コンピュータは上記モデルを構築する工程を実行し、第2コンピュータは、上記モデル用いて、マッチング結果の判定を実行してもよい。第1コンピュータで作成されたモデルは、半導体メモリ(例えばUSBフラッシュドライブ)または光ディスク(例えば、CD-ROM)などの記録媒体に保存された後に、半導体メモリから第2コンピュータに読み込まれてもよい。あるいは、第1コンピュータで作成されたモデルは、インターネットまたはローカルエリアネットワークなどの通信ネットワークを通じて第2コンピュータに送信されてもよい。
 図2は、機械学習によりモデルを構築する一実施形態を説明するフローチャートである。
 ステップ1-1では、演算システム150は、設計データ上のCADパターンを指定する。図3は、CADパターンの一例を示す図である。図3において、符号101はCADパターンを示している。
 設計データは、ウェーハに形成されたパターンの設計情報を含むデータであり、具体的には、パターンの頂点の座標、パターンの位置、形状、および大きさ、パターンが属する層の番号などのパターンの設計情報を含む。設計データ上のCADパターンは、設計データに含まれるパターンの設計情報によって定義される仮想パターンである。このステップ1-1は、設計データに含まれる複数のCADパターンから、あるCADパターンを特定する工程である。このステップ1-1では、単数のCADパターンまたは複数のCADパターンが指定されてもよい。
 ステップ1-2では、演算システム150は、指定されたCADパターンの形状データおよび位置を設計データから取得する。CADパターンの形状データは、例えば、CADパターンの頂点の座標を含む。
 ステップ1-3では、演算システム150は、走査電子顕微鏡50に指令を発して、ステップ1-1で指定されたCADパターンに基づいて作成されたパターンを有するウェーハを、移動ステージ121により所定の撮像位置まで移動させる。所定の撮像位置は、CADパターンの位置に基づいて、予め算出される。
 ステップ1-4では、演算システム150は、移動ステージ121の移動ベクトルを算出する。この移動ステージ121の移動ベクトルは、予め定められた基準点から撮像位置までのベクトルである。演算システム150は、基準点の位置と、撮像位置から、移動ステージ121の移動ベクトルを算出することができる。演算システム150は、移動ステージ121の算出した移動ベクトル(移動距離および移動方向を含む)を記憶装置162内に記憶する。
 ステップ1-5では、演算システム150は、走査電子顕微鏡50に指令を発して、撮像位置にある移動ステージ121上のウェーハのパターンのSEM画像を走査電子顕微鏡50により生成させる。SEM画像に現れるパターンは、ステップ1-1で指定されたCADパターンに基づいて実際に作成されたパターンである。演算システム150は、SEM画像を走査電子顕微鏡50から取得し、SEM画像を記憶装置162内に記憶する。
 図4は、図3に示すCADパターン101に基づいて実際に作成されたパターンのSEM画像の一例を示す図である。図4において、符号104は、SEM画像を表し、符号105は、SEM画像104上に現れたパターン、すなわち図3に示すCADパターン101に対応する実パターンである。
 ステップ1-6では、演算システム150は、ステップ1-1で指定されたCADパターンと、ステップ1-5で生成されたSEM画像上のパターンとのマッチング処理を実行する。マッチング処理は、設計データ上のCADパターンを、SEM画像上のパターンに位置合わせする処理である。
 ステップ1-7では、CADパターンと、SEM画像上のパターンとの間のずれ量を算出する。基本的に、これら2つのパターン間のずれ量は少ないことが好ましい。パターン間のずれ量の算出は、公知の技術を用いて行うことができる。演算システム150は、算出したずれ量を、記憶装置162内に記憶する。
 ステップ1-8では、ユーザーは、ステップ1-6において演算システム150によって実行されたマッチング処理が成功したか否かを判断する。より具体的には、演算システム150は、マッチング処理の結果を示すCADパターンと、SEM画像上のパターンを表示画面165上に表示し、ユーザーは、表示画面165上のCADパターンがSEM画像上のパターンに正しく位置合わせされているか否かを判断する。
 図5は、図3に示すCADパターン101と、図4に示すSEM画像上のパターン105のマッチング処理が成功した例を示す図である。この例では、CADパターン101の各エッジおよび各頂点は、SEM画像上のパターン105の対応するエッジおよび対応する頂点に隣接する。これに対し、図6は、図3に示すCADパターン101と、図4に示すSEM画像上のパターン105のマッチング処理が失敗した例を示す図である。この例では、CADパターン101の各エッジおよび各頂点は、SEM画像上のパターン105の対応するエッジおよび対応する頂点とは別のエッジおよび頂点に隣接している。
 ステップ1-9では、ユーザーは、ステップ1-6で実行したマッチング処理が成功したか、または失敗したかを示す正解値を入力装置170を介して演算システム150に入力する。演算システム150は、正解値を記憶装置162内に記憶する。本実施形態では、マッチング処理が成功したことを表す正解値は1であり、マッチング処理が失敗したことを表す正解値は0である。正解値は、0~1の範囲内の数値であってもよい。例えば、マッチング処理が成功した可能性が高い場合は、正解値として0.8を入力してもよい。ただし、マッチング処理の結果を表す正解値の具体的な数値は、特に限定されない。例えば、マッチング処理が成功したことを表す正解値は100であってもよく、マッチング処理が失敗したことを表す正解値は0以外の数値であってもよい。
 ステップ1-10では、演算システム150は、ステップ1-2で取得したCADパターンの形状データと、ステップ1-4で算出した移動ステージ121の移動ベクトルと、ステップ1-7で算出した2つのパターン間のずれ量と、ステップ1-9で入力された正解値を含む訓練データを作成する。
 ステップ1-11では、演算システム150は、上記訓練データを用いて、モデルのパラメータ(重み係数など)を機械学習により決定する。より具体的には、演算システム150は、モデルによって定義されたアルゴリズムに従って計算を実行することで、モデルから、CADパターンとSEM画像上のパターンとのマッチング処理が成功したか、または失敗したかを示す指標値を出力し、指標値と上記正解値との差を最小とすることができるパラメータを決定する。
 演算システム150および走査電子顕微鏡50は、上述したステップ1-1からステップ1-11までの工程を、予め設定された回数だけ繰り返し、機械学習によりモデルを構築する。すなわち、モデルは、設計データ上の複数のCADパターンの形状データと、前記複数のCADパターンに基づいてそれぞれ作成された複数の実際のパターンの複数のSEM画像を生成するときに移動した移動ステージ121の移動ベクトルと、前記複数のCADパターンと前記複数のSEM画像上のパターンとのずれ量と、前記複数のCADパターンと前記複数のSEM画像上のパターンとのマッチング処理の結果を表す複数の正解値を含む訓練データを用いて機械学習により構築される。このように機械学習によって構築されたモデルは、学習済みモデルともいう。演算システム150は、モデルを記憶装置162内に記憶する。ステップ1-1~ステップ1-11が繰り返される間、同じ設計データが使用されてもよいし、または複数の設計データが使用されてもよい。
 図7は、機械学習に使用されるモデルの一例を示す模式図である。モデルは、入力層201と、複数の中間層(隠れ層ともいう)202と、出力層203を有したニューラルネットワークである。モデルの入力層201には、CADパターンの形状データと、移動ステージ121の移動ベクトルと、CADパターンとSEM画像上のパターンとの間のずれ量が入力される。出力層203は、CADパターンとSEM画像上のパターンとのマッチング処理が成功したか、または失敗したかを示す指標値を出力する。
 機械学習のアルゴリズムとしては、ディープラーニングが好適である。ディープラーニングは、中間層が多層化されたニューラルネットワークをベースとする学習法である。本明細書では、入力層と、複数の中間層(隠れ層)と、出力層で構成されるニューラルネットワークを用いた機械学習をディープラーニングと称する。ディープラーニングを用いて構築されたモデルは、様々な因子に起因して変わりうるマッチング処理の結果を正確に判定することができる。
 次に、機械学習によって構築されたニューラルネットワークからなる上記モデル(すなわち学習済みモデル)を用いて、CADパターンとSEM画像上のパターンとの位置合わせ(すなわちマッチング処理)が成功したか否かを判定する方法の一実施形態について、図8に示すフローチャートを参照して説明する。
 ステップ2-1では、演算システム150は、設計データ上のCADパターンを指定する。
 ステップ2-2では、演算システム150は、指定されたCADパターンの形状データおよびCADパターンの位置を設計データから取得する。
 ステップ2-3では、演算システム150は、走査電子顕微鏡50に指令を発して、ステップ2-1で指定されたCADパターンに基づいて作成されたパターンを有するウェーハを、移動ステージ121により所定の撮像位置まで移動させる。所定の撮像位置は、CADパターンの位置に基づいて、予め算出される。
 ステップ2-4では、演算システム150は、基準点から撮像位置まで移動した移動ステージ121の移動ベクトルを算出する。演算システム150は、移動ステージ121の算出した移動ベクトルを記憶装置162内に記憶する。
 ステップ2-5では、演算システム150は、走査電子顕微鏡50に指令を発して、撮像位置にある移動ステージ121上のウェーハのパターンのSEM画像を走査電子顕微鏡50により生成させる。SEM画像に現れるパターンは、ステップ2-1で指定されたCADパターンに基づいて実際に作成されたパターンである。演算システム150は、SEM画像を走査電子顕微鏡50から取得し、SEM画像を記憶装置162内に記憶する。
 ステップ2-6では、演算システム150は、ステップ2-1で指定されたCADパターンと、ステップ2-5で生成されたSEM画像上のパターンとのマッチング処理を実行する。
 ステップ2-7では、CADパターンと、SEM画像上のパターンとの間のずれ量を算出する。演算システム150は、算出したずれ量を、記憶装置162内に記憶する。
 ステップ2-8では、演算システム150は、ステップ2-2で取得したCADパターンの形状データと、ステップ2-4で算出した移動ステージ121の移動ベクトルと、ステップ2-7で算出した2つのパターン間のずれ量を、上記モデルに入力する。
 ステップ2-9では、演算システム150は、モデルによって定義されたアルゴリズムに従って計算を実行することで、モデルから、CADパターンとSEM画像上のパターンとのマッチング処理が成功したか、または失敗したかを示す指標値を出力する。マッチング処理が完全に成功したことを表す正解値が1であり、マッチング処理が完全に失敗したことを表す正解値が0である場合、指標値は0~1の範囲内の数値である。
 ステップ2-10では、演算システム150は、指標値をしきい値と比較し、比較結果に基づいてマッチング処理が成功したか、または失敗したかを判定する。本実施形態では、演算システム150は、指標値がしきい値以上である場合はマッチング処理が成功したと判定し、指標値がしきい値よりも小さい場合はマッチング処理が失敗したと判定する。上記しきい値は、記憶装置162内に予め格納されている。
 本実施形態によれば、CADパターンの形状データのみならず、移動ステージ121の移動ベクトルがモデルに入力されるので、モデルは移動ステージ121の移動ベクトルを反映したマッチング処理の結果を示す指標値を出力することができる。演算システム150は、指標値をしきい値との比較結果に基づいて、マッチング処理が成功したか、または失敗したかを正確に判定することができる。
 通常、設計データには、多数のパターンの設計情報が含まれている。したがって、設計データに含まれる設計情報によって定義されるCADパターンは多数存在する。演算システム150は、これらのCADパターンのそれぞれについてマッチング処理を実行し、CADパターンと、対応するSEM画像上のパターンとのずれ量を算出する。すなわち、演算システム150は、CADパターンを次々に変えながら、マッチング処理およびずれ量の算出を繰り返す。さらに、演算システム150は、複数のCADパターン、対応する複数のSEM画像、および対応する複数のずれ量を含む画像リストを作成し、画像リストを表示画面165上に表示する。
 図9は、画像マッチング装置によって作成された画像リストの一例を示す模式図である。図9に示すように、画像リストは、CADパターンと、対応するSEM画像と、CADパターンとSEM画像上のパターンとのずれ量を少なくとも含む多数の組み合わせを含んでいる。一実施形態では、図3に示すCADパターン101と、図4に示すSEM画像上のパターン105の組み合わせは、図9に示す複数の組み合わせのうちの1つである。
 演算システム150は、画像リストに載っている各CADパターンの形状データと、移動ステージ121の移動ベクトルと、CADパターンに対応する画像上のパターンとの間のずれ量を、機械学習により構築された上記モデルに入力し、モデルによって定義されたアルゴリズムに従って計算を実行することで、モデルから指標値を出力し、指標値をしきい値と比較し、比較結果に基づいてマッチング処理が成功したか、または失敗したかを判定する。
 指標値がしきい値よりも大きい場合、すなわちマッチング処理が成功した場合は、演算システム150は、そのマッチング処理を行ったCADパターンとSEM画像上のパターンの組み合わせの表示画面165上での表示の仕方を変化させるように構成されている。例えば、演算システム150は、画像リスト上の上記組み合わせの項目に取り消し線を付す(図10参照)、あるいは画像リスト上の上記組み合わせの項目の表示色を変える(図11参照)、あるいは上記組み合わせの項目を画像リストから削除する(図12参照)、あるいは上記組み合わせの項目を画像リスト上の他の位置に移動する(図13参照)。
 本実施形態によれば、マッチング処理が成功したCADパターンとSEM画像上のパターンの組み合わせの表示画面165上での表示の仕方が変化する。ユーザーは、表示画面165上の画像リストに基づいて、マッチング処理に失敗したCADパターンとSEM画像上のパターンの組み合わせを、マッチング処理に成功したCADパターンとSEM画像上のパターンの組み合わせから視覚的に容易に選り分けることができる。
 マッチング処理に失敗した組み合わせは、図6に示す例のように、CADパターンとSEM画像上のパターンとの位置合わせが正しく行われなかった可能性を示唆している。ユーザーは、マッチング処理に失敗した組み合わせについて、表示画面165上でCADパターンとSEM画像上のパターンとのマッチング処理、すなわちCADパターンとSEM画像上のパターンとの位置合わせを表示画面165上で手動で実行する。
 本実施形態によれば、演算システム150は、機械学習によって構築された上記モデルを使用して、画像リストに載っている全ての組み合わせについて、マッチング処理の結果を正確に判定できる。ユーザーは、マッチング処理に失敗したと判定された組み合わせについてのみ、マッチング処理を再実行すればよいので、ユーザーの労力が低減できる。
 一実施形態では、指標値がしきい値よりも小さい場合、すなわちマッチング処理が失敗した場合は、演算システム150は、そのマッチング処理が行われたCADパターンと、SEM像上のパターンとのマッチング処理を再度実行してもよい。この場合は、演算システム150は、マッチング処理の設定パラメータを変更した上で、マッチング処理を再実行してもよい。
 一実施形態では、指標値がしきい値よりも小さい場合、すなわちマッチング処理が失敗した場合は、演算システム150は、そのマッチング処理を行ったCADパターンとSEM画像上のパターンの組み合わせの表示画面165上での表示の仕方を変化させてもよい。例えば、演算システム150は、画像リスト上の上記組み合わせの項目の表示色を変える、あるいは上記組み合わせの項目を画像リスト上の他の位置に移動してもよい。
 本実施形態によれば、マッチング処理が失敗したCADパターンとSEM画像上のパターンの組み合わせの表示画面165上での表示の仕方が変化する。ユーザーは、表示画面165上の画像リストに基づいて、マッチング処理に失敗したCADパターンとSEM画像上のパターンの組み合わせを、マッチング処理に成功したCADパターンとSEM画像上のパターンの組み合わせから視覚的に容易に選り分けることができる。
 図14は、演算システム150の構成の一実施形態を示す模式図である。図14に示す実施形態では、演算システム150は、専用のコンピュータまたは汎用のコンピュータから構成される。演算システム150は、プログラムやデータなどが格納される記憶装置162と、記憶装置162に格納されているプログラムに従って演算を行うCPU(中央処理装置)またはGPU(グラフィックプロセッシングユニット)などの処理装置163と、データ、プログラム、および各種情報を記憶装置162に入力するための入力装置170と、処理結果や処理されたデータを出力するための出力装置190と、インターネットまたはローカルエリアネットワークなどの通信ネットワークに接続するための通信装置195を備えている。
 記憶装置162は、処理装置163がアクセス可能な主記憶装置162Aと、データおよびプログラムを格納する補助記憶装置162Bを備えている。主記憶装置162Aは、例えばランダムアクセスメモリ(RAM)であり、補助記憶装置162Bは、ハードディスクドライブ(HDD)またはソリッドステートドライブ(SSD)などのストレージ装置である。
 入力装置170は、キーボード、マウスを備えており、さらに、記録媒体からデータを読み出すための記録媒体読み出し装置182と、記録媒体が接続される記録媒体ポート184を備えている。記録媒体は、非一時的な有形物であるコンピュータ読み取り可能な記録媒体であり、例えば、光ディスク(例えば、CD-ROM、DVD-ROM)や、半導体メモリ(例えば、USBフラッシュドライブ、メモリーカード)である。記録媒体読み出し装置182の例としては、CD-ROMドライブ、DVD-ROMドライブなどの光学ドライブや、メモリーリーダーが挙げられる。記録媒体ポート184の例としては、USBポートが挙げられる。記録媒体に記憶されているプログラムおよび/またはデータは、入力装置170を介して演算システム150に導入され、記憶装置162の補助記憶装置162Bに格納される。出力装置190は、表示画面165、印刷装置192を備えている。
 少なくとも1台のコンピュータからなる演算システム150は、記憶装置162に電気的に格納されたプログラムに従って動作する。すなわち、演算システム150は、走査電子顕微鏡50に指令を発して、設計データ上のCADパターンに基づいて作成されたパターンを有するウェーハを移動ステージ121により所定の撮像位置まで移動させ、前記所定の撮像位置にあるウェーハのパターンのSEM画像を走査電子顕微鏡50から取得し、移動ステージ121の移動ベクトルを算出し、CADパターンと、SEM画像上のパターンとのマッチング処理を実行し、CADパターンと、SEM画像上のパターンとのずれ量を算出し、CADパターンの形状データと、ずれ量と、移動ステージ121の移動ベクトルを、機械学習により構築されたモデルに入力し、モデルによって定義されたアルゴリズムに従って計算を実行することで、モデルから、マッチング処理が成功したか、または失敗したかを示す指標値を出力するステップを実行する。
 これらステップを演算システム150に実行させるためのプログラムは、非一時的な有形物であるコンピュータ読み取り可能な記録媒体に記録され、記録媒体を介して演算システム150に提供される。または、プログラムは、インターネットまたはローカルエリアネットワークなどの通信ネットワークを介して通信装置195から演算システム150に入力されてもよい。
 上述した実施形態は、本発明が属する技術分野における通常の知識を有する者が本発明を実施できることを目的として記載されたものである。上記実施形態の種々の変形例は、当業者であれば当然になしうることであり、本発明の技術的思想は他の実施形態にも適用しうる。したがって、本発明は、記載された実施形態に限定されることはなく、特許請求の範囲によって定義される技術的思想に従った最も広い範囲に解釈されるものである。
 本発明は、設計データ上のパターンと、画像上のパターンとの位置合わせを行うための画像マッチングのエラーを判定するための方法および装置に利用可能である。
 50   走査電子顕微鏡
101   テンプレート画像
104   SEM画像
111   電子銃
112   集束レンズ
113   X偏向器
114   Y偏向器
115   対物レンズ
116   レンズ制御装置
117   偏向制御装置
118   画像取得装置
121   移動ステージ
122   ステージ制御装置
124   ウェーハ
130   二次電子検出器
131   反射電子検出器
140   ウェーハ搬送装置
150   演算システム
161   データベース
162   記憶装置
163   処理装置
165   表示画面
170   入力装置
170a  マウス
170b  キーボード

Claims (13)

  1.  設計データ上のCADパターンに基づいて作成されたパターンを有する対象物を移動ステージにより所定の撮像位置まで移動させ、
     前記所定の撮像位置にある前記対象物の前記パターンの実画像を生成し、
     前記移動ステージの移動ベクトルを算出し、
     前記CADパターンと、前記実画像上のパターンとのマッチング処理を実行し、
     前記CADパターンと、前記実画像上のパターンとのずれ量を算出し、
     前記CADパターンの形状データと、前記ずれ量と、前記移動ステージの移動ベクトルを、機械学習により構築されたモデルに入力し、
     前記モデルによって定義されたアルゴリズムに従って計算を実行することで、前記モデルから、前記マッチング処理が成功したか、または失敗したかを示す指標値を出力する、画像マッチング判定方法。
  2.  前記モデルは、複数のCADパターンの形状データと、前記複数のCADパターンに基づいてそれぞれ作成された複数の実際のパターンの複数の実画像を生成するときに移動した前記移動ステージの移動ベクトルと、前記複数のCADパターンと前記複数の実画像上のパターンとのずれ量を少なくとも含む訓練データを用いて機械学習により構築されたモデルである、請求項1に記載の画像マッチング判定方法。
  3.  前記マッチング処理を行った前記CADパターンと前記実画像上のパターンの組み合わせは、表示画面上に表示された画像リスト内の複数のCADパターンと、対応する複数の実画像上のパターンの複数の組み合わせのうちの1つである、請求項1または2に記載の画像マッチング判定方法。
  4.  前記画像マッチング判定方法は、前記マッチング処理が成功したことを前記指標値が示している場合は、前記マッチング処理を行った前記CADパターンと前記実画像上のパターンの組み合わせの前記表示画面上での表示の仕方を変化させる工程をさらに含む、請求項3に記載の画像マッチング判定方法。
  5.  前記画像マッチング判定方法は、前記マッチング処理が失敗したことを前記指標値が示している場合は、前記マッチング処理を行った前記CADパターンと前記実画像上のパターンの組み合わせの前記表示画面上での表示の仕方を変化させる工程をさらに含む、請求項3に記載の画像マッチング判定方法。
  6.  前記マッチング処理が失敗したことを前記指標値が示している場合は、前記CADパターンと、前記実画像上のパターンとのマッチング処理を再度実行する、請求項1乃至5のいずれか一項に記載の画像マッチング判定方法。
  7.  対象物の画像を生成する画像生成装置と、
     前記対象物に形成されたパターンの設計情報を含む設計データを含む演算システムを備え、
     前記演算システムは、前記設計データおよびプログラムが格納された記憶装置と、前記プログラムに従って演算を実行する処理装置を備えており、
     前記演算システムは、
      前記画像生成装置に指令を発して、前記設計データ上のCADパターンに基づいて作成されたパターンを有する対象物を移動ステージにより所定の撮像位置まで移動させ、
      前記所定の撮像位置にある前記対象物の前記パターンの実画像を前記画像生成装置から取得し、
      前記移動ステージの移動ベクトルを算出し、
      前記CADパターンと、前記実画像上のパターンとのマッチング処理を実行し、
      前記CADパターンと、前記実画像上のパターンとのずれ量を算出し、
      前記CADパターンの形状データと、前記ずれ量と、前記移動ステージの移動ベクトルを、機械学習により構築されたモデルに入力し、
      前記モデルによって定義されたアルゴリズムに従って計算を実行することで、前記モデルから、前記マッチング処理が成功したか、または失敗したかを示す指標値を出力するステップを前記プログラムに従って実行する、画像マッチング判定装置。
  8.  前記モデルは、設計データ上の複数のCADパターンの形状データと、前記複数のCADパターンに基づいてそれぞれ作成された複数の実際のパターンの複数の実画像を生成するときに移動した前記移動ステージの移動ベクトルと、前記複数のCADパターンと前記複数の実画像上のパターンとのずれ量を少なくとも含む訓練データを用いて機械学習により構築されたモデルである、請求項7に記載の画像マッチング判定装置。
  9.  前記マッチング処理を行った前記CADパターンと前記実画像上のパターンの組み合わせは、表示画面上に表示された画像リスト内の複数のCADパターンと、対応する複数の実画像上のパターンの複数の組み合わせのうちの1つである、請求項7または8に記載の画像マッチング判定装置。
  10.  前記演算システムは、前記マッチング処理が成功したことを前記指標値が示している場合は、前記マッチング処理を行った前記CADパターンと前記実画像上のパターンの組み合わせの前記表示画面上での表示の仕方を変化させるように構成されている、請求項9に記載の画像マッチング判定装置。
  11.  前記演算システムは、前記マッチング処理が失敗したことを前記指標値が示している場合は、前記マッチング処理を行った前記CADパターンと前記実画像上のパターンの組み合わせの前記表示画面上での表示の仕方を変化させるように構成されている、請求項9に記載の画像マッチング判定装置。
  12.  前記演算システムは、前記マッチング処理が失敗したことを前記指標値が示している場合は、前記CADパターンと、前記実画像上のパターンとのマッチング処理を再度実行するように構成されている、請求項7乃至11のいずれか一項に記載の画像マッチング判定装置。
  13.  画像生成装置に指令を発して、設計データ上のCADパターンに基づいて作成されたパターンを有する対象物を移動ステージにより所定の撮像位置まで移動させ、
     前記所定の撮像位置にある前記対象物の前記パターンの実画像を前記画像生成装置から取得し、
     前記移動ステージの移動ベクトルを算出し、
     前記CADパターンと、前記実画像上のパターンとのマッチング処理を実行し、
     前記CADパターンと、前記実画像上のパターンとのずれ量を算出し、
     前記CADパターンの形状データと、前記ずれ量と、前記移動ステージの移動ベクトルを、機械学習により構築されたモデルに入力し、
     前記モデルによって定義されたアルゴリズムに従って計算を実行することで、前記モデルから、前記マッチング処理が成功したか、または失敗したかを示す指標値を出力するステップをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2019/050631 2019-01-29 2019-12-24 画像マッチング判定方法、画像マッチング判定装置、および画像マッチング判定方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体 WO2020158261A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-013545 2019-01-29
JP2019013545A JP2020123064A (ja) 2019-01-29 2019-01-29 画像マッチング判定方法、画像マッチング判定装置、および画像マッチング判定方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
WO2020158261A1 true WO2020158261A1 (ja) 2020-08-06

Family

ID=71840856

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/050631 WO2020158261A1 (ja) 2019-01-29 2019-12-24 画像マッチング判定方法、画像マッチング判定装置、および画像マッチング判定方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体

Country Status (3)

Country Link
JP (1) JP2020123064A (ja)
TW (1) TW202040510A (ja)
WO (1) WO2020158261A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127081A1 (ja) * 2021-12-28 2023-07-06 株式会社日立ハイテク 画像検査装置、画像処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0786349A (ja) * 1993-09-16 1995-03-31 Fujitsu Ltd 電子ビームを用いた検査装置
JP2016173615A (ja) * 2013-06-24 2016-09-29 株式会社日立ハイテクノロジーズ 計測装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0786349A (ja) * 1993-09-16 1995-03-31 Fujitsu Ltd 電子ビームを用いた検査装置
JP2016173615A (ja) * 2013-06-24 2016-09-29 株式会社日立ハイテクノロジーズ 計測装置

Also Published As

Publication number Publication date
JP2020123064A (ja) 2020-08-13
TW202040510A (zh) 2020-11-01

Similar Documents

Publication Publication Date Title
TW490591B (en) Pattern inspection apparatus, pattern inspection method, and recording medium
JP6731370B2 (ja) 画像処理システム及び画像処理を行うためのコンピュータープログラム
JP6503153B2 (ja) ビジョンシステムにおいて3dアライメントアルゴリズムを自動選択するためのシステム及び方法
US10311576B2 (en) Image processing device and image processing method
JP2018136896A (ja) 情報処理装置、システム、情報処理方法、および物品の製造方法
JP6653929B1 (ja) 自動判別処理装置、自動判別処理方法、検査システム、プログラム、および記録媒体
JP2012068051A (ja) パターン欠陥検査装置およびパターン欠陥検査方法
WO2020158261A1 (ja) 画像マッチング判定方法、画像マッチング判定装置、および画像マッチング判定方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
TWI777612B (zh) 影像處理方法、形狀檢查方法、影像處理系統及形狀檢查系統
WO2020195304A1 (ja) パターンマッチング方法
KR20220062328A (ko) 웨이퍼 검사 방법 및 시스템
WO2020121739A1 (ja) 画像マッチング方法、および画像マッチング処理を実行するための演算システム
US20230005157A1 (en) Pattern-edge detection method, pattern-edge detection apparatus, and storage medium storing program for causing a computer to perform pattern-edge detection
JP5592414B2 (ja) テンプレート評価装置、顕微鏡装置及びプログラム
JP2020123034A (ja) 画像マッチング支援方法、画像マッチング支援装置、および画像マッチング支援方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP7451384B2 (ja) パターンエッジ検出方法、パターンエッジ検出装置、パターンエッジ検出をコンピュータに実行させるためのプログラムが記録された記録媒体
WO2021166142A1 (ja) パターンマッチング装置、パターン測定システムおよび非一時的コンピュータ可読媒体
JP7290780B1 (ja) 情報処理方法、コンピュータプログラム及び情報処理装置
JP7152973B2 (ja) 検査条件作成支援装置、検査条件作成支援方法、検査条件作成支援プログラムおよび記録媒体
KR20240043075A (ko) 반도체 관찰 시스템 및 오버레이 계측 방법
JP2024061116A (ja) 外観検査学習装置、方法、およびプログラム、ならびに外観検査装置、方法、およびプログラム
JP2020144995A (ja) 画像歪みの除去方法
JP2021131660A (ja) 寸法測定方法および寸法測定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19913832

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19913832

Country of ref document: EP

Kind code of ref document: A1