WO2014208257A1 - 計測装置 - Google Patents

計測装置 Download PDF

Info

Publication number
WO2014208257A1
WO2014208257A1 PCT/JP2014/064162 JP2014064162W WO2014208257A1 WO 2014208257 A1 WO2014208257 A1 WO 2014208257A1 JP 2014064162 W JP2014064162 W JP 2014064162W WO 2014208257 A1 WO2014208257 A1 WO 2014208257A1
Authority
WO
WIPO (PCT)
Prior art keywords
matching
identification
information
algorithm
pattern
Prior art date
Application number
PCT/JP2014/064162
Other languages
English (en)
French (fr)
Inventor
渉 長友
安部 雄一
Original Assignee
株式会社日立ハイテクノロジーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ハイテクノロジーズ filed Critical 株式会社日立ハイテクノロジーズ
Publication of WO2014208257A1 publication Critical patent/WO2014208257A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/56Measuring geometric parameters of semiconductor structures, e.g. profile, critical dimensions or trench depth
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/22Treatment of data
    • H01J2237/221Image processing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/26Electron or ion microscopes
    • H01J2237/28Scanning microscopes
    • H01J2237/2813Scanning microscopes characterised by the application
    • H01J2237/2817Pattern inspection

Definitions

  • the present invention relates to a measurement apparatus that uses pattern matching using a sample image.
  • Template matching is a process of finding a region that most closely matches a template image registered in advance from an image to be searched.
  • An example of a measurement / inspection apparatus using template matching is an apparatus that measures a pattern on a semiconductor wafer using a scanning electron microscope.
  • This apparatus moves the visual field of the apparatus to a rough position of the measurement position by moving the stage, but a large deviation often occurs on an image captured at a high magnification of an electron microscope only with the positioning accuracy of the stage.
  • the wafer may not be placed on the stage in the same direction every time, and the coordinate system of the wafer placed on the stage (for example, the direction in which the chips of the wafer are arranged, for example) may not completely coincide with the drive direction of the stage. is there. This also causes a shift on the image captured at a high magnification of the electron microscope.
  • the electron beam may be deflected by a minute amount (for example, several tens of ⁇ m or less) and irradiated to a target position on the observation sample (beam). Sometimes called shift). Even in this beam shift, the irradiation position may deviate from a desired observation position only by the accuracy of beam deflection control.
  • Template matching is performed to correct such deviation and perform measurement and inspection at an accurate position.
  • alignment is performed in multiple stages by alignment using an optical camera having a lower magnification than the electron microscope image and alignment using the electron microscope image.
  • alignment is performed using images of a plurality of chips (for example, chips on both the left and right sides of the wafer) that are separated from each other on the wafer. .
  • a unique identical pattern in each chip or in the vicinity thereof is registered as a template.
  • a pattern created as an optical alignment pattern on the wafer is often used.
  • the stage is moved so as to capture the pattern registered in the template in each chip, and an image is acquired in each chip. Template matching is performed on the acquired image, and the amount of stage movement deviation is calculated based on each matching position obtained as a result.
  • the stage movement coordinate system and wafer coordinate system are calculated using this deviation amount as a stage movement correction value. Adjust.
  • a unique pattern close to the measurement position is registered in advance as a template, and the relative coordinates of the measurement position viewed from the template are stored.
  • template matching is performed on the captured image, the matching position is determined, and the position moved by the stored relative coordinates is the measurement position.
  • the visual field of the apparatus is moved to a desired measurement position.
  • the alignment pattern may not appear in the image captured by the electron microscope. In that case, an alignment pattern is searched again around the imaging position (peripheral search), or the measurement is interrupted and the user is informed of the alignment failure (measurement interruption). In order to perform this process, it is necessary to determine whether or not there is an alignment pattern in the image. In this determination, for example, a matching score of template matching (for example, a correlation value in normalized correlation calculation) is used.
  • a matching score of template matching for example, a correlation value in normalized correlation calculation
  • this reference value is referred to as score acceptance
  • the difference in appearance between the template and the searched image increases is, for example, (1) the difference between the imaging condition of the inspection apparatus when the template is registered and the imaging condition of the inspection apparatus when the searched image is captured. (2) When the difference between the performance of the semiconductor pattern taken when the template is registered and the performance of the semiconductor pattern obtained by picking up the image to be searched increases, (3) The semiconductor pattern when the template is registered The semi-manufacturing process is different from the semiconductor pattern manufacturing process when the image to be searched is taken. Not only in the above example, the difference in the appearance of the image between the template and the searched image may increase due to various factors.
  • Another method for avoiding a matching failure due to the apparent divergence between the template and the searched image is the difference in the degree or tendency of the divergence or the conditions (pattern design, imaging magnification, etc.) that cause the divergence.
  • a matching algorithm may be changed or a matching preprocessing (smoothing processing, edge enhancement, etc.) may be adjusted.
  • matching is successful by changing the imaging conditions of the apparatus (imaging magnification, acceleration voltage of irradiated electrons in an electron microscope, detector type, etc.).
  • the new image is substantially an image used in the past.
  • the reliability of the matching performance is higher when the previously learned identification surface is reused than when the identification surface is re-learned.
  • the identification surface is a multidimensional plane in a multidimensional feature amount space, it is difficult to recreate the identification surface by manual operation. In the above-mentioned patent document 1, a method for solving this problem is not described. In addition to returning the identification plane to the previous setting, there are cases in which other apparatus conditions (accompanying information) when the identification plane is used are also restored to the previous setting.
  • the setting parameter of the preprocessing is adjusted, or the imaging is performed. It is possible to adjust the conditions.
  • the user needs to select and determine a setting suitable for the observation target from among these various options. This is often a cumbersome task for the user, such as requiring confirmation for each observation target or trial and error in order to determine a setting for successful matching. When doing so, the production efficiency may be lowered by stopping the production line. Furthermore, there is a risk that an appropriate setting cannot be found.
  • a method of automatically selecting an appropriate setting according to the observation target is desired. Since this method does not require the user to select a setting (mode selection) when performing matching, it is hereinafter referred to as modeless matching.
  • modeless matching A method using machine learning can be considered to realize modeless matching. In other words, it is conceivable to select an appropriate mode according to the state of the observation target using the identification surface obtained by machine learning.
  • this method there is a problem that it is difficult to return to the setting of the previous identification plane when the identification plane is relearned.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a measurement device that can easily reuse an identification surface used when pattern matching has been performed in the past. .
  • the measuring device assigns unique identification information to at least one of the matching identification plane for determining the success or failure of the matching and the algorithm identification plane for selecting the algorithm, and stores it in the storage unit. These identification surfaces are called using the identification information as a key.
  • the measuring apparatus it is possible to easily call and reuse the identification surface used when pattern matching has been performed in the past by using the unique identification information given to the identification surface.
  • FIG. 2 is a functional block diagram of a measuring apparatus 1000.
  • FIG. It is a figure which shows the apparatus structure of the scanning electron microscope mainly used in order to measure the pattern dimension of the semiconductor device formed on the semiconductor wafer. It is a figure explaining the image set 102 and the data 107 for learning.
  • 10 is a flowchart for explaining processing in which the measurement apparatus 1000 acquires an image set 102 and learning data 107. It is a figure which shows the example of the text file 500 which described the content of the data 107 for learning. It is a figure which shows the structural example of the log
  • FIG. It is a figure which shows the example of the text file 700 which described the content of the historical information 600.
  • FIG. It is a figure which shows a mode that a matching algorithm is selected using an algorithm identification surface, and a matching success / failure is determined using a matching identification surface. It is a functional block diagram explaining operation
  • FIG. It is a figure which illustrates GUI1100 which displays and edits history information 600. It is a figure which illustrates GUI1200 which searches the history information 600 which the memory
  • FIG. 1 is a functional block diagram of a measuring apparatus 1000 according to the present invention.
  • the measurement apparatus 1000 specifies a measurement position on the sample by template matching. Also, machine learning is performed on the identification surface used for matching success / failure or algorithm selection, and unique identification information is assigned to the learned identification surface and stored, and the identification surface used in the past is later called using the identification information. It is configured to be able to.
  • the measuring apparatus 1000 includes a learning data generation unit 100, a history storage unit 110, a template matching unit 120, and a history information selection unit 140.
  • the learning data generation unit 100 acquires a plurality of sample images and generates learning data for learning the identification plane.
  • the history storage unit 110 uses at least one of a matching identification surface for determining the success or failure of matching and an algorithm identification surface for selecting a matching algorithm using the generated learning data (both will be provided in the following description). Machine identification), and the identification information unique to the identification plane obtained by learning is stored in association with each other.
  • the template matching unit 120 performs template matching using the identification surface.
  • the history information selection unit 140 reads the identification surface from the storage unit using the identification information as a key in response to a user request.
  • the learning data generation unit 100 includes a learning image acquisition unit 101 and a data generation unit 106.
  • the learning image acquisition unit 101 acquires a learning image set 102.
  • the image set 102 is a set of template images 103 and matching position images.
  • the matching position image includes at least one of the matching correct answer position image 104 and the matching incorrect answer position image 105, and includes one or both of one or both images for each template image.
  • the data generation unit 106 gives a label necessary for subsequent machine learning to the image set 102 and outputs it as learning data 107.
  • the label for learning the matching discriminating surface is specifically a label indicating that the image at the correct answer position is an image at the correct answer position (hereinafter referred to as positive), and is not included in the image at the incorrect match position. It is a label indicating that it is a correct position (hereinafter referred to as negative).
  • the label for learning the algorithm identification plane which will be described in detail later with reference to FIG. 8, is the matching algorithm name (matching mode name) when the matching correct position image is obtained.
  • the image set 102 at that time may not be the matching correct position image but the searched image itself.
  • the label and the learning data are not limited to those shown here, as long as the identification surface for determining the success or failure of the matching or the identification surface for selecting the algorithm can be obtained by machine learning. Good.
  • the history storage unit 110 includes an identification surface learning unit 111, an identification information adding unit 113, a history storage unit 117, and a storage unit 118.
  • the identification surface learning unit 111 performs machine learning using the learning data 107 to obtain a desired identification surface.
  • the identification surface can be obtained by an existing method described in Patent Document 1 or the like. As a machine learning method, for example, SVM may be used. Although the specific example will be described later with reference to FIG. 8, an identification surface for determining the success or failure of the matching in a feature amount space constituted by a plurality of feature amounts extracted from the learning data (identification boundary, the same applies hereinafter). Or an identification surface for selecting a matching algorithm.
  • the identification information adding unit 113 adds unique identification information to the identification plane data 112 that combines the obtained identification plane and accompanying information related to the identification plane (details will be described with reference to FIG. 6). Examples of the identification information will be described in detail later with reference to FIG. 6, but include a measurement recipe 115 describing a measurement procedure, incidental information 116 related to measurement, and the like.
  • the history storage unit 117 stores the identification surface data 112 with the identification information added in the storage unit 118.
  • the template matching unit 120 includes at least one of an algorithm selection unit 121 and a matching success / failure determination unit 122.
  • the algorithm selection unit 121 selects a matching algorithm corresponding to the measurement target 130 using the measurement recipe 114 (with identification information attached), and performs template matching. A specific example of selecting a matching algorithm using the identification plane will be described later with reference to FIG.
  • the matching success / failure determination unit 122 performs template matching and obtains a matching result. For the matching process, for example, a method described in Patent Document 2 can be used.
  • the feature quantity obtained from the measurement object, the template image, or their mutual relationship is plotted in the feature quantity space obtained by the discrimination plane learning unit 111, and the discrimination plane data 112 holds the discrimination plane. Based on this, the matching correct position of the measurement object 130 is obtained.
  • the algorithms selected by the algorithm selection unit 121 include those having the same algorithm, different setting parameters, different preprocessing in image processing, and different preprocessing parameters, etc. .
  • a matching algorithm designated in advance is used, and the identification plane is used only in the matching success / failure determination.
  • a matching algorithm is selected using the identification surface, and a general matching method is used without determining the identification surface in the template matching success / failure determination (for example, described in Patent Document 2).
  • Image-based matching which is a conventional method).
  • the matching result 136 obtained by template matching using the identification surface can be acquired, the matching result 136 can also be stored in the storage unit 118 in association with the above-described identification information.
  • the history information selection unit 140 includes a history information reading unit 142.
  • the history information reading unit 142 selects information 141 (search keyword (device name, creation date and time, creator, etc.) for specifying a desired identification plane and conditions for calling the history information 600 described later, external conditions (device pattern width 20 nm or less). , Etc.) and the like, etc.) are retrieved from the storage unit 118 and called.
  • the history information reading unit 142 passes the read identification surface data 143 to the identification information adding unit 113.
  • the identification information adding unit 113 adds the identification information 143 to the measurement recipe 115 as described above. As a result, a desired identification surface stored in the storage unit 118 can be searched, and pattern matching can be performed in combination with the measurement recipe 114.
  • FIG. 2 is a diagram showing an apparatus configuration of a scanning electron microscope (SEM) mainly used for measuring pattern dimensions of a semiconductor device formed on a semiconductor wafer as an example of the measuring apparatus 1000. It is.
  • SEM scanning electron microscope
  • the electron gun 201 generates an electron beam.
  • the deflector 204 and the objective lens 205 are controlled so that the electron beam is focused and irradiated at an arbitrary position on the semiconductor wafer 203 as a sample placed on the stage 202.
  • Secondary electrons are emitted from the semiconductor wafer 203 irradiated with the electron beam and detected by the secondary electron detector 206.
  • the detected secondary electrons are converted into a digital signal by the A / D converter 207 and stored in the image memory 215 in the processing unit 214.
  • the CPU 216 performs image processing according to the purpose and identification processing using machine learning.
  • the template matching of the present invention is performed by the processing unit 214.
  • the display device 220 displays the processing result.
  • the optical camera 211 is used for optical alignment at a magnification lower than that of the electron microscope described above.
  • a signal obtained by imaging the semiconductor wafer 203 with the optical camera 211 is also converted into a digital signal by the A / D converter 212 (when the output of the optical camera 211 is a digital signal, the A / D converter 212 is converted into a digital signal).
  • the backscattered electron detector 208 detects backscattered electrons emitted from the semiconductor wafer 203.
  • the detected backscattered electrons are converted into digital signals by the A / D converter 209 or 210 and stored in the image memory 215 in the processing unit 214, and the CPU 216 processes the image according to the purpose.
  • FIG. 3 is a diagram for explaining the image set 102 and the learning data 107.
  • FIG. 3A shows an example of an image acquired for learning the identification plane.
  • the images used for learning the identification plane are a template image 301 and a searched image 302 that are objects to be searched for in pattern matching.
  • As the template image 301 an image actually acquired by the apparatus (for example, an image acquired by an electron microscope or an image acquired by the optical camera 211) may be used, or described in JP-A-2002-328015. As described above, it may be created based on the design data of the semiconductor device. When creating a template image based on design data, the trouble of acquiring an image with the measuring apparatus 1000 is not required for creating a template.
  • a position 303 that matches a desired matching pattern in the searched image 302 is a matching correct position. All positions other than the matching correct answer position 303 are matching incorrect answer positions.
  • a position 304 is shown as an example of a matching incorrect answer position.
  • FIG. 3B is a diagram illustrating an example of image data included in the learning data 107.
  • the learning data 107 includes a combination of the template image 311 and the matching position image, and a label is added to the matching image.
  • FIG. 3B shows an example of labeling for learning an identification surface for determining success or failure of matching. A positive label is added to the matching correct answer position image 312, and a negative label is added to the matching incorrect answer position image 313. By using such labeled data, the identification surface can be machine-learned.
  • the matching algorithm name becomes a label.
  • the matching algorithm name in this case can be given a different algorithm name not only in the type of matching technique but also when the setting parameters of the algorithm are different or when the setting parameters of preprocessing in image processing are different. As a result, even when the setting parameters are different, they are handled as different matching modes, and it is possible to learn an identification surface for selecting an appropriate matching mode by taking into account the differences in the setting parameters.
  • FIG. 3C is a diagram showing conditions for changing the learning data 107.
  • the learning data 107 is acquired, the possibility of matching becomes more robust as it is acquired so as to include as many variations of various learning data as possible for each inspection target.
  • Conditions for causing variations in the learning data 107 include a pattern shape variation 321, a device condition variation 322, and a selected matching algorithm setting variation 323.
  • the pattern shape 321 includes a design variation 330 (designed shape). For example, a line & space pattern, a hole array pattern, an application pattern, and other various patterns are conceivable, and there are variations such as the size of each pattern and the pitch of arrangement. Since the pattern shape type of these samples has a great influence on the learning result of the identification surface, it is desirable to learn the identification surface for each pattern shape type so that the pattern shape type can be identified. The same applies to other pattern shapes 321 described below.
  • Other pattern shapes 321 include variations 331 due to fluctuations in semiconductor manufacturing process conditions. For example, there are cases where the dimensions of the pattern deviate from the design data, and there are cases where roughness occurs in the lines.
  • pattern shapes 321 include variations depending on the structure of the semiconductor device or the manufacturing process. For example, when there is a misalignment between the upper and lower layers in the multilayer structure pattern, the observed pattern shape differs depending on the degree of misalignment when both the upper and lower layers are observed in the observation image. Further, the appearance of the edge of the observed image may differ depending on the difference between the upper and lower layers. Further, depending on the inclination angle of the pattern side wall, the side wall portion may be reflected in the observation image of the top view, and the appearance may differ from the design data. Alternatively, there may be a difference in image contrast depending on the material. In addition, in the multiple exposure (SADP or the like) of the semiconductor process, the appearance may differ from the design data due to misalignment between the exposure layers.
  • SADP multiple exposure
  • the device condition 322 there is a device setting variation 335.
  • there are setting differences such as imaging magnification, accelerating voltage of irradiated electrons, probe current, focus setting value, number of frames added to an image, and differences in detectors.
  • Another variation of the device condition 322 is a machine difference 336 between devices.
  • Another variation of the device condition 322 is a change 337 in the execution value of the device setting.
  • An image to which other disturbance conditions 338 are added is also conceivable. For example, it may be affected by external electromagnetic field noise or mechanical vibration.
  • Variations of the matching algorithm setting 323 include the type of algorithm method to be selected, differences in algorithm setting parameters, differences in preprocessing of image processing, and differences in setting parameters of preprocessing.
  • the image set 102 under various conditions can be acquired by changing the variation condition of the learning data 107 described above and acquiring the image set 102. It is considered that more robust matching is possible by performing machine learning using learning data 107 generated including assumed variations. However, the matching is not necessarily robust enough to include many conditions. Further, the variation condition is not limited to the above-described conditions, and the image set 102 can be acquired using other conditions as long as the characteristics of the image change.
  • FIG. 4 is a flowchart illustrating a process in which the measurement apparatus 1000 acquires the image set 102 and the learning data 107.
  • the learning image acquisition unit 101 performs steps S401 to S410, and the data generation unit 106 performs steps S421 to S422.
  • steps S421 to S422 hereinafter, each step of FIG. 4 will be described.
  • Step S401 The learning image acquisition unit 101 acquires a template image 311.
  • Step S402 The learning image acquisition unit 101 moves the field of view so that the observation target on the wafer falls within the field of view of the apparatus (as described in the background art, since the field of view shifts occur, the observation target does not necessarily enter the field of view. No), an image of the field of view is acquired by the measuring apparatus 1000 and is set as a searched image.
  • the shooting condition information 430 describing the conditions for shooting an image in this step is the input in step S422.
  • Step S403 The learning image acquisition unit 101 performs template matching between the template image 311 and the searched image.
  • the algorithm setting information 431 describing the setting of the matching algorithm used at this time is an input in step S422.
  • Step S404 If matching or measurement performed after the matching succeeds, the process proceeds to step S405, and if unsuccessful, the process proceeds to step S408.
  • Steps S405 to S407 The learning image acquisition unit 101 cuts out the matching position (S405), and registers the cut out image as the matching correct position image 312 (S406). Furthermore, an arbitrary position other than the matching correct answer position may be cut out (S407), and the cut out image may be registered as a matching incorrect answer position image 313 in step S409 described later.
  • Steps S408 to S409) The learning image acquisition unit 101 cuts out the matching position (S408) and registers the cut out image as the matching incorrect answer position image 313 (S409).
  • the image cut out in step S407 may be registered as a matching incorrect answer position image 313.
  • Step S410 The learning image acquisition unit 101 determines whether the matching process has been completed for all of the learning data conditions. If not completed, the process returns to step S401 to perform matching for the remaining conditions.
  • An image set obtained by completing the matching process for all the conditions is the image set 102.
  • the template matching is actually performed to determine the success or failure of the matching. However, the user may determine the success or failure of the matching by visual confirmation.
  • the data generation unit 106 labels the image set 102 (S421). For each template image, the data generation unit 106 associates the template image with the matching image and the corresponding label, and stores them in the storage unit 118. An example of association will be described later with reference to FIG. Further, the imaging condition information 430 and the algorithm setting information 431 may be associated with each other and stored in the storage unit 118. The contents of the imaging condition information 430 and the algorithm setting information 431 are, for example, part or all of the contents described with reference to FIG.
  • FIG. 5 is a diagram showing an example of a text file 500 in which the contents of the learning data 107 are described.
  • the image file names are described.
  • an image file name is described for each labeling result.
  • a positive image file name list 511 and a negative image file name list 512 are described.
  • imaging condition information 430 and algorithm setting information 431 can be described. These descriptions are the information shown in FIG.
  • the text file 500 is created by the data generation unit 106 in step S422 and stored in the storage unit 118.
  • FIG. 6 is a diagram illustrating a configuration example of information stored in the storage unit 118 by the history storage unit 117 (hereinafter referred to as history information 600).
  • the history information 600 is a combination of an identification plane used in past pattern matching and information associated with the identification plane, and includes a management number / character string 610, an algorithm identification plane attribute 611, a matching identification plane attribute 612, and a measurement recipe name 613. , Incidental information 614, matching performance information 615, and learning data information 616.
  • the management number / character string 610 is a unique identification used to identify the identification surface stored in the storage unit 118 or to identify the identification surface used when the measuring apparatus 1000 performs template matching. Information.
  • the description format is not limited as long as the identification surface can be uniquely identified.
  • the algorithm identification plane attribute 611 is identification plane attribute information used for selecting a matching algorithm, and includes a learning method type 620, learning method accompanying information 621, the number of matching algorithms and names 622 of each matching algorithm, and features used in learning. A quantity type 623 is included.
  • the algorithm identification plane attribute 611 is not limited to these, and other information indicating the algorithm identification plane attribute can also be used.
  • the learning method type 620 specifies the type of learning method used when the identification surface learning unit 111 performs machine learning (for example, non-linear soft margin SVM).
  • the algorithm selection unit 121 also uses an identification method corresponding to the learning method type 620.
  • Support vector information necessary for constructing an identification surface in SVM and class information (matching success / failure or type of matching algorithm) associated with each support vector can also be included.
  • the learning method accompanying information 621 is information describing setting parameters in the machine learning method performed by the identification surface learning unit 111.
  • the type of kernel function Gibres kernel, polynomial kernel, etc.
  • the coefficient of the kernel function ⁇ value, etc. if Gauss kernel
  • the penalty imposed on the sample that does not satisfy the discrimination by the discrimination plane There are cost factors, etc. that set the degree.
  • information about support vectors obtained by machine learning can also be included.
  • the feature amount type 623 designates a feature amount type used in machine learning performed by the identification surface learning unit 111. Multiple types may be specified.
  • the identification surface learning unit 111 obtains an identification surface in the feature amount space constituted by this feature amount. Also, when the algorithm selection unit 121 selects a matching algorithm, the feature quantity to be measured is plotted in this feature quantity space to identify the identification plane.
  • An example of the type of feature amount is described in Patent Document 2.
  • the matching identification surface attribute 612 is identification surface attribute information used for determining the success or failure of the matching, and includes a learning method type 624, a learning method associated information 625, and a feature amount type 626. These contents are the same as the information included in the algorithm identification plane attribute 611 except for the point used when determining the success or failure of the matching.
  • the measurement recipe name 613 is a name of a file (recipe file) describing a measurement procedure performed by the measurement apparatus 1000. This file describes various settings, processing execution procedures, and the like of the apparatus for performing desired measurement.
  • the incidental information 614 includes a general attribute 627 and a measurement target attribute 628.
  • the general attribute 627 is the date and time when the history information 600 is created, the name of the creator, comment information that the user arbitrarily describes.
  • the measurement target attribute 628 is information such as device feature information. For example, a process name to be measured, a device structure name (line & space, hole array, SAxP, FinFET, DSA, etc.), an assumed device size (line width, hole diameter, etc.), and the like. In addition to the above contents, other information can be used as long as it can be used to specify the history information 600.
  • the matching performance information 615 is information on matching performance when template matching is performed using each identification surface corresponding to the algorithm identification surface attribute 611 and the matching identification surface attribute 612. For example, the matching accuracy rate, the separability between the matching score of the matching correct position and the matching score of the matching failure position (for example, the matching score of the matching incorrect position / matching score of the matching correct position), the success or failure of the matching (specific template) And the success or failure of matching in each combination of the searched image.
  • the matching performance information 615 is not limited to the above contents, and may be information indicating matching performance.
  • Learning data information 616 is learning data 107 and its attribute information.
  • the learning image 629 describes the file name of the template image, the file name of the matching correct answer position image, and the file name of the matching incorrect answer position image.
  • the imaging condition information 630 is information such as a measurement device ID, an imaging magnification, an imaging range, an acceleration voltage of irradiation electrons, a probe current, a frame addition number, and a focus value.
  • the measurement target information 631 describes line width, edge roughness, and the like.
  • the update history information 632 describes the update history of the learning data information 616.
  • the management number / character string 610 of the original learning data and the re-learning data Write the learning execution conditions (name of additional learning data, etc.).
  • new learning data is created from a plurality of different original learning data, the plurality of learning data are described.
  • all the update histories may be described, or as necessary, the update histories may be described only for a part of the relearning.
  • the update history information 632 can be used to trace the creation history of the learning data.
  • the learning data information 616 is not limited to the above content, and may be any information that represents the feature of the learning data.
  • the history storage unit 117 associates each information included in the history information 600 with the management number / character string 610 as a key, and stores the information in the storage unit 118. Similarly, other information can be stored in association with the management number / character string 610 as a key. As a result, it is possible to store the past history of the identification plane and related information.
  • FIG. 7 is a diagram showing an example of a text file 700 in which the contents of the history information 600 are described.
  • the history storage unit 117 creates a text file 700 based on information input on a screen described later with reference to FIG. 11 and stores it in the storage unit 118, for example.
  • the history storage unit 117 automatically assigns a number different from the management number / character string 610 of the text file 700 that has already been stored, or a screen that the user explains in FIG. Enter above.
  • each information can be stored in the storage unit 118 in association with each other.
  • each information is not limited to that shown in FIG.
  • Each information may be divided into a plurality of files.
  • the correspondence relationship can be maintained by a technique such as assigning a management number / character string 610 to each file and associating it, or associating each file based on a file name.
  • FIG. 8 is a diagram illustrating a state in which a matching algorithm is selected using an algorithm identification plane and a matching success / failure is determined using the matching identification plane.
  • an identification surface in a two-dimensional feature amount space using two feature amounts is illustrated, but three or more types of feature amounts may be used.
  • FIG. 8A is a diagram illustrating a state in which the matching success / failure is determined using the matching identification surface 800.
  • a matching identification plane 800 that divides the feature quantity into two classes of matching success and matching failure is obtained in a feature quantity space constituted by a plurality of feature quantities obtained from the learning data 107 during learning.
  • a feature amount is obtained from a measurement target, the feature amount is plotted in the same feature amount space as in learning, and the feature amount belongs to which class divided by the matching identification plane 800.
  • the success or failure of the matching is determined. If the measured feature amount belongs to the matching success class, it is determined as matching success, and if it belongs to the matching failure class, it is determined as matching failure.
  • FIG. 8B is a diagram showing a state in which a matching algorithm is selected using the algorithm identification surface 850.
  • an algorithm identification plane 850 is obtained that divides a feature quantity into three classes corresponding to each matching algorithm in a feature quantity space constituted by a plurality of feature quantities obtained from learning data 107 during learning.
  • a feature amount is obtained from a measurement target, the feature amount is plotted in the same feature amount space as that during learning, and the feature amount belongs to which class divided by the algorithm identification plane 850. Select the matching algorithm to be used.
  • FIG. 9 is a functional block diagram for explaining the operation when the measuring apparatus 1000 re-learns the identification surface.
  • Re-learning is performed using the learning data information 616 stored in the. Since the history information 600 previously obtained by learning is managed, existing learning data used for relearning can be easily selected and relearned efficiently.
  • FIG. 10 is a diagram for explaining a hardware configuration example of the measuring apparatus 1000.
  • the measuring apparatus 1000 does not necessarily have to mount all the components in one piece of hardware, and the components can be distributed and mounted on a plurality of devices.
  • measuring devices 1001 to 1003, a storage unit 118, and a computer 1004 are connected to a network 1100.
  • the computer 1004 performs at least a part of the functions of the measuring apparatus 1000.
  • the functions of the history information selection unit 140 and the output unit 135 are mounted on the computer 1004, and an operation input from the user is received via a GUI described in FIG. 11 described later, or a matching result 136 is presented to the user. be able to.
  • the storage unit 118 can be shared by the measuring devices 1001 to 1003.
  • the history information 600 can be given a different management number / character string 610 for each measuring device, or can be shared if the management number / character string 610 does not overlap.
  • the measuring apparatuses 1001 to 1003 have functions other than those provided in the computer 1004 and functions other than the storage unit 118 among the functions of the measuring apparatus 1000.
  • the number of measuring devices is arbitrary and is not limited to three.
  • the number of computers 1004 is not limited to one.
  • the functions of the measurement apparatus 1000 may be distributed and implemented on a plurality of computers.
  • FIG. 11 is a diagram illustrating a GUI 1100 for displaying and editing the history information 600.
  • the GUI 1100 can be configured as an operation screen on a display, for example.
  • the GUI 1100 includes items corresponding to at least a part of the history information 600.
  • the management number / character string 1110, the algorithm identification plane attribute 1111, the matching identification plane attribute 1112, the measurement recipe file name 1113, the incidental information 1114, the matching performance 1115, and the learning data information 1116 are displayed. Can be edited.
  • the user inputs a value in the management number / character string 1110 and presses the identification surface reading button 1133.
  • the history information reading unit 142 calls the corresponding history information 600 from the storage unit 118 and displays it on the GUI 1100.
  • the user designates the measurement recipe file name of the measurement apparatus 1000 in the measurement recipe file name 1113 and presses the linkage button 1132, the displayed history information 600 and the designated measurement recipe are linked by the same management number / character string 1100. can do.
  • the history information storage button 1131 is pressed, the history storage unit 117 stores the displayed history information in the storage unit 118.
  • the matching performance 1115 can also be obtained by reading past matching results from the storage unit 118. In this case, the matching result reading button 1120 is pressed to read data describing the matching result.
  • the learning data information 1116 can display a list of designated images. An image used for learning can be selected from the list. Further, an image can be deleted from the learning data 107 (button 1121) or a new image can be added (button 1122). When the learning button 1130 or the re-learning button 1134 is pressed, the identification surface learning unit 111 learns or re-learns the identification surface according to the displayed contents.
  • FIG. 12 is a diagram illustrating a GUI 1200 that searches the history information 600 stored in the storage unit 118.
  • the user inputs a search keyword 1201 and presses a search button 1202.
  • the history information reading unit 142 collates the history information 600 with the search keyword 1201 and displays a list of matching items on the list display unit 1210.
  • the list display unit 1210 displays at least a part of the history information 600.
  • the history information reading unit 142 reads the details of the history information 1211 from the storage unit 118 and displays the details on the GUI 1100, for example.
  • the selection button 1213 is pressed, the selected history information 1211 is added to the measurement recipe, and this is used when performing subsequent matching.
  • FIG. 13 is a diagram illustrating a GUI 1300 for monitoring the operation status of the identification surface in the measurement apparatus 1000.
  • the identification surface used when the measurement apparatus 1000 performs pattern matching may be switched depending on conditions such as a measurement target in order to stably perform matching.
  • the GUI 1300 displays the operation status of the identification surface for each measuring device 1000. Specifically, the following information is displayed by the graph 1310 for each measuring device 1000.
  • the horizontal axis of the graph 1310 displays the date and time and the management number / character string 610 of the identification surface used by the measuring apparatus 1000 at each date and time.
  • the vertical axis of the graph 1310 displays the matching error rate and the matching score when the measuring apparatus 1000 performs pattern matching.
  • the user knows that the matching may become unstable if the matching score decreases with the passage of time. Similarly, when the error rate increases, it can be easily understood that the matching is unstable. In addition, it is possible to display on the GUI 1300 that the matching may be unstable when the matching score is equal to or lower than a predetermined threshold value, and to prompt the user to change or re-learn the identification surface.
  • the detail display button 1311 When the detail display button 1311 is pressed, the history information 600 of the identification surface displayed on the graph 1310, the matching performance so far in the measurement device 1000, the matching performance using the identification surface in the other measurement device 1000, and the like. Can be displayed.
  • the measuring apparatus 1000 assigns the identification information exemplified as the history information 600 to at least one of the identification plane for determining the success or failure of the matching and the identification plane for selecting the matching algorithm.
  • These identification surfaces used in the past can be called using the identification information as a key.
  • the identification plane is updated by re-learning, for example, the previously generated identification plane and related history information 600 can be called and template matching can be performed using this.
  • the measuring apparatus 1000 it is possible to easily return to the setting of the identification surface used in the past, so that the user can re-learn the identification surface without worrying about a decrease in matching performance. Can be updated.
  • the measurement apparatus 1000 it is possible to perform matching with a small number of matching algorithms as compared with a method (ensemble learning) in which a matching algorithm is selected by machine learning and a combination of a plurality of matching algorithms is used. it can. Thereby, matching processing time can be shortened and the throughput of the measuring apparatus 1000 can be improved.
  • the history information 600 is preferably configured so that the user can easily call each identification surface later. Therefore, it is considered desirable that the history information 600 is configured using information that can well represent the characteristics of the learning result of each identification surface and that allows the user to easily recognize the characteristics.
  • the learning result of the identification surface is greatly influenced by the shape pattern type to be measured, and the shape pattern type is information that can be easily recognized by the user, so it is considered useful to use this as the history information 600. .
  • the appearance and learning result of the pattern shape varies greatly depending on the photographing magnification, it is also useful to use the photographing magnification together with the pattern shape.
  • it is desirable to use an identification surface that has learned the pattern shape well it is considered that the matching performance when pattern matching is performed using the pattern shape is also useful as the history information 600.
  • the present invention is not limited to the above-described embodiment, and includes various modifications.
  • the above embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to the one having all the configurations described.
  • the present invention can also be applied to an inspection apparatus that inspects a sample using pattern matching.
  • a scanning electron microscope is shown as an example of a measuring apparatus, but the present invention is not limited to this, and can be widely applied to measuring apparatuses that perform template matching using a sample image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Length-Measuring Devices Using Wave Or Particle Radiation (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Abstract

 本発明は、過去にパターンマッチングを実施した際に使用した識別面を容易に再利用することができる計測装置を提供することを目的とする。 本発明に係る計測装置は、マッチング成否を判定するためのマッチング識別面と、アルゴリズムを選択するためのアルゴリズム識別面とのうち少なくともいずれかについて、固有の識別情報を付与して記憶部に格納しておき、識別情報をキーにしてこれら識別面を呼び出す(図1参照)。

Description

計測装置
 試料の画像を用いたパターンマッチングを利用する計測装置に関する。
 半導体ウェーハ上に形成されたパターンを計測・検査する装置においては、テンプレートマッチング技術を利用して、所望の計測位置に検査装置の視野を合わせる。テンプレートマッチングは、あらかじめ登録されたテンプレート画像と最も一致する領域を、探索対象の画像から見つける処理である。
 テンプレートマッチングを用いた計測・検査装置の例としては、走査型電子顕微鏡を用いて半導体ウェーハ上のパターンを計測する装置がある。本装置は、ステージ移動によって計測位置の大まかな位置に装置の視野を移動するが、ステージの位置決め精度だけでは電子顕微鏡の高倍率で撮像された画像上で大きなズレが生じることが多い。また、ウェーハをステージに毎回同じ方向で載せられるとは限らず、ステージに載せたウェーハの座標系(例えば、ウェーハのチップ等の並ぶ方向)が、ステージの駆動方向と完全には一致しない場合がある。これも電子顕微鏡の高倍率で撮像された画像上のズレの原因となる。さらに、所望の観察位置での高倍率の電子顕微鏡画像を得るために、電子ビームを微小量(例えば数十μm以下)だけ偏向させて観察試料上の狙った位置に照射する場合がある(ビームシフトと呼ぶ場合がある)。このビームシフトにおいてもビームの偏向制御の精度だけでは照射位置が所望の観察位置からズレが生じることがある。
 このようなズレを補正して正確な位置で計測・検査を実施するため、テンプレートマッチングが実施される。まず、電子顕微鏡像よりも低倍率の光学式カメラを用いたアライメント、および電子顕微鏡像を用いたアライメントにより、多段階にアライメントを実施する。
 例えば、ステージに乗せたウェーハの座標系のアラメントを光学式カメラで実施する場合は、ウェーハ上で離れた位置にある複数チップ(例えばウェーハの左右両端のチップ)の画像を用いてアライメントを実施する。まず各チップ内、あるいは近傍にあるユニークな同一パターン(各チップ内で相対的に同じ位置にあるパターン)をテンプレートとして登録する。このとき登録するパターンとしては、ウェーハ上に光学用のアライメントパターンとして作成されたものを用いることが多い。次に、各チップにおいてテンプレート登録したパターンを撮像するようにステージを移動し、各チップにおいて画像を取得する。取得した画像に対しテンプレートマッチングを実施し、その結果得られる各マッチング位置に基づき、ステージ移動のズレ量を算出し、このズレ量をステージ移動の補正値としてステージ移動の座標系とウェーハの座標系を合わせる。
 電子顕微鏡を用いるアライメントにおいては、あらかじめ計測位置に近いユニークなパターンをテンプレートとして登録し、テンプレートから見た計測位置の相対座標を記憶しておく。電子顕微鏡が撮像した画像から計測位置を求めるときは、撮像した画像においてテンプレートマッチングを実施し、マッチング位置を決め、そこから記憶しておいた相対座標分移動したところが計測位置となる。
 上記のようなテンプレートマッチングを利用して、所望の計測位置まで装置の視野を移動させる。
 ステージ移動のズレ、あるいはビームシフトのズレが大きい場合は、電子顕微鏡が撮像した画像内にアライメント用のパターンが写らない場合がある。その場合は、撮像位置周辺でアライメント用のパターンを再び探す(周辺探索)、あるいは計測を中断してアライメントに失敗したことをアラームでユーザに伝える(計測中断)。この処理を実施するためには、画像内にアライメント用のパターンが有るか否かを判定することが必要である。この判定においては、例えばテンプレートマッチングのマッチングスコア(例えば正規化相関演算での相関値)を用いる。マッチングスコアがあらかじめ設定した基準値(以降、この基準値をスコアアクセプタンスと呼ぶ)より高ければ視野内にパターンが有ると判定し、マッチングスコアがスコアアクセプタンスより低ければ視野内にパターンがないと判定する。
 テンプレートマッチングにおいて、テンプレートと被サーチ画像それぞれの見た目の乖離が大きい場合、マッチングに失敗する可能性がある。テンプレートと被サーチ画像それぞれの見た目の乖離が大きくなる理由として、例えば、(1)テンプレートを登録した時の検査装置の撮像条件と被サーチ画像を撮像した時の検査装置の撮影条件との差が大きくなった場合、(2)テンプレートを登録した時の撮影した半導体パターンの出来栄えと被サーチ画像を撮像した半導体パターンの出来栄えの違いが大きくなった場合、(3)テンプレートを登録した時の半導体パターンの半製造工程と、被サーチ画像を撮影したときの半導体パターンの製造工程が異なる場合、などがある。上記例に限らず様々な要因でテンプレートと被サーチ画像とで画像の見た目の乖離が大きくなることがある。
 テンプレートと被サーチ画像それぞれの見た目の乖離によるマッチングの失敗を回避する方法の1つとして、テンプレートまたは被サーチ画像から抽出した様々な種類の画像特徴量、あるいはテンプレートと被サーチ画像との両者の相互関係から算出した様々な画像特徴量を用いてマッチング成否を判断する方法が提案されている(特許文献1)。本方法においては、複数の種類の画像特徴量を用いて構成した特徴量空間において、マッチング成否を判別する識別面(マッチング判定境界面(超平面))を機械学習(Support Vector Machine:SVMなど)によって事前に求めておき、検査対象をマッチングするときは、この識別面を用いてマッチング正解位置を求める。本方法においては、画像から得られる情報(画像特徴量)を複数用いることにより、マッチングをロバストにしている。
 またテンプレートと被サーチ画像との見た目の乖離によるマッチングの失敗を回避する他の方法として、乖離の程度、傾向に応じて、あるいは乖離の要因となる条件(パターンのデザイン、撮像倍率など)の違いに応じて、マッチングアルゴリズムを変更し、またはマッチングの前処理(平滑化処理、エッジ強調など)を調整する方法が考えられる。また、装置の撮像条件(撮像倍率、電子顕微鏡での照射電子の加速電圧、検出器の種類など)を変更することにより、マッチングが成功するケースもある。
特開2012-167363号出願
 上記特許文献1に記載されている技術においては、学習時の画像として用いていなかった新しい種類の画像が検査時に入力されると、マッチングが不安定になる場合がある。その場合には、その新しい種類の画像を用いて再学習することが必要になる。ただし、再学習をすると、それまで用いていた識別面およびそれに関連する付随情報が使用できなくなる可能性がある。
 例えば半導体製造ラインにおいて、過去の製造工程を再現する場合には、新しい種類の画像がマッチング実施時に投入されたとしても、その新しい画像は実質的には過去に使用された画像である。この場合は、識別面を再学習するよりも、以前に学習した識別面を再利用するほうが、マッチング性能の信頼性が高いと考えられる。この場合は、装置設定を以前の識別面に戻したほうが望ましいと考えられる。しかし、識別面は多次元の特徴量空間における多次元平面であるため、マニュアル操作により識別面を再作成することは困難である。上記特許文献1においては、この課題を解消する方法については述べられていない。また、識別面を以前の設定に戻すのみならず、同識別面を用いた際のその他の装置条件(付帯情報)も併せて以前の設定に戻したいケースもある。
 テンプレートと被サーチ画像それぞれの見た目の乖離によるマッチング失敗を回避する他の方法として、背景技術で述べたように、マッチングアルゴリズムを変更する、前処理(画像処理)の設定パラメータを調整する、あるいは撮像条件を調整するなどが考えられる。この場合、ユーザはこれらの様々の選択肢のなかから、観察対象に適した設定を選択し、決定する必要がある。この作業は、観察対象毎の確認が必要であったり、マッチングが成功する設定を決定するために試行錯誤が必要であったりと、ユーザにとって煩雑な作業となるケースが多く、また設定変更を試行するとき製造ラインを止めることにより生産効率を下げる恐れもある。さらには適切な設定が見つけ出せない恐れもある。
 そこで、観察対象に応じて自動で適切な設定を選択する方法が望まれる。この方法は、マッチングを実施する際にユーザが設定を選択(モード選択)することが不要となるものであるため、以降ではモードレスマッチングと呼ぶこととする。モードレスマッチングを実現するため、機械学習を用いる方法が考えられる。すなわち、機械学習により得た識別面を用いて、観察対象の状態に応じた適切なモードを選択することが考えられる。しかし本方法においても、識別面を再学習すると、それまでの識別面の設定に戻すことが困難であるという課題がある。
 本発明は、上記のような課題に鑑みてなされたものであり、過去にパターンマッチングを実施した際に使用した識別面を容易に再利用することができる計測装置を提供することを目的とする。
 本発明に係る計測装置は、マッチング成否を判定するためのマッチング識別面と、アルゴリズムを選択するためのアルゴリズム識別面とのうち少なくともいずれかについて、固有の識別情報を付与して記憶部に格納しておき、識別情報をキーにしてこれら識別面を呼び出す。
 本発明に係る計測装置によれば、識別面に付与した固有の識別情報により、過去にパターンマッチングを実施した際に使用した識別面を容易に呼び出して再利用することができる。
計測装置1000の機能ブロック図である。 半導体ウェーハ上に形成された半導体デバイスのパターン寸法を計測するために主に用いられる走査型電子顕微鏡の装置構成を示す図である。 画像集合102と学習用データ107について説明する図である。 計測装置1000が画像集合102と学習用データ107を取得する処理を説明するフローチャートである。 学習用データ107の内容を記述したテキストファイル500の例を示す図である。 履歴情報600の構成例を示す図である。 履歴情報600の内容を記述したテキストファイル700の例を示す図である。 アルゴリズム識別面を用いてマッチングアルゴリズムを選択し、マッチング識別面を用いてマッチング成否を判定する様子を示す図である。 計測装置1000が識別面を再学習する場合の動作を説明する機能ブロック図である。 計測装置1000のハードウェア構成例を説明する図である。 履歴情報600を表示および編集するGUI1100を例示する図である。 記憶部118が格納している履歴情報600を検索するGUI1200を例示する図である。 計測装置1000における識別面の運用状況をモニタリングするGUI1300を例示する図である。
 以下では本発明の実施形態について図面を用いて説明する。なお、図中で説明番号が同じものは、特に断わりがない限り同一部材を示していることとする。
 図1は、本発明に係る計測装置1000の機能ブロック図である。計測装置1000は、テンプレートマッチングによって試料上の計測位置を特定する。また、マッチング成否もしくはアルゴリズム選択において用いる識別面を機械学習し、学習した識別面に固有の識別情報を付与して記憶しておき、後にその識別情報を用いて過去に使用した識別面を呼び出すことができるように構成されている。
 計測装置1000は、学習用データ生成部100、履歴保存部110、テンプレートマッチング部120、履歴情報選択部140を備える。学習用データ生成部100は、複数の試料画像を取得し、識別面を学習するための学習用データを生成する。履歴保存部110は、生成した学習用データを用いて、マッチングの成否を判定するためのマッチング識別面、マッチングアルゴリズムを選択するためのアルゴリズム識別面のうち少なくともいずれか(以降の説明においては双方備えるものとする)を機械学習し、学習によって得られた識別面に固有の識別情報を対応付けて記憶する。テンプレートマッチング部120は、識別面を用いてテンプレートマッチングを実施する。履歴情報選択部140は、ユーザのリクエストに応じて、識別情報をキーにして識別面を記憶部から読み出す。
 学習用データ生成部100は、学習用画像取得部101、データ生成部106を備える。学習用画像取得部101は、学習用の画像集合102を取得する。画像集合102は、テンプレート画像103、マッチング位置画像の集合である。マッチング位置画像は、マッチング正解位置画像104とマッチング不正解位置画105のうち少なくともいずれかを含み、1枚のテンプレート画像毎に、いずれか一方または両方の画像を1枚以上含んでいる。データ生成部106は、画像集合102に対して、後の機械学習において必要となるラベルを画像データに付与し、学習用データ107として出力する。
 なお、後段の機械学習においては、マッチング成否を判定するために用いるマッチング識別面を学習するケースと、マッチングアルゴリズムを選択する(マッチングモード選択)ために用いるアルゴリズム識別面を学習するケースがある。マッチング識別面を学習する場合のラベルは、具体的にはマッチング正解位置の画像に正解位置の画像であることを示すラベル(ここではポジティブと呼ぶことにする)、マッチング不正解位置の画像に不正解位置であることを示すラベル(ここではネガティブと呼ぶこととする)である。アルゴリズム識別面を学習する場合のラベルは、詳細は後述の図8で説明するが、マッチング正解位置画像を得た時のマッチングアルゴリズム名(マッチングモード名)である。その時の画像集合102は、マッチング正解位置画像でなく、被サーチ画像そのものであってもよい。ラベルおよび学習用データは、ここで示したものに限定するものではなく、マッチング成否を判定するための識別面、あるいはアルゴリズムを選択するための識別面を機械学習によって得られるようなものであればよい。
 履歴保存部110は、識別面学習部111、識別情報付加部113、履歴保存部117、記憶部118を備える。識別面学習部111は、学習用データ107を用いて機械学習を実施し、所望の識別面を求める。識別面は、特許文献1などに記載されている既存の方法によって求めることができる。機械学習手法としては、例えばSVMなどを用いればよい。識別面は、具体例については後述の図8で説明するが、学習用データから抽出した複数の特徴量によって構成される特徴量空間において、マッチング成否を判別する識別面(識別境界、以下同様)、あるいはマッチングアルゴリズム選択する識別面である。識別情報付加部113は、求めた識別面、および識別面に関係する付随情報(詳細は図6で説明)を併せた識別面データ112に、固有の識別情報を付加する。識別情報の例としては、詳細は後述の図6で説明するが、計測手順を記述した計測レシピ115、計測に関連する付帯情報116などが挙げられる。履歴保存部117は、識別情報を付加した識別面データ112を、記憶部118に格納する。
 テンプレートマッチング部120は、アルゴリズム選択部121、マッチング成否判定部122のうち少なくともいずれかを備える。以下では説明の便宜上、双方備えるものとする。アルゴリズム選択部121は、計測レシピ114(識別情報付与済み)を用いて、計測対象130に対応するマッチングアルゴリズムを選択し、テンプレートマッチングを実施する。識別面を用いてマッチングアルゴリズムを選択する具体例については、後述の図8で説明する。マッチング成否判定部122は、テンプレートマッチングを実施しマッチング結果を求める。マッチング処理は、例えば特許文献2に記載されている方法を用いることができる。簡単に述べると、計測対象、テンプレート画像、あるいはこれらの相互関係から求めた特徴量を、識別面学習部111が求めた特徴量空間にプロットし、識別面データ112が保持している識別面に基づき、計測対象130のマッチング正解位置を求める。
 アルゴリズム選択部121が選択するアルゴリズムは、アルゴリズム自体が異なる以外に、同一アルゴリズムであっても、設定パラメータが異なるもの、画像処理における前処理が異なるもの、および前処理のパラメータが異なるものなどを含む。
 計測装置1000がアルゴリズム選択部121を用いない場合は、あらかじめ指定されたマッチングアルゴリズムを用い、マッチング成否判定においてのみ識別面を用いる。マッチング成否判定部122を用いない場合は、識別面を用いてマッチングアルゴリズムを選択し、テンプレートマッチングの成否判定においては、識別面を用いずに一般的なマッチング方法を用いる(例えば特許文献2に記載されている従来法である画像ベースマッチングなど)。
 識別面を用いたテンプレートマッチングによって得られるマッチング結果136が取得できた場合には、マッチング結果136も上述の識別情報と対応付けて記憶部118に格納することもできる。
 履歴情報選択部140は、履歴情報読出部142を備える。履歴情報読出部142は、所望の識別面および後述する履歴情報600を呼び出す条件を指定する選択用情報141(検索キーワード(デバイス名称、作成日時、作成者など)、外部条件(デバイスパターン幅20nm以下、2012年以降作成など)など)に基づき、条件を満たす識別面を記憶部118から検索して呼び出す。履歴情報読出部142は、読み出した識別面データ143を、識別情報付加部113に渡す。識別情報付加部113は、前述と同様に計測レシピ115に識別情報143を付加する。これにより、記憶部118が格納している所望の識別面を検索し、計測レシピ114と組み合わせてパターンマッチングを実施することができる。
 図2は、計測装置1000の1例として、半導体ウェーハ上に形成された半導体デバイスのパターン寸法を計測するために主に用いられる走査型電子顕微鏡(Scanning Electron Microscope:SEM)の装置構成を示す図である。
 電子銃201は電子線を発生させる。ステージ202上におかれた試料である半導体ウェーハ203上の任意の位置において電子線が焦点を結んで照射されるように、偏向器204および対物レンズ205を制御する。電子線を照射された半導体ウェーハ203からは2次電子が放出され、2次電子検出器206により検出される。検出された2次電子はA/D変換器207によりデジタル信号に変換され、処理部214内の画像メモリ215に格納される。CPU216は、目的に応じた画像処理、機械学習を用いた識別処理を実施する。本発明のテンプレートマッチングは、処理部214が実施する。表示装置220は、処理結果を表示する。光学式カメラ211は、先に述べた電子顕微鏡よりも低倍の光アライメントのために用いる。半導体ウェーハ203を光学式カメラ211によって撮像して得られる信号も、A/D変換器212によってデジタル信号に変換され(光学式カメラ211の出力がデジタル信号である場合は、A/D変換器212は不要)、処理部214内の画像メモリ215に格納され、CPU216が目的に応じてこれを画像処理する。反射電子検出器208が備わっている場合には、半導体ウェーハ203から放出される反射電子を、反射電子検出器208により検出する。検出された反射電子はA/D変換器209あるいは210によってデジタル信号に変換され、処理部214内の画像メモリ215に格納され、CPU216は目的に応じてこれを画像処理する。
 図3は、画像集合102と学習用データ107について説明する図である。以下、図3に示す各例について説明する。
 図3(a)は、識別面を学習するために取得する画像例を示す。識別面を学習するために用いる画像は、パターンマッチングにおいて探し出す対象であるテンプレート画像301と、被サーチ画像302である。テンプレート画像301は、実際に装置が取得した画像(例えば、電子顕微鏡で取得した画像、あるいは光学式カメラ211が取得した画像)を用いてもよいし、特開2002-328015号公報に記載されているように、半導体デバイスの設計データに基づいて作成してもよい。設計データに基づいてテンプレート画像を作成する場合は、テンプレート作成のためにわざわざ計測装置1000で画像を取得する手間が不要となる。被サーチ画像302内において、所望のマッチングパターンに合致する位置303がマッチング正解位置となる。マッチング正解位置303以外の位置は、全てマッチング不正解位置である。図3(a)においては、マッチング不正解位置の1例として位置304を示している。
 図3(b)は、学習用データ107に含まれる画像データの例を示す図である。図1で説明した通り、学習用データ107にはテンプレート画像311とマッチング位置画像の組み合せが含まれ、マッチング画像にはラベルが付加されている。図3(b)は、マッチング成否を判定する識別面を学習するためのラベル付け例を示す。マッチング正解位置画像312に対してポジティブのラベルを、マッチング不正解位置画像313に対してネガティブのラベルを付加している。このようなラベル付けしたデータを用いることにより、識別面を機械学習することができる。
 マッチングアルゴリズムを選択する識別面を学習するための学習用データ107においては、マッチングアルゴリズム名がラベルとなる。この場合におけるマッチングアルゴリズム名は、マッチング手法の種類のみでなく、そのアルゴリズムの設定パラメータが異なる場合、あるいは画像処理での前処理の設定パラメータが異なる場合においても、異なるアルゴリズム名を付けることもできる。これにより、設定パラメータが異なる場合も異なるマッチングモードとして取り扱い、設定パラメータの違いも範疇に入れて適切なマッチングモードを選択する識別面を学習することができる。
 図3(c)は、学習用データ107を変動させる条件を示す図である。学習用データ107を取得する際には、検査対象毎に想定される様々な学習用データのバリエーションをできるだけ多く含むように取得するほど、マッチングがよりロバストになる可能性が高くなる。学習用データ107のバリエーションを生じさせる条件としては、パターン形状のバリエーション321、装置条件のバリエーション322、選択したマッチングアルゴリズム設定のバリエーション323がある。
 パターン形状321としては、デザインバリエーション330がある(設計された形状)。例えば、ライン&スペースのパターン、ホールアレイパターン、付き当てパターン、その他様々なパターンが考えられ、また各パターンのサイズ、配置のピッチ等のバリエーションがある。これら試料のパターン形状種別は、識別面の学習結果に大きな影響を与えるので、パターン形状種別毎に識別面を学習し、そのパターン形状種別を識別することができるようにしておくことが望ましい。以下に説明するその他のパターン形状321についても同様である。
 その他のパターン形状321としては、半導体の製造プロセスの条件変動によるバリエーション331がある。例えば、パターンの寸法がデザインデータと乖離するケースや、ラインにラフネスが生じる場合がある。
 その他のパターン形状321としては、半導体デバイスの構造、あるいは製造工程によるバリエーションがある。例えば、多層構造パターンにおける上下層のアライメントずれがある場合は、観察像において上下層とも観察されると、ずれの程度によって観察されるパターン形状が異なる。また上下層の違いによって、観察像のエッジの見え方が異なる場合がある。またパターン側壁の傾斜角度によっては、トップビューの観察像においても側壁部が写り込んで、デザインデータと見え方が異なる場合がある。あるいは材質の違いによって、画像のコントラストに違いが生じる場合がある。また半導体プロセスの多重露光(SADP等)において各露光層間のアライメントずれによりデザインデータと見え方が異なる場合がある。
 装置条件322のバリエーションとしては、装置設定のバリエーション335がある。例えば、撮像倍率、照射電子の加速電圧、プローブ電流、フォーカス設置値、画像のフレーム加算数、検出器の違い等の設定の違いがある。その他の装置条件322のバリエーションとしては、装置間の機差336がある。また他の装置条件322のバリエーションとしては、装置設定の実行値の経時変化337がある。その他の外乱条件338が加わった画像も考えられる。例えば、外部からの電磁場ノイズや機械的な振動の影響を受けた場合がある。
 マッチングアルゴリズム設定323のバリエーションとしては、選択するアルゴリズム手法の種類、アルゴリズムの設定パラメータの違い、画像処理の前処理の違いあるいは前処理の設定パラメータの違いなどがある。
 以上に挙げた学習用データ107の変動条件を変えて画像集合102を取得することにより、様々な条件の下における画像集合102を取得することができる。想定されるバリエーションを含めて生成した学習用データ107を用いて機械学習することにより、よりロバストなマッチングが可能になると考えられる。ただし、必ずしも多くの条件を含めるほどマッチングがロバストになるとは限らない。また、変動条件はここに挙げた条件に限定するものではなく、画像の特徴が変化する条件であれば、その他の条件を用いて画像集合102を取得することもできる。
 図4は、計測装置1000が画像集合102と学習用データ107を取得する処理を説明するフローチャートである。学習用画像取得部101はステップS401~S410を実施し、データ生成部106はステップS421~S422を実施する。以下、図4の各ステップについて説明する。
(図4:ステップS401)
 学習用画像取得部101は、テンプレート画像311を取得する。
(図4:ステップS402)
 学習用画像取得部101は、ウェーハ上の観察対象が装置視野内に入るように視野を移動させ(背景技術で述べたように視野移動ずれが生じるため必ずしも視野内に観察対象が入るとは限らない)、その視野の画像を計測装置1000で取得し、被サーチ画像とする。本ステップにおいて画像を撮影する際の条件を記述した撮影条件情報430は、ステップS422の入力となる。
(図4:ステップS403)
 学習用画像取得部101は、テンプレート画像311と被サーチ画像との間のテンプレートマッチングを実施する。このとき用いるマッチングアルゴリズムの設定を記述したアルゴリズム設定情報431は、ステップS422の入力となる。
(図4:ステップS404)
 マッチングまたはそのマッチング後に実施する計測が成功した場合はステップS405へ進み、失敗した場合はステップS408へ進む。
(図4:ステップS405~S407)
 学習用画像取得部101は、マッチング位置を切り出し(S405)、切り出した画像をマッチング正解位置画像312として登録する(S406)。さらに、マッチング正解位置以外の任意位置を切り出し(S407)、後述のステップS409においてその切り出した画像をマッチング不正解位置画像313として登録してもよい。
(図4:ステップS408~S409)
 学習用画像取得部101は、マッチング位置を切り出し(S408)、切り出した画像をマッチング不正解位置画像313として登録する(S409)。ステップS407において切り出した画像をマッチング不正解位置画像313として登録してもよい。
(図4:ステップS410)
 学習用画像取得部101は、学習用データ条件の全てについてマッチング処理が終了したか否かを判定する。終了していない場合は、ステップS401に戻って残りの条件についてマッチングを実施する。全ての条件(例えば図3(c)で説明した全ての条件)についてマッチング処理を終了して得た画像集合が、画像集合102となる。ここでは実際にテンプレートマッチングを実施してマッチング成否を判定したが、ユーザが目視確認することによりマッチング成否を判定してもよい。
(図4:ステップS421~S422)
 データ生成部106は、画像集合102に対してラベルを付ける(S421)。データ生成部106は、各テンプレート画像について、テンプレート画像とマッチング画像および対応するラベルを対応付け、記憶部118に格納する。対応付けの例については、後述の図7で説明する。さらに、撮像条件情報430やアルゴリズム設定情報431を併せて対応付けて記憶部118に格納してもよい。撮像条件情報430およびアルゴリズム設定情報431の内容は、例えば、図3(c)で説明した内容の一部または全部である。
 図5は、学習用データ107の内容を記述したテキストファイル500の例を示す図である。テンプレート画像510、マッチング結果画像511および512については、その画像ファイル名を記述する。マッチング位置画像については、ラベル付けの結果毎に画像ファイル名を記述する。例えば図5に示すように、ポジティブの画像ファイル名リスト511、ネガティブの画像ファイル名リスト512のように記述する。その他、撮像条件情報430とアルゴリズム設定情報431を記述することもできる。これらの記述内容は図3(c)で示した情報である。テキストファイル500は、ステップS422においてデータ生成部106が作成し、記憶部118に格納する。
 図6は、履歴保存部117が記憶部118に格納する情報(以下では履歴情報600と呼ぶ)の構成例を示す図である。履歴情報600は、過去のパターンマッチングにおいて使用した識別面およびこれに対応付けられた情報の組み合わせであり、管理番号/文字列610、アルゴリズム識別面属性611、マッチング識別面属性612、計測レシピ名613、付帯情報614、マッチング性能情報615、学習用データ情報616がある。
 管理番号/文字列610は、記憶部118が格納している識別面を特定し、あるいは計測装置1000がテンプレートマッチングを実施する際に利用している識別面を特定するために用いる、固有の識別情報である。識別面を固有に識別することができれば、記述形式は問わない。
 アルゴリズム識別面属性611は、マッチングアルゴリズムを選択するために用いる識別面の属性情報であり、学習法種別620、学習法付随情報621、マッチングアルゴリズムの数および各マッチングアルゴリズムの名称622、学習において用いる特徴量種別623を含む。アルゴリズム識別面属性611はこれらに限られるものではなく、アルゴリズム識別面の属性を表すその他の情報を用いることもできる。
 学習法種別620は、識別面学習部111が機械学習を実施する際に用いる学習手法の種類を指定する(例えば、非線形ソフトマージンSVM)。アルゴリズム選択部121も学習法種620に対応する識別手法を用いる。SVMにおける識別面を構築するため必要となるサポートベクタ情報、およびサポートベクタ毎に付随するクラス情報(マッチング成否あるいはマッチングアルゴリズムの種類)も含めることができる。
 学習法付随情報621は、識別面学習部111が実施する機械学習手法における設定パラメータを記述する情報である。例えば非線形ソフトマージンSVMであれば、カーネル関数の種類(ガウスカーネル、多項式カーネルなど)、カーネル関数の係数(ガウスカーネルであれば、γ値など)、識別面による判別を満たさないサンプルに課すペナルティの程度を設定するコスト係数、などがある。その他、機械学習により得たサポートベクタについての情報も含めることができる。
 特徴量種別623は、識別面学習部111が実施する機械学習において用いる特徴量の種類を指定する。複数種類を指定してもよい。識別面学習部111は、この特徴量によって構成される特徴量空間における識別面を求める。またアルゴリズム選択部121がマッチングアルゴリズムを選択するときも、この特徴量空間において、計測対象の特徴量をプロットし、識別面を識別する。特徴量の種類の例は、特許文献2に記載されている。
 マッチング識別面属性612は、マッチング成否を判定するために用いる識別面の属性情報であり、学習法種別624、学習法付随情報625、特徴量種別626を含む。これらの内容は、マッチング成否を判定する際に用いる点を除き、アルゴリズム識別面属性611に含まれる各情報と同様である。
 計測レシピ名613は、計測装置1000が実施する計測手順を記述したファイル(レシピファイル)の名称である。本ファイルは、所望の計測を実施するための装置の様々な設定、処理実行手順などを記述している。
 付帯情報614は、一般属性627、計測対象属性628を含む。一般属性627は、履歴情報600を作成した日時、作成者名、ユーザが任意に内容を記載するコメント情報などである。計測対象属性628は、デバイスの素性情報などの情報である。例えば、計測対象の工程名、デバイス構造名(ライン&スペース、ホールアレイ、SAxP、FinFET、DSAなど)、デバイスの想定サイズ(線幅、ホール径など)などである。上記内容以外にも、履歴情報600を特定するために利用できるものであれば、その他の情報を用いることができる。
 マッチング性能情報615は、アルゴリズム識別面属性611、マッチング識別面属性612に対応する各識別面を用いてテンプレートマッチングを実施したときのマッチング性能に関する情報である。例えば、マッチング正解率、マッチング正解位置のマッチングスコアとマッチング失敗位置のマッチングスコアとの間の分離性(例えば、マッチング不正解位置のマッチングスコア/マッチング正解位置のマッチングスコア)、マッチング成否(特定のテンプレートと被サーチ画像との各組み合わせにおけるマッチング成否)である。マッチング性能情報615は、上記内容に限定するものではなく、マッチング性能を表す情報であればよい。
 学習用データ情報616は、学習用データ107およびその属性情報である。例えば、学習用画像629は、テンプレート画像のファイル名、マッチング正解位置画像のファイル名、マッチング不正解位置画像のファイル名を記述している。撮像条件情報630は、計測装置ID、撮像倍率、撮像範囲、照射電子の加速電圧、プローブ電流、フレーム加算数、フォーカス値、などの情報である。計測対象情報631は、ライン幅、エッジラフネスなどを記述している。更新履歴情報632は、当該学習用データ情報616の更新履歴を記載したものである。例えば、ある学習用データ(ここではオリジナル学習用データと呼ぶことにする)に基づき再学習を実施し新たな学習用データを作成した場合は、オリジナル学習用データの管理番号/文字列610および再学習実行条件(追加学習用データの名称など)を記載する。複数の異なるオリジナル学習用データから新たな学習用データを作成した場合は、それら複数の学習用データを記載する。再学習を複数回実施した場合はその全ての更新履歴を記載してもよいし、必要に応じて、一部の再学習についてのみ更新履歴を記載してもよい。これにより更新履歴情報632を用いて、学習用データの作成履歴を辿ることができる。学習用データ情報616は、上記内容に限定するものでなく、学習用データの素性をあらわす情報であればよい。
 履歴保存部117は、管理番号/文字列610をキーにして履歴情報600に含まれる上記各情報を対応付け、記憶部118に格納する。その他の情報も同様に、管理番号/文字列610をキーにして対応付けて保存することができる。これにより、識別面および関連する各情報の過去履歴を保存することができる。
 図7は、履歴情報600の内容を記述したテキストファイル700の例を示す図である。なお、履歴保存部117は、例えば後述の図11で説明する画面上で入力された情報に基づきテキストファイル700を作成して記憶部118に格納する。管理番号/文字列610は、既に保存されているテキストファイル700の管理番号/文字列610とは異なる番号を履歴保存部117が自動採番するか、あるいはユーザが後述の図11で説明する画面上で入力する。テキストファイル700に管理番号/文字列610を付加することにより、各情報を対応付けて記憶部118に格納することができる。
 各情報の記述形式は、図7に示すものに限られるものではない。また各情報を複数ファイルに分割して記載してもよい。その場合は、管理番号/文字列610を各ファイルに付与して対応付ける、ファイル名に基づき各ファイルを対応付ける、などの手法によって対応関係を保持することができる。
 図8は、アルゴリズム識別面を用いてマッチングアルゴリズムを選択し、マッチング識別面を用いてマッチング成否を判定する様子を示す図である。記載の簡易のため、2つの特徴量を用いた2次元特徴量空間における識別面を例示するが、3種以上の特徴量を用いてもよい。
 図8(a)は、マッチング識別面800を用いてマッチング成否を判定する様子を示す図である。機械学習を用いてマッチング成否を判定する方法としては、特許文献2記載の方法がある。例えばSVMを用いる場合、学習時に学習用データ107から求めた複数の特徴量で構成する特徴量空間において、特徴量をマッチング成功とマッチング失敗の2クラスに分けるマッチング識別面800を求める。マッチングを実施するときは、計測対象から特徴量を求め、同特徴量を学習時と同じ特徴量空間にプロットし、その特徴量がマッチング識別面800によって分割されるいずれのクラスに属するかに基づき、マッチング成否を判定する。計測した特徴量がマッチング成功クラスに属すればマッチング成功と判定し、マッチング失敗クラスに属すればマッチング失敗と判定する。
 図8(b)は、アルゴリズム識別面850を用いてマッチングアルゴリズム選択する様子を示す図である。ここでは3つのマッチングアルゴリズムのうちいずれかを選択する例を示したが、選択候補となるアルゴリズム数は任意である。図8(a)と同様に、学習時に学習用データ107から求めた複数の特徴量で構成する特徴量空間において、特徴量を各マッチングアルゴリズムに対応する3クラスに分割するアルゴリズム識別面850を求める。マッチングを実施するときは、計測対象から特徴量を求め、同特徴量を学習時と同じ特徴量空間にプロットし、その特徴量がアルゴリズム識別面850によって分割されるいずれのクラスに属するかに基づき、使用すべきマッチングアルゴリズムを選択する。
 図9は、計測装置1000が識別面を再学習する場合の動作を説明する機能ブロック図である。既に学習に用いた学習データ107とは異なる新しい学習データ107を追加して識別面を再学習する場合は、新たに追加する学習用データ107、既に学習した学習用データ107、既に記憶部118内に格納されている学習用データ情報616などを用いて再学習する。以前に学習により得た履歴情報600を管理しているので、再学習に用いる既存の学習用データを容易に選択し、効率よく再学習することができる。
 図10は、計測装置1000のハードウェア構成例を説明する図である。計測装置1000は、必ずしも1台のハードウェア内に全ての構成要素を搭載する必要はなく、その構成要素を複数の機器に分散して搭載することもできる。図10に示す例においては、ネットワーク1100に計測装置1001~1003、記憶部118、コンピュータ1004が接続されている。
 コンピュータ1004は、計測装置1000が備える機能のうち少なくとも一部を実施する。例えば履歴情報選択部140と出力部135の機能をコンピュータ1004上に実装し、後述の図11で説明するGUIを介してユーザからの操作入力を受け付け、またはユーザに対してマッチング結果136を提示することができる。記憶部118は、計測装置1001~1003が共用することができる。履歴情報600は、計測装置毎に異なる管理番号/文字列610を付与することもできるし、管理番号/文字列610が重複しないようにするのであれば共用することもできる。計測装置1001~1003は、計測装置1000が備える機能のうち、コンピュータ1004に実装された機能および記憶部118以外の機能を備える。
 計測装置の台数は任意であり、3台に限定するものではない。コンピュータ1004の台数は1台に限定するものではなく、例えば計測装置1000が備える機能を複数のコンピュータ上に分散して実装してもよい。
 図11は、履歴情報600を表示および編集するGUI1100を例示する図である。GUI1100は、例えばディスプレイ上の操作画面として構成することができる。GUI1100は、履歴情報600の少なくとも一部に対応する項目を備える。図11に示す例においては、管理番号/文字列1110、アルゴリズム識別面属性1111、マッチング識別面属性1112、計測レシピファイル名1113、付帯情報1114、マッチング性能1115、学習用データ情報1116を表示し、編集することができる。
 ユーザは、管理番号/文字列1110に値を入力し、識別面読込ボタン1133を押下する。履歴情報読出部142は、該当する履歴情報600を記憶部118から呼び出し、GUI1100上に表示する。ユーザが計測レシピファイル名1113内で計測装置1000の計測レシピファイル名を指定し、リンケージボタン1132を押下すると、表示している履歴情報600と指定した計測レシピを同じ管理番号/文字列1100によってリンクすることができる。履歴情報保存ボタン1131を押下すると、履歴保存部117は表示している履歴情報を記憶部118に保存する。マッチング性能1115は、記憶部118から過去のマッチング結果を読み込んで取得することもできる。その場合は、マッチング結果読込ボタン1120を押下してマッチング結果を記述したデータを読み込む。学習用データ情報1116は、指定した画像を一覧表示することができる。またその一覧から学習のために用いる画像を選択することができる。さらに学習用データ107から画像を削除したり(ボタン1121)新たな画像を追加(ボタン1122)したりすることもできる。学習ボタン1130または再学習ボタン1134を押下すると、識別面学習部111は、表示されている内容にしたがって識別面を学習または再学習する。
 図12は、記憶部118が格納している履歴情報600を検索するGUI1200を例示する図である。ユーザは、検索キーワード1201を入力して検索ボタン1202を押下する。履歴情報読出部142は、履歴情報600と検索キーワード1201を照合し、合致するものの一覧を一覧表示部1210上に表示する。一覧表示部1210は、履歴情報600の少なくとも一部を表示する。一覧表示部1210が表示しているいずれか履歴情報1211を選択し、詳細表示ボタン1212を押すと、履歴情報読出部142は履歴情報1211の詳細を記憶部118から読み出して例えばGUI1100上に表示する。選択ボタン1213を押下すると、選択されている履歴情報1211を計測レシピに付加し、以後のマッチングを実施する際にこれを用いる。
 図13は、計測装置1000における識別面の運用状況をモニタリングするGUI1300を例示する図である。計測装置1000がパターンマッチングを実施する際に用いる識別面は、安定してマッチングを実施するため、計測対象などの条件に応じて切り替える場合がある。GUI1300を用いることにより、切替要否を目視確認し、あるいはこれまでの識別面の変更履歴を目視確認することができる。GUI1300は、計測装置1000毎に識別面の運用状況を表示する。具体的には、計測装置1000毎に以下の情報をグラフ1310によって表示する。
 グラフ1310の横軸は、日時および各日時において計測装置1000が使用した識別面の管理番号/文字列610を表示する。グラフ1310の縦軸は、計測装置1000がパターンマッチングを実施した際のマッチングエラー率およびマッチングスコアを表示する。
 ユーザは、マッチングスコアが日時経過にともなって低下している場合、マッチングが不安定になる恐れがあることが分かる。同様にエラー率が上昇した場合、マッチングが不安定になっていることが容易に分かる。その他、マッチングスコアが所定の閾値以下になるとマッチングが不安定になっている恐れがある旨をGUI1300上で表示し、識別面の変更または再学習を促すこともできる。
 詳細表示ボタン1311を押下すると、グラフ1310上に表示されている識別面の履歴情報600、当該計測装置1000におけるこれまでのマッチング性能、他計測装置1000における当該識別面を用いたマッチング性能、などを表示することができる。
<本発明のまとめ>
 以上のように、本発明に係る計測装置1000は、マッチング成否を判定するための識別面とマッチングアルゴリズムを選択するための識別面のうち少なくとも一方に、履歴情報600として例示した識別情報を付与し、同識別情報をキーにして過去に使用したこれら識別面を呼び出すことができる。これにより、例えば再学習により識別面を更新した場合でも、以前に生成した識別面および関連する履歴情報600を呼び出し、これを用いてテンプレートマッチングを実施することができる。
 また、本発明に係る計測装置1000によれば、過去に使用した識別面の設定に容易に戻ることができるので、ユーザはマッチング性能が低下することを懸念せずに識別面を再学習して更新することができる。
 また、本発明に係る計測装置1000によれば、機械学習によってマッチングアルゴリズムを選択し、複数のマッチングアルゴリズムの組み合せを用いる方式(アンサンブル学習)に比べて、少数のマッチングアルゴリズムでマッチングを実施することができる。これにより、マッチング処理時間を短縮して計測装置1000のスループットを向上させることができる。
 履歴情報600は、ユーザが後に各識別面を容易に呼び出すことができるように構成することが望ましい。したがって履歴情報600は、各識別面の学習結果の特徴をよく表すとともに、ユーザがその特徴を容易に認識することができる情報を用いて構成することが望ましいと考えられる。識別面の学習結果は、計測対象の形状パターン種別によって大きく影響を受け、また形状パターン種別はユーザにとっても認識し易い情報であるため、これを履歴情報600として用いることは有用であると考えられる。またパターン形状は撮影倍率によって見た目やその学習結果が大きく異なるため、パターン形状とともに撮影倍率を併用することも有用である。さらには、当該パターン形状を良好に学習した識別面を用いることが望ましいので、当該パターン形状を用いてパターンマッチングを実施したときのマッチング性能も履歴情報600として有用であると考えられる。
 本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。上記実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。例えば本発明は、パターンマッチングを用いて試料を検査する検査装置においても適用することができる。また以上の説明においては計測装置の例として走査型電子顕微鏡を示したが、これに限定するものではなく、試料画像を用いてテンプレートマッチングを実施する計測装置において広く適用することができる。
 100:学習用データ生成部、101:学習用画像取得部、106:データ生成部、110:履歴保存部、111:識別面学習部、113:識別情報付加部、117:履歴保存部、118:記憶部、120:テンプレートマッチング部、121:アルゴリズム選択部、122:マッチング成否判定部、140:履歴情報選択部、142:履歴情報読出部、1000:計測装置。

Claims (12)

  1.  試料の画像に対してパターンマッチングを実施する計測装置であって、
     前記パターンマッチングを実施する際に用いるテンプレート画像と前記パターンマッチングによって得られた結果画像との組み合わせを学習用データとして複数作成する学習用データ生成部と、
     前記パターンマッチングの成否を判定するために用いる特徴量空間上の識別面であるマッチング識別面、および前記パターンマッチングを実施する際に用いるアルゴリズムを選択するために用いる特徴量空間上の識別面であるアルゴリズム識別面のうち少なくともいずれかを、前記学習用データを用いて機械学習により求める機械学習部と、
     前記マッチング識別面を記述するマッチング識別面データまたは前記アルゴリズム識別面を記述するアルゴリズム識別面データのうち少なくともいずれかを、固有の識別情報と対応付けて記憶部内に格納する履歴保存部と、
     前記識別情報をキーにして、対応付けられた前記マッチング識別面データまたは対応付けられた前記アルゴリズム識別面データを呼び出す選択部と、
     前記選択部が呼び出した結果にしたがって、過去に実施した前記パターンマッチングにおいて使用した前記マッチング識別面データまたは前記アルゴリズム識別面データを用いて、前記パターンマッチングの成否を判定し、または前記アルゴリズムを選択する、マッチング部と、
     を備えることを特徴とする計測装置。
  2.  前記履歴保存部は、前記試料の形状パターンの種別を前記識別情報と対応付けて前記記憶部に格納し、
     前記選択部は、前記形状パターンの種別をキーにして前記マッチング識別面データまたは前記アルゴリズム識別面データを呼び出すよう要求するリクエストを受け取ると、前記形状パターンの種別に対応する前記マッチング識別面データまたは前記アルゴリズム識別面データを前記記憶部から呼び出す
     ことを特徴とする請求項1記載の計測装置。
  3.  前記履歴保存部は、前記形状パターンの撮影倍率を前記識別情報と対応付けて前記記憶部に格納し、
     前記選択部は、前記形状パターンの種別と前記形状パターンの撮影倍率をキーにして前記マッチング識別面データまたは前記アルゴリズム識別面データを呼び出すよう要求するリクエストを受け取ると、前記形状パターンの種別および前記形状パターンの撮影倍率に対応する前記マッチング識別面データまたは前記アルゴリズム識別面データを前記記憶部から呼び出す
     ことを特徴とする請求項2記載の計測装置。
  4.  前記履歴保存部は、前記形状パターンの種別および前記形状パターンの撮影倍率を用いて前記パターンマッチングを実施したときのマッチング正解率を前記識別情報と対応付けて前記記憶部に格納し、
     前記選択部は、前記形状パターンの種別、前記形状パターンの撮影倍率、および前記マッチング正解率をキーにして前記マッチング識別面データまたは前記アルゴリズム識別面データを呼び出すよう要求するリクエストを受け取ると、前記形状パターンの種別、前記形状パターンの撮影倍率、および前記正解率に対応する前記マッチング識別面データまたは前記アルゴリズム識別面データを前記記憶部から呼び出す
     ことを特徴とする請求項3記載の計測装置。
  5.  前記履歴保存部は、
     前記マッチング識別面の属性を記述したマッチング識別面属性、前記アルゴリズム識別面の属性を記述したアルゴリズム識別面属性、前記計測装置の計測手順を記述したレシピ情報、前記パターンマッチングに関連する付帯情報、前記パターンマッチングの性能指標を記述したマッチング性能情報、および前記学習用データのうち少なくともいずれかを、前記識別情報と対応付けて前記記憶部に格納する
     ことを特徴とする請求項4記載の計測装置。
  6.  前記履歴保存部は、前記マッチング識別面属性として、
     前記マッチング識別面を機械学習する際に用いる学習手法名称、前記マッチング識別面を機械学習する際に用いるカーネル関数種別、前記カーネル関数内の係数、および前記マッチング識別面を機械学習する際に用いる特徴量種別のうち少なくともいずれかを用いる
     ことを特徴とする請求項5記載の計測装置。
  7.  前記履歴保存部は、前記アルゴリズム識別面属性として、
     前記アルゴリズム識別面を機械学習する際に用いる学習手法名称、前記アルゴリズム識別面を機械学習する際に用いるカーネル関数種、前記カーネル関数内の係数、選択候補となる前記アルゴリズムの数、選択候補となる前記アルゴリズムの名称、および前記アルゴリズム識別面を機械学習する際に用いる特徴量種別のうち少なくともいずれかを用いる
     ことを特徴とする請求項5記載の計測装置。
  8.  前記履歴保存部は、前記マッチング性能情報として、
     前記パターンマッチングにおけるマッチングスコアの分離性、および前記機械学習におけるマッチング成否のうち少なくともいずれかを用いる
     ことを特徴とする請求項5記載の計測装置。
  9.  前記学習用データ生成部は、
      前記試料を撮像した複数の画像を取得する学習用画像取得部を備え、
      前記複数の画像に対して複数種類のマッチングアルゴリズムを用いてパターンマッチングを実施し、前記画像のうち前記パターンマッチングにおいてマッチングに成功した個所を正解位置画像として切り出し、それ以外の個所を不正解位置画像として切り出し、前記正解位置画像と前記不正解位置画像を前記パターンマッチングによって得られた結果画像として用いる
     ことを特徴とする請求項1記載の計測装置。
  10.  前記計測装置は、
      前記識別情報、前記試料の形状パターンの種別、前記形状パターンの撮影倍率、前記マッチング正解率、前記マッチング識別面属性、前記アルゴリズム識別面属性、前記レシピ情報、前記付帯情報、前記マッチング性能指標、および前記学習用データのうち少なくともいずれかを画面表示し変更するためのGUIを提供する
     ことを特徴とする請求項5記載の計測装置。
  11.  前記計測装置は、
      前記識別情報、前記試料の形状パターンの種別、前記形状パターンの撮影倍率、前記マッチング正解率、前記マッチング識別面属性、前記アルゴリズム識別面属性、前記レシピ情報、前記付帯情報、前記マッチング性能指標、および前記学習用データのうち少なくともいずれかを指定して、前記記憶部内に格納されている合致する前記識別情報を検索するためのGUIを提供する
     ことを特徴とする請求項5記載の計測装置。
  12.  前記計測装置は、
      前記機械学習したマッチング識別面情報または前記機械学習したアルゴリズム識別面情報を用いて前記パターンマッチングを実施した際のマッチングスコア、前記パターンマッチングにおけるエラー率のうち少なくともいずれかについて、その時系列変化を記述した情報を出力する
     ことを特徴とする請求項1記載の計測装置。
PCT/JP2014/064162 2013-06-24 2014-05-28 計測装置 WO2014208257A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013132107A JP2016173615A (ja) 2013-06-24 2013-06-24 計測装置
JP2013-132107 2013-06-24

Publications (1)

Publication Number Publication Date
WO2014208257A1 true WO2014208257A1 (ja) 2014-12-31

Family

ID=52141609

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/064162 WO2014208257A1 (ja) 2013-06-24 2014-05-28 計測装置

Country Status (3)

Country Link
JP (1) JP2016173615A (ja)
TW (1) TW201510878A (ja)
WO (1) WO2014208257A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016189764A1 (ja) * 2015-05-26 2016-12-01 三菱電機株式会社 検出装置および検出方法
JP2019095217A (ja) * 2017-11-17 2019-06-20 ファナック株式会社 外観検査装置
JPWO2021260765A1 (ja) * 2020-06-22 2021-12-30

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020008481A (ja) * 2018-07-11 2020-01-16 オムロン株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP7144244B2 (ja) * 2018-08-31 2022-09-29 株式会社日立ハイテク パターン検査システム
JP7062563B2 (ja) * 2018-09-07 2022-05-06 キオクシア株式会社 輪郭抽出方法、輪郭抽出装置、及びプログラム
JP2020123064A (ja) * 2019-01-29 2020-08-13 Tasmit株式会社 画像マッチング判定方法、画像マッチング判定装置、および画像マッチング判定方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP7175800B2 (ja) * 2019-03-05 2022-11-21 株式会社日立製作所 分析支援装置、および、分析支援方法
JP7392425B2 (ja) * 2019-11-27 2023-12-06 オムロン株式会社 学習装置、学習方法およびプログラム
JP7440823B2 (ja) * 2020-02-21 2024-02-29 オムロン株式会社 情報処理装置、情報処理方法及びプログラム
US11151710B1 (en) * 2020-05-04 2021-10-19 Applied Materials Israel Ltd. Automatic selection of algorithmic modules for examination of a specimen
CN112541475B (zh) 2020-12-24 2024-01-19 北京百度网讯科技有限公司 感知数据检测方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0282375A (ja) * 1988-09-20 1990-03-22 Hitachi Ltd 分散型画像認識システム及び、それを用いた交通流計測システム並びに防犯・防災システム
JP2004096742A (ja) * 2002-08-13 2004-03-25 Hitachi Kokusai Electric Inc 物体検出方法及び物体検出装置並びに監視システムのメンテナンス方法及び物体検出装置のメンテナンス方法
JP2005065944A (ja) * 2003-08-22 2005-03-17 Konica Minolta Medical & Graphic Inc 診断支援装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0282375A (ja) * 1988-09-20 1990-03-22 Hitachi Ltd 分散型画像認識システム及び、それを用いた交通流計測システム並びに防犯・防災システム
JP2004096742A (ja) * 2002-08-13 2004-03-25 Hitachi Kokusai Electric Inc 物体検出方法及び物体検出装置並びに監視システムのメンテナンス方法及び物体検出装置のメンテナンス方法
JP2005065944A (ja) * 2003-08-22 2005-03-17 Konica Minolta Medical & Graphic Inc 診断支援装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016189764A1 (ja) * 2015-05-26 2016-12-01 三菱電機株式会社 検出装置および検出方法
JPWO2016189764A1 (ja) * 2015-05-26 2017-08-31 三菱電機株式会社 検出装置および検出方法
US10620131B2 (en) 2015-05-26 2020-04-14 Mitsubishi Electric Corporation Detection apparatus and detection method
JP2019095217A (ja) * 2017-11-17 2019-06-20 ファナック株式会社 外観検査装置
US10997711B2 (en) 2017-11-17 2021-05-04 Fanuc Corporation Appearance inspection device
JPWO2021260765A1 (ja) * 2020-06-22 2021-12-30
WO2021260765A1 (ja) * 2020-06-22 2021-12-30 株式会社日立ハイテク 寸法計測装置、半導体製造装置及び半導体装置製造システム
JP7164716B2 (ja) 2020-06-22 2022-11-01 株式会社日立ハイテク 寸法計測装置、半導体製造装置及び半導体装置製造システム

Also Published As

Publication number Publication date
TW201510878A (zh) 2015-03-16
JP2016173615A (ja) 2016-09-29

Similar Documents

Publication Publication Date Title
WO2014208257A1 (ja) 計測装置
JP5937878B2 (ja) パターンマッチング方法及び装置
KR101828124B1 (ko) 패턴 평가 방법 및 패턴 평가 장치
JP5948262B2 (ja) 欠陥観察方法および欠陥観察装置
JP5525421B2 (ja) 画像撮像装置および画像撮像方法
US9311697B2 (en) Inspection method and device therefor
JP5948138B2 (ja) 欠陥解析支援装置、欠陥解析支援装置で実行されるプログラム、および欠陥解析システム
WO2014017337A1 (ja) マッチング処理装置、マッチング処理方法、及びそれを用いた検査装置
KR102706113B1 (ko) 기판 상의 유동 물체를 자동으로 매핑하기 위한 방법 및 시스템
JP5164598B2 (ja) レビュー方法、およびレビュー装置
US11670528B2 (en) Wafer observation apparatus and wafer observation method
TWI783368B (zh) 診斷系統
TW202212809A (zh) 電子束檢測設備、用於對準一晶圓影像與一參考影像之方法及相關之非暫時性電腦可讀媒體
WO2017203572A1 (ja) 欠陥画像分類装置および欠陥画像分類方法
JP2004095657A (ja) 半導体検査装置
US20170371981A1 (en) Recipe Creation Device for Use in Semiconductor Measurement Device or Semiconductor Inspection Device
TWI756662B (zh) 檢查裝置調整系統、檢查裝置調整方法及檢查裝置
US20230194253A1 (en) Pattern Inspection/Measurement Device, and Pattern Inspection/Measurement Program
JP5163731B2 (ja) 欠陥候補の画像表示方法
JP5971746B2 (ja) テンプレートマッチング位置合わせ方法および荷電粒子線装置
KR20220123467A (ko) 패턴 매칭 장치, 패턴 측정 시스템 및 비일시적 컴퓨터 가독 매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14816939

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14816939

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP