WO2011048758A1 - パターンマッチング方法、及びパターンマッチング装置 - Google Patents

パターンマッチング方法、及びパターンマッチング装置 Download PDF

Info

Publication number
WO2011048758A1
WO2011048758A1 PCT/JP2010/005976 JP2010005976W WO2011048758A1 WO 2011048758 A1 WO2011048758 A1 WO 2011048758A1 JP 2010005976 W JP2010005976 W JP 2010005976W WO 2011048758 A1 WO2011048758 A1 WO 2011048758A1
Authority
WO
WIPO (PCT)
Prior art keywords
matching
template
area
region
pattern
Prior art date
Application number
PCT/JP2010/005976
Other languages
English (en)
French (fr)
Inventor
渉 長友
安部 雄一
池田 光二
Original Assignee
株式会社 日立ハイテクノロジーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 日立ハイテクノロジーズ filed Critical 株式会社 日立ハイテクノロジーズ
Priority to US13/502,823 priority Critical patent/US8885950B2/en
Publication of WO2011048758A1 publication Critical patent/WO2011048758A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/22Treatment of data
    • H01J2237/221Image processing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/22Treatment of data
    • H01J2237/226Image reconstruction

Definitions

  • the present invention relates to a pattern matching technique, and more particularly to a template matching method and apparatus for specifying a position of a pattern formed on a sample using a sample image and design data of the sample.
  • Patent Document 1 In order to measure and inspect a fine object on a sample, a template matching method is known that specifies the position of a pattern based on the degree of coincidence between a sample image and a reference image called a template.
  • Patent Document 1 and Non-Patent Document 1 describe an example of a template matching method.
  • Patent Document 2 describes a method for creating a template matching template based on design data of a semiconductor device.
  • Patent Document 3 discloses a method for automatically cutting out a pattern having appropriate characteristics as a template from design data.
  • Patent Document 4 discloses a template reflecting lower layer information that is not expressed in design data of a specific layer in template matching using an optical microscope image mounted on a scanning electron microscope used for measurement of a semiconductor device.
  • a method for creating a template based on design data of a plurality of layers subjected to different processes is described.
  • Non-Patent Document 2 describes a manufacturing process for creating a semiconductor device by stacking layers of a plurality of steps.
  • JP 2001-243906 (corresponding US Patent US 6,627,888) JP 2002-328015 A (corresponding US Patent US2003 / 0173516) JP 2007-250528 A (corresponding US Patent US2007 / 0210252) JP 2009-216398 A
  • Non-Patent Document 2 when a semiconductor device is formed by stacking a plurality of layers, when an attempt is made to measure or inspect the created device, the pattern existing in the lower layer is covered with the upper layer. May be exposed without being exposed, or the lower layer may be seen through. Since the templates created by the methods described in Non-Patent Document 1 and Patent Documents 1 to 3 do not take into account the existence of lower layer patterns, the degree of coincidence between the template and the actual image decreases. there's a possibility that.
  • Patent Document 4 describes a method for creating a template that also takes into account lower layer information, but it cannot cope with the reflection of partial patterns in the lower layer.
  • a template matching method and a template matching device aiming to maintain a high degree of matching between a template and an actual image regardless of partial reflection of a lower layer at the time of template matching Will be described.
  • a template non-matching region or a second region for matching different from the first matching region in the template is set in the template.
  • the present invention proposes a method, an apparatus, and a computer program for executing template matching based on a collation process excluding the non-working area or a collation process using the first and second areas.
  • the figure explaining an example of a pattern matching apparatus The figure explaining matching of template matching failing.
  • region The figure explaining an example of the template and to-be-searched image which perform different collation processing in the 1st field and the 2nd field.
  • Template matching in which the field of view is aligned to a desired position using template matching technology in a device that measures and inspects a pattern formed on a sample such as a scanning electron microscope (SEM) Is a process of finding an area most matching a pre-registered template image from the search target image.
  • SEM scanning electron microscope
  • measurement and inspection devices that use template matching include SEM and focused ion beam (Focused Ion Beam: FIB) devices that detect secondary charged particles obtained by irradiating a sample with helium ions or liquid metal ion beams, Alternatively, there is an image acquisition device such as an optical measurement / inspection device that irradiates a sample with light.
  • these measurement and inspection objects include semiconductor wafers, photomasks, magnetic heads, magnetic disks, or other samples having a fine structure.
  • the field of view of the apparatus is moved to a rough position of the measurement position by moving the stage, but a large deviation often occurs on an image captured at a high magnification of an electron microscope only with the positioning accuracy of the stage.
  • the wafer is not always placed on the stage in the same direction, and the coordinate system of the wafer placed on the stage (for example, the direction in which the chips of the wafer are arranged, for example) does not completely match the drive direction of the stage, This also causes a shift on an image taken at a high magnification of an electron microscope.
  • ⁇ Template matching is performed to correct this deviation and perform measurement and inspection at an accurate position.
  • alignment with an optical camera having a lower magnification than that of an electron microscope image and alignment with an electron microscope image are performed, and alignment is performed in multiple stages.
  • an alignment of a coordinate system of a wafer placed on a stage is performed using an optical camera.
  • alignment is performed using images of a plurality of chips (for example, chips at both the left and right ends of the wafer) located at positions separated on the wafer.
  • the stage is moved so as to capture the pattern registered in the template with each chip, and an image is acquired with each chip.
  • Execute template matching for the acquired image Based on the respective matching positions obtained as a result, the amount of deviation of the stage movement is calculated, and the amount of deviation is used as a correction value for stage movement to match the coordinate system of the stage movement with the coordinate system of the wafer.
  • a unique pattern close to the measurement position is registered as a template in advance, and the relative coordinates of the measurement position viewed from the template are stored.
  • template matching is performed on the captured image, the matching position is determined, and the position moved by the stored relative coordinates is the measurement position.
  • the visual field of the apparatus is moved to a desired measurement position.
  • a correct matching position can be obtained if the pattern to be matched in the search image is similar to the template.
  • the region 211 is set as a region to be matched. At this time, since the region 211 is most similar to the template 200 in the searched image 210, the region 211 is detected as a matching position, and matching is successful.
  • the similarity between the pattern of the region 223 and the template 200 May fall, and matching may fail.
  • the region 224 has a pattern similar to the template 200 compared to the region 223, and the region 224 is erroneously detected as a matching position. If matching fails as described above, the success rate of the alignment described above may be reduced.
  • a device in semiconductor manufacturing, a device is often created by stacking a plurality of layers, and when observed with an inspection apparatus or the like, the pattern in the lower layer is exposed without being covered by the upper process layer, Or it may be seen through the upper layer.
  • a template created using design data since the template is created from one or several layers of layout data, a pattern not included in the template is not reflected in the searched image as in the example of FIG. Will end up.
  • the reflected pattern may change due to process fluctuations, optical conditions of the electron microscope, etc.For example, even if a template is created simply by overlaying the layout data of the lower layer, the success rate of matching is improved. Not exclusively.
  • the pattern matching apparatus described in this example includes a mask processing region generation unit that partially applies a mask region to a template used for template matching, a preprocessing unit that performs preprocessing on a search target image, and a template A preprocessing unit that performs preprocessing, a search target image that has undergone preprocessing, a template that has undergone preprocessing, and a template matching processing unit that determines a matching position using a mask processing region are provided. Moreover, not only the above-mentioned pattern matching apparatus but another pattern matching apparatus is also demonstrated.
  • the area for performing the mask processing described here is only an area having a certain width along the edge position of the pattern existing in the template, and an area for performing correlation calculation by the matching process, and other areas are A typical example is a region where no correlation calculation is performed.
  • an exact matching position can be determined by template matching even when the searched image includes a pattern that is not included in the template.
  • a charged particle beam apparatus is illustrated as an apparatus for forming an image, and an example using an SEM is described as one aspect thereof.
  • a focused ion beam (FIB) apparatus that scans a beam to form an image may be employed as the charged particle beam apparatus.
  • FIB focused ion beam
  • FIG. 15 illustrates a system in which a plurality of SEMs are connected with the data management device 1501 as the center.
  • the SEM 1502 is mainly used for measuring and inspecting the pattern of a photomask and reticle used in a semiconductor exposure process
  • the SEM 1503 is mainly used for the semiconductor by exposure using the photomask and the like. It is for measuring and inspecting the pattern transferred on the wafer.
  • the SEM 1502 and the SEM 1503 have a structure corresponding to a difference in size between a semiconductor wafer and a photomask and a difference in resistance to charging, although there is no significant difference in the basic structure as an electron microscope.
  • the respective control devices 1504 and 1505 are connected to the SEM 1502 and SEM 1503, and control necessary for the SEM is performed.
  • each SEM an electron beam emitted from an electron source is focused by a plurality of stages of lenses, and the focused electron beam is scanned one-dimensionally or two-dimensionally on a sample by a scanning deflector. .
  • Secondary Electrons Secondary Electron: SE
  • Backscattered Electron: BSE Backscattered Electron emitted from the sample by scanning the electron beam are detected by a detector, and in synchronization with the scanning of the scanning deflector, the frame memory Or the like.
  • the image signals stored in the frame memory are integrated by an arithmetic device installed in the control devices 1504 and 1505. Further, scanning by the scanning deflector can be performed in any size, position, and direction.
  • control devices 1504 and 1505 of each SEM are performed by the control devices 1504 and 1505 of each SEM, and images and signals obtained as a result of electron beam scanning are sent to the data management device 1501 via the communication lines 1506 and 1507. It is done.
  • the control device that controls the SEM and the data management device that performs measurement based on the signal obtained by the SEM are described as separate units.
  • the data management apparatus may perform the apparatus control and the measurement process collectively, or each control apparatus may perform the SEM control and the measurement process together.
  • the data management device or the control device stores a program for executing a measurement process, and measurement or calculation is performed according to the program.
  • the design data management apparatus stores design data of photomasks (hereinafter sometimes simply referred to as masks) and wafers used in the semiconductor manufacturing process.
  • This design data is expressed in, for example, the GDS format or the OASIS format, and is stored in a predetermined format.
  • the design data can be of any type as long as the software that displays the design data can display the format and can handle the data as graphic data.
  • the design data may be stored in a storage medium provided separately from the data management device.
  • the data management apparatus 1501 has a function of creating a program (recipe) for controlling the operation of the SEM based on semiconductor design data, and functions as a recipe setting unit. Specifically, a position for performing processing necessary for the SEM such as a desired measurement point, autofocus, autostigma, addressing point, etc. on design data, pattern contour data, or simulated design data And a program for automatically controlling the sample stage, deflector, etc. of the SEM is created based on the setting. In the template matching method using a reference image called a template, the template is moved in the search area for searching for a desired location, and the degree of matching with the template is the highest in the search area.
  • a program for controlling the operation of the SEM based on semiconductor design data
  • a recipe setting unit Specifically, a position for performing processing necessary for the SEM such as a desired measurement point, autofocus, autostigma, addressing point, etc. on design data, pattern contour data, or simulated design data
  • control devices 1504 and 1505 execute pattern matching based on a template which is one of recipe registration information.
  • the control devices 1504 and 1505 store a program for performing matching using a normalized correlation method or the like, and the control devices 1504 and 1505 function as a computer that executes the program.
  • a focused ion beam device that irradiates the sample with helium ions, liquid metal ions, or the like may be connected to the data management device 1501.
  • a simulator 1508 for simulating the performance of a pattern based on design data may be connected to the data management apparatus 1501, and a simulation image obtained by the simulator may be converted to GDS and used instead of the design data.
  • FIG. 1 is a diagram for explaining an example in which a region where no correlation calculation or the like is performed is provided in a template by partially performing mask processing on the template, and template matching is performed using the template provided with the region.
  • the matching processing and the like illustrated in FIG. 1 will be described on the premise that they are performed in the control devices 1504 and 1505 or the data management device 1501, for example. However, the present invention is not limited to this. May be performed.
  • template matching is performed using the image data 100 of the search area acquired by an image acquisition device such as a scanning electron microscope and the template 101 cut out from the design data, and finally the matching position 107 is calculated. .
  • a pattern that does not exist in the template is reflected in the matching correct position in the searched image, and there is a possibility that the similarity of the pattern decreases in the general matching method and matching fails. Even in such a case, it is intended to detect a correct matching position. For this reason, an area where a pattern that is not included in the template will appear is calculated by correlation calculation of matching processing (pp. 1 of Non-Patent Document 1). 1672) is set as a non-performed area (hereinafter referred to as a mask area). With this setting, the information is stored in a predetermined storage medium as an area in which the mask area does not perform correlation calculation.
  • This mask area setting is performed by the mask processing area generation unit 105.
  • the mask area is processed by setting a portion that is a set distance or more away from the edge of the pattern area in the template as the mask area.
  • the preprocessing unit A103 performs a process for reducing noise included in the image and an edge emphasis process for emphasizing the pattern shape on the image data 100, thereby making the subsequent matching process 106 robust.
  • the preprocessing unit B105 performs edge processing for emphasizing the pattern shape on the template, and makes the subsequent matching processing 106 robust.
  • the matching processing unit 106 performs template matching using the search target image that has been preprocessed, the template that has been preprocessed, and the mask processing region, and outputs a matching position 107. This matching position is a correct matching position even when a pattern that does not exist in the template is reflected in a position where matching in the searched image should be correct.
  • processing for reducing the influence of noise included in the image on the matching processing is performed.
  • noise reduction processing such as Gaussian filter processing and median filter processing (pp. 1670 of Non-Patent Document 1) is performed as processing.
  • the noise reduction process is not limited to this, and any process that can reduce noise may be used.
  • edge emphasis processing is performed to emphasize the pattern shape.
  • Sobel filter processing pp. 1215 of Non-Patent Document 1 is performed.
  • the edge enhancement processing is not limited to this, and any processing that can perform edge enhancement may be used.
  • Both the noise reduction process and the edge enhancement process in the preprocessing unit A103 are not necessarily performed, and either one or both processes may not be performed.
  • edge enhancement processing is performed to emphasize the shape of the design data pattern.
  • Sobel filter processing pp. 1215 of Non-Patent Document 1
  • the edge enhancement processing is not limited to this, and any processing that can perform edge enhancement may be used.
  • the main processing in the preprocessing unit B is not necessarily performed, and the processing may not be executed.
  • the mask processing area generation unit 105 generates a mask processing area by the method illustrated in FIGS. 3 to 5 based on the design data.
  • the mask set by the mask treatment area generation unit 105 indicates an area for which correlation calculation (pp. 1670 of Non-Patent Document 1) is not performed in the template matching processing 106 in the subsequent stage. This is for discriminating an area where the collation processing is performed from an area where the collation processing is not performed.
  • mask area an area where correlation calculation is not performed
  • unmask area an area where correlation calculation is performed
  • mask information information combining the mask area and the unmask area
  • the matching processing unit 106 performs template matching (pp. 1670 of Non-Patent Document 1). For example, a matching process using a normalized correlation method (pp. 1672 of Non-Patent Document 1) is performed.
  • the correlation value is not a general method in which the calculation is performed for the entire template region, but the correlation value is calculated only in the unmasked region that is mask information created from the design data.
  • FIG. 3 is a diagram for explaining an example of a method for setting a mask processing region from design data by the mask processing region generation unit 105 described in FIG.
  • FIG. 3A shows an example of a template 300 cut out from design data. From this template, a mask processing area is created by using the method described below with the periphery of the edge portion of the pattern in the template as the unmask area and the other area as the mask area.
  • FIG. 3B shows an example of a mask processing area created based on the template 300.
  • a portion 302 shown in black is an unmasked region, and a portion shown in white is a mask region. Black and white are merely shown for distinguishing both areas for explanation, and are not limited to these colors.
  • Each area only needs to be stored so that both areas can be distinguished from each other in the image data. For example, if all pixel values “1” are stored in the mask area and all pixel values “0” are stored in the unmask area, the two areas can be distinguished.
  • FIG. 3C is a diagram for explaining an example of a mask processing region setting method.
  • a pattern in a template cut out from design data is defined as a pattern 310, and an unmask area created from the pattern 310 is defined as an area sandwiched between the broken line part 312 and the broken line part 314, and this mask processing area is created.
  • a method will be described.
  • the pattern 310 is expanded (pp. 1528 of Non-Patent Document 1) to create a pattern having the size of the broken line portion 312.
  • the expansion size 311 at that time is given by, for example, a pixel value, for example, several pixels.
  • the pattern 310 is contracted (pp. 1528 of Non-Patent Document 1) to create a pattern having the size of the broken line portion 314.
  • the contraction size 313 at that time is given by, for example, a pixel value, for example, several pixels.
  • the peripheral area of the edge portion of the pattern 310 can be used as an unmask area.
  • a mask processing area is created as described above.
  • the method for creating the mask processing area is not limited to this, and any process can be used as long as the peripheral area of the edge portion of the pattern 310 can be an unmasked area and the other area can be a mask area.
  • a mask area having an arbitrary size may be set, and a part other than the set mask area may be set as an unmask area.
  • FIG. 4 is a diagram for explaining another method for creating a mask processing area from design data.
  • the method illustrated in FIG. 3 is a method for selectively making the periphery of the pattern edge portion of the template an unmasked area.
  • a method for expanding the unmask area will be described.
  • a method for setting an area that has no pattern edge or the like and that is known to have no pattern reflection on the searched image as an unmasked area will be described. This method further improves the robustness of template matching using normalized correlation.
  • FIG. 4A is a diagram for explaining an example of the design data.
  • FIG. 4B illustrates an example of a template obtained by cutting out a part of the design data 400.
  • the region 401 of the template 410 illustrated in FIG. 4B is a region where a pattern does not appear even when a semiconductor device is created through a plurality of semiconductor manufacturing processes. That is, it is assumed that the region is a region where the lower layer pattern does not appear in the image.
  • This area can be determined by examining the design data of each process and calculating the logical product of areas where no pattern appears.
  • the process of taking the logical product may use the design data of all processes, or the process of forming a layer to be measured or inspected and the design data of processes up to a predetermined number before the process. You may make it selectively make it the object of AND operation. In the latter case, an unmasked area can be largely maintained by not including a pattern of a process that does not appear in the process of measurement or inspection in the logical product operation.
  • the combined area of the unmask area (area 401) where the pattern thus obtained does not appear and the unmask area around the edge portion of the pattern described in FIG. 3 is a mask processing area 420 illustrated in FIG. 4C. It becomes.
  • the portion shown in black is an unmasked area
  • the other portion shown in white is a mask area.
  • Black and white are merely shown for distinguishing both areas for explanation, and are not limited to these colors. It is only necessary to store the pixel values of each area so that both areas can be distinguished from each other by image data. For example, if all pixel values “1” are stored in the mask area and all pixel values “0” are stored in the unmask area, the two areas can be distinguished.
  • FIG. 5 is a diagram for explaining still another method for creating a mask processing region based on design data.
  • the method described above with reference to FIG. 3 is a method of selectively making the periphery of the edge portion of the pattern in the template an unmasked area.
  • a method for expanding the unmask area will be described.
  • a region where the correlation is high by the normalized correlation method pp. 1672 of Non-Patent Document 1 is positively set as an unmasked region.
  • the correlation value in the matching position candidate area having many parts similar to the template in the search area is possible to increase the correlation value in the matching position candidate area having many parts similar to the template in the search area.
  • the matching correct position generally has many regions similar to the template, the correlation value at the matching correct position can be increased by this method, and matching robustness may be improved.
  • an unmask area is created along with the movement of the template when the matching search process (pp. 1669 of Non-Patent Document 1) is executed. That is, the unmask area changes dynamically during the matching process.
  • FIG. 5A is a diagram illustrating an example of a template image
  • FIG. 5B is a diagram illustrating an example of a search target image that is searched using the template 500.
  • template matching a position on the searched image 510 having a high degree of coincidence with the template 500 is searched by moving the template 500 on the searched image 510.
  • an example is shown in which an unmasked area is created when the template is at the position of the area 511 in FIG.
  • an unmask area is created using an image called a normalized difference image described below.
  • the normalized difference image is obtained by expressing the difference information in the normalized correlation calculation (Non-Patent Document 1 pp.
  • 1672 in units of pixels, and can be expressed by a mathematical expression as a template image 510 f (x, y), a searched image.
  • 511 g (x, y) is expressed as shown in Equation 1 (where f () and g () indicate an image, and x and y indicate the coordinates of pixels constituting the image).
  • f () and g () indicate an image
  • x and y indicate the coordinates of pixels constituting the image.
  • const is a constant for converting the normalized difference image Ndif into an integer.
  • FIG. 5C illustrates a normalized difference image 520.
  • a region having a high brightness value of the image is a region having a low similarity
  • a region having a low brightness value of the image is a region having a high similarity.
  • a portion having a high degree of similarity is set as an unmask area.
  • binarization processing Non-Patent Document 1 is performed on the normalized difference image, and a portion having a low brightness value that is equal to or lower than the binarization threshold is an unmasked region and a portion having a brightness value greater than the binarization threshold Is a mask region.
  • FIG. 5D shows an example of the mask processing area 530 generated in this way.
  • the black portion is an unmasked area, and the other white portion is a mask area.
  • the mask processing area to be finally generated is ORed between the mask processing area described with reference to FIG. 3 and the mask processing area described with reference to FIG. 5 to obtain a mask processing area 540 as illustrated in FIG.
  • the mask processing area may be created by combining all of the areas shown in FIGS. 3, 4, and 5, or a part thereof. The combination can also be selected by the user using the GUI described in FIG.
  • FIG. 6 is a diagram illustrating a method for performing a coarse / fine search in a template matching process using a mask process.
  • a method of performing a coarse / fine search for performing stable processing or low-cost processing has been proposed (pp. 1678 coarse-to-fine matching in Non-Patent Document 1).
  • a coarse / fine search can also be performed in template matching using a template subjected to mask processing. However, it is not always necessary to perform the coarse / fine search, and the template matching can be performed without performing the coarse / fine search.
  • 6A shows a template 600 (image width m [pix], height n [pix]), and FIG. 6B shows a searched image 610 (image width M [pix], height N [pix]). ).
  • an image with a low resolution is created from the template 600 and the searched image 610.
  • the generated template rough image 630 image width m ′ [pix], height n ′ [pix] (where m ′ ⁇ m, n ′ ⁇ n)) and search target image rough image 640 (image Template matching is performed using a width M ′ [pix] and a height N ′ [pix] (where M ′ ⁇ M and N ′ ⁇ N).
  • template matching is performed using the mask region image 650 created by combining any one of the methods described with reference to FIGS. 3, 4, and 5 from the template rough image 630, or a combination thereof.
  • the mask area image 650 may be created from the template image 600 by any of the methods described with reference to FIGS. 3, 4, and 5 or by reducing the resolution of the mask area image 620 created by combining them. .
  • FIG. 6E shows matching candidates calculated by template matching using mask processing using the generated rough image 630 of the template image, rough image 640 of the search target image, and rough image 650 of the mask processing area. This is indicated by a broken line portion 641.
  • the number of matching candidates is three, but the number of candidates is not limited to three, and one or more numbers can be designated. Note that the matching candidate is selected from the top matching scores.
  • the matching score is an index of the degree of coincidence between the template in the matching process and the candidate image obtained from the searched image.
  • the correlation value of the normalized correlation method is used.
  • the matching score is not limited to the correlation value, and may be a value indicating the degree of matching between the template and the candidate image obtained from the searched image.
  • the matching position of the matching candidate 641 obtained in the coarse image 640 of the search target image is converted into the position 661 in the original search target image 660.
  • template matching is performed in the peripheral region of the matching candidate 661 in the original high-resolution image.
  • template matching using mask processing is performed using the original template 600, the searched image 610, and the mask processing area 620 created from the template.
  • the area to be searched around the matching candidate 661 at that time is determined from the sampling rate and the desired processing time when the resolution is reduced by the coarse search. For example, several pixels around the candidate area 661 are set as the search area.
  • the matching position with the candidate having the highest score becomes the final matching position 671.
  • the search may be performed in multiple stages (pp. 1678 of Non-Patent Document 1).
  • FIG. 7 is a diagram illustrating a second method for performing a coarse / fine search in a template matching process using a mask process.
  • the matching process using the mask processing area for example, if the process is performed while the mask processing area described in FIG. 5 is dynamically generated, the processing time may increase.
  • the inspection apparatus if the processing time of the matching process increases, the throughput of measurement or inspection may be reduced.
  • a process for changing the matching process may be performed in the coarse search and the fine search of the coarse / fine search.
  • FIG. 7 illustrates an example of a method for implementing it.
  • a rough search 700 is performed.
  • the search target image 701 is converted into a low-resolution image by the low-resolution processing unit 702 in the same manner as described with reference to FIG.
  • noise reduction processing and edge enhancement processing are performed in the same manner as the processing in the preprocessing unit A in FIG.
  • either one or both of the noise reduction processing and the edge enhancement processing may be omitted.
  • the design data 704 to be a template is also converted into a low resolution image by the low resolution processing unit 705 in the same manner as described with reference to FIG.
  • the pre-processing unit B706 performs edge enhancement processing. However, the edge enhancement process may not be performed.
  • the matching processing unit 707 performs template matching using the searched image that has undergone resolution reduction and preprocessing and the template that has undergone resolution reduction and preprocessing. As a result, the matching position candidate 708 in the rough search can be calculated.
  • the matching area of the matching candidate obtained by the rough search is converted into an area in the original searched image 701.
  • template matching is performed around the matching candidate in the original high-resolution image.
  • the region around the matching candidate is cut out by the matching candidate surrounding region cutout unit 721 using the searched image 701 and the matching candidate 708 in the rough search.
  • the region to be cut out is determined based on the sampling rate and the desired processing time when the resolution is reduced in the coarse search. For example, several pixels around the candidate area are set as the area.
  • noise reduction processing and edge enhancement processing are performed on the cut out region by the preprocessing unit A722.
  • the edge enhancement processing is performed on the original template 704 by the preprocessing unit B723 in the same manner as described with reference to FIG.
  • a mask process area is generated by the mask process area generation unit 724 using the template data 701.
  • the mask generation processing here is performed by any one of the methods described with reference to FIGS. 3, 4, and 5, or a combination thereof.
  • template matching is performed by the matching processing unit 725 using the search target image that has been preprocessed, the template that has been preprocessed, and the mask information. As a result, the matching position 730 can be calculated. In this way, in the coarse / fine search, it is possible to perform a method of performing template matching using mask processing only by fine search, and this makes it possible to perform matching processing at high speed.
  • the template is created by partially cutting design data (layout data).
  • layout data design data
  • the present invention is not limited to this.
  • a simulation using the simulator 1508 illustrated in FIG. And a part of the simulation image may be cut out and used as a template.
  • contour line information obtained by the simulator it is possible to set a mask area or an unmask area according to the actual pattern formation state.
  • FIG. 8 is a diagram for explaining the outline of the SEM.
  • an electron beam is generated from an electron gun 801.
  • the deflector 804 and the objective lens 805 are controlled so that the electron beam is focused and irradiated at an arbitrary position on the semiconductor wafer 803 as a sample placed on the stage 802.
  • Secondary electrons are emitted from the semiconductor wafer 803 irradiated with the electron beam and detected by a secondary electron detector 806.
  • the detected secondary electrons are converted into a digital signal by the A / D converter 807, stored in the image memory 815 in the processing / control unit 814, and the CPU 816 performs image processing according to the purpose.
  • Template matching is processed by the processing / control unit 814.
  • the setting of the process described in FIG. 12 and the display of the process result are performed on the display device 820.
  • the optical camera 811 is used in the alignment using the optical camera that is lower in magnification than the electron microscope described above.
  • a signal obtained by imaging the semiconductor wafer 803 with this camera is also converted into a digital signal by the A / D converter 812 (when the signal from the optical camera is a digital signal, the A / D converter 812 is not necessary).
  • Stored in the image memory 815 in the processing / control unit 814, and the CPU 816 performs image processing according to the purpose.
  • the backscattered electron detector 808 When the backscattered electron detector 808 is provided, the backscattered electrons emitted from the semiconductor wafer are detected by the backscattered electron detector 808, and the detected backscattered electrons are converted into digital signals by the A / D converter 809 or 810. Is stored in the image memory 815 in the processing / control unit 814, and the CPU 816 performs image processing according to the purpose. The application of the mask area to the template and the template matching process are performed by the processing / control unit 814 and the information is stored in the storage medium 821. In the example of FIG. 15, the above-described processing is executed by the control devices 1504 and 1505 and the arithmetic device and the storage medium built in the data management device 1501.
  • a scanning electron microscope is shown as an example of an inspection apparatus, but the present invention is not limited to this.
  • the present invention can be applied to an inspection apparatus that acquires an image and performs template matching processing.
  • FIG. 9 is a diagram for explaining another example of the template matching process in the template matching apparatus. A difference from the method illustrated in FIG. 1 is that a template is cut out from design data. In FIG. 1, the template matching using mask processing is performed on already cut out template data.
  • a template cutout unit 904 cuts out a template serving as a matching region from the design data 903.
  • This template cut-out may be performed by the user manually setting an area from the design data, or by automatically cutting out a pattern having an appropriate characteristic from the design data.
  • condition information for imaging the sample is calculated by the imaging condition calculation unit 905.
  • the imaging condition here includes information on the amount of visual field movement for aligning the visual field of the inspection apparatus with the template position and information on the visual field size when imaging is performed at the template position.
  • the visual field size is set so that the template falls within the visual field by visual field movement in consideration of the accuracy of visual field movement by the inspection apparatus based on the position of the template cut out from the design data.
  • the inspection apparatus 900 acquires an image.
  • template matching is performed using the template based on the image data 901 of the search area acquired by the inspection apparatus or the like and the design data cut out from the design data, and finally the matching position 909 is calculated.
  • pre-processing unit A902 noise reduction processing and edge enhancement processing are performed. Note that either one of the two processes or both processes can be performed, or both processes can be omitted.
  • the pre-processing unit B906 performs edge enhancement processing on the template. Note that it is possible not to perform edge enhancement processing.
  • the mask process area generation unit 907 generates a mask area based on the template by combining or combining any of the mask generation processes described with reference to FIGS.
  • the matching processing unit 908 performs template matching using the search target image that has been preprocessed, the template that has been preprocessed, and the mask information, and calculates a matching position 909. This makes it possible to perform template matching only by providing design data to the inspection apparatus without separately preparing a cut-out template.
  • FIG. 10 is a diagram for explaining still another example of the template matching process in the template matching apparatus.
  • a difference from the method illustrated in FIG. 1 is that a template is created from an image acquired by an inspection apparatus. Then, an area corresponding to the template is cut out from the design data, a mask processing area is generated from the cut out design data, and template matching is performed using the mask processing area.
  • the pre-processing unit A1010 performs processing for reducing noise included in the image or edge processing for emphasizing the outer shape of the pattern with respect to the searched image 1000 acquired by the inspection apparatus or the like. Also, image data to be used as a template acquired by the inspection apparatus is subjected to processing for reducing noise included in the image or edge emphasis processing for emphasizing the outer shape of the pattern in pre-processing B1011. By the processing of the preprocessing unit A and the preprocessing unit B, the subsequent matching processing 1013 can be made robust.
  • the area cutout unit 1004 corresponding to the template area cuts out a part corresponding to the template from the design data.
  • This cut-out area is set manually by the user, or a matching area is obtained by performing template matching processing between the template and design data.
  • template matching is performed without using mask processing. Therefore, it is desirable to select an image data for setting a template so that matching is successful without performing masking processing, that is, an image with less pattern reflection that is not included in the design data.
  • the mask processing area generation unit 1012 generates a mask processing area from an area corresponding to the template area cut out from the design data.
  • the matching processing unit 1013 performs template matching using the pre-processed search image, the pre-processed template, and the mask processing region, and outputs a matching position 707.
  • template matching can be performed robustly even when the difference between the pattern shape in the design data and the shape of the actually formed semiconductor pattern is large. Will be able to.
  • the mask processing is performed, even when a pattern not included in the template enters the matching success position of the searched image, the matching can be performed robustly.
  • FIG. 11 is a diagram for explaining still another example of the template matching process in the template matching apparatus.
  • a template is created from an image acquired by an inspection apparatus, and a mask processing region is not generated from design data, but from a template that is an image acquired by an inspection apparatus or the like. It is a point to generate.
  • the mask processing area generation described with reference to FIG. 3 performs edge emphasis processing or the like on a template that is an image acquired from the inspection apparatus, and the peripheral area of the calculated pattern contour is set as an unmask area. .
  • the matching process using only the area around the edge portion of the pattern becomes possible. That is, even when a pattern not included in the template appears in the searched image, robust matching is possible.
  • the preprocessing unit A1103 For the searched image 1100 acquired by the inspection apparatus, the preprocessing unit A1103 performs processing for reducing noise included in the image or edge processing for emphasizing the outer shape of the pattern, and makes the matching processing 1106 in the subsequent stage robust. . Also for the image data to be used as a template acquired by the inspection apparatus, processing for reducing noise included in the image in preprocessing B1104 or edge emphasis processing for emphasizing the outer shape of the pattern is performed, and matching processing 1106 in the subsequent stage is performed. Make it robust.
  • the mask processing area generation unit 1105 generates a mask processing area based on the template image data 1102.
  • the contour of the pattern in the template is extracted from the image data 1102 by edge enhancement processing or the like.
  • the pattern contour extraction method is not limited to this, and any method that can extract the pattern contour may be used.
  • the peripheral portion of the extracted contour line (described as an edge portion in FIG. 3) is set as an unmask area.
  • the mask processing area may be created by combining the mask areas created by the method described with reference to FIGS.
  • the matching processing unit 1106 performs template matching using the search target image that has been preprocessed, the template that has been preprocessed, and the mask processing region, and outputs a matching position 707.
  • FIG. 12 is a diagram for explaining an example of a GUI screen when creating a mask processing area.
  • This figure is an example of a GUI displayed on the display device 820 of the inspection apparatus that can perform template matching processing using mask processing. Whether or not to perform matching using mask processing can be selected in a selection box 1201.
  • a method for generating a mask process area is performed.
  • the width of the unmask area created around the pattern edge portion in the design data can be specified 1202.
  • a template image 1210 that is a basis for creating a mask processing area or a created mask processing area 1211.
  • the width of the unmask area can be adjusted 1212 using the slide bar.
  • the user can adjust the mask processing area while confirming with the GUI. It should be noted that the GUI does not have to have all the members listed here, but has all or part of it.
  • the mask region can be defined as “a region where product-sum operation for obtaining correlation values is not performed”, but even if product-sum operation is performed, it is substantially the same if it is not reflected in the correlation value. Since an effect is obtained, instead of “an area where product-sum operation for obtaining a correlation value is not performed”, “an area where product-sum operation is performed but is not reflected in the correlation value” may be used. That is, it suffices if the “area to be excluded from collation targets” can be set.
  • the matching score is determined by lowering the weight of the matching score for the unmask area. More specifically, a region (first region) in which the influence of the lower layer pattern is a concern and a region other than that (second region) are defined, and the matching score of the first region is multiplied by a predetermined coefficient. Then, it is conceivable to perform the matching process based on the combined matching score of the first area and the second area after lowering the weight relative to the second area. If such a process is performed, even if a lower layer pattern appears on the image, it is possible to suppress a decrease in the matching score in the entire template, and thus it is possible to maintain a high matching success rate.
  • the second matching process is performed on the first area. That is, it is conceivable that different templates are prepared for the first area and the second area, and after the alignment is performed by the first matching process, the second matching process is performed. Since accurate alignment with the upper layer pattern is performed by the first matching process, the template used for the second matching process is, for example, a template for the lower layer pattern, thereby specifying the deviation between the upper and lower layers. It becomes possible.
  • the second matching process it is possible to grasp the state of the first region by preparing two or more templates. For example, by preparing a template in which the lower layer pattern is expressed and a template that is not, and performing matching using the two types of templates, it is determined whether or not the lower layer pattern is expressed on the sample. be able to. Since it can be determined that the first region is a sample state that approximates the template having a higher matching score, it is possible to grasp the state of a pattern that may change due to process fluctuations.
  • the template having the highest degree of coincidence is selected, the template applied to the first area and the template applied to the second area are synthesized, and a new It can also contribute to the improvement of the matching score by creating a simple template.
  • the first verification and the second verification may be processed in parallel.
  • the second area is matched based on the degree of coincidence as usual, and the first area is evaluated for the degree of coincidence, thereby causing a process variation or the like. Therefore, stable matching can be performed.
  • the state of the first region changes due to process variation or the like, it is difficult to prepare a template for that portion in advance.
  • the location that is erroneously detected by template matching is a location that does not change the state of the first region as described above, at least the first region is equivalent to the location that is erroneously detected, or
  • FIG. 13 is a diagram for explaining an example of a template and a searched image for performing different matching processing in the first area and the second area.
  • FIG. 13 is a diagram for explaining an example of searching the searched image 1302 using the template 1301.
  • a desired matching position 1303 and a position 1304 that may be erroneously detected exist in the searched image 1302.
  • the first region of the template 1301 (the region in which the lower layer pattern may be reflected) is made the same as the position 1304, and the degree of coincidence with the template 1301 is low for the first region (mismatch)
  • a position having a high degree a matching error to the position 1304 can be suppressed.
  • the present invention is not limited to this.
  • the desired matching position 1303 Matching errors can also be suppressed by using a template having a first region that is close to the portion corresponding to the first region at position 1304 and has a clear divergence from the first region. It becomes possible.
  • FIG. 14 is a flowchart for explaining an example of a template matching method for performing different matching processing in the first area and the second area.
  • the degree of coincidence is calculated for the second region (S1402), and a position where the degree of coincidence is equal to or higher than a predetermined value or exceeds a predetermined value is extracted as a candidate for a matching position. (S1403).
  • S1404 the degree of coincidence of the first region is calculated for the extracted candidates (S1404).
  • a matching result is output by selecting a position where the coincidence is equal to or less than a predetermined value or less than a predetermined value (S1405).
  • a position where the disagreement is greater than or equal to a predetermined value or exceeds a predetermined value may be selected.
  • the success or failure of the matching is determined based on the degree of coincidence (mismatch degree) between the position to be erroneously detected and the template. Even if there is, matching can be performed stably.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Length-Measuring Devices Using Wave Or Particle Radiation (AREA)

Abstract

 本発明は、テンプレートマッチングの際に、下層の部分的な写りこみに因らず、テンプレートと実画像との間の一致度を高い状態に維持することを目的とするテンプレートマッチング方法、及びテンプレートマッチング装置の提供を目的とする。 上記目的を達成するための一態様として、テンプレート内に、テンプレートと画像との照合の不実施領域、或いは当該テンプレート内の第1の照合領域とは、異なる照合を行う第2の領域を設定し、前記不実施領域を除外した照合処理、或いは前記第1と第2の領域を用いた照合処理に基づいて、テンプレートマッチングを実行する方法、及び装置を提案する。

Description

パターンマッチング方法、及びパターンマッチング装置
 本発明は、パターンマッチング技術に関し、特に、試料画像と、当該試料の設計データとを利用して、試料上に形成されたパターンの位置を特定するテンプレートマッチング方法、及び装置に関する。
 試料上の微細な対象を測定,検査するために、試料画像とテンプレートと呼ばれる参照画像との一致度に基づいて、パターンの位置を特定するテンプレートマッチング法が知られている。特許文献1、及び非特許文献1には、テンプレートマッチング法の一例が説明されている。また特許文献2には、テンプレートマッチング用のテンプレートを、半導体デバイスの設計データに基づいて作成する方法が説明されている。
 更に、特許文献3には、設計データからテンプレートとして適当な特徴のあるパターンを自動的に切り出す方法が開示されている。また、特許文献4には、半導体デバイスの測定に用いられる走査電子顕微鏡に搭載されている光学顕微鏡像を用いたテンプレートマッチングにおいて、特定層の設計データには表現されてない下層情報を反映したテンプレートを作成するために、異なる処理が施された複数層の設計データに基づいて、テンプレートを作成する手法が説明されている。
 非特許文献2には、複数工程の層を重ねて、半導体デバイスを作成する製造プロセスが説明されている。
特開2001-243906号公報(対応米国特許US6,627,888) 特開2002-328015号公報(対応米国特許US2003/0173516) 特開2007-250528号公報(対応米国特許US2007/0210252) 特開2009-216398号公報
新編 画像解析ハンドブック,高木幹雄 監修,東京大学出版会(2004) はじめての半導体プロセス,前田和夫 著,工業調査会(2002)
 非特許文献2に説明されているように、複数の層を重ねて半導体デバイスを形成する場合、作成されたデバイスを、測定、或いは検査しようとすると、下層に存在するパターンが、上層に覆われることなく露出したり、下層が透過して見えたりすることがある。非特許文献1、及び特許文献1~3に説明されているような手法によって作成されたテンプレートは、下層パターンの存在が考慮されていないため、テンプレートと実際の画像との間の一致度が低下する可能性がある。
 また、特許文献4には下層の情報をも考慮したテンプレートを作成する手法が説明されているが、下層の部分的なパターンの写りこみに対応できるものではない。
 以下に、テンプレートマッチングの際に、下層の部分的な写りこみに因らず、テンプレートと実画像との間の一致度を高い状態に維持することを目的とするテンプレートマッチング方法、及びテンプレートマッチング装置について説明する。
 上記目的を達成するための一態様として、テンプレート内に、テンプレートと画像との照合の不実施領域、或いは当該テンプレート内の第1の照合領域とは、異なる照合を行う第2の領域を設定し、前記不実施領域を除外した照合処理、或いは前記第1と第2の領域を用いた照合処理に基づいて、テンプレートマッチングを実行する方法,装置、及びコンピュータプログラムを提案する。
 上記構成によれば、下層の部分的なうつりこみに因らず、マッチングの成功率を高い状態に維持することが可能となる。
パターンマッチング装置の一例を説明する図。 テンプレートマッチングのマッチングを失敗例を説明する図。 設計データのエッジ情報を利用してマスク処理領域を生成する手法の一例を説明する図。 マスク処理領域を生成する他の手法を説明する図。 マスク処理領域を生成する更に他の手法を説明する図。 マスク処理を用いた粗密探索を行う例を説明する図。 マスク処理を用いた粗密探索を行う他の例を説明する図。 走査電子顕微鏡の概要を説明する図。 パターンマッチング装置の他の例を説明する図。 パターンマッチング装置の更に他の例を説明する図。 パターンマッチング装置の更に他の例を説明する図。 マスク処理領域を設定するGUI(Graphical User Interface)画面を説明する図。 第1の領域と第2の領域で異なる照合処理を行うテンプレートと被探索画像の一例を説明する図。 第1の領域と第2の領域で異なる照合処理を行うテンプレートマッチング法の一例を説明するフローチャート。 複数のSEMが接続された測定システムの一例を説明する図。
 走査電子顕微鏡(Scanning Electron Microscope:SEM)等に代表される試料上に形成されたパターンを計測,検査する装置では、テンプレートマッチング技術を利用した所望の位置への視野合わせが行われているテンプレートマッチングは、予め登録されたテンプレート画像と最も一致する領域を、探索対象の画像から見つける処理である。
 テンプレートマッチングを用いる計測,検査装置の例としては、SEMや、ヘリウムイオンや液体金属イオンビームの試料への照射によって得られる二次荷電粒子を検出する集束イオンビーム(Focused Ion Beam:FIB)装置、或いは光を試料に照射する光学式の測定,検査装置等の画像取得装置がある。また、これらの測定,検査対象として、半導体ウェーハ,フォトマスク,磁気ヘッド,磁気ディスク、或いは他の微細構造を持つ試料がある。
 SEM等では、ステージ移動によって計測位置の大まかな位置に装置の視野を移動するが、ステージの位置決め精度だけでは電子顕微鏡の高倍率で撮像された画像上では大きなズレが生じることが多い。また、ウェーハをステージに毎回同じ方向で載せられるとは限らず、ステージに載せたウェーハの座標系(例えば、ウェーハのチップ等の並ぶ方向)が、ステージの駆動方向と完全には一致せず、これも電子顕微鏡の高倍率で撮像された画像上でのズレの原因となる。
 このズレを補正して正確な位置での計測,検査を行うために、テンプレートマッチングが行われる。具体的には、電子顕微鏡像よりは低倍率の光学式カメラでのアライメント、および電子顕微鏡像でのアライメントを行い、多段階にアライメントを行う。ここでは光学式カメラで、ステージに乗せたウェーハの座標系のアラメントを行う場合について説明する。ウェーハ上で離れた位置にある複数チップ(例えばウェーハの左右両端のチップ)の画像を用いてアライメントを行うとする。
 まず夫々のチップ内、或いは近傍にあるユニークな同一パターン(夫々のチップ内で相対的に同じ位置にあるパターン)をテンプレートとして登録する(登録に用いるパターンとしては、ウェーハ上に光学用のアライメントパターンとして作成されたものを用いることが多い)。次に、夫々のチップでテンプレート登録したパターンを撮像するようにステージ移動を行い、夫々のチップで画像を取得する。
 取得した画像に対しテンプレートマッチングを行う。その結果得られる夫々のマッチング位置をもとに、ステージ移動のズレ量を算出し、このズレ量をステージ移動の補正値としてステージ移動の座標系とウェーハの座標系を合わせることを行う。次に行う電子顕微鏡でのアライメントにおいては、予め計測位置に近いユニークなパターンをテンプレートとして登録しておき、テンプレートから見た計測位置の相対座標を記憶しておく。そして電子顕微鏡で撮像した画像から計測位置を求める時は、撮像した画像においてテンプレートマッチングを行い、マッチング位置を決め、そこから記憶しておいた相対座標分移動したところが計測位置となる。このようなテンプレートマッチングを利用して、所望の計測位置まで装置の視野を移動させることを行う。
 上記の設計データに基づいて作成したテンプレートを用いたテンプレートマッチングにおいて、探索画像内にあるマッチングさせたいパターンが、テンプレートと類似していると正しいマッチング位置が得られる。
 例えば図2(a)に例示するテンプレート200を用いて、図2(b)に例示する被探索画像210内をサーチする場合において、領域211をマッチングさせたい領域とする。このとき領域211は、被探索画像210内でテンプレート200に最も類似しているので、領域211がマッチング位置として検出され、マッチングは成功する。
 しかし、例えば被探索画像が図2(c)のように、画像内でマッチングさせたい領域223に、テンプレート200には無いパターン221,222等があると、領域223とテンプレート200のパターンの類似度が下がり、マッチングに失敗する恐れがある。この例では、領域224が、領域223に比べてテンプレート200にパターンが類似してしまい、領域224をマッチング位置として誤検出してしまう。このようにマッチングに失敗すると、先に述べたアライメントの成功率が低下する可能性がある。
 特に、半導体製造では、複数工程の層を重ねてデバイスを作成することが多くあり、それを検査装置等で観察すると、下層にあるパターンが、上層の工程層に覆われることなく露出したり、或いは上層を透過して見えたりすることがある。設計データを用いて作成したテンプレートの場合、テンプレートは一層或いは数層のレイアウトデータから作成されていることから、図2(c)の例のように被探索画像にテンプレートには無いパターンが写りこんでしまうことになる。
 また、写りこむパターンは、プロセス変動や電子顕微鏡の光学条件等によって変化する可能性があるため、例えば、単に下層のレイアウトデータを重ねてテンプレートを作成しても、マッチングの成功率が向上するとは限らない。
 以下に、被探索画像にテンプレートには無いパターンが写りこんだ場合であって、テンプレートマッチングの失敗を抑制し得る方法、及び装置について説明する。
 本例にて説明するパターンマッチング装置は、テンプレートマッチングに供されるテンプレートに部分的にマスク領域を施すマスク処理領域生成部と、被探索画像に対し前処理を行う前処理部と、テンプレートに対し前処理を行う前処理部と、前処理を行った被探索画像、および前処理を行ったテンプレート、およびマスク処理領域を用いてマッチング位置を決定するテンプレートマッチング処理部を備えている。また、上述のパターンマッチング装置に限らず、他のパターンマッチング装置についても併せて説明する。なお、ここで述べたマスク処理を行う領域は、テンプレートに存在するパターンのエッジ位置に沿って一定の幅を持った領域のみを、マッチング処理で相関計算を行う領域とし、それ以外の領域は、相関計算を行わない領域とすることを代表的な例とする。
 テンプレートに対し、部分的にマスクを施すことによって、被探索画像にテンプレートには無いパターンが含まれる場合でも、テンプレートマッチングで正確なマッチング位置を決定することができる。
 以下に、テンプレートマッチングを実行する装置,システム、及びこれらで実行されるコンピュータプログラム(或いはコンピュータプログラムを記憶する記憶媒体)について、図面を用いて説明する。より具体的には、測定装置の一種である測長用走査電子顕微鏡(Critical Dimension-Scanning Electron Microscope:CD-SEM)を含む装置,システム、及びこれらで実現されるコンピュータプログラムについて説明する。
 また、以下に説明する合成画像形成法は、パターンの寸法を測定する装置だけではなく、パターンの欠陥を検査する装置への適用も可能である。なお、以下の説明では、画像を形成する装置として荷電粒子線装置を例示すると共に、その一態様として、SEMを用いた例を説明するが、これに限られることはなく、例えば試料上にイオンビームを走査して画像を形成する集束イオンビーム(Focused Ion Beam:FIB)装置を荷電粒子線装置として採用するようにしても良い。但し、微細化が進むパターンを高精度に測定するためには、極めて高い倍率が要求されるため、一般的に分解能の面でFIB装置に勝るSEMを用いることが望ましい。
 図15は、データ管理装置1501を中心として、複数のSEMが接続されたシステムを例示している。特に本実施例の場合、SEM1502は主に半導体露光プロセスに用いられるフォトマスクやレチクルのパターンの測定や検査を行うためのものであり、SEM1503は主に、上記フォトマスク等を用いた露光によって半導体ウェーハ上に転写されたパターンを測定,検査するためのものである。SEM1502とSEM1503は、電子顕微鏡としての基本構造に大きな違いはないものの、それぞれ半導体ウェーハとフォトマスクの大きさの違いや、帯電に対する耐性の違いに対応した構成となっている。
 各SEM1502,SEM1503にはそれぞれの制御装置1504,1505が接続され、SEMに必要な制御が行われる。各SEMでは、電子源より放出される電子ビームが複数段のレンズにて集束されると共に、集束された電子ビームは走査偏向器によって、試料上を一次元的、或いは二次元的に走査される。
 電子ビームの走査によって試料より放出される二次電子(Secondary Electron:SE)或いは後方散乱電子(Backscattered Electron:BSE)は、検出器により検出され、前記走査偏向器の走査に同期して、フレームメモリ等の記憶媒体に記憶される。このフレームメモリに記憶されている画像信号は、制御装置1504,1505内に搭載された演算装置によって積算される。また、走査偏向器による走査は任意の大きさ,位置、及び方向について可能である。
 以上のような制御等は、各SEMの制御装置1504,1505にて行われ、電子ビームの走査の結果、得られた画像や信号は、通信回線1506,1507を介してデータ管理装置1501に送られる。なお、本例では、SEMを制御する制御装置と、SEMによって得られた信号に基づいて測定を行うデータ管理装置を別体のものとして、説明しているが、これに限られることはなく、データ管理装置にて装置の制御と測定処理を一括して行うようにしても良いし、各制御装置にて、SEMの制御と測定処理を併せて行うようにしても良い。
 また、上記データ管理装置或いは制御装置には、測定処理を実行するためのプログラムが記憶されており、当該プログラムに従って測定、或いは演算が行われる。更にデザインデータ管理装置には、半導体製造工程に用いられるフォトマスク(以下単にマスクと称することもある)やウェーハの設計データが記憶されている。この設計データは例えばGDSフォーマットやOASISフォーマットなどで表現されており、所定の形式にて記憶されている。なお、設計データは、設計データを表示するソフトウェアがそのフォーマット形式を表示でき、図形データとして取り扱うことができれば、その種類は問わない。また、データ管理装置とは別に設けられた記憶媒体にデザインデータを記憶させておいても良い。
 また、データ管理装置1501は、SEMの動作を制御するプログラム(レシピ)を、半導体の設計データに基づいて作成する機能が備えられており、レシピ設定部として機能する。具体的には、設計データ,パターンの輪郭線データ、或いはシミュレーションが施された設計データ上で所望の測定点、オートフォーカス,オートスティグマ,アドレッシング点等のSEMにとって必要な処理を行うための位置等を設定し、当該設定に基づいて、SEMの試料ステージや偏向器等を自動制御するためのプログラムを作成する。なお、テンプレートと呼ばれる参照画像を用いたテンプレートマッチング法は、所望の個所を探索するためのサーチエリアの中で、テンプレートを移動させ、当該サーチエリアの中で、テンプレートとの一致度が最も高い、或いは一致度が所定値以上となった個所を特定する手法である。制御装置1504,1505は、レシピの登録情報の1つであるテンプレートに基づくパターンマッチングを実行する。また、制御装置1504,1505には、正規化相関法等を用いたマッチングを行うためのプログラムが記憶されており、制御装置1504,1505は、当該プログラムを実行するコンピュータとして機能する。
 なお、データ管理装置1501に、ヘリウムイオンや液体金属イオン等を試料に照射する集束イオンビーム装置を接続するようにしても良い。また、データ管理装置1501に、設計データに基づいて、パターンの出来栄えをシミュレーションするシミュレーター1508を接続し、シミュレーターによって得られるシミュレーション画像をGDS化し、設計データの代わりに用いるようにしても良い。
 図1は、テンプレートに部分的にマスク処理を施すことによって、テンプレート内で相関演算等を行わない領域を設け、当該領域が設けられたテンプレートによって、テンプレートマッチングを行う例を説明する図である。図1に例示するようなマッチング処理等は、例えば制御装置1504,1505、或いはデータ管理装置1501内で行うことを前提として説明するが、これに限られることはなく、例えば他の演算処理装置にて行うようにしても良い。本例では、走査電子顕微鏡等の画像取得装置にて取得した被探索領域の画像データ100と、設計データから切り出されたテンプレート101とで、テンプレートマッチングを行い、最終的にマッチング位置107を算出する。
 以下に説明する手法は、先に述べたようにテンプレートには無いパターンが被探索画像でのマッチング正解位置に写りこみ、一般のマッチング方法ではパターンの類似度が下がりマッチングに失敗する可能性がある場合であっても、正しいマッチング位置を検出することを志向するものであり、そのために、テンプレートには無いパターンが写りこむであろう領域を、マッチング処理の相関計算(非特許文献1のpp.1672)を行わない領域(以降、マスク領域と呼ぶ)として設定する。この設定によって、マスク領域が相関演算を行わない領域として、その情報が所定の記憶媒体に記憶される。これにより被探索画像に、テンプレートには無いパターンの写りこみ(つまりマスク領域にパターンが写りこむこと)が起きても、マッチング結果は、その影響を受けなくでき、正しいマッチング位置を検出できるようになる。このマスク領域設定は、マスク処理領域生成部105で行う。
 マスク領域は、例えば、図3に例示するように、テンプレート内に在るパターン領域のエッジ部分より設定距離以上離れた部分をマスク領域とする処理を行う。また前処理部A103では、画像データ100に対し、画像に含まれるノイズを低減する処理、およびパターンの形状を強調するようなエッジ強調処理などを行い、後段のマッチング処理106をロバストにする。また前処理部B105においては、テンプレートに対し、パターンの形状を強調するエッジ処理などを行い、後段のマッチング処理106をロバストにする。前処理を行った被探索画像および前処理を行ったテンプレート、およびマスク処理領域を用いて、マッチング処理部106でテンプレートマッチングを行い、マッチング位置107を出力する。このマッチング位置は、テンプレートには無いパターンが被探索画像でのマッチングが正解すべき位置に写りこんだ場合にでも、正しいマッチング位置となる。
 以下、テンプレートマッチングの処理プロセスの具体的な内容について説明する。前処理部A103においては、画像に含まれるノイズのマッチング処理への影響を低減する処理を行う。例えば処理としてガウシアンフィルタ処理,メディアンフィルタ処理(非特許文献1のpp.1670)等のノイズ低減処理を行う。なおノイズ低減処理はこれに限定するものではなく、ノイズが低減できる処理であれば良い。更にパターンの形状を強調するためにエッジ強調処理を行う。例えば、ソーベルフィルタ処理(非特許文献1のpp.1215)などを行う。なおエッジ強調処理も、これに限定したものではなく、エッジ強調ができる処理であれば良い。前処理部A103におけるノイズ低減処理、およびエッジ強調処理は、必ずしも両方を実施するとは限らず、どちらか一方、或いは、両処理を実施しないことも可能である。
 前処理部B104では、設計データのパターンの形状を強調するためにエッジ強調処理を行う。例えば、ソーベルフィルタ処理(非特許文献1のpp.1215)などを行う。なおエッジ強調処理はこれに限定したものではなく、エッジ強調ができる処理であれば良い。前処理部Bでの本処理についても、必ずしも実施するとは限らず処理を実行させないことも可能である。
 マスク処理領域生成部105では、設計データに基づいて図3乃至図5に例示する手法で、マスク処理領域を生成する。マスク処置領域生成部105で設定されたマスクは、後段のテンプレートマッチング処理106で、相関計算(非特許文献1のpp.1670)を行わない領域を示すものであり、当該領域は相関計算等の照合処理を行う領域と、行わない領域を識別するためのものである。
 以下の説明では、特に断わりがない限り、相関計算を行わない領域を「マスク領域」、相関計算を行う領域を「アンマスク領域」、マスク領域とアンマスク領域を合わせた情報を「マスク情報」と呼ぶこととする。
 アンマスク領域としては、例えばテンプレートでパターンのエッジがある部分周辺を指定し、マスク領域は、例えばパターンのエッジがある部分周辺から離れた領域を指定する。これにより、マスク情報を用いると、テンプレートにあるパターンのみを強調したテンプレートマッチングが可能になる。マッチング処理部106では、テンプレートマッチングを行う(非特許文献1のpp.1670)。例えば正規化相関法(非特許文献1のpp.1672)を用いたマッチング処理を行う。相関値は、先の述べたように、テンプレート全領域での算出を行うような一般的な方法ではなく、設計データより作成したマスク情報であるアンマスク領域のみで相関値を算出する。これにより、アンマスク領域のみでのマッチングを行うことから、アンマスク領域以外(すなわちマスク領域)にあるパターンの影響をうけずにマッチングすることが可能になり、被探索画像にテンプレートには無いパターンがある場合にでも、マッチングを成功することが可能になる。
 図3は、図1で述べたマスク処理領域生成部105で、設計データからマスク処理領域を設定する手法の一例を説明する図である。図3(a)は、設計データから切り出したテンプレート300の例である。本テンプレートから、次に述べる方法により、テンプレートにあるパターンのエッジ部分の周辺をアンマスク領域、それ以外の領域をマスク領域としたマスク処理領域を作成する。図3(b)は、テンプレート300をもとに作成したマスク処理領域の例である。黒色で示している部分302がアンマスク領域、それ以外の白色で示している部分がマスク領域である。黒色,白色は、説明のために両領域を区別するために示しているだけであり、この色に限定するものではない。画像データで両領域が区別できるように、各領域が保存されていれば良い。例えば、マスク領域には、全て画素値「1」、アンマスク領域には、全て画素値「0」を保存すれば、両領域を区別することができる。
 次に図3(c)は、マスク処理領域の設定法の一例を説明する図である。設計データから切り出されたテンプレートにあるパターンを、パターン310とし、このパターン310から作成するアンマスク領域を、破線部312、および破線部314の間に挟まれた領域として、このマスク処理領域を作成する方法を説明する。まずパターン310を膨張処理(非特許文献1のpp.1528)し、破線部312の大きさのパターンを作成する。
 その時の膨張サイズ311は、例えば画素値で与え、例えば数画素とする。次にパターン310を収縮処理(非特許文献1のpp.1528)し、破線部314の大きさのパターンを作成する。その時の収縮サイズ313は、例えば画素値で与え、例えば数画素とする。膨張処理で作成したパターンと、収縮処理で作成したパターンの差分をとることで、破線部312および破線部314に挟まれた領域を設定できる。この領域がアンマスク領域となる。作成したアンマスク領域は、パターン310のエッジ部分を中心に、膨張サイズおよび収縮サイズの幅分を広げた領域となり、つまりパターン310のエッジ部分の周辺領域をアンマスク領域とすることができ、それ以外はマスク領域とできる。以上のようにしてマスク処理領域を作成する。ただしマスク処理領域の作成方法はこれに限定するものではなく、パターン310のエッジ部分の周辺領域をアンマスク領域、それ以外をマスク領域にできる処理であれば良い。例えば、任意の大きさのマスク領域を設定し、当該設定されたマスク領域以外の部分をアンマスク領域とするようにしても良い。
 図4は、設計データからマスク処理領域を作成する他の手法を説明する図である。図3に例示した手法は、テンプレートのパターンエッジ部分の周辺を選択的にアンマスク領域にする方法であった。ここでは、図3で説明した方法に加えて、アンマスク領域を拡張する方法について述べる。本例では、パターンエッジ等が存在しない領域であって、且つ被探索画像上、パターンの写りこみがないことが判っている領域を、アンマスク領域として設定する手法について説明する。本方法により正規化相関を用いたテンプレートマッチングのロバスト性が更に向上する。
 正規化相関法等を用いた類似度判定では、パターン部分の類似度だけではなく、パターンが無い部分の類似度も評価していることから(非特許文献1のpp.1672)、マッチングによる照合判定から除外される領域が少ない方が、類似度判定に寄与する領域を大きくできることが、ロバスト性向上の理由として挙げられる。
 図4(a)は設計データの一例を説明する図であり、設計データ400の一部を切り出したテンプレートの一例を図4(b)に例示する。図4(b)に例示したテンプレート410の領域401は、複数の半導体製造工程を経て半導体デバイスを作成しても、パターンがあらわれない領域であるとする。即ち、画像に下層パターンが写りこむことがない領域であるとする。
 この領域は、各工程の設計データを調べ、パターンが現れない領域の論理積で求めることができる。このとき論理積をとる工程は、全工程の設計データを用いても良いし、或いは測定、或いは検査する対象となるレイヤを形成する工程と、当該工程の所定数前までの工程の設計データについて選択的に論理積演算の対象とするようにしても良い。後者は、測定、或いは検査する工程で写りこむことがない工程のパターンを論理積演算に含めないようにすることで、アンマスク領域を大きく維持することができる。
 このようにして求めたパターンが現れないアンマスク領域(領域401)と、図3で説明したパターンのエッジ部周辺でのアンマスク領域との合成領域が、図4(c)に例示するマスク処理領域420となる。
 図3での説明と同様、黒色で示している部分がアンマスク領域、それ以外の白色で示している部分がマスク領域である。黒色,白色は、説明のために両領域を区別するために示しているだけであり、この色に限定するものではない。画像データで両領域が区別できるように、各領域の画素値が保存されていれば良い。例えば、マスク領域には、全て画素値「1」、アンマスク領域には、全て画素値「0」を保存すれば、両領域を区別することができる。
 図5は、設計データに基づいて、マスク処理領域を作成する更に他の手法を説明する図である。先に図3で説明した方法は、テンプレートにあるパターンのエッジ部分の周辺を選択的にアンマスク領域にする方法であった。本例では、図3で説明した方法に加えて、アンマスク領域を拡張する方法について説明する。本方法では、正規化相関法(非特許文献1のpp.1672)で相関が高くなる領域を積極的にアンマスク領域として設定する。
 これにより、被探索領域内で、テンプレートと類似している部分が多いマッチング位置候補領域における相関値を高めることができる。特に、マッチング正解位置は、テンプレートと類似している領域が多いことが一般的であるため本方法によりマッチング正解位置における相関値を高めることができ、マッチングのロバスト性を向上させられる場合がある。
 具体的な実施方法の一例を説明する。なお、本例では、マッチングの探索処理(非特許文献1のpp.1669)の実行時に、テンプレートの移動に伴って、アンマスク領域を作成する。つまりアンマスク領域は、マッチング処理中に動的に変化する。
 図5(a)は、テンプレート画像の一例を説明する図であり、図5(b)は、テンプレート500によってサーチを行う被探索画像の一例を説明する図である。テンプレートマッチングは、テンプレート500を被探索画像510上で移動させることによって、テンプレート500と一致度の高い被探索画像510上の位置を探索する。本例ではテンプレートが、図5(b)の領域511の位置にある場合のアンマスク領域を作成する例を示す。ここでは次に説明する正規化差分画像と呼ぶ画像を用いて、アンマスク領域を作成する。正規化差分画像は、正規化相関演算(非特許文献1 pp.1672)における差情報を画素単位に表現したものであり、数式で表すと、テンプレート画像510 f(x,y),被探索画像511 g(x,y)に対して、式1のように示される(ここで、f( ),g( )は画像を示し、x,yは画像を構成する画素の座標を示す)。
Figure JPOXMLDOC01-appb-I000001

はそれぞれ画像f(x,y),g(x,y)の平均値、constは正規化差分画像Ndifを整数化するための定数である。
Figure JPOXMLDOC01-appb-M000001
 図5(c)に正規化差分画像520を例示する。正規化差分画像では、画像の明度値が高い領域が、類似度が低い領域であり、一方、画像の明度値が低い領域が、類似度が高い領域となる。先にのべたように、類似度が高い部分を、アンマスク領域にする。例えば、正規化差分画像に対し2値化処理(非特許文献1)を行い、2値化しきい値以下となる明度値が低い部分をアンマスク領域、2値化しきい値より大きく明度値が高い部分をマスク領域とする。図5(d)は、このようにして生成したマスク処理領域530の例である。図3での説明と同様、黒色で示している部分がアンマスク領域、それ以外の白色で示している部分がマスク領域である。最終的に生成するマスク処理領域は、図3で説明したマスク処理領域と、図5で説明したマスク処理領域の論理和をとり、図5(e)に示すようなマスク処理領域540とする。
 なお、マスク処理領域は、図3,図4,図5のうち、全ての領域或いは、その一部を組み合せて作成しても良い。その組み合わせを図12で説明するGUIで、ユーザが選択することも可能である。
 図6は、マスク処理を用いたテンプレートマッチング処理において、粗密探索を行う方法について説明する図である。マッチング処理においては、安定した処理、或いは低コストの処理を行うために粗密探索を行う方法が提案されている(非特許文献1のpp.1678 coarse-to-fineマッチング)。
 マスク処理を施したテンプレートを用いたテンプレートマッチングにおいても粗密探索を行うことができる。ただし、必ずしも粗密探索を行う必要があることはなく、粗密探索を行わずにテンプレートマッチングを行うことも可能である。図6(a)はテンプレート600(画像の幅m[pix],高さn[pix])、図6(b)は被探索画像610(画像の幅M[pix],高さN[pix])である。
 粗探索では、テンプレート600、および被探索画像610から解像度の低い画像を作成する。そして作成したテンプレートの粗画像630(画像の幅m′[pix],高さn′[pix](ただしm′<m,n′<nである))および被探索画像の粗画像640(画像の幅M′[pix],高さN′[pix](ただしM′<M,N′<Nである))を用いてテンプレートマッチングを行う。その時に、テンプレートの粗画像630から図3,図4,図5で説明した方法のいずれか、或いは、それらを組み合せて作成したマスク領域画像650を用いて、マスク処理したテンプレートマッチングを行う。なお、マスク領域画像650は、テンプレート画像600から図3,図4,図5で説明した方法のいずれか、或いは、それらを組み合せて作成したマスク領域画像620の解像度を下げて作成しても良い。
 作成したテンプレート画像の粗画像630,被探索画像の粗画像640、およびマスク処理領域の粗画像650を用いて、マスク処理を用いたテンプレートマッチングして算出されるマッチング候補を図6(e)に破線部641で示す。本例では、マッチング候補数は3個としているが、候補数は3個に限定するものではなく、1個以上の数を指定することができる。なお、マッチング候補は、マッチングスコアで上位のものから選択する。
 ここでいうマッチングスコアとは、マッチング処理でのテンプレートと被探索画像から得た候補画像との一致度の指標であり、例えば正規化相関法の相関値などを用いる。なおマッチングスコアは、相関値に限定するものではなく、テンプレートと被探索画像から得た候補画像との一致度を示す値であれば良い。
 次に被探索画像の粗画像640で得られたマッチング候補641のマッチング位置を、元の被探索画像660での位置661に換算する。今度は、元の高解像度の画像においてマッチング候補661の周辺領域でテンプレートマッチングを行う。マッチング処理は、元のテンプレート600,被探索画像610,テンプレートから作成したマスク処理領域620を用いて、マスク処理を用いたテンプレートマッチングを行う。また、そのときのマッチング候補661の周辺で探索する領域は、粗探索での低解像度にするときのサンプリングレートや所望の処理時間から決める。例えば、候補領域661周辺の数画素を探索領域とする。
 このテンプレートマッチングの結果で、最もスコアが高くなる候補でのマッチング位置が最終的なマッチング位置671となる。本粗密探索を用いたテンプレートマッチングでは、粗および密の2段階でのマッチングの例を示したが多段階で探索(非特許文献1のpp.1678)しても良い。
 図7は、マスク処理を用いたテンプレートマッチング処理において、粗密探索を行う第2の方法について説明する図である。マスク処理領域を用いたマッチング処理においては、例えば図5で説明したマスク処理領域を動的に生成しながら処理を行うと、処理時間が多くなってしまうことがある。検査装置において、マッチング処理の処理時間が多くなると、測定或いは検査のスループットが低下する場合がある。これを解決する方法として、粗密探索の粗探索,精探索で、マッチング処理を変える処理を行うようにしても良い。
 具体的には、精探索のみで先に述べたマスク処理を用いたテンプレートマッチングを行い、一方、粗探索では、マスク処理を行わないテンプレートマッチングを行う。図7で、それを実施する方法の一例を説明する。まず粗探索700を行う。被探索画像701を、低解度化処理部702で、図6での説明と同様に低解像度の画像に変換する。前処理部A702においては、図1での前処理部Aでの処理と同様に、ノイズ低減処理、およびエッジ強調処理を行う。ただし、ノイズ低減処理、およびエッジ強調処理の、いずれか一方、或いは、両方とも行わないことも可能である。
 テンプレートにする設計データ704に対しても、低解像度化処理部705で、図6での説明と同様に低解像度の画像に変換する。前処理部B706においては、エッジ強調処理を行う。ただし、エッジ強調処理は、行わないことも可能である。低解像度化および前処理を行った被探索画像と、低解像度化および前処理を行ったテンプレートとを用いて、マッチング処理部707で、テンプレートマッチングを行う。その結果、粗探索でのマッチング位置候補708が算出できる。
 このように粗探索700では、マスク処理を行わないテンプレートマッチングを行う。次に、精探索を行う。まず粗探索で得たマッチング候補のマッチング領域を、元の被探索画像701での領域に換算する。そして、今度は、元の高解像度の画像においてマッチング候補周辺でテンプレートマッチングを行う。このマッチング候補周辺の領域の切り出しは、被探索画像701と、粗探索でのマッチング候補708とを用いて、マッチング候補周辺領域切り出し部721で行う。ここで切り出す領域は、粗探索での低解像度にするときのサンプリングレートや所望の処理時間から決める。例えば、候補領域周辺の数画素を領域とする。切り出した領域に対し、図1で説明したのと同様に、ノイズ低減処理、およびエッジ強調処理を、前処理部A722で行う。
 次に、元のテンプレート704に対し、これも図1で説明したのと同様に、エッジ強調処理を、前処理部B723で行う。精探索では、マスク処理をしたテンプレートマッチング処理を行うために、マスク処理領域の生成を、テンプレートデータ701を用いてマスク処理領域生成部724で行う。ここでのマスク生成処理は、図3,図4,図5で説明した方法のいずれか、或いは、それらを組み合せて行う。最後に、前処理を行った被探索画像、および前処理を行ったテンプレートおよび、マスク情報を用いて、マッチング処理部725でテンプレートマッチングを行う。その結果、マッチング位置730を算出することができる。このようにして、粗密探索において、精探索のみでマスク処理を用いたテンプレートマッチングを行う方法を行うことも可能であり、これによりマッチング処理を高速に行うことが可能となる。
 なお、上述した例では、テンプレートを設計データ(レイアウトデータ)の部分的な切り出しによって作成したが、これに限られることはなく、例えば設計データに対し、図15に例示したシミュレーター1508を用いたシミュレーションを施し、当該シミュレーション画像の一部を切り出して、テンプレートとするようにしても良い。シミュレーターによって得られた輪郭線情報を利用することによって、実パターンの形成状態に応じたマスク領域、或いはアンマスク領域の設定が可能となる。
 図8は、SEMの概要を説明する図である。SEMでは、電子銃801から電子線を発生させる。ステージ802上におかれた試料である半導体ウェーハ803上の任意の位置において電子線が焦点を結んで照射されるように、偏向器804および対物レンズ805を制御する。電子線を照射された半導体ウェーハ803からは、2次電子が放出され、806の2次電子検出器により検出される。検出された2次電子はA/D変換器807でデジタル信号に変換され、処理・制御部814内の画像メモリ815に格納され、CPU816で目的に応じた画像処理が行われる。
 テンプレートマッチングは、処理・制御部814で処理を行う。図12で説明する処理の設定および、処理結果の表示は、表示装置820で行う。また先に述べた電子顕微鏡よりも低倍の光学式カメラを用いたアライメントにおいては、光学式カメラ811を用いる。半導体ウェーハ803を本カメラで撮像することで得られる信号も、A/D変換器812でデジタル信号に変換され(光学式カメラからの信号がデジタル信号の場合は、A/D変換器812は不要となる)、処理・制御部814内の画像メモリ815に格納され、CPU816で目的に応じた画像処理が行われる。また反射電子検出器808が備わっている場合には、半導体ウェーハから放出される反射電子を、反射電子検出器808により検出し、検出された反射電子はA/D変換器809或いは810でデジタル信号に変換され、処理・制御部814内の画像メモリ815に格納され、CPU816で目的に応じた画像処理が行われる。テンプレートに対するマスク領域の適用や、テンプレートマッチングの処理は、処理・制御部814で行われると共に、その情報は記憶媒体821に記憶される。図15の例では制御装置1504,1505や、データ管理装置1501に内蔵された演算装置や記憶媒体によって、上述の処理が実行される。
 本例では、検査装置の例として走査型電子顕微鏡を示したが、これに限定するものではなく、画像を取得し、テンプレートマッチング処理を行う検査装置等に適用できる。
 図9は、テンプレートマッチング装置におけるテンプレートマッチング処理の他の例を説明する図である。図1に例示した手法との違いは、設計データからテンプレートを切り出す処理を行うことである。図1では、既に切り出されたテンプレートデータに対して、マスク処理を用いたテンプレートマッチングを行う方法であった。
 このように設計データから任意の領域を切り出し可能とすることによって、ユーザは、設計データから切り出したテンプレートを別途準備する手間が必要なくなる。図9を用いて、本方法について説明する。まず設計データ903から、マッチングをさせる領域となるテンプレートの切り出しを、テンプレート切り出し部904で行う。このテンプレート切り出しは、ユーザが設計データからマニュアルで領域を設定するか、或いは、設計データからテンプレートに適当な特徴のあるパターンを自動的に切り出すことが考えられる。
 次に切り出したテンプレートの位置およびサイズの情報をもとに、試料を撮像するときの条件情報を撮像条件算出部905で算出する。ここでの撮像条件は、テンプレート位置に検査装置の視野をあわせるための視野移動量の情報およびテンプレート位置で撮像するときの視野サイズの情報を含む。なお、視野サイズは、設計データから切り出したテンプレートの位置をもとに、検査装置での視野移動の精度を考慮して、視野移動でテンプレートが視野内に入るように設定する。この撮像条件をもとに、検査装置900において画像を取得する。
 以下は、図1で説明したマスク処理を用いたテンプレートマッチング処理と同じ方法となる。つまり、検査装置等で取得した被探索領域の画像データ901と、設計データから切り出された設計データに基づくテンプレートでテンプレートマッチングを行い、最終的にマッチング位置909を算出する。前処理部A902においては、ノイズ低減処理、およびエッジ強調処理を行う。なお、両処理のいずれか一方、或いは両処理を行うことも可能であり、また両処理を行わないことも可能である。前処理部B906においては、テンプレートに対してエッジ強調処理を行う。なお、エッジ強調処理を行わないことも可能である。マスク処理領生成部907においては、テンプレートをもとに、図3,図4,図5で説明したマスク生成処理のいずれか、或いは、組み合せてマスク領域を生成する。最後に、前処理を行った被探索画像、および前処理を行ったテンプレート、およびマスク情報を用いて、マッチング処理部908でテンプレートマッチングを行い、マッチング位置909を算出する。これにより、切り出したテンプレートを別途準備する必要なく、検査装置に設計データを与えるだけでテンプレートマッチングが行えるようになる。
 図10は、テンプレートマッチング装置におけるテンプレートマッチング処理の更に他の例を説明する図である。図1に例示した手法との違いは、テンプレートを、検査装置で取得した画像から作成する点である。そして、テンプレートに相当する領域を設計データから切り出し、切り出した設計データからマスク処理領域を生成し、そのマスク処理領域を用いてテンプレートマッチングを行う。
 検査装置等で取得した被探索画像1000に対し、前処理部A1010では、画像に含まれるノイズを低減する処理、或いはパターンの外形を強調するエッジ処理などを行う。また検査装置で取得したテンプレートにする画像データに対しても、前処理B1011で画像に含まれるノイズを低減する処理、或いは、パターンの外形を強調するエッジ強調処理などを行う。この前処理部A,前処理部Bの処理により、後段のマッチング処理1013をロバストにできる。
 またテンプレート領域に相当する領域の切り出し部1004では、設計データから、テンプレートに相当する部分を切り出す。本切り出し領域の設定は、ユーザがマニュアルで行うか、或いは、テンプレートと設計データのテンプレートマッチング処理を行いマッチングした領域とする。ここでのマッチング処理では、マスク処理は使わないテンプレートマッチングを行う。よって、テンプレートを設定するときの画像データは、マスク処理を行わなくてもマッチングが成功するような、つまり、設計データにないパターンの写りこみが少ない画像を選ぶことが望ましい。またマスク処理領域生成部1012では、設計データより切り出したテンプレート領域に相当する領域からマスク処理領域を生成する。前処理を行った被探索画像、および前処理を行ったテンプレート、およびマスク処理領域を用いて、マッチング処理部1013でテンプレートマッチングを行い、マッチング位置707を出力する。
 このように、テンプレートに実際の検査装置で得られる画像を用いることで、設計データにあるパターン形状と実際に形成された半導体パターンの形状との乖離が大きな場合にでもテンプレートマッチングをロバストに行うことができるようになる。またマスク処理を行っていることからテンプレートには無いパターンが、被探索画像のマッチング成功位置に入り込んだ場合にでも、ロバストにマッチングを行うことが可能となる。
 図11は、テンプレートマッチング装置におけるテンプレートマッチング処理の更に他の例を説明する図である。
 図1に例示した手法との違いは、テンプレートを検査装置で取得した画像から作成する点、および、マスク処理領域を設計データから生成するのではなく、検査装置等で取得した画像であるテンプレートから生成する点である。本方法では、例えば図3で説明したマスク処理領域生成は、検査装置から取得した画像であるテンプレートに対し、エッジ強調処理などを行い、それにより算出したパターンの輪郭の周辺領域をアンマスク領域とする。これにより、パターンのエッジ部分周辺の領域のみを用いたマッチング処理が可能になる。つまり、テンプレートにないパターンが被探索画像に写りこんだ場合にでも、ロバストなマッチングが可能になる。
 検査装置で取得した被探索画像1100に対し、前処理部A1103では、画像に含まれるノイズを低減する処理、或いはパターンの外形を強調するエッジ処理などを行い、後段のマッチング処理1106をロバストにする。検査装置で取得したテンプレートにする画像データに対しても、前処理B1104で画像に含まれるノイズを低減する処理、或いは、パターンの外形を強調するエッジ強調処理などを行い、後段のマッチング処理1106をロバストにする。
 またマスク処理領域生成部1105では、テンプレートの画像データ1102をもとに、マスク処理領域を生成する。これは先に述べたように、画像データ1102に対して、エッジ強調処理などによりテンプレート中のパターンの輪郭を抽出する。パターンの輪郭抽出方法は、これに限定するものではなく、パターンの輪郭が抽出できる方法であれば良い。そして、図3の方法を用いて、抽出した輪郭線(図3ではエッジ部分と記述している)の周辺部をアンマスク領域とする。なお、マスク処理領域は、図4,図5で説明した方法で作成したマスク領域を組み合せて作成しても良い。前処理を行った被探索画像、および前処理を行ったテンプレート、およびマスク処理領域を用いて、マッチング処理部1106でテンプレートマッチングを行い、マッチング位置707を出力する。このように、設計データを用いることなく、検査装置から取得した画像より作成したテンプレートからマスク処理領域を作成し、マスク処理を用いたテンプレートマッチングを行うことが可能となる。これにより、検査を行う際に、設計データが用意できない場合においても、マスク処理を用いたテンプレートマッチングを行うことができ、ロバストなマッチング処理を行うことができるようになる。
 図12は、マスク処理領域を作成するときのGUI画面の例を説明する図である。本図は、マスク処理を用いたテンプレートマッチング処理を行うことができる検査装置の表示装置820に表示されるGUIの一例である。マスク処理を用いたマッチングの実行有無を1201の選択ボックスで選ぶことができる。マスク処理を用いたマッチング処理を行う場合には、マスク処理領域の生成方法を行う。例えば、設計データでのパターンエッジ部周辺で作成するアンマスク領域の幅を指定することができる1202。また図4で示したように複数の設計データでパターンが無い領域をアンマスク領域にする処理を行うか否かを設定できる1203。また手動でマスク領域を加えることも可能である1204。マスク処理領域作成の元となるテンプレート画像1210、或いは作成したマスク処理領域1211を表示することができる。またスライドバーを用いて、アンマスク領域の幅を調整することができる1212。以上により、ユーザは、GUIで確認しながらマスク処理領域を調整することが可能である。なお、本GUIは、ここであげた全ての部材が揃っている必要はなく、全て、或いは一部が備わっているものである。
 なお、マスク領域は「相関値を求めるための積和演算等を行わない領域」と定義することができるが、積和演算等を行ったとしても、相関値に反映しなければ実質的に同じ効果が得られるため、「相関値を求めるための積和演算等を行わない領域」に代えて「積和演算等は行うけれども、相関値には反映しない領域」としても良い。即ち、「照合対象から除外する領域」が設定できれば良い。
 更に、以下に上述の実施例にてマスク領域と定義した領域について、アンマスク領域とは異なる演算を行うことで、高精度なマッチングを実現する手法について、説明する。まず、マスク領域に相当する領域にて、アンマスク領域に対し、マッチングスコアの重み付けを下げて、一致度判定を行うことが考えられる。より具体的には、下層パターンの影響が懸念される領域(第1の領域)と、それ以外の領域(第2の領域)を定義し、第1の領域のマッチングスコアに所定の係数を乗算して、第2の領域に対し、相対的に重みを下げた上で、第1の領域と第2の領域の合成マッチングスコアに基づいて、照合処理を行うことが考えられる。このような処理を行えば、仮に下層パターンが画像上、現れたとしても、テンプレート全体でのマッチングスコアの低下を抑制することができるため、マッチングの成功率を高い状態に維持することができる。
 次に、上記第2の領域について選択的に第1の照合処理を行った後、第1の領域について、第2の照合処理を行うことが考えられる。即ち、第1の領域と第2の領域について、それぞれ異なるテンプレートを用意し、第1の照合処理によって、位置合わせを行った後、第2の照合処理を行うことが考えられる。第1の照合処理によって、上層パターンに対する正確な位置合わせが行われているため、第2の照合処理に用いられるテンプレートを例えば、下層パターン用のテンプレートとすることによって、上下層間のずれを特定することが可能となる。
 また、当該第2の照合処理を行う場合に、2種以上のテンプレートを用意することで、第1の領域の状態把握を行うことも可能である。例えば、下層パターンが表現されているテンプレートと、そうでないテンプレートを用意し、当該2種のテンプレートを用いたマッチングを行うことで、下層パターンが試料上に表現されているか、否かの判断を行うことができる。第1の領域が、マッチングスコアの高い方のテンプレートに近似する試料状態であると判断できるため、プロセス変動等により、変動可能性のあるパターンの状態を把握することが可能となる。また、当該第1の領域の判定に基づいて、最も一致度の高いテンプレートを選択し、当該第1の領域に適用されるテンプレートと、第2の領域に適用されるテンプレートを合成して、新たなテンプレートを作成することによるマッチングスコアの向上にも寄与することができる。なお、第1の照合と第2の照合を、並列処理するようにしても良い。
 次に、第1の照合と第2の照合を併せて行う際に、第1の領域とテンプレートとの不一致度を利用して、テンプレートマッチングを行う手法について説明する。
 プロセス変動等によって、第1の領域におけるパターンの写りこみ状態が変化するような場合、安定してマッチングを行うことが困難となる場合がある。このような場合、テンプレートのサーチ領域の中で、第2の領域については、通常通り一致度に基づくマッチングを行い、第1の領域については、不一致度を評価することによって、プロセス変動等に因らず、安定したマッチングを行うことができる。第1の領域の状態がプロセス変動等によって変化する場合、当該部分のテンプレートを予め用意することは困難である。一方でテンプレートマッチングによって誤検出してしまう個所が、上述のような第1の領域の状態変化がない個所であるならば、少なくとも第1の領域に関して、当該誤検出してしまう個所と同等、或いは近似するテンプレートを用意し、不一致度判定によって、不一致度が高い個所を選択することによって、誤検出を抑制することが可能となる。
 図13は、第1の領域と第2の領域で異なる照合処理を行うテンプレートと被探索画像の一例を説明する図である。図13は、テンプレート1301を用いて、被探索画像1302内をサーチする例を説明する図である。被探索画像1302内には、所望のマッチング位置1303と、誤検出の可能性がある位置1304が存在する。本例では、テンプレート1301の第1の領域(下層パターンが写りこむ可能性のある領域)を、位置1304と同一とすると共に、当該第1の領域について、テンプレート1301との一致度が低い(不一致度が高い)位置を選択することによって、位置1304へのマッチングエラーを抑制することができる。
 被探索領域の中に、所望のマッチング位置と同一の第2の領域を持つ位置が存在し、且つ所望のマッチング位置の第1の領域が変動する可能性がある場合に特に有効であり、パターン変動に対するマッチングのロバスト性の向上と、マッチングエラーの抑制の両立を実現することが可能となる。なお、上述の例では、テンプレート1301の第1の領域を、位置1304の第1の領域に相当する部分と同じくする例について説明したが、これに限られることはなく、例えば所望のマッチング位置1303の第1の領域とは明らかな乖離があって、相対的に、位置1304の第1の領域に相当する部分に近似する第1の領域を持つテンプレートとすることによっても、マッチングエラーを抑制することが可能となる。
 図14は、第1の領域と第2の領域で異なる照合処理を行うテンプレートマッチング法の一例を説明するフローチャートである。テンプレートによるサーチを開始(S1401)した後、第2の領域について、一致度の演算を行い(S1402)、一致度が所定の値以上、或いは所定値を越えた位置を、マッチング位置の候補として抽出する(S1403)。ここで、候補が1つのみ選択された場合には、当該候補が正しいマッチング位置であると判断して、マッチング処理を終了する。マッチング位置の候補が複数選択された場合には、抽出された候補について、第1の領域の一致度演算を行う(S1404)。この一致度判定において、一致度が所定値以下、或いは所定値未満の位置を選択(S1405)することで、マッチング結果の出力を行う(S1406)。なお、この一致度判定では、不一致度が所定値以上、或いは所定値を越えた位置を選択するようにしても良い。本例では誤検出の対象となる位置とテンプレートとの一致度(不一致度)に基づいて、マッチングの成否の判定を行っているため、プロセス変動等によって、マッチングの対象位置に画像上の変動があったとしても、安定してマッチングを行うことができる。
801 電子銃
802 ステージ
803 半導体ウェーハ(試料)
804 偏向器
805 対物レンズ
806 2次電子検出器
807,809,810,812 A/D変換器
808 反射電子検出器
811 光学式カメラ
814 処理・制御部
815 画像メモリ
816 CPU
820 表示装置
821 記憶媒体

Claims (19)

  1.  テンプレートを用いて、試料の被探索画像に対するパターンマッチングを行うパターンマッチング方法において、
     前記テンプレート内に、テンプレートと画像との照合を除外する除外領域、或いは当該テンプレート内に第1の照合領域と、当該第1の照合領域とは異なる照合を行う第2の照合領域を設定し、前記除外領域を除いた照合処理、或いは前記第1と第2の領域における照合処理に基づいて、テンプレートマッチングを実行することを特徴とするパターンマッチング方法。
  2.  請求項1において、
     パターンマッチングによって特定される試料の位置であって、且つ前記除外領域、或いは第1の領域に相当する位置の下部には、下層パターンが存在することを特徴とするパターンマッチング方法。
  3.  請求項2において、
     前記除外領域、或いは第1の領域は、前記下層パターンが前記被探索画像に写りこむ可能性のある領域を含むように設定されることを特徴とするパターンマッチング方法。
  4.  請求項1において、
     前記テンプレートのパターンエッジに沿った領域以外を、前記除外領域、或いは第1の領域として設定することを特徴とするパターンマッチング方法。
  5.  請求項1において、
     前記テンプレートのパターンエッジに沿った領域を選択的に、照合処理を行う領域として設定することを特徴とするパターンマッチング方法。
  6.  請求項1において、
     前記被探索画像と、前記テンプレートとの間で相関演算を行い、当該相関演算による相関値が、所定値より大きくなる領域を、照合処理を行う領域として設定することを特徴とするパターンマッチング方法。
  7.  請求項1において、
     前記テンプレートマッチングを実行するときに、粗密探索を行い、粗探索では粗探索用テンプレートを用いて、前記除外領域を設定し、精探索では精探索用テンプレートを用いて、前記除外領域を設定することを特徴とするパターンマッチング方法。
  8.  テンプレートを用いて、試料の被探索画像に対するパターンマッチングを行うパターンマッチング装置において、
     前記テンプレート内に、テンプレートと画像との照合を除外する除外領域、或いは当該テンプレート内に第1の照合領域と、当該第1の照合領域とは異なる照合を行う第2の照合領域が設定され、前記除外領域を除いた照合処理、或いは前記第1と第2の領域における照合処理に基づいて、テンプレートマッチングを実行する演算装置を備えたことを特徴とするパターンマッチング装置。
  9.  請求項8において、
     前記演算装置は、前記試料の下層パターンが位置する領域に、前記除外領域、或いは第1の領域を設定することを特徴とするパターンマッチング装置。
  10.  請求項9において、
     前記試料の下層パターンが位置する領域は、前記被探索画像に、前記下層パターンが写りこむ可能性のある領域を含んでいることを特徴とするパターンマッチング装置。
  11.  請求項8において、
     前記演算装置は、前記テンプレートのパターンエッジに沿った領域以外を、前記除外領域、或いは第1の領域として設定することを特徴とするパターンマッチング装置。
  12.  請求項8において、
     前記演算装置は、前記テンプレートのパターンエッジに沿った領域を選択的に、照合処理を行う領域として設定することを特徴とするパターンマッチング装置。
  13.  請求項8において、
     前記演算装置は、前記被探索画像と、前記テンプレートとの間で相関演算を行い、当該相関演算による相関値が、所定値より大きくなる領域を、照合処理を行う領域として設定することを特徴とするパターンマッチング装置。
  14.  請求項8において、
     前記演算装置は、前記テンプレートマッチングを実行するときに、粗密探索を行い、粗探索では粗探索用テンプレートを用いて、前記除外領域を設定し、精探索では精探索用テンプレートを用いて、前記除外領域を設定することを特徴とするパターンマッチング装置。
  15.  画像取得装置に接続されるコンピュータに、当該画像取得装置によって形成される画像上のパターンと、テンプレート間のマッチングにより、当該画像上のパターンの位置を特定させるコンピュータプログラムにおいて、
     当該プログラムは、前記テンプレート内に、テンプレートと画像との照合を除外する除外領域、或いは当該テンプレート内に第1の照合領域と、当該第1の照合領域とは異なる照合を行う第2の照合領域を設定し、前記除外領域を除いた照合処理、或いは前記第1と第2の領域における照合処理に基づいて、テンプレートマッチングを実行することを特徴とするコンピュータプログラム。
  16.  請求項15において、
     パターンマッチングによって特定される試料の位置であって、且つ前記除外領域、或いは第1の領域に相当する位置の下部には、下層パターンが存在することを特徴とするコンピュータプログラム。
  17.  請求項16において、
     前記除外領域、或いは第1の領域は、前記下層パターンが前記被探索画像に写りこむ可能性のある領域を含むように設定されることを特徴とするコンピュータプログラム。
  18.  請求項15において、
     前記テンプレートのパターンエッジに沿った領域以外を、前記除外領域、或いは第1の領域として設定することを特徴とするコンピュータプログラム。
  19.  請求項15において、
     前記テンプレートのパターンエッジに沿った領域を選択的に、照合処理を行う領域として設定することを特徴とするコンピュータプログラム。
PCT/JP2010/005976 2009-10-22 2010-10-06 パターンマッチング方法、及びパターンマッチング装置 WO2011048758A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/502,823 US8885950B2 (en) 2009-10-22 2010-10-06 Pattern matching method and pattern matching apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-242935 2009-10-22
JP2009242935A JP5568277B2 (ja) 2009-10-22 2009-10-22 パターンマッチング方法、及びパターンマッチング装置

Publications (1)

Publication Number Publication Date
WO2011048758A1 true WO2011048758A1 (ja) 2011-04-28

Family

ID=43900003

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/005976 WO2011048758A1 (ja) 2009-10-22 2010-10-06 パターンマッチング方法、及びパターンマッチング装置

Country Status (3)

Country Link
US (1) US8885950B2 (ja)
JP (1) JP5568277B2 (ja)
WO (1) WO2011048758A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017076248A (ja) * 2015-10-15 2017-04-20 株式会社日立ハイテクノロジーズ テンプレートマッチングを用いた検査装置および検査方法
JP2020181582A (ja) * 2020-05-25 2020-11-05 株式会社日立ハイテク テンプレートマッチングを用いた検査装置および検査方法

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5063551B2 (ja) * 2008-10-03 2012-10-31 株式会社日立ハイテクノロジーズ パターンマッチング方法、及び画像処理装置
JP5564276B2 (ja) * 2010-01-28 2014-07-30 株式会社日立ハイテクノロジーズ パターンマッチング用画像作成装置
US8855399B2 (en) * 2012-02-07 2014-10-07 Applied Materials Israel, Ltd. System, a method and a computer program product for CAD-based registration
US9599575B2 (en) 2012-02-07 2017-03-21 Applied Materials Israel, Ltd. System, a method and a computer program product for CAD-based registration
JP5937878B2 (ja) 2012-04-24 2016-06-22 株式会社日立ハイテクノロジーズ パターンマッチング方法及び装置
JP6056354B2 (ja) * 2012-10-10 2017-01-11 コニカミノルタ株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6088803B2 (ja) 2012-11-16 2017-03-01 株式会社日立ハイテクノロジーズ 画像処理装置、自己組織化リソグラフィ技術によるパターン生成方法、及びコンピュータープログラム
JP6163868B2 (ja) * 2013-05-20 2017-07-19 コニカミノルタ株式会社 画像処理方法、画像処理装置および画像処理プログラム
US9864758B2 (en) 2013-12-12 2018-01-09 Nant Holdings Ip, Llc Image recognition verification
US10318576B2 (en) 2013-12-12 2019-06-11 Nant Holdings Ip, Llc Image recognition verification
JP6367021B2 (ja) * 2014-07-02 2018-08-01 東芝メモリ株式会社 露光条件解析方法
US9715724B2 (en) * 2014-07-29 2017-07-25 Applied Materials Israel Ltd. Registration of CAD data with SEM images
JP6101661B2 (ja) * 2014-08-27 2017-03-22 富士フイルム株式会社 画像合成装置および画像合成方法ならびに画像合成プログラムおよび画像合成プログラムを格納した記録媒体
US10217221B2 (en) * 2016-09-29 2019-02-26 Intel Corporation Place recognition algorithm
US20180314908A1 (en) * 2017-05-01 2018-11-01 Symbol Technologies, Llc Method and apparatus for label detection
GB201711621D0 (en) * 2017-07-19 2017-08-30 Oxford Instr Nanotechnology Tools Ltd Improved navigation for electron microscopy
JP7002949B2 (ja) * 2018-01-22 2022-01-20 株式会社日立ハイテク 画像評価方法及び画像評価装置
JP7001494B2 (ja) * 2018-02-26 2022-01-19 株式会社日立ハイテク ウェハ観察装置
EP3786844A4 (en) * 2018-07-06 2021-05-05 Rakuten, Inc. IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD AND PROGRAM
JP2021152889A (ja) 2020-03-23 2021-09-30 株式会社リコー 画像処理装置及び画像処理方法
JP2024047481A (ja) 2022-09-26 2024-04-05 株式会社日立ハイテク 半導体観察システムおよびオーバーレイ計測方法
KR102541500B1 (ko) * 2022-11-14 2023-06-13 (주)오로스테크놀로지 상관관계 기반 오버레이 키 센터링 시스템 및 그 방법
JP7460061B1 (ja) 2023-05-02 2024-04-02 株式会社ビバリー 画像認識システム及び画像認識プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0637161A (ja) * 1992-07-17 1994-02-10 Fujitsu Ltd 電子ビーム装置
JPH1021393A (ja) * 1996-06-28 1998-01-23 Mitsubishi Electric Corp 画像処理装置
JP2005061837A (ja) * 2003-08-11 2005-03-10 Jeol Ltd 走査型荷電粒子ビーム装置を用いた欠陥検査方法
JP2005106477A (ja) * 2003-09-26 2005-04-21 Matsushita Electric Ind Co Ltd はんだボール検出方法およびその装置
JP2006300848A (ja) * 2005-04-25 2006-11-02 Hitachi High-Technologies Corp Sem式外観検査装置および検査方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5600734A (en) 1991-10-04 1997-02-04 Fujitsu Limited Electron beam tester
JPH08181053A (ja) * 1994-12-26 1996-07-12 Nikon Corp 位置検出方法
JP2001216470A (ja) * 2000-01-31 2001-08-10 Keyence Corp パターンマッチング方法及び装置
JP4218171B2 (ja) 2000-02-29 2009-02-04 株式会社日立製作所 走査電子顕微鏡,マッチング方法、及びプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4199939B2 (ja) * 2001-04-27 2008-12-24 株式会社日立製作所 半導体検査システム
EP1773330B1 (en) * 2004-07-22 2010-05-26 Merck Sharp & Dohme Corp. Substituted pyrazoles, compositions containing such compounds and methods of use
JP5204979B2 (ja) 2006-02-17 2013-06-05 株式会社日立ハイテクノロジーズ 撮像レシピの生成方法
CN102680507B (zh) 2006-02-17 2015-05-06 株式会社日立高新技术 扫描型电子显微镜装置以及使用它的摄影方法
US7636703B2 (en) * 2006-05-02 2009-12-22 Exegy Incorporated Method and apparatus for approximate pattern matching
WO2008067743A1 (fr) * 2006-12-08 2008-06-12 Hangzhou H3C Technologies Co., Ltd. Procédé et dispositif d'appariement de formes
JP5647761B2 (ja) 2008-03-07 2015-01-07 株式会社日立ハイテクノロジーズ テンプレート作成方法及び画像処理装置
CN101551803A (zh) * 2008-03-31 2009-10-07 华为技术有限公司 一种建立模式匹配状态机、模式识别的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0637161A (ja) * 1992-07-17 1994-02-10 Fujitsu Ltd 電子ビーム装置
JPH1021393A (ja) * 1996-06-28 1998-01-23 Mitsubishi Electric Corp 画像処理装置
JP2005061837A (ja) * 2003-08-11 2005-03-10 Jeol Ltd 走査型荷電粒子ビーム装置を用いた欠陥検査方法
JP2005106477A (ja) * 2003-09-26 2005-04-21 Matsushita Electric Ind Co Ltd はんだボール検出方法およびその装置
JP2006300848A (ja) * 2005-04-25 2006-11-02 Hitachi High-Technologies Corp Sem式外観検査装置および検査方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017076248A (ja) * 2015-10-15 2017-04-20 株式会社日立ハイテクノロジーズ テンプレートマッチングを用いた検査装置および検査方法
JP2020181582A (ja) * 2020-05-25 2020-11-05 株式会社日立ハイテク テンプレートマッチングを用いた検査装置および検査方法

Also Published As

Publication number Publication date
US8885950B2 (en) 2014-11-11
US20120207397A1 (en) 2012-08-16
JP2011090470A (ja) 2011-05-06
JP5568277B2 (ja) 2014-08-06

Similar Documents

Publication Publication Date Title
JP5568277B2 (ja) パターンマッチング方法、及びパターンマッチング装置
US10937146B2 (en) Image evaluation method and image evaluation device
KR101523159B1 (ko) 패턴 매칭 장치 및 컴퓨터 프로그램을 기록한 기록 매체
US8045789B2 (en) Method and apparatus for inspecting defect of pattern formed on semiconductor device
TWI493280B (zh) Pattern inspection device and pattern inspection method
US7817844B2 (en) Pattern inspection apparatus and method
JP5639797B2 (ja) パターンマッチング方法,画像処理装置、及びコンピュータプログラム
JP5313939B2 (ja) パターン検査方法、パターン検査プログラム、電子デバイス検査システム
US9171364B2 (en) Wafer inspection using free-form care areas
US11669953B2 (en) Pattern matching device and computer program for pattern matching
JP4154374B2 (ja) パターンマッチング装置及びそれを用いた走査型電子顕微鏡
WO2013168487A1 (ja) 欠陥解析支援装置、欠陥解析支援装置で実行されるプログラム、および欠陥解析システム
KR20130139762A (ko) 검사 이미지들 내에서 결함들을 검출하기 위한 시스템, 방법 및 컴퓨터 프로그램 제품
JP5094033B2 (ja) パターンマッチング方法、及びパターンマッチングを行うためのコンピュータープログラム
JP5647999B2 (ja) パターンマッチング装置、検査システム、及びコンピュータプログラム
US10923317B2 (en) Detecting defects in a logic region on a wafer
JP5727322B2 (ja) 半導体検査システム
TWI553309B (zh) Pattern measuring device, and computer program
JP2008294451A (ja) 画像形成方法、及び画像形成装置
US11631169B2 (en) Inspection of noisy patterned features
WO2015159792A1 (ja) 荷電粒子線装置
JP5478681B2 (ja) 半導体欠陥検査装置ならびにその方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10824612

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13502823

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 10824612

Country of ref document: EP

Kind code of ref document: A1