WO2021260765A1 - 寸法計測装置、半導体製造装置及び半導体装置製造システム - Google Patents

寸法計測装置、半導体製造装置及び半導体装置製造システム Download PDF

Info

Publication number
WO2021260765A1
WO2021260765A1 PCT/JP2020/024365 JP2020024365W WO2021260765A1 WO 2021260765 A1 WO2021260765 A1 WO 2021260765A1 JP 2020024365 W JP2020024365 W JP 2020024365W WO 2021260765 A1 WO2021260765 A1 WO 2021260765A1
Authority
WO
WIPO (PCT)
Prior art keywords
contour
dimension
measuring device
dimension measuring
movement
Prior art date
Application number
PCT/JP2020/024365
Other languages
English (en)
French (fr)
Inventor
普社 趙
健史 大森
裕 奥山
Original Assignee
株式会社日立ハイテク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ハイテク filed Critical 株式会社日立ハイテク
Priority to CN202080010281.2A priority Critical patent/CN114097067A/zh
Priority to US17/432,062 priority patent/US20230114432A1/en
Priority to KR1020217018341A priority patent/KR102659861B1/ko
Priority to JP2021526646A priority patent/JP7164716B2/ja
Priority to PCT/JP2020/024365 priority patent/WO2021260765A1/ja
Priority to TW110122512A priority patent/TWI807346B/zh
Publication of WO2021260765A1 publication Critical patent/WO2021260765A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/10Measuring as part of the manufacturing process
    • H01L22/12Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/028Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring lateral position of a boundary of the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/20Sequence of activities consisting of a plurality of measurements, corrections, marking or sorting steps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/56Measuring geometric parameters of semiconductor structures, e.g. profile, critical dimensions or trench depth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Definitions

  • the present invention relates to a dimension measuring device, a semiconductor manufacturing device, and a semiconductor device manufacturing system that can automatically measure the dimensions of a device structure from a cross-sectional image of a device acquired by an observation device.
  • This contour detection method includes a method of manually drawing a boundary line, an edge detection method based on a local luminance change, and a detection method using deep learning.
  • the detected contour may deviate from the actual contour. Therefore, an error occurs in the dimensions of the device structure measured from the contour including this deviation. In order to reduce this measurement error, it is considered effective to correct the detected contour.
  • Patent Document 1 discloses a technique of setting a movable point and a reference point on a contour generated in a medical image of a subject and correcting the contour by correcting the movable point according to the positional relationship between the movable point and the reference point. Has been done.
  • Patent Document 1 If the technique disclosed in Patent Document 1 is used, it is possible to correct the contour more easily than manually correcting it little by little. However, this technique requires initial setting of the target area for contour correction. In medical applications, the image may contain only one target area, so initial settings may not be necessary, but if there are multiple different target areas, such as a cross-sectional image of a semiconductor device, it will be corrected. Can not.
  • the movable point set in the contour is moved to correct the contour, but it is necessary for the operator to operate the moving method of the movable point such as the moving direction and the distance. Therefore, it is considered that the effect of contour correction depends on the subjective judgment of the operator, and if the correction processing takes time, there is a problem that there is an error caused by the operator experience and the subjective judgment.
  • An object of the present invention is a dimension measuring device, a semiconductor manufacturing device, and a semiconductor device capable of solving the above-mentioned problems and automatically correcting a contour deviation without requiring an operator's judgment in the correction processing process. It is to provide a manufacturing system.
  • the present invention is a dimension measuring device in which the dimensions of a measurement target are measured using an image, and the contour is moved based on a predetermined point on the contour of the measurement target until a predetermined requirement is satisfied.
  • the dimensions of the object to be measured are measured using the contours that are repeated and moved repeatedly, and a predetermined requirement provides a dimension measuring device that is a requirement for correcting the deviation of the contour estimated by using machine learning.
  • the contour movement in the dimension measuring device of the present invention is performed after the contour is estimated by machine learning.
  • FIG. 1 It is a figure which shows one configuration example of the semiconductor manufacturing apparatus which concerns on each Example. It is a figure which shows an example of the dimension measurement processing which concerns on Example 1.
  • FIG. It is a figure which shows the contour correction effect example which concerns on Example 1.
  • FIG. It is a figure which shows the contour correction processing example which concerns on Example 1.
  • FIG. It is a figure which shows an example of the contour correction processing flow which concerns on Example 1.
  • FIG. It is a figure which shows an example of the contour detection processing flow which concerns on Example 1.
  • FIG. It is a figure which shows an example of the representative point movement processing flow which concerns on Example 1.
  • FIG. It is a figure which shows an example of the luminance profile which concerns on Example 1.
  • FIG. It is a figure which shows an example of the process which divides the complicated area which concerns on Example 2 into a simple shape.
  • It is a figure which shows an example of the dimension measurement processing including the object detection which concerns on Example 2.
  • FIG. 1 shows one configuration example of the semiconductor manufacturing apparatus which
  • the embodiment of the present invention is a plasma processing device having a dimension measuring device.
  • the dimension measuring device of the plasma processing device is a general computer equipped with a processor and a memory, and may be an implementation of software that processes according to a program, or an implementation of dedicated hardware rather than a general computer. May be.
  • the dimension measuring device may be externally connected, or may be externally connected as a module that is also used for other data processing.
  • One rule includes a luminance profile, a determination condition of a moving direction corresponding to the luminance profile, and a determination condition of a moving distance corresponding to the luminance profile. Based on the relationship between the SEM image targeted by the dimension measuring device and the material and shape, this movement rule can be preset.
  • the brightness profile is information for selecting one appropriate rule from multiple rules, and movement.
  • the direction determines whether the representative point moves toward or away from the center of gravity, and the travel distance determines how many pixels the representative point moves toward the center of gravity. If there is no need to move, it will be 0.
  • Example 1 is an example of a plasma processing device which is a semiconductor manufacturing device provided with a dimension measuring device.
  • the plasma processing device 1 shown in FIG. 1 includes a dimension measuring device 10, an input / output device 11, an input device 12, an output device 13, a processing condition search device 14, a processing device 15, and an evaluation device 16. Have.
  • the target processing result such as the processing shape and the parameters used in the processing device are selected and input from the input device 12 to the plasma processing device 1, and the optimum processing conditions for giving the target processing shape are output.
  • the processing condition search device 14 is a device that receives the target machining shape from the input device 12 and outputs the optimum processing conditions to the output device 13.
  • the input device 12 includes an input interface such as a GUI and a storage medium reading device such as a card reader, and inputs various data to the processing condition search device 14. Further, not only from the user but also the dimensional measurement value is received from the input / output device 11 in the same manner and input to the processing condition search device 14.
  • the input device 12 includes, for example, a keyboard, a mouse, a touch panel, a storage medium reading device, and the like.
  • the output device 13 displays the processing conditions passed from the processing condition search device 14 to the user as the optimum processing conditions.
  • the means for displaying is to display on a display or write to a file.
  • the output device 13 includes, for example, a display, a printer, a storage medium writing device, and the like.
  • the processing device is 15, a device that processes a semiconductor or a semiconductor device including a semiconductor.
  • the content of processing by the processing device is not particularly limited.
  • it includes a lithography apparatus, a film forming apparatus, and a pattern processing apparatus.
  • the lithography device includes, for example, an exposure device, an electron beam drawing device, and an X-ray drawing device.
  • the film forming apparatus includes, for example, CVD (Chemical Vapor Deposition), PVD (Physical Vapor Deposition), a vapor deposition apparatus, a sputtering apparatus, and a thermal oxidation apparatus.
  • the pattern processing apparatus includes, for example, a wet etching apparatus, a dry etching apparatus, an electron beam processing apparatus, and a laser processing apparatus.
  • the processing device 15 processes the semiconductor or the semiconductor device based on the processing conditions input from the processing condition search device, and passes it to the evaluation device 16.
  • the evaluation device 16 photographs a cross section of the semiconductor or the semiconductor device processed by the processing device 15 and acquires an image 17 of the cross section as the processing result.
  • the evaluation device 16 includes a machining dimension measuring device using a SEM (Scanning Electron Microscope), a TEM (Transmission Electron Microscope), and an optical monitor. A part of the semiconductor or the semiconductor device processed by the processing apparatus 15 may be taken out as a fragment, and the fragment may be transported to the evaluation apparatus 16 for measurement.
  • the acquired cross-sectional image 17 is passed to the input / output device 11.
  • the dimension measuring device 10 for measuring the dimension of the measurement target using an image uses a contour in which the contour is repeatedly moved based on a predetermined point on the contour of the measurement target until a predetermined requirement is satisfied, and the movement is repeated.
  • the dimension of the object to be measured is measured, and the predetermined requirement is a dimension measuring device which is a requirement for correcting the deviation of the contour estimated by using machine learning.
  • the contour is moved after the contour is estimated by machine learning. Then, the dimensions of the measurement target are measured using the contour estimated by machine learning using the contour with repeated movements as learning data.
  • the dimension measuring device of the cross-sectional structure of the device to be measured acquires a learning cross-sectional image and a learning label attached to different regions of the learning cross-sectional image, and models using the learning cross-sectional image and the learning label.
  • the contour of each region is detected using the model learning unit that generates the model, the model estimation unit that applies the model to the target image and labels each independent region, and the labels attached to the target image and the model estimation unit.
  • Set representative points for the contour of the area and use the contour correction unit that repeats the movement of the contour until the correction completion condition is satisfied for each representative point, and the contour corrected by repeating the movement in the contour correction unit. It is equipped with a dimension measurement unit that measures the dimensions of the device cross-sectional structure.
  • the dimension measuring device 10 includes a central processing unit 101 and a database 102, and the central processing unit 101 functions as a model learning unit, a model estimation unit, a contour correction unit, and a dimension measurement unit for performing machine learning. do.
  • the central processing unit 101 receives the definition of feature points and dimensions, the magnification, the data set for learning, and the cross-sectional image input via the input / output device 11, measures the predetermined dimensions from the cross-sectional image, and sends it to the input / output device 11. Output.
  • the input / output device 11 includes an input / output interface such as a GUI and a storage medium reading device such as a card reader, and inputs feature points and dimension definitions, magnifications, and learning data sets to the dimension measuring device 10. Further, the cross-sectional image is received from the evaluation device 16 and passed to the central processing unit 101.
  • the input / output device 11 includes, for example, a keyboard, a mouse, a display, a touch panel, a storage medium reading device, and the like. Further, the dimension value passed from the dimension measurement device 10 is displayed to the user or directly transferred to the input device 12. When displaying to the user, the means is to display on a display or write to a file.
  • FIG. 2 is a diagram showing an example of dimension measurement processing in the dimension measurement device 10.
  • the processing of the dimension measuring device 10 includes processing of a model learning unit 103, a model estimation unit 104, a contour correction unit 105, a dimension measuring unit 106, and the like.
  • the model learning unit 103 generates a deep learning model for image region division using the input learning SEM image and learning label, and transmits it to the model estimation unit 104.
  • the learning SEM image is prepared by the user in advance, and is, for example, a 1280 ⁇ 960 grayscale pixel matrix.
  • the number of images to be prepared may be determined by the deep learning algorithm and the structure of the deep network.
  • the learning label is attached to each pixel of the learning SEM image in advance by the user, and is a number such as 0, 1, or 2.
  • the model learning unit 103 inputs a learning cross-sectional image and a learning label into the deep learning method of image division to generate a deep learning model, and the model estimation unit applies this model to the target image and attaches a label.
  • the SEM image has three types of regions of vacuum 30, mask 31, and silicon 32, the numbers 0 (vacuum), the number 1 (mask), and the number 2 (silicon), respectively. Is used as a label.
  • the number of independent regions in the SEM image is not always three. There may be multiple areas of each type.
  • a 1280 ⁇ 960 label matrix is generated for one SEM image, and the format of label storage and input / output may follow the requirements of the deep learning algorithm.
  • the model estimation unit 104 applies the learning model generated by the model learning unit 103 to the input SEM image, generates a label for the image (for example, a numerical matrix of 1280 ⁇ 960), and transfers the label to the contour correction unit 105. Send.
  • the contour correction unit 105 extracts the contour of the independent region from the label information, corrects the contour using the luminance information in the SEM image, and transmits the corrected contour to the dimension measurement unit 106.
  • the contour correction unit 105 compares the luminance profile extracted from the straight line passing through the moving representative point and the center of gravity with the predetermined luminance profile. , Apply the movement rule corresponding to the specified luminance profile with the highest similarity. Then, the contour correction unit extracts the contour from the independent regions divided by the model estimation unit and sequentially outputs the contour.
  • the dimension measurement unit 106 calculates and outputs dimensional information such as the width, height, and area of the measurement target area using the corrected contour.
  • FIG. 3 shows only a part of the 1280 ⁇ 960 SEM image.
  • the SEM image of this example shows the vacuum 30.
  • the white lines 311, 312, and 313 surrounding the three mask areas are contours extracted based on the label information generated by the model estimation unit. What is displayed as a deviation is the difference between the extracted contour and the actual contour.
  • the process of the contour correction unit 105 corrects the contour deviation as shown in the contour 311 before the correction and the contour 314 after the correction in FIG.
  • the number of region types is not limited to three, and may be n types of regions. That is, when the target image has n different types of regions, the learning label is expressed by attaching n different numbers to each pixel of the target image.
  • FIG. 4 is a diagram showing an example of contour correction processing, in which contour correction is performed for one mask area in a series of processes including initial contour, representative point setting, representative point movement, and movement completion. That is, the contour 40 of one mask is extracted based on the label information generated by the model estimation unit 104. This contour 40 is called an initial contour. As shown in the contour 40, the initial contour deviates from the contour of the actual mask displayed in gray. The necessity of the process of extracting the contour of a single area such as the contour of one mask will be described later. Further, a method for extracting the contour of this single region will be described later.
  • a representative point setting is performed in which a plurality of representative points 41 are set in the initial contour.
  • the contours during and after correction consist of a straight line connecting the representative points 41 and the representative points 41.
  • 12 representative points are shown as an example, but the actual number of representative points may be larger than that. Comparing the contour displayed by the straight line between the representative points and the contour 40 which is the initial contour, the smaller the number of representative points, the coarser the contour displayed by the representative points.
  • representative points may be set at predetermined intervals. The predetermined interval can be adjusted by the user or by using 5 pixels of the empirical value. Further, contour pixels at a predetermined ratio (for example, 25%) of the total number of contour pixels may be randomly selected and set as representative points.
  • the center of gravity here is calculated by the average value of the representative point coordinates (x, y).
  • the center of gravity is an important reference point for the subsequent correction process, and the center of gravity of each independent region must be calculated individually. Therefore, it is necessary to extract the independent region, and it is necessary to divide the image region for extracting the independent region.
  • area segmentation processing is performed.
  • the contour correction is performed by moving each representative point 41.
  • P1 is moved along a straight line passing through the representative point P1 and the center of gravity 42.
  • the purpose of the movement is to bring the representative point closer to the actual contour and correct the deviation.
  • the representative points are moved in order.
  • all the representative points are moved in the order of P1, P2, P3, P4, and so on.
  • the contour movement process is repeated in order to move all the representative points to the optimum position, in other words, to the actual contour.
  • the contour 43 of the result of the final movement completion is displayed in the movement completion of FIG. The determination of the moving direction and the moving distance of the representative point will be described later.
  • FIG. 5 is a diagram showing an example of a contour correction processing flow.
  • the data input to the contour correction unit is the area division result (S50) obtained by dividing the SEM image.
  • the results include a 1280 x 960 SEM image and a 1280 x 960 label number matrix. Possible values for the label correspond to FIG. 3 and are number 0 (background), number 1 (mask), and number 2 (silicon).
  • the pixel belonging to the contour is detected by the label in the contour detection process (S51).
  • the contour of an independent region which is one mask region, is detected and processed.
  • correction processing is performed one by one in order. The method of extracting the independent region will be described later.
  • the contour correction unit calculates the center of gravity of the contour based on the coordinates of each representative point, and selects and represents the movement rule based on the positional relationship between the moving representative point and the center of gravity and the luminance profile extracted from the straight line passing through the moving representative point and the center of gravity. Determine how to move the point. Further, the contour correction unit determines the movement direction according to the selected movement rule, selects the movement rule according to the luminance profile, and determines the movement distance from the selected movement rule.
  • the representative points are set at equal intervals (5 pixels) (S52). Then, the center of gravity of the contour is calculated by averaging the coordinates of the representative points (S53). The unit of coordinates is a pixel, and the coordinates of the center of gravity are rounded integers of the calculated average value. Select any one representative point. The moving direction and moving distance of the selected representative point are determined (S55), and the representative point is moved (S56). If there is an unmoved representative point, the next representative point is selected (S54).
  • the correction completion condition that is, the stop condition is satisfied (S58).
  • the stop condition is determined by the sum of the moving distances of the representative points. For example, if the sum of the movement distances of the representative points this time is smaller than, for example, 10 pixels, the contour correction is completed (S59). If the sum of the movement distances of the representative points is larger than 10 pixels, the process returns to the step of calculating the center of gravity and the representative points are moved once more.
  • FIG. 6 is a diagram showing an example of a contour detection processing flow. The method of extracting the contour of the independent region will be described with reference to the figure.
  • each pixel is checked in order from the upper left of the matrix in the label (1280 ⁇ 960 number matrix), and adjacent pixels having different numbers are detected as contours (S61). All contour pixels are set to the "unprocessed" state (S62). Any one pixel is taken out from the unprocessed contour pixel and set to the "processing" state (S63).
  • the contour information of the extracted independent area is output to the next representative point setting step, and the contour state is set to "processed" (S67). If there is an unprocessed contour (S68), the process returns to the previous step, then the contour of the independent region is extracted, and if there is no contour, the process is completed (S69).
  • FIG. 7 is a diagram showing an example of a processing flow for moving a representative point.
  • the center of gravity is calculated from the result of setting the representative point (S70) (S71). Then, the representative points are moved in order, but the movement of one representative point (for example, P1 in FIG. 8) will be described below.
  • the representative point P1 is used as a moving representative point (S72).
  • a luminance profile is extracted along a straight line passing through the representative point P1 and the center of gravity (S73).
  • the length of the luminance profile to be extracted is set long to include the actual contour pixels, as shown by the dotted line in FIG.
  • the actual contour with respect to P1 may be between the center of gravity and the center of gravity, but the actual contour such as P4 or P5 may be an extension of the center of gravity and the representative point.
  • the extracted brightness profile is compared with the preset brightness profile, and the corresponding movement rule is selected (S74).
  • the moving direction is toward the pixel of 90% center of gravity brightness
  • the moving distance is the distance between the representative point and the pixel of 90% center of gravity brightness.
  • the moving direction is toward the pixel with the maximum luminance value, and the moving distance is 0.
  • rule settings and parameter settings are possible depending on the characteristics of the SEM image.
  • a pattern matching method of general image processing or signal processing may be used.
  • the movement direction of the representative point moves toward the coordinates of the maximum luminance value after smoothing the luminance profile. Further, the moving distance of the representative point is halved from the distance between the representative point and the maximum luminance value after smoothing the luminance profile.
  • the model estimation unit uses the object detection deep learning method to convert the region having a complicated shape into a region having a plurality of simple shapes. To divide.
  • the object detection deep learning method inputs the cross-sectional image for learning and the position information of the object having a simple shape into the deep learning method, generates an object detection model, applies the model to the input target image, and is simple.
  • the position of the object having a shape is detected, and the contour of the region having a complicated shape is divided according to the position of the detected object.
  • FIG. 10 is a diagram showing an example of a dimension measuring device including an object detection unit.
  • the object detection unit 107 generates an object detection model by a deep learning method using the learning cross-section SEM image and the information of the learning object position.
  • a simple shape is defined as an object.
  • the object position is a coordinate (unit is a pixel) representing the position of each simple shape. For example, it may be displayed with the coordinates of the upper left corner and the lower right corner of a rectangle surrounding a simple shape.
  • the specific format follows the requirements of the object detection deep learning algorithm.
  • the object detection model is applied to the input SEM image, and the area coordinate information of all simple shapes is output.
  • the contour of a complex region can be further divided. Then, the contour correction process is performed in the same manner as in other independent regions.
  • the present invention is not limited to the examples described above, and includes various modifications.
  • the above-mentioned examples have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations.
  • Plasma processing device 10 Dimension measurement device 101 Central processing unit 102 Database 103 Model learning unit 104 Model estimation unit 105 Contour correction unit 106 Dimension measurement unit 107 Object detection unit 11 Input / output device 12 Input device 13 Output device 14 Processing condition search device 15 Processing device 16 Evaluation device 17 Image

Abstract

オペレータの判断を必要とせずに輪郭のずれを自動的に補正することが可能な寸法計測装置を提供する。学習用断面画像と、学習用断面画像の異なる領域に付けられた学習用ラベルを取得し、学習用断面画像と学習用ラベルを用いて画像領域分割用深層学習モデルを生成するモデル学習部103と、モデルを新たに入力された対象画像へ適用し、独立な領域各々にラベルを付けるモデル推定部104と、対象画像とモデル推定部で付けられたラベルを用いて領域各々の輪郭を検出し、領域の輪郭に代表点を設定し、代表点各々を移動規則により移動し、補正完成条件を満たすまで代表点の移動を繰り返す輪郭補正部105と、輪郭補正部で補正した輪郭を用いてデバイス断面構造の寸法を計測する寸法計測部106を備える。

Description

寸法計測装置、半導体製造装置及び半導体装置製造システム
 本発明は、観察装置により取得したデバイスの断面画像により、デバイス構造の寸法を自動的に計測可能な寸法計測装置、半導体製造装置、及び半導体装置製造システムに関する。
 半導体製造プロセス開発において、半導体デバイスの断面画像から形状寸法を取得する必要があり、自動寸法計測技術が開発された。寸法計測処理の中に、計測始点と終点などの計測の位置を決めるため、計測対象領域の輪郭を検出する処理がある。この輪郭検出方法では、手動で境界線を描く方法と、局所の輝度変化に基づいたエッジ検出方法と、深層学習を用いた検出方法などがある。
 いずれの輪郭検出方法でも、検出した輪郭は実際の輪郭からずれる可能性がある。それで、このずれを含む輪郭から計測したデバイス構造の寸法に誤差が生じる。この計測誤差を低減するため、検出した輪郭を補正する処理が有効と考えられる。
 特許文献1には、被検体の医用画像において生成した輪郭に可動点と基準点を設定し、可動点と基準点の位置関係に応じて可動点を修正することで輪郭を補正する技術が開示されている。
特開2013-5983号公報
 特許文献1に開示された技術を用いれば、手動で少しずつ修正することより容易に輪郭を補正するのは可能となる。しかしながら、この技術では、輪郭補正のために対象領域の初期設定が必要である。医療関係の適用では、画像の中には対象領域を1つだけを含んでいるため初期設定が不要な場合があるが、半導体デバイスの断面画像のような複数の異なる対象領域がある場合は補正できない。
 また、特許文献1に開示された技術では、輪郭に設定した可動点を移動して輪郭を補正するが、移動の方向、距離等、可動点の移動方法についてはオペレータにより操作する必要がある。そのため、輪郭補正の効果はオペレータの主観判断に依存すると考えられ、補正処理に時間がかかると、オペレータ経験や主観判断により生じた誤差があるという課題がある。
 本発明の目的は、上記の課題を解決し、補正処理過程にオペレータの判断を必要とせずに輪郭のずれを自動的に補正することが可能な寸法計測装置、及び半導体製造装置、及び半導体装置製造システムを提供することにある。
 上記の目的を達成するため、本発明は、画像を用いて計測対象の寸法が計測される寸法計測装置において、計測対象の輪郭における所定の点を基に所定の要件を満たすまで輪郭の移動が繰り返され、移動が繰り返された輪郭を用いて計測対象の寸法が計測され、所定の要件は、機械学習を用いて推定された輪郭のずれを補正する要件である寸法計測装置を提供する。
 本発明の寸法計測装置における輪郭の移動は、機械学習により輪郭が推定された後に行われる。
 断面画像から検出した輪郭を補正することで、自動寸法計測処理の計測精度を向上することが可能になる。
各実施例に係る半導体製造装置の一構成例を示す図である。 実施例1に係る寸法計測処理の一例を示す図である。 実施例1に係る輪郭補正効果例を示す図である。 実施例1に係る輪郭補正処理例を示す図である。 実施例1に係る輪郭補正処理フローの一例を示す図である。 実施例1に係る輪郭検出処理フローの一例を示す図である。 実施例1に係る代表点移動処理フローの一例を示す図である。 実施例1に係る輝度プロファイルの一例を示す図である。 実施例2に係る複雑な領域を単純形状に分ける処理の一例を示す図である。 実施例2に係る物体検出を含む寸法計測処理の一例を示す図である。
 本発明の実施形態は、寸法計測装置を有するプラズマ処理装置である。プラズマ処理装置の寸法計測装置は、プロセッサとメモリを備えた一般的なコンピュータであって、プログラムにしたがって処理するソフトウェアの実装であってもよいし、一般的なコンピュータではなく専用のハードウェアの実装であってもよい。
 また、コンピュータに専用のハードウェアを組み込み、ソフトウェアの実装とハードウェアの実装を組み合せて実装してもよい。寸法計測装置は、外部接続されてもよいし、他のデータ処理と兼用されるモジュールとして外部接続されてもよい。以下、各種の実施例について図面を用いて説明する。
 なお、本明細書において移動規則を利用するが、移動規則には複数の規則がある。1つの規則には、輝度プロファイル、輝度プロファイルに対応する移動方向の判定条件、輝度プロファイルに対応する移動距離の判定条件を含む。寸法計測装置が対象とするSEM画像と材料や形状の関係より、この移動規則事前に設定することができる
 輝度プロファイルは、複数の規則から1つの適切な規則を選択するための情報であり、移動方向は、代表点が重心に向け移動するか、重心から離れるかを決定し、移動距離は、何個のピクセルだけ代表点を移動するかを決定する。移動必要がない場合は0になる。
 実施例1は寸法計測装置を備えた半導体製造装置であるプラズマ処理装置の実施例である。
 図1に示すプラズマ処理装置1は、寸法計測装置10と、入出力装置11と、入力装置12と、出力装置13と、処理条件探索装置14と、処理装置15と、評価装置16と、を有する。
 プラズマ処理装置1には、加工形状等の目標処理結果と、処理装置で用いるパラメータを選択して入力装置12から入力し、目標加工形状を与える最適処理条件を出力する。
 処理条件探索装置14は、入力装置12から目標加工形状を受け付け、最適処理条件を出力装置13へ出力する装置である。
 入力装置12は、GUIなどの入力インタフェースと、カードリーダなどの記憶媒体読み出し装置を備え、処理条件探索装置14に各種のデータを入力する。また、ユーザからのみならず、入出力装置11から寸法計測値も同様に受けつけ、処理条件探索装置14に入力する。入力装置12は、例えば、キーボード、マウス、タッチパネル、記憶媒体読み出し装置などを含む。
 出力装置13は、処理条件探索装置14から渡された処理条件を、最適処理条件としてユーザへ表示する。表示する手段としては、ディスプレイへの表示、またはファイルへの書き出しなどである。出力装置13は、例えば、ディスプレイ、プリンタ、記憶媒体書き出し装置などを含む。
 処理装置は15、半導体または半導体を含む半導体デバイスを処理する装置である。処理装置の処理の内容は特に限定されない。例えば、リソグラフィ装置、成膜装置、パターン加工装置を含む。リソグラフィ装置には、たとえば、露光装置、電子線描画装置、X線描画装置を含む。成膜装置は、たとえばCVD(Chemical Vapor Deposition)、PVD(Physical Vapor Deposition)、蒸着装置、スパッタリング装置、熱酸化装置を含む。パターン加工装置は、たとえば、ウェットエッチング装置、ドライエッチング装置、電子ビーム加工装置、レーザ加工装置を含む。
 処理装置15は、加工条件探索装置から入力された処理条件に基づき半導体または半導体デバイスの処理を行い、評価装置16に渡す。
 評価装置16は、処理装置15で処理された半導体または半導体デバイスの断面を撮影して、処理結果である断面の画像17を取得する。評価装置16は、SEM(Scanning Electron Microscope)、TEM(Transmission Electron Microscope)、光学式モニタを用いた加工寸法計測装置を含む。処理装置15で処理された半導体または半導体デバイスの一部を断片として取り出して、その断片を評価装置16へ運搬して計測してもよい。取得した断面画像17は、入出力装置11へ渡される。
 画像を用いて計測対象の寸法が計測される寸法計測装置10は、計測対象の輪郭における所定の点を基に所定の要件を満たすまで輪郭の移動が繰り返され、移動が繰り返された輪郭を用いて計測対象の寸法が計測され、所定の要件は、機械学習を用いて推定された輪郭のずれを補正する要件である寸法計測装置である。
 この寸法計測装置においては、輪郭の移動は、機械学習により輪郭が推定された後、行われる。そして、移動が繰り返された輪郭を学習データとする機械学習により推定された輪郭を用いて計測対象の寸法が計測される。
 計測対象であるデバイスの断面構造の寸法計測装置は、学習用断面画像と、学習用断面画像の異なる領域に付けられた学習用ラベルを取得し、学習用断面画像と学習用ラベルを用いてモデルを生成するモデル学習部と、モデルを対象画像へ適用し、独立な領域各々にラベルを付けるモデル推定部と、対象画像とモデル推定部で付けられたラベルを用いて領域各々の輪郭を検出し、領域の輪郭に代表点を設定し、代表点各々を移動規則により、補正完成条件を満たすまで輪郭の移動を繰り返す輪郭補正部と、輪郭補正部で移動を繰り返すことにより補正した輪郭を用いてデバイス断面構造の寸法を計測する寸法計測部を備えている。
 図1に示すように、寸法計測装置10は、中央処理部101とデータベース102を備え、中央処理部101は、機械学習を行うモデル学習部、モデル推定部、輪郭補正部、寸法計測部として機能する。中央処理部101は、入出力装置11を介して入力された特徴点と寸法の定義、倍率、学習用データセットと断面画像を受け付け、断面画像から所定の寸法を計測し、入出力装置11へ出力する。
 入出力装置11は、GUIなどの入出力インタフェースとカードリーダなど記憶媒体読み出し装置を備え、寸法計測装置10に特徴点と寸法の定義、倍率、学習用データセットを入力する。また、評価装置16から断面画像を受けとり、中央処理部101に渡す。入出力装置11は、例えば、キーボード、マウス、ディスプレイ、タッチパネル、記憶媒体読み出し装置などを含む。また、寸法計測装置10から渡された寸法値を、ユーザへ表示するか、あるいは直接入力装置12へ転送する。ユーザへ表示する場合、その手段は、ディスプレイへの表示、またはファイルへの書き出しなどである。
 図2は、寸法計測装置10における寸法計測処理の一例を示す図である。寸法計測装置10の処理は、モデル学習部103、モデル推定部104、輪郭補正部105、寸法計測部106などの処理を含む。
 モデル学習部103は、入力された学習用SEM画像と学習用ラベルを用いて画像領域分割用の深層学習モデルを生成し、モデル推定部104へ送信する。学習用SEM画像は事前にユーザが準備するものであり、例えば、1280×960のグレースケールのピクセル行列である。準備する画像の数は、深層学習アルゴリズムと深層ネットワークの構造により決めてよい。学習用ラベルはユーザが事前に学習用SEM画像の各ピクセルへ付けたものであり、例えば、0、1、2のような数字である。
 モデル学習部103は、学習用断面画像と学習用ラベルを画像分割の深層学習方法に入力して深層学習モデルを生成し、モデル推定部は、このモデルを対象画像へ適用し、ラベルを付ける。
 例えば、図3に示すようにSEM画像には真空30、マスク31、シリコン32の3つの種類の領域がある場合は、それぞれに数字0(真空)、数字1(マスク)、数字2(シリコン)をラベルとして用いて表記する。ここでSEM画像にある独立な領域の数は3個であるとは限らない。各種類の領域が複数存在する可能性がある。この例では、1枚のSEM画像に対して1280×960のラベル行列が生成され、ラベルの保存と入出力の形式は深層学習アルゴリズムの要求に従ってよい。
 モデル推定部104は、モデル学習部103で生成した学習モデルを入力されたSEM画像に適用し、その画像のラベル(例えば、1280×960の数字行列)生成し、そのラベルを輪郭補正部105へ送信する。
 輪郭補正部105は、ラベル情報から独立領域の輪郭を抽出し、SEM画像にある輝度情報を用いて輪郭を補正し、補正した輪郭を寸法計測部106へ送信する。
 この際、少なくとも1つの輝度プロファイルと対応する移動規則を予め指定しておき、輪郭補正部105は、移動する代表点と重心を通る直線から抽出した輝度プロファイルと予め指定した輝度プロファイルとを比較し、類似度が一番高い、指定した輝度プロファイルに対応する移動規則を適用する。そして、輪郭補正部は、モデル推定部で分割した独立な領域から輪郭を抽出し、順次出力する。寸法計測部106は、補正した輪郭を用いて、計測対象領域の幅、高さ、面積などの寸法情報を計算して出力する。
 図3を使っては、輪郭補正効果を説明する。なお、図3には1280×960のSEM画像の一部だけを示す。本実施例のSEM画像には、真空30.マスク31、シリコン32の3つの種類の領域がある。そして、マスク種類について、複数の互いに繋がっていない独立領域がある。3つのマスク領域を囲んだ白の線311、312、313は、モデル推定部で生成されたラベル情報に基づいて、抽出した輪郭である。ずれとして表示するのは、抽出した輪郭と実際の輪郭の差である。輪郭補正部105の処理は、図3の補正前の輪郭311と補正後の輪郭314に示すように、輪郭ずれを補正するものである。
 なお、図3のSEM画像にあっては、3つの種類の領域があるが、領域の種類の数は3つに限らず、n個の種類の領域であって良い。すなわち、学習用ラベルは、対象画像にn個の異なる種類の領域がある場合に、n個の異なる数字を対象画像の各ピクセルに付けることにより表記する。
 図4は、輪郭補正処理の一例を示す図であり、初期輪郭、代表点設定、代表点移動、移動完了からなる一連処理で、1つのマスク領域に対する輪郭補正を行う。すなわち、モデル推定部104で生成したラベル情報に基づいて、1つのマスクの輪郭40を抽出する。この輪郭40を初期輪郭と呼ぶ。この輪郭40に示すように、初期輪郭はグレイ表示された実際のマスクの輪郭からずれている。1つのマスクの輪郭といった単独領域の輪郭を抽出する処理の必要性は後述する。また、この単独領域の輪郭を抽出する方法は後述する。
 次ぎに、輪郭補正のために、まず初期輪郭に複数の代表点41を設定する代表点設定を行う。補正中と補正完了の輪郭は、代表点41と代表点41を繋げる直線からなる。図4の代表点設定では、一例として12個の代表点を示すが、実際の代表点の数はそれより多くてもよい。これら代表点と代表点の間の直線で表示した輪郭と初期輪郭である輪郭40を比べると、代表点が少なければなるほど、代表点で表示した輪郭が粗くなる。一方、代表点の多くなると、補正の処理時間が長くなるし、隣接する代表点の位置関係が混乱する可能性がある。実際の処理では、所定間隔で代表点を設定してもよい。所定間隔は、経験値の5ピクセルを使うか、ユーザにより調整することが可能である。また、輪郭の全ピクセル数の所定の割合(例えば、25パーセント)の輪郭ピクセルをランダムに選択し、代表点として設定してもよい。
 次に、代表点移動のため、設定した代表点を用いて輪郭の重心を算出する。ここでの重心は、代表点座標(x,y)の平均値で計算する。重心は後の補正処理の重要な基準点であり、独立領域各々の重心をそれぞれに計算しなればならない。そのため、独立領域の抽出が必要で、独立領域の抽出のための画像領域分割が必要である。画像分割することなく、直接輪郭(エッジ)を検出する方法は沢山あるが、本実施例では領域分割処理を行う。
 図4の代表点移動に示すように、輪郭補正は各代表点41を移動することで行う。例えば、代表点P1と重心42を通る直線に沿ってP1を移動する。移動の目的は、代表点を実際の輪郭へ接近させてずれを補正することにある。そして代表点を順番に移動する。例えば、P1、P2、P3、P4のような順番に全ての代表点を移動する。全ての代表点を最適な位置、言いかえるなら実際の輪郭に移動するために、輪郭の移動処理を繰り返す。最後の移動完了の結果の輪郭43を、図4の移動完了に表示する。代表点の移動方向、移動距離の決定については後述する。
 図5は、輪郭補正の処理フローの例を示す図である。輪郭補正部に入力されたデータは、SEM画像を分割した領域分割結果(S50)である。本実施例では、その結果には、1280×960のSEM画像と1280×960のラベルの数字行列を含む。ラベルの可能な値は、図3に対応し、数字0(背景)、数字1(マスク)、数字2(シリコン)である。
 まず、輪郭検出処理でラベルにより輪郭に属するピクセルを検出する(S51)。ここでは、例えば、1つのマスク領域である独立領域の輪郭を検出して処理する。1つのSEM画像から複数の独立領域の輪郭を抽出するため、順番に1つずつ補正処理を行う。独立領域の抽出方法は後述する。
 輪郭補正部は、代表点各々の座標により輪郭の重心を計算し、移動する代表点と重心の位置関係と、移動する代表点と重心を通る直線から抽出した輝度プロファイルにより移動規則を選択し代表点の移動方法を決定する。また、輪郭補正部は、選択した移動規則により移動方向を決定し、輝度プロファイルにより移動規則を選択し、選択した移動規則より移動距離を決定する。
 以下は、1つの独立領域の輪郭補正処理を説明する。前述の代表点設定の記載のように、等間隔(5ピクセル)で代表点を設定する(S52)。そして、代表点の座標の平均により輪郭の重心を計算する(S53)。座標の単位はピクセルであり、重心の座標は計算した平均値の四捨五入後の整数である。任意の1つの代表点を選択する。選択した代表点の移動方向と移動距離を決めて(S55)、代表点を移動する(S56)。未移動の代表点がある場合に次ぎの代表点を選択する(S54)。
 すべての代表点を移動した場合は(S57)、補正完成条件、すなわち停止条件を満足するかどうかを判定する(S58)。停止条件は代表点の移動距離の和で判定する。例えば、今回の代表点の移動距離の和が、例えば10ピクセルより小さいであれば、輪郭補正を完了する(S59)。代表点の移動距離の和が10ピクセルより大きい場合は、重心計算のステップに戻ってもう1回代表点移動を行う。
 図6は、輪郭検出の処理フローの例を示す図である。同図を使って、独立領域の輪郭の抽出方法を説明する。領域分割結果を受け(S60)、ラベル(1280×960の数字行列)の中で、例えば、行列の左上から順番に各ピクセルをチェックし、数字が異なる隣接ピクセルを輪郭として検出する(S61)。すべての輪郭ピクセルを「未処理」状態に設定する(S62)。未処理の輪郭ピクセルから任意の1つのピクセルを取り出し、「処理中」状態に設定する(S63)。
 次に、すべての処理中の輪郭ピクセルの隣接輪郭ピクセルに、未処理の輪郭ピクセルがあれば、「処理中」状態に設定する(S64)。すべての処理中の輪郭ピクセルの隣接輪郭ピクセルに未処理の輪郭ピクセルがないまでに、この設定を繰り返す(S65)。その結果、最初に取り出した輪郭ピクセルを含む独立領域の輪郭を抽出できる。
 抽出した独立領域の輪郭情報を次の前記代表点設定ステップへ出力し、輪郭状態を「処理済」に設定する(S67)。まだ未処理の輪郭があれば(S68)、前のステップに戻し、次に独立領域の輪郭を抽出し、無ければ完了する(S69)。
 図7は、代表点移動の処理フローの例を示す図である。代表点設定の結果(S70)から、重心を計算する(S71)。そして、順番に代表点を移動するが、以下は1つの代表点(例えば、図8のP1)の移動を説明する。
 図8に示すように、代表点P1を移動する代表点とする(S72)。代表点P1と重心を通る直線に沿って、輝度プロファイルを抽出する(S73)。抽出する輝度プロファイルの長さは図8の点線で示すように、実際の輪郭ピクセルを含むために長く設定する。例えば、P1に対して実際の輪郭はP1と重心の間にあるが、P4やP5のような実際の輪郭は重心と代表点の延長線にある場合もある。
 抽出した輝度プロファイルを事前に設定した輝度プロファイルと対照し、対応する移動規則を選択する(S74)。例えば、輝度プロファイルは図8の輝度プロファイル例1のように重心ピクセルが明るい場合は、移動方向は90%重心輝度のピクセルに向けて、移動距離は代表点と90%重心輝度のピクセルの距離の0.25にする。例えば、輝度プロファイルは図8の輝度プロファイル例2のように重心ピクセルが暗い場合は、移動方向は輝度最大値のピクセルに向けて、移動距離は代表点と輝度最大値のピクセルの距離の0.25にする。
 なお、SEM画像の特徴により、ほかの規則設定とパラメータ設定も可能である。輝度プロファイルの対照は、一般の画像処理や信号処理のパターンマッチング方法を利用してよい。
 移動規則により、移動の方向と移動の距離を決めて(S75-S76)、代表点を移動する(S77)。そして、輪郭の良い精度と連続性を維持するために、代表点移動後に代表点の挿入と削除処理を行う(S78)。例えば、移動した代表点は隣接の代表点との距離が2ピクセルより小さい場合は、この代表点を削除する。移動した代表点は隣接の代表点との距離は10ピクセルより大きい場合は、この代表点と隣接代表点の真ん中に新しい代表点を挿入する(S79)。新しい代表点は次の補正処理に移動するため、挿入時に実際の輪郭からずれても構わない。
 上記処理をすべての代表点に適用し、1回の輪郭補正を完了する(S80、S81)。
 なお、代表点の移動方向は、輝度プロファイル平滑後の輝度最大値の座標に向け移動する。また、代表点の移動距離は、代表点と輝度プロファイル平滑後の輝度最大値の距離の1/2とする。
 この実施例では、形状が複雑な領域がある場合の処理について説明する。説明がない部分は実施例1と同じである。本実施例において、モデル推定部は、対象画像を分割した後に、形状が複雑な領域が存在する場合に、物体検出深層学習方法を用いて形状が複雑な領域を複数の単純形状を持つ領域に分割する。
 ここで物体検出深層学習方法は、学習用断面画像と単純形状を持つ物体の位置情報を深層学習方法に入力し、物体検出モデルを生成し、当該モデルを入力された対象画像へ適用し、単純形状を持つ物体の位置を検出し、検出した物体の位置により前記形状が複雑な領域の輪郭を分割する。
 図9は、複雑な領域を単純形状に分ける処理の例を示す図である。図9の上段の形状が複雑な対象領域に示すように、下のシリコンの部分の重心を計算しても、輪郭をうまく補正できない。代表点と重心の間に複数の輪郭がある可能性がある。それに対して、図9の下段の単純な形状に分ける結果に示すように、単純な形状に分けて、それぞれに輪郭補正を行う。
 図10は、物体検出部を含む寸法計測装置の例を示す図である。物体検出部107は、学習用断面SEM画像と学習用物体位置の情報を用いて、深層学習方法により物体検出モデルを生成する。ここで、単純形状を物体として定義する。物体位置は、各単純形状の位置を表す座標(単位はピクセルである)である。例えば、ある単純形状を囲む長方形の左上の角と右下の角の座標で表示してよい。具体的な形式は、物体検出深層学習アルゴリズムの要求に従う。
 入力されたSEM画像へ物体検出モデルを適用し、すべての単純形状の領域座標情報を出力する。その座標情報と検出した独立領域の輪郭を組み合わせ、複雑な領域の輪郭をさらに分割することができる。そして、ほかの独立領域と同じように輪郭補正処理を行う。
 本発明は、以上説明した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上述した実施例は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の実施例に含まれる構成を追加・削除・置換することも可能である。
1 プラズマ処理装置
10 寸法計測装置
101 中央処理部
102 データベース
103 モデル学習部
104 モデル推定部
105 輪郭補正部
106 寸法計測部
107 物体検出部
11 入出力装置
12 入力装置
13 出力装置
14 処理条件探索装置
15 処理装置
16 評価装置
17 画像

Claims (16)

  1. 画像を用いて計測対象の寸法が計測される寸法計測装置において、
    前記計測対象の輪郭における所定の点を基に所定の要件を満たすまで前記輪郭の移動が繰り返され、
    前記移動が繰り返された輪郭を用いて前記計測対象の寸法が計測され、
    前記所定の要件は、機械学習を用いて推定された輪郭のずれを補正する要件であることを特徴とする寸法計測装置。
  2. 請求項1に記載の寸法計測装置において、
    前記輪郭の移動は、機械学習により輪郭が推定された後、行われることを特徴とする寸法計測装置。
  3. 請求項1に記載の寸法計測装置において、
    前記移動が繰り返された輪郭を学習データとする機械学習により推定された輪郭を用いて計測対象の寸法が計測されることを特徴とする寸法計測装置。
  4. 請求項2に記載の寸法計測装置において、
    前記移動が繰り返された輪郭を学習データとする機械学習により推定された輪郭を用いて計測対象の寸法が計測されることを特徴とする寸法計測装置。
  5. 請求項1に記載の寸法計測装置において、
    前記所定の点の各々の点を用いて前記輪郭の重心が求められ、
    前記移動する所定の点と前記重心の位置関係と、前記移動する所定の点と前記重心を通る直線と、を基に求められた輝度プロファイルにより移動規則が選択され、
    前記移動規則は、前記所定の点を移動させる規準であることを特徴とする寸法計測装置。
  6. 請求項5に記載の寸法計測装置において、
    前記選択された移動規則により前記所定の点の移動方向が定められることを特徴とする寸法計測装置。
  7. 請求項5に記載の寸法計測装置において
    前記選択された移動規則により前記所定の点の移動距離が定められることを特徴とする寸法計測装置。
  8. 請求項6に記載の寸法計測装置において、
    前記求められた輝度プロファイルに最も類似し予め求められた輝度プロファイルに対応する前記移動規則を基に前記所定の点を移動させることを特徴とする寸法計測装置。
  9. 請求項7に記載の寸法計測装置において、
    前記求められた輝度プロファイルに最も類似し予め求められた輝度プロファイルに対応する前記移動規則を基に前記所定の点を移動させることを特徴とする寸法計測装置。
  10. 請求項1に記載の寸法計測装置において、
    前記輪郭は、分割された前記計測対象の各々の領域から求められることを特徴とする寸法計測装置。
  11. 請求項1に記載の寸法計測装置において、
    前記計測対象が分割された後、前記計測対象の複雑な形状を有する第一の領域が存在する場合、前記第一の領域が前記計測対象の複数の単純な形状を有する第二の領域に分割されることを特徴とする寸法計測装置。
  12. 請求項11に記載の寸法計測装置において、
    学習用画像と前記単純な形状の位置の情報を用いて生成されたモデルに前記計測対象の画像を入力することによって推定された前記単純な形状の位置により前記第一の領域の輪郭が分割されることを特徴とする寸法計測装置。
  13. 画像を用いて計測対象の寸法が計測される寸法計測装置を備え、半導体装置を製造する半導体製造装置において、
    前記寸法計測装置により、前記計測対象の輪郭における所定の点を基に所定の要件を満たすまで前記輪郭の移動が繰り返され、
    前記移動が繰り返された輪郭を用いて前記計測対象の寸法が計測され、
    前記所定の要件は、機械学習を用いて推定された輪郭のずれを補正する要件であることを特徴とする半導体製造装置。
  14. 請求項13に記載の半導体製造装置において、
    前記半導体装置が形成される試料がプラズマ処理されることを特徴とする半導体製造装置。
  15. 半導体製造装置と、ネットワークを介して前記半導体製造装置に接続され、画像を用いて計測対象の寸法を計測する寸法計測処理が実行されるプラットフォームとを備える半導体装置製造システムにおいて、
    前記寸法計測処理は、
    前記計測対象の輪郭における所定の点を基に所定の要件を満たすまで前記輪郭の移動を繰り返すステップと、
    前記移動が繰り返された輪郭を用いて前記計測対象の寸法を計測するステップを有し、
    前記所定の要件は、機械学習を用いて推定された輪郭のずれを補正する要件であることを特徴とする半導体装置製造システム。
  16.  請求項15に記載の半導体装置製造システムにおいて、
    前記寸法計測処理は、前記プラットフォームに備えられたアプリケーションとして実行されることを特徴とする半導体装置製造システム。
PCT/JP2020/024365 2020-06-22 2020-06-22 寸法計測装置、半導体製造装置及び半導体装置製造システム WO2021260765A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN202080010281.2A CN114097067A (zh) 2020-06-22 2020-06-22 尺寸计测装置、半导体制造装置以及半导体装置制造系统
US17/432,062 US20230114432A1 (en) 2020-06-22 2020-06-22 Dimension measurement apparatus, semiconductor manufacturing apparatus, and semiconductor device manufacturing system
KR1020217018341A KR102659861B1 (ko) 2020-06-22 치수 계측 장치, 반도체 제조 장치 및 반도체 장치 제조 시스템
JP2021526646A JP7164716B2 (ja) 2020-06-22 2020-06-22 寸法計測装置、半導体製造装置及び半導体装置製造システム
PCT/JP2020/024365 WO2021260765A1 (ja) 2020-06-22 2020-06-22 寸法計測装置、半導体製造装置及び半導体装置製造システム
TW110122512A TWI807346B (zh) 2020-06-22 2021-06-21 尺寸計測裝置,半導體製造裝置及半導體裝置製造系統

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/024365 WO2021260765A1 (ja) 2020-06-22 2020-06-22 寸法計測装置、半導体製造装置及び半導体装置製造システム

Publications (1)

Publication Number Publication Date
WO2021260765A1 true WO2021260765A1 (ja) 2021-12-30

Family

ID=79282212

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/024365 WO2021260765A1 (ja) 2020-06-22 2020-06-22 寸法計測装置、半導体製造装置及び半導体装置製造システム

Country Status (5)

Country Link
US (1) US20230114432A1 (ja)
JP (1) JP7164716B2 (ja)
CN (1) CN114097067A (ja)
TW (1) TWI807346B (ja)
WO (1) WO2021260765A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023166748A1 (ja) * 2022-03-03 2023-09-07 東京エレクトロン株式会社 プロファイル検出方法及びプロファイル検出装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014026452A (ja) * 2012-07-26 2014-02-06 Hitachi High-Technologies Corp 半導体の輪郭線データを広視野化する画像処理装置、及びコンピュータプログラム
WO2014208257A1 (ja) * 2013-06-24 2014-12-31 株式会社日立ハイテクノロジーズ 計測装置
US9142184B1 (en) * 2012-12-11 2015-09-22 The Mathworks, Inc. Speed function module and numerical minimization module for an active contour model
JP2017049035A (ja) * 2015-08-31 2017-03-09 株式会社ミツトヨ 画像測定装置及びその制御プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6313918B1 (en) * 1998-09-18 2001-11-06 Zygo Corporation Single-pass and multi-pass interferometery systems having a dynamic beam-steering assembly for measuring distance, angle, and dispersion
US7221621B2 (en) * 2004-04-06 2007-05-22 College Of William & Mary System and method for identification and quantification of sonar targets in a liquid medium
US7858404B2 (en) * 2007-03-14 2010-12-28 Taiwan Semiconductor Manufacturing Company, Ltd. Measurement of overlay offset in semiconductor processing
JP4971050B2 (ja) * 2007-06-21 2012-07-11 株式会社日立製作所 半導体装置の寸法測定装置
EP2665990B1 (en) * 2011-01-19 2015-03-04 Nova Measuring Instruments Ltd. Optical system and method for measuring in three-dimensional structures
JP5814655B2 (ja) * 2011-06-27 2015-11-17 株式会社日立メディコ 医用画像診断装置
US20160045841A1 (en) * 2013-03-15 2016-02-18 Transtar Group, Ltd. New and improved system for processing various chemicals and materials
US20170256465A1 (en) * 2016-03-01 2017-09-07 Asml Netherlands B.V. Method and apparatus to determine a patterning process parameter
US10458912B2 (en) * 2016-08-31 2019-10-29 Kla-Tencor Corporation Model based optical measurements of semiconductor structures with anisotropic dielectric permittivity
WO2021102291A1 (en) * 2019-11-21 2021-05-27 General Vibration Corporation Systems and methods for producing a pure vibration force from a synchronized dual array of eccentric rotating masses
US11037269B1 (en) * 2020-03-27 2021-06-15 Intel Corporation High-speed resume for GPU applications

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014026452A (ja) * 2012-07-26 2014-02-06 Hitachi High-Technologies Corp 半導体の輪郭線データを広視野化する画像処理装置、及びコンピュータプログラム
US9142184B1 (en) * 2012-12-11 2015-09-22 The Mathworks, Inc. Speed function module and numerical minimization module for an active contour model
WO2014208257A1 (ja) * 2013-06-24 2014-12-31 株式会社日立ハイテクノロジーズ 計測装置
JP2017049035A (ja) * 2015-08-31 2017-03-09 株式会社ミツトヨ 画像測定装置及びその制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023166748A1 (ja) * 2022-03-03 2023-09-07 東京エレクトロン株式会社 プロファイル検出方法及びプロファイル検出装置

Also Published As

Publication number Publication date
KR20220000896A (ko) 2022-01-04
US20230114432A1 (en) 2023-04-13
JP7164716B2 (ja) 2022-11-01
CN114097067A (zh) 2022-02-25
TWI807346B (zh) 2023-07-01
JPWO2021260765A1 (ja) 2021-12-30
TW202201151A (zh) 2022-01-01

Similar Documents

Publication Publication Date Title
JP5957357B2 (ja) パターン検査・計測装置及びプログラム
TW490591B (en) Pattern inspection apparatus, pattern inspection method, and recording medium
TWI733425B (zh) 尺寸測量裝置、尺寸測量程式及半導體製造系統
JP3524853B2 (ja) パターン検査装置、パターン検査方法および記録媒体
US11663713B2 (en) Image generation system
JPWO2021024402A1 (ja) 寸法計測装置、寸法計測方法及び半導体製造システム
US7274820B2 (en) Pattern evaluation system, pattern evaluation method and program
WO2021260765A1 (ja) 寸法計測装置、半導体製造装置及び半導体装置製造システム
US20220277434A1 (en) Measurement System, Method for Generating Learning Model to Be Used When Performing Image Measurement of Semiconductor Including Predetermined Structure, and Recording Medium for Storing Program for Causing Computer to Execute Processing for Generating Learning Model to Be Used When Performing Image Measurement of Semiconductor Including Predetermined Structure
JP4085635B2 (ja) 輪郭抽出方法及びその装置及びそのプログラム
JP2004185019A (ja) パターン検査装置、パターン検査方法および記録媒体
US20230005157A1 (en) Pattern-edge detection method, pattern-edge detection apparatus, and storage medium storing program for causing a computer to perform pattern-edge detection
KR102659861B1 (ko) 치수 계측 장치, 반도체 제조 장치 및 반도체 장치 제조 시스템
TWI741541B (zh) 影像分析系統及影像分析方法
TWI817922B (zh) 圖案匹配裝置、圖案測定系統、圖案匹配程式
CN113554585B (zh) 影像分析系统及影像分析方法
JP7451384B2 (ja) パターンエッジ検出方法、パターンエッジ検出装置、パターンエッジ検出をコンピュータに実行させるためのプログラムが記録された記録媒体
TW202132747A (zh) 圖案匹配裝置、圖案測定系統及非暫態電腦可讀媒體
JP2023005477A (ja) 検査装置及び計測装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021526646

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20941621

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20941621

Country of ref document: EP

Kind code of ref document: A1