WO2024023955A1 - 測長システム、モデル作成システム及び測長方法 - Google Patents

測長システム、モデル作成システム及び測長方法 Download PDF

Info

Publication number
WO2024023955A1
WO2024023955A1 PCT/JP2022/028873 JP2022028873W WO2024023955A1 WO 2024023955 A1 WO2024023955 A1 WO 2024023955A1 JP 2022028873 W JP2022028873 W JP 2022028873W WO 2024023955 A1 WO2024023955 A1 WO 2024023955A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
measurement
unit
learning
length measurement
Prior art date
Application number
PCT/JP2022/028873
Other languages
English (en)
French (fr)
Inventor
軍 陳
竜 弓場
康隆 豊田
Original Assignee
株式会社日立ハイテク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ハイテク filed Critical 株式会社日立ハイテク
Priority to PCT/JP2022/028873 priority Critical patent/WO2024023955A1/ja
Publication of WO2024023955A1 publication Critical patent/WO2024023955A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B15/00Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration

Definitions

  • the present disclosure relates to a length measurement system, a model creation system, and a length measurement method.
  • Patent Document 1 discloses an image processing method that optimizes the brightness and gradation of a specific target area within an image. Therefore, a specific area (for example, a person's face) is detected, a tone curve for image enhancement is calculated using the histogram of the entire image and a histogram of the specific area, and contrast correction is performed using the calculated tone curve. conduct.
  • a specific area for example, a person's face
  • a tone curve for image enhancement is calculated using the histogram of the entire image and a histogram of the specific area
  • contrast correction is performed using the calculated tone curve. conduct.
  • Patent Document 2 discloses a learning model that can selectively convert partial images, such as specific patterns included in an image or edges of other structures, with high precision. By changing the degree of learning depending on the importance of each part of the image, it is possible to generate high-quality images for important parts, while reducing the processing required for learning for unimportant parts, improving learning efficiency. It is something.
  • the left column shows photographed images (schematic diagrams).
  • the photographed image 100 is, for example, a SEM image of a pattern formed on a semiconductor wafer.
  • a second pattern that is not to be measured is provided on the semiconductor wafer in close proximity to the first pattern that is to be measured.
  • the right column shows a brightness profile 111 along the line 103 on the photographed image 100.
  • a brightness profile 112 obtained when the second pattern does not exist is also shown.
  • the first pattern is an isolated pattern, the contrast with the surroundings is large as shown in the brightness profile 112, and it is expected that edge extraction from the first pattern image (measurement pattern image) 101 for measurement will be performed with high precision. can.
  • the brightness is isolated in the boundary area between the first pattern and the second pattern due to the influence of the second pattern image (non-measurement pattern image) 102.
  • the luminance of the first pattern image 101 does not decrease as in the case of the pattern, and is connected to the luminance of the second pattern image 102 without completely decreasing, resulting in a luminance distribution like the luminance profile 111.
  • the accuracy of edge extraction from the first pattern image 101 for measurement decreases, and as a result, the measurement accuracy also decreases.
  • Patent Document 1 If the technique disclosed in Patent Document 1 is applied to the photographed image shown in FIG. 1A, by making the first pattern image 101 obvious, the second pattern image 102 will also be made obvious, and the above-mentioned problem will occur. You can't solve problems. Further, even if conversion is performed with different accuracy between important and non-important parts according to Patent Document 2, the above problem cannot be solved because processing to increase the difference in contrast is not performed.
  • the photographed image 100 is converted into a length measurement image 120 for dimension measurement, as schematically shown in FIG. 1B.
  • the length measurement image 120 is an image in which the contrast of the first pattern image 121, which is a measurement pattern image, with respect to the second pattern image 122, which is a non-measurement pattern image, is improved compared to the original photographed image 100.
  • the length measurement image 120 may be an image in which the second pattern image 122, which is a non-measurement pattern image, is deleted.
  • the contrast of the second pattern image 122 and the background part of the length measurement image 120 (referring to the area other than the first pattern image 121 and the second pattern image 122 in the length measurement image 120) is It may also be a reduced image.
  • a length measurement system that is an embodiment of the present disclosure is a length measurement system that measures the dimensions of a pattern formed on a sample, and includes a computer system that includes a length measurement image conversion section and a length measurement section.
  • the length measurement image conversion unit converts the measurement target captured image of the sample into the measurement target length measurement image using the length measurement image conversion model, and the length measurement unit converts the measurement target image that is included in the measurement target length measurement image using the length measurement image conversion model.
  • the length measurement image conversion model uses training data that is a combination of a learning image of the sample and a learning length measurement image corresponding to the learning image.
  • the contrast between the measurement pattern image in the learning length measurement image and the non-measurement pattern image that exists near the measurement pattern image is the same as the contrast between the measurement pattern image and the non-measurement pattern image in the learning captured image.
  • the contrast is improved or the non-measurement pattern image in the learning captured image is deleted.
  • FIG. 2 is a diagram for explaining a problem of the present disclosure.
  • FIG. 2 is a diagram for explaining a problem of the present disclosure.
  • This is an example of the configuration of a length measurement system.
  • This is an example of the configuration of a model creation system.
  • FIG. 3 is a functional block diagram of an image generation model creation section. This is an example of a generative model confirmation screen.
  • FIG. 3 is a functional block diagram of an area dividing section.
  • FIG. 3 is a functional block diagram of a length measurement edge detection section.
  • FIG. 3 is a diagram showing how edges are detected by applying interactive machine learning.
  • FIG. 3 is a functional block diagram of an image conversion model creation section.
  • FIG. 3 is a diagram for explaining an area specifying method. This is an example of a label image.
  • FIG. 3 is a functional block diagram of a length measurement image conversion section.
  • FIG. 2 is a diagram showing a configuration example of a length measurement system.
  • the length measurement system shown in FIG. 2 is a system that performs length measurement processing of a pattern formed on a semiconductor wafer using a charged particle beam device such as a scanning electron microscope (SEM).
  • a length measurement system acquires an image of a fine pattern formed on a semiconductor wafer and performs dimension measurement.
  • the length measurement system includes an SEM 11, a control device 12 that controls the SEM 11, a computer system 1 that executes length measurement processing, an input device 13 that inputs necessary information to the computer system 1, an information input screen, and measurement results. It is equipped with a display 14 for displaying the following information.
  • the computer system 1 includes an arithmetic processing unit 2 including one or more CPUs (Central Processing Units) and a storage device 3.
  • the storage device 3 includes programs related to length measurement processing, other programs related to SEM control, and data used by these programs for processing, such as a length measurement image conversion model 31 and a length measurement recipe 32, which will be described later. Processing results of those programs are stored.
  • the computer system 1 may be configured integrally with the control device 12.
  • the length measurement process is executed by the arithmetic processing unit 2 executing a program related to the length measurement process. That is, the computer system 1 functions as a length measurement processing device. In other words, this program causes the computer system to function as a length measurement processing device. Programs and their functions executed by the computer system 1 and the like are referred to as "functions", "units", etc.
  • the arithmetic processing section 2 includes a photographed image input section 21 which is an interface into which images photographed by the SEM 11 are input, an image conversion section 22 for length measurement that converts the photographed image inputted by the photographed image input section 21 into a length measurement image, and a length measurement image conversion section 22 that converts the photographed image inputted by the photographed image input section 21 into a length measurement image.
  • the length measurement unit 23 functions as a length measurement unit 23 that measures dimensions of the length measurement image created by the length image conversion unit 22 according to the length measurement recipe 32 .
  • a length measurement image conversion model 31 is used.
  • FIG. 3 is a diagram showing a configuration example of a model creation system that creates a length measurement image conversion model 31 used by the length measurement system.
  • the computer system 5 includes a photographed image input section 61 that is an interface through which photographed images are input, and an image generation model creation section 62 that creates an image generation model 30 using the photographed images inputted by the photographed image input section 61 as training data. , functions as an image conversion model creation section 63 that creates a length measurement image conversion model 31 using the image generation model 30 using the photographed image input by the photographed image input section 61 as training data.
  • the image storage medium 15 stores captured images of a semiconductor wafer, which is a measurement target, captured by the SEM 11 of the length measurement system.
  • the hardware configuration of the computer system 5 is the same as the hardware configuration of the computer system 1, and redundant explanation will be omitted.
  • An input device 16 and a display 17 are connected to the computer system 5.
  • FIG. 3 shows an example in which photographed images used as teacher data are stored in the image storage medium 15, the image storage medium 15 is connected to the computer system 1, and the photographed images stored in the image storage medium 15 are stored in the image storage medium 15. It is also possible to use a length measurement system that measures the dimensions of.
  • the model creation system creates a length measurement image conversion model that converts a captured image as shown in FIG. 1A into a length measurement image as shown in FIG. 1B. For this reason, teacher data that is a combination of the captured image and the image for length measurement is created.
  • FIG. 4A shows a functional block diagram of the image generation model creation section 62.
  • the image generation model creation section 62 is a functional block that creates the image generation model 30.
  • the image generation model 30 is a model that generates, from a label image indicating the shape of a pattern area, an image that has the shape shown in the label image and is likened to a real image (hereinafter sometimes referred to as a pseudo image). . As will be described later, the image generation model 30 is used in the process of creating a length measurement image to be used as training data.
  • the image generation model creation section 62 includes a region division section 71, an image enhancement processing section 72, and a first learning section 73.
  • the area dividing unit 71 divides the captured image into a measurement pattern area and other background areas.
  • the captured image is divided into a measurement pattern area corresponding to the first pattern image (measurement pattern image) 101 and other background areas.
  • region segmentation may be performed manually or by image processing, or any combination of these may be used, in which the user verifies and corrects the region segmentation performed by image processing. obtain.
  • Known methods for region segmentation through image processing include methods using image features (luminance clustering using the k-means method) and methods using machine learning (supervised and unsupervised segmentation). These can be applied.
  • a region division process using a length measurement recipe for measuring the dimensions of the measurement pattern image will be described.
  • the length measurement recipe 32 is data representing the length measurement conditions of the measurement pattern image, including the shape of the measurement pattern (for example, line, hole, ellipse, circle, etc.), the length measurement cursor (for example, the coordinates of the upper left vertex, width, length, etc.). length, number, etc.), measurement algorithms, length measurement parameters, etc. are registered.
  • shape of the measurement pattern for example, line, hole, ellipse, circle, etc.
  • the length measurement cursor for example, the coordinates of the upper left vertex, width, length, etc.
  • length, number, etc. measurement algorithms, length measurement parameters, etc. are registered.
  • FIG. 5 shows a functional block diagram of the area dividing section 71 that performs area dividing processing using the length measurement recipe 32.
  • the region dividing section 71 includes a length measurement edge detecting section 74, a region specifying section 75, and a region extracting section 76.
  • Schematic diagrams 74a, 75a, and 76a are schematic diagrams showing processing results in each of these functional blocks.
  • the length measurement edge detection unit 74 uses the length measurement recipe 32 to detect an edge 74c of the photographed image.
  • an edge 74c is displayed as a white circle.
  • the edge 74c can be extracted as a change point in the brightness profile along the line 74b.
  • FIG. 5 shows a functional block diagram of the area dividing section 71 that performs area dividing processing using the length measurement recipe 32.
  • the region dividing section 71 includes a length measurement edge detecting section 74, a region specifying section 75, and a region extracting section 76.
  • the area identifying unit 75 identifies a pattern boundary 75b by interpolating and connecting adjacent edges 74c, as shown in a processing result 75a.
  • the area extracting unit 76 specifies a measurement pattern area based on the pattern boundary 75b specified by the area specifying unit 75.
  • a region 76b corresponding to the region surrounded by the pattern boundary 75b is the measurement pattern region.
  • a label image indicating a measurement pattern area corresponding to the measurement pattern image included in the photographed image is obtained. Note that when a plurality of measurement pattern areas exist in the photographed image, it is preferable to extract the measurement pattern area for each measurement pattern area.
  • FIG. 6A shows a functional block diagram of the length measurement edge detection unit 74 that detects edges from the captured image.
  • the length measurement edge detection unit 74 includes a length measurement edge learning unit 77 and a length measurement edge inference unit 78, and enables accurate edge detection using an interactive machine learning method.
  • the length measurement edge learning unit 77 uses the teacher data to learn a learning model for inferring edges, and the length measurement edge inference unit 78 uses the learning model learned by the length measurement edge learning unit 77 to perform edge inference.
  • FIG. 6B shows how the length measurement edge detection unit 74 applies interactive machine learning to detect edges.
  • a white frame 79 in the figure is a length measurement cursor, and a change point in the brightness profile in this area is detected as an edge. Details of the detection process are defined in the length measurement recipe 32.
  • white circles are edges that are teacher data
  • white triangles are edges that are inferred using the learning model.
  • the first teacher data 77a is provided by the user.
  • the inference edge 78a is the result of inference using the learning model that learned the first teacher data 77a.
  • the inference edge 78a includes inference results located on the pattern boundary and inference results deviated from the pattern boundary. Therefore, the user deletes the inference results that deviate from the pattern boundaries, and sets the inference results located on the pattern boundaries and the initially given teacher data as new teacher data 77b.
  • an inference edge 78b is obtained as a result of inference using a learning model that has learned the teacher data 77b. This operation is repeatedly performed, and finally, when the result of inference using the learning model converges on the pattern boundary (in this case, the third inference edge 78c), the learning of the learning model is terminated.
  • the region dividing unit 71 can generate a label image indicating the region corresponding to the measurement pattern image from the photographed image.
  • the first learning unit 73 performs learning of the image generation model 30 using the combination of the label image indicating the measurement pattern area generated by the area dividing unit 71 and the measurement pattern image of the photographed image as training data.
  • the error between the pseudo measurement pattern image generated by the image generation model 30 and the measurement pattern image of the original photographed image converges to a certain value or less, the learning of the image generation model 30 is finished.
  • the shape of the pseudo measurement pattern image generated by the image generation model 30 follows the shape of the pattern area of the label image, while the image corresponds to the original captured image.
  • an image may be output in which the brightness of the generated pseudo measurement pattern image is improved compared to the original photographed image.
  • the teacher data used by the first learning section 73 an image obtained by performing image processing on the photographed image so that the measurement pattern area is emphasized by the image enhancement processing section 72 may be used.
  • the first learning unit 73 learns a learning model that outputs a label image indicating the area corresponding to the measurement pattern image from the photographed image, and the image generation model 30 uses the learning model that outputs the label image.
  • a pseudo image may be output based on the label output for the photographed image and the brightness of pixels at locations corresponding to the output label in the photographed image. Furthermore, in the first learning section 73, for reasons such as consolidating the number of image generation models 30 stored in the storage device 7, a plurality of types of measurement pattern images may be learned using one image generation model. . For example, in the example of FIG. 1A, the first pattern image 101 and the second pattern image 102 may be learned together using one image generation model 30. The image generation model 30 that has been trained is stored in the storage device 7.
  • the image generation model creation unit 62 preferably includes a GUI (Graphical User Interface) for checking the performance of the created image generation model 30.
  • FIG. 4B shows an example of the generated model confirmation screen 130.
  • the label image/reference image load button 131 on the generation model confirmation screen 130 the captured image and the label image created by dividing the captured image into regions are loaded and are used as the reference image 135 and label image 134, respectively. Display.
  • two types of measurement pattern images exist in the reference image 135.
  • the AI model load button 132 the corresponding image generation model is loaded. For example, a first image generation model for the first measurement pattern area 137 and a second image generation model for the second measurement pattern area 138 are loaded.
  • the pseudo measurement pattern image 137b is generated from the label image indicating the first measurement pattern area 137 using the first image generation model, and the pseudo measurement pattern image 137b is generated using the second image generation model.
  • a pseudo measurement pattern image 138b is generated from the label image indicating the second measurement pattern area 138 using the label image.
  • the generated pseudo image 136 is displayed alongside the reference image 135.
  • FIG. 7 shows a functional block diagram of the image conversion model creation section 63.
  • the image conversion model creation unit 63 is a functional block that creates the image conversion model 31 for length measurement.
  • the image conversion model creating section 63 includes a region specifying section 81 , a region dividing section 82 , an image generating section 83 , and a second learning section 84 .
  • the region specifying section 81, the region dividing section 82, and the image generating section 83 create a length measurement image that becomes learning data for the length measurement image conversion model 31.
  • the area specifying unit 81 specifies an area including the measurement pattern image from the photographed image.
  • the method of specifying the area is arbitrary.
  • the user may manually specify the area using the specification box 81a shown in FIG.
  • the area may be specified using the coordinate information of the length measurement cursor defined in the length measurement recipe.
  • the area may be specified by expanding the layout of the corresponding pattern using a layout design drawing of the device.
  • FIG. 10A shows an example of a GUI for specifying an area.
  • a captured image to be subjected to area specification processing is selected from the image load button 91 on the area specification screen 90 and displayed as a captured image 94.
  • a designation box 95 indicating the area to be designated is displayed on the photographed image 94, and the coordinates and size of the designation box 95 are determined.
  • the user presses the manual specification button 92 for manual specification, and the automatic specification button 93 for automatic specification based on the length measurement recipe or other information.
  • a manual designation screen 96 as shown in FIG. 10B is displayed.
  • the shape, coordinates, and size of the specification box 95 can be specified.
  • an automatic designation screen 97 as shown in FIG. 10C is displayed. For example, if multiple automatic designation methods are available, the user can select the automatic designation method to apply.
  • the area specification on the area specification screen 90 is not limited to the rectangular shape shown as the specification box 95, but may take other shapes such as an ellipse, or may take other forms of specification such as the center coordinates of the area. .
  • the area specification screen 90 includes a GUI according to the area specification form.
  • a label image 134 (see FIG. 4B) is obtained from the photographed image and displayed to the user, and the user can select, for example, the first measurement pattern in the label image 134 by operating the GUI.
  • the area 137 may also be specified.
  • the region dividing unit 82 divides the region in the photographed image designated as such into a measurement pattern region and other regions.
  • the processing of the region dividing section 82 is similar to the processing of the region dividing section 71 described in FIG. 4A, so a redundant explanation will be omitted.
  • the captured image may be directly divided into regions without specifying the region by the region specifying unit 81.
  • a label image 85 shown in FIG. 9A is obtained.
  • the label image 85 is an image obtained by region-dividing the captured image 100 shown in FIG. 8, and includes two measurement pattern regions 85a.
  • the image generation unit 83 uses the label image 85 generated by the area division unit 82 and the image generation model 30 to generate a pseudo captured image corresponding to the length measurement image corresponding to the captured image.
  • FIG. 9B shows an example of the length measurement image 86 corresponding to the photographed image 100, which is generated from the label image 85.
  • the measurement pattern image 86a is a pseudo measurement pattern image generated by the image generation model 30 for the measurement pattern region 85a, and for example, the background 86b is a uniform monochrome image.
  • the present invention is not limited to this, and the brightness of an area other than the measurement pattern area 85a of the original captured image 100 may be reduced and combined with the pseudo measurement pattern image. That is, it is sufficient that the contrast of the pseudo measurement pattern image in the length measurement image 86 is improved compared to the contrast of the measurement pattern image 101 in the original captured image 100.
  • the image generation unit 83 performs an adjustment to reduce the brightness of the area other than the measurement pattern area 85a of the original captured image 100, and to increase the brightness within the measurement pattern area 85a. may be synthesized.
  • the contrast of the measurement pattern image 86a in the length measurement image 86 is significantly improved over the contrast of the measurement pattern image 101 in the original captured image 100.
  • Adjustments to increase the brightness within the measurement pattern area 85a may be made so that the user can use a GUI such as the area designation screen 90 to perform operations such as how much to increase the brightness.
  • the second learning unit 84 trains the length measurement image conversion model 31 using the combination of the photographed image and the length measurement image generated by the image generation unit 83 as training data.
  • the error between the length measurement image generated by the length measurement image conversion model 31 and the length measurement image generated by the image generation unit 83 converges to a certain level or less, the learning of the length measurement image conversion model 31 is completed.
  • FIG. 11 shows an example of the conversion model confirmation screen 140.
  • the captured image load button 141 on the conversion model confirmation screen 140 the captured image is loaded and displayed as an input image 144.
  • the input image 144 includes a measurement pattern image 146 and a non-measurement pattern image 147 adjacent thereto.
  • the AI model load button 142 the length measurement image conversion model is loaded.
  • the execution button 143 a length measurement image 145 obtained by converting the input image 144 using the length measurement image conversion model is displayed. By comparing the input image 144 and the converted length measurement image 145, the user can confirm that an appropriate length measurement image has been generated.
  • the storage device 3 of the computer system 1 of the length measurement system stores the trained length measurement image conversion model 31 and length measurement recipe 32 (see FIG. 2).
  • the control device 12 uses the information of the length measurement recipe 32 read out from the computer system 1 to obtain an image of, for example, a semiconductor wafer using the SEM 11 .
  • a photographed image taken by the SEM 11 is input into the computer system 1 from the control device 12 by the photographed image input section 21 .
  • FIG. 12 shows a functional block diagram of the length measurement image conversion section 22.
  • the length measurement image conversion section 22 includes an image conversion section 150.
  • the image conversion unit 150 uses the length measurement image conversion model 31 to convert a captured image as shown in FIG. 1A into a length measurement image as shown in FIG. 1B.
  • the length measurement unit 23 performs dimension measurement on the length measurement image converted by the length measurement image conversion unit 22 in accordance with the content defined in the length measurement recipe 32, so that the size of the image in the vicinity of the measurement pattern image is measured. Even if there is a non-measurement pattern image that obstructs the length measurement, the contrast of the measurement pattern image with respect to the non-measurement pattern image is improved in the length measurement image compared to the original photographed image. , erroneous measurements can be suppressed.
  • a length measurement image conversion model that has undergone machine learning for length measurement images, high-speed and automatic image conversion is possible.
  • the present disclosure is not limited to the embodiments described above, and includes various modifications.
  • the embodiments described above are described in detail to explain the present disclosure in an easy-to-understand manner, and the embodiments are not necessarily limited to those having all the configurations described.
  • it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment and it is also possible to add the configuration of another embodiment to the configuration of one embodiment.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Length-Measuring Devices Using Wave Or Particle Radiation (AREA)

Abstract

試料を撮影した計測対象撮影画像を、測長用画像変換モデルにより計測対象測長用画像に変換し、計測対象測長用画像に含まれる計測パターン像の寸法を計測する。ここで、測長用画像変換モデルは、試料を撮影した学習用撮影画像と当該学習用撮影画像に対応する学習用測長用画像との組み合わせである教師データを用いて学習されており、学習用測長用画像における計測パターン像と計測パターン像に近接して存在する非計測パターン像とのコントラストは、学習用撮影画像における計測パターン像と非計測パターン像とのコントラストよりも向上されている、または学習用測長用画像では、学習用撮影画像における非計測パターン像が削除されている。

Description

測長システム、モデル作成システム及び測長方法
 本開示は、測長システム、モデル作成システム及び測長方法に関する。
 特許文献1には、画像内の特定の対象領域の明るさや階調を最適とする画像処理方法が開示されている。このため、特定領域(例えば、人物の顔)を検出し、画像全体のヒストグラムや特定領域のヒストグラムを利用して、画像強調用のトーンカーブを計算し、計算したトーンカーブを用いてコントラスト補正を行う。
 特許文献2には、画像に含まれる特定のパターンやそれ以外の構造物のエッジ等の部分画像を選択的に高精度変換できる学習モデルが開示されている。画像の部位ごとの重要度に応じて学習の程度を変えることで、重要な部分には高品質画像を生成できる一方、重要でない部分には学習に要する処理を削減し、学習の効率化を図るものである。
特開2009-200743号公報 国際公開第2021/140620号
 図1Aを用いて本開示の課題について説明する。左欄には撮影画像(模式図)を示している。撮影画像100は、例えば半導体ウエハ上に形成されたパターンのSEM画像である。半導体ウエハには、計測対象の第1パターンに近接して、非計測対象の第2パターンが設けられている。右欄には、撮影画像100上のライン103に沿った輝度プロファイル111を示している。なお、輝度プロファイル111とともに、第2パターンが存在しなかった場合に得られる輝度プロファイル112も示している。
 第1パターンが孤立パターンであれば、輝度プロファイル112に示されるように周囲とのコントラストも大きく、計測のための第1パターン像(計測パターン像)101からのエッジ抽出も精度よく行うことが期待できる。一方、非計測パターンが近接して存在する撮影画像100の場合、第2パターン像(非計測パターン像)102の影響を受けることで、第1パターンと第2パターンとの境界領域において輝度が孤立パターンのときのように低下せず、第1パターン像101を示す輝度が下がりきらないまま、第2パターン像102を示す輝度に接続されることで、輝度プロファイル111のような輝度分布になる。この場合、計測のための第1パターン像101からのエッジ抽出の精度が低下し、結果として、計測精度も低下する。
 図1Aに示した撮影画像について、特許文献1開示の技術を適用したとすると、第1パターン像101を顕在化することで、第2パターン像102をも顕在化することになってしまい、上記課題を解決することはできない。また、特許文献2により重要/非重要部位とで、精度を変えて変換したとしてもコントラストの差を大きくする処理がなされていないため、上記課題を解決することはできない。
 本開示においては撮影画像からパターンの測長を行うにあたり、撮影画像100を図1Bに模式図として示すような、寸法計測のための測長用画像120に変換する。測長用画像120は、非計測パターン像である第2パターン像122に対する計測パターン像である第1パターン像121のコントラストが、元の撮影画像100に対して向上された画像である。例えば、測長用画像120は、非計測パターン像である第2パターン像122が削除された画像であってもよい。あるいは、測長用画像120は、第2パターン像122及び測長用画像120の背景部分(測長用画像120における第1パターン像121及び第2パターン像122以外の領域をいう)のコントラストが低減された画像としてもよい。
 本開示の一実施の態様である測長システムは、試料上に形成されたパターンの寸法計測を行う測長システムであって、測長用画像変換部と測長部とを備えるコンピュータシステムを有し、測長用画像変換部は、試料を撮影した計測対象撮影画像を、測長用画像変換モデルにより計測対象測長用画像に変換し、測長部は、計測対象測長用画像に含まれる計測パターン像の寸法を計測し、測長用画像変換モデルは、試料を撮影した学習用撮影画像と当該学習用撮影画像に対応する学習用測長用画像との組み合わせである教師データを用いて学習されており、学習用測長用画像における計測パターン像と計測パターン像に近接して存在する非計測パターン像とのコントラストは、学習用撮影画像における計測パターン像と非計測パターン像とのコントラストよりも向上されている、または学習用測長用画像では、学習用撮影画像における非計測パターン像が削除されている。
 寸法計測における誤計測を抑制する。その他の課題と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
本開示の課題について説明するための図である。 本開示の課題について説明するための図である。 測長システムの構成例である。 モデル作成システムの構成例である。 画像生成モデル作成部の機能ブロック図である。 生成モデル確認画面の例である。 領域分割部の機能ブロック図である。 測長エッジ検出部の機能ブロック図である。 インタラクティブ機械学習を適用してエッジを検出する様子を示す図である。 画像変換モデル作成部の機能ブロック図である。 領域指定方法を説明するための図である。 ラベル画像の例である。 図9Aのラベル画像から生成される測長用画像の例である。 領域指定画面の例である。 マニュアル指定画面の例である。 自動指定画面の例である。 変換モデル確認画面の例である。 測長用画像変換部の機能ブロック図である。
 図2は、測長システムの構成例を示す図である。図2の測長システムは、走査型電子顕微鏡(Scanning Electron Microscope:SEM)のような荷電粒子線装置を用いて、半導体ウエハ上に形成されたパターンの測長処理を行うシステムである。測長システムは、半導体ウエハ上に形成された微細なパターンの画像を取得して寸法計測を実施する。測長システムは、SEM11、SEM11を制御する制御装置12、測長処理を実行するコンピュータシステム1、コンピュータシステム1に対して必要な情報を入力するための入力装置13、情報入力用画面や計測結果等を表示するためのディスプレイ14を備える。
 コンピュータシステム1は、1以上のCPU(Central Processing Unit)を含む演算処理部2と記憶装置3とを備える。本開示においては、記憶装置3には測長処理に関するプログラム、その他SEMの制御に関するプログラム、それらプログラムが処理に使用するデータ、例えば後述する測長用画像変換モデル31や測長レシピ32など、さらにそれらプログラムによる処理結果などが格納される。なお、コンピュータシステム1は、制御装置12と一体で構成されていてもよい。
 演算処理部2が測長処理に関するプログラムを実行することにより、測長処理が実行される。すなわちコンピュータシステム1は測長処理装置として機能する。言い換えると、このプログラムは、コンピュータシステムを、測長処理装置として機能させる。コンピュータシステム1などが実行するプログラム、その機能を、「機能」、「部」等と呼称する。
 演算処理部2は、SEM11による撮影画像が入力されるインターフェースである撮影画像入力部21、撮影画像入力部21により入力された撮影画像を測長画像に変換する測長用画像変換部22、測長用画像変換部22で作成された測長用画像について、測長レシピ32にしたがって寸法計測を行う測長部23として機能する。測長用画像変換部22が撮影画像を測長用画像に変換するにあたっては測長用画像変換モデル31を使用する。
 図3は、測長システムが使用する測長用画像変換モデル31を作成するモデル作成システムの構成例を示す図である。
 コンピュータシステム5は、撮影画像が入力されるインターフェースである撮影画像入力部61、撮影画像入力部61により入力された撮影画像を教師データに用いて画像生成モデル30を作成する画像生成モデル作成部62、撮影画像入力部61により入力された撮影画像を教師データに用い、画像生成モデル30を利用して、測長用画像変換モデル31を作成する画像変換モデル作成部63として機能する。画像記憶媒体15には、測長システムのSEM11で撮影された計測対象である半導体ウエハの撮影画像が蓄積されている。コンピュータシステム5のハードウェア構成はコンピュータシステム1のハードウェア構成と同じであり、重複する説明は省略する。コンピュータシステム5には、入力装置16、ディスプレイ17が接続されている。
 なお、演算リソースに余裕があれば、コンピュータシステム5の処理を測長システムにおけるコンピュータシステム1で行うことも可能である。逆に、図3では画像記憶媒体15に教師データに用いる撮影画像を蓄積する例を示しているが、画像記憶媒体15をコンピュータシステム1に接続して、画像記憶媒体15に蓄積された撮影画像の寸法計測を行う測長システムとすることも可能である。
 まず、モデル作成システムによるモデルの作成について説明する。モデル作成システムは、図1Aに示したような撮影画像を図1Bに示したような測長用画像に変換する測長用画像変換モデルを作成する。このため、撮影画像と測長用画像の組み合わせである教師データを作成する。
 図4Aに、画像生成モデル作成部62の機能ブロック図を示す。画像生成モデル作成部62は画像生成モデル30を作成する機能ブロックである。画像生成モデル30はパターン領域の形状を示すラベル画像から、ラベル画像に示された形状を有し、実画像に見立てた画像(以下では、擬似画像と呼ぶことがある)を生成するモデルである。後述するように、画像生成モデル30は、教師データに用いる測長用画像を作成する過程で使用する。画像生成モデル作成部62は、領域分割部71、画像強調処理部72、第1学習部73を備える。
 領域分割部71は、撮影画像を計測パターン領域とその他の背景領域とに分割する。図1Aの例であれば、撮影画像を、第1パターン像(計測パターン像)101に相当する計測パターン領域とその他の背景領域とに分割することになる。このような領域分割は人手で行ってもよいし、画像処理により行ってもよく、また、その組み合わせ、すなわち画像処理で行った領域分割をユーザが検証して修正する、といった任意の手法をとり得る。画像処理により領域分割を行う手法としては、画像特徴を用いた手法(k-means法による輝度のクラスタリング)や機械学習を用いた手法(教師有、教師無のセグメンテーション)などが知られており、これらを適用することができる。ここでは、計測パターン領域だけを抽出すれば十分であるので、計測パターン像の寸法計測を行うための測長レシピを用いた領域分割処理について説明する。測長レシピ32は計測パターン像の測長条件を表すデータであって、計測パターンの形状(例えば、ライン、ホール、楕円、円など)、測長カーソル(例えば、左上頂点の座標、幅、長さ、数など)、計測アルゴリズムや、測長パラメータなどが登録されている。
 図5に測長レシピ32を用いた領域分割処理を行う領域分割部71の機能ブロック図を示す。領域分割部71は、測長エッジ検出部74、領域特定部75、領域抽出部76を備える。模式図74a,75a,76aは、これら各機能ブロックでの処理結果を示す模式図である。測長エッジ検出部74は測長レシピ32を利用して撮影画像のエッジ74cを検出する。処理結果74aには、エッジ74cを白丸により表示している。エッジ74cは例えば、ライン74bに沿った輝度プロファイルの変化点として抽出することができる。ただし、図1Aに示したように、パターン像は近接するパターンの存在などの理由により、輝度プロファイルの変化が不明瞭となる場合がある。このため、測長エッジ検出部74では深層学習の手法を用いてエッジ74cを精度よく検出することもできる。この詳細については後述する。領域特定部75では、近接するエッジ74cの間を補間して接続することで、処理結果75aに示すように、パターン境界75bを特定する。領域抽出部76は、領域特定部75で特定されたパターン境界75bをもとに、計測パターン領域を特定する。処理結果76aにおいて、パターン境界75bに囲まれた領域に相当する領域76bが計測パターン領域である。これにより、撮影画像に含まれている計測パターン像に対応する計測パターン領域を示すラベル画像が得られる。なお、撮影画像において計測パターン領域が複数存在する場合には、それぞれの計測パターン領域に対して計測パターン領域の抽出を行うとよい。
 図6Aに撮影画像からエッジを検出する測長エッジ検出部74の機能ブロック図を示す。測長エッジ検出部74は測長エッジ学習部77と測長エッジ推論部78を備え、インタラクティブ機械学習の手法により精度よくエッジを検出することを可能にする。測長エッジ学習部77は教師データを用いてエッジを推論する学習モデルの学習を行い、測長エッジ推論部78は測長エッジ学習部77で学習した学習モデルを用いてエッジの推論を行う。
 図6Bに測長エッジ検出部74でインタラクティブ機械学習を適用してエッジを検出する様子を示す。なお、図中の白枠79は測長カーソルであり、この領域における輝度プロファイルの変化点をエッジとして検出する。検出処理の詳細は測長レシピ32に定義されている。また、ここでは、白丸は教師データであるエッジであり、白三角は学習モデルを用いて推論されたエッジを示している。
 第1回目の教師データ77aは、ユーザによって与えられる。第1回目の教師データ77aを学習した学習モデルにより推論した結果が推論エッジ78aである。推論エッジ78aには、パターン境界上に位置する推論結果とパターン境界から乖離した推論結果とが含まれる。そこで、ユーザはパターン境界から乖離した推論結果を削除し、パターン境界上に位置する推論結果と最初に与えた教師データとを新たな教師データ77bとする。同様に、教師データ77bを学習した学習モデルにより推論した結果として推論エッジ78bを得る。この作業を繰り返し実行し、最終的に、学習モデルにより推論した結果がパターン境界上に収束したところで(ここでは3回目の推論エッジ78c)、学習モデルの学習を終了する。
 以上により、領域分割部71は、撮影画像から計測パターン像に対応する領域を示すラベル画像を生成することが可能になる。
 図4Aの説明に戻る。第1学習部73では、領域分割部71が生成した計測パターン領域を示すラベル画像と撮影画像の計測パターン像との組み合わせを教師データとして、画像生成モデル30の学習を行う。画像生成モデル30が生成する擬似計測パターン像と元の撮影画像の計測パターン像との誤差が一定以下に収束すれば、画像生成モデル30の学習を終了する。教師データの数を増やしてモデルの精度を上げるため、撮影画像の数を増やすのみならず、教師データの数を増やすための、既知のデータ拡張方法を適用することができる。
 また、この場合、画像生成モデル30が生成する擬似計測パターン像は、形状はラベル画像のパターン領域の形状に従う一方、画像としては元の撮影画像に相当する画像を出力することになる。これに対して、例えば、元の撮影画像よりも生成される擬似計測パターン像の輝度を向上させた画像が出力されるようにしてもよい。その場合には、第1学習部73で使用する教師データとして、画像強調処理部72により計測パターン領域が強調されるよう、撮影画像に対して画像処理を行った画像を用いればよい。他にも、第1学習部73において、撮影画像から計測パターン像に対応する領域を示すラベル画像を出力する学習モデルを学習し、画像生成モデル30は、ラベル画像を出力する学習モデルを使って撮影画像について出力されたラベルと撮影画像中において出力されたラベルに該当する箇所の画素の明度から、疑似画像を出力するようにしてもよい。また、第1学習部73では、記憶装置7に格納する画像生成モデル30の数を集約する等の理由により、複数の種類の計測パターン像を1つの画像生成モデルで学習するようにしてもよい。例えば、図1Aの例では、1つの画像生成モデル30で第1パターン像101と第2パターン像102とを纏めて学習してもよい。学習の終了した画像生成モデル30は記憶装置7に格納される。
 なお、画像生成モデル作成部62は、作成した画像生成モデル30の性能を確認するためのGUI(Graphical User Interface)を備えるとよい。図4Bに生成モデル確認画面130の例を示す。生成モデル確認画面130のラベル画像・参照画像ロードボタン131をユーザが押下することにより、撮影画像と当該撮影画像を領域分割して作成したラベル画像とを読み込み、それぞれ参照画像135、ラベル画像134として表示させる。この例では、参照画像135には2種類の計測パターン像が存在している。ユーザがAIモデルロードボタン132を押下することにより、対応する画像生成モデルがロードされる。例えば、第1の計測パターン領域137用の第1の画像生成モデル、第2の計測パターン領域138用の第2の画像生成モデルをロードする。その後、ユーザが実行ボタン133を押下することにより、第1の画像生成モデルを用いて第1の計測パターン領域137を示すラベル画像から擬似計測パターン像137bを生成し、第2の画像生成モデルを用いて第2の計測パターン領域138を示すラベル画像から擬似計測パターン像138bを生成する。生成された擬似画像136は参照画像135に並べて表示される。ユーザは、参照画像135の計測パターン像と生成された擬似画像136の擬似計測パターン像とを比較することにより、適切な擬似計測パターン像が生成されていることを確認することができる。
 図7に、画像変換モデル作成部63の機能ブロック図を示す。画像変換モデル作成部63は測長用画像変換モデル31を作成する機能ブロックである。画像変換モデル作成部63は、領域指定部81、領域分割部82、画像生成部83、第2学習部84を備える。領域指定部81、領域分割部82及び画像生成部83により、測長用画像変換モデル31の学習データとなる測長用画像を作成する。
 領域指定部81は、撮影画像から計測パターン像を含む領域を指定する。領域指定の方法は任意である。図8に示す指定ボックス81aにより、ユーザがマニュアルで領域指定してもよい。測長レシピにおいて定義された測長カーソルの座標情報を利用して領域指定してもよい。または、デバイスのレイアウト設計図を利用し、該当するパターンのレイアウトを膨張処理することによって領域指定してもよい。
 図10Aに領域指定を行うためのGUIの例を示す。領域指定画面90の画像ロードボタン91から領域指定処理を行う撮影画像を選択し、撮影画像94として表示させる。指定する領域を示す指定ボックス95が撮影画像94上に表示され、指定ボックス95の座標と大きさを決定する。ユーザは、マニュアル指定する場合には、マニュアル指定ボタン92を、測長レシピや他の情報により自動指定する場合には、自動指定ボタン93を押下する。マニュアル指定ボタン92を押下することで、図10Bに示すようなマニュアル指定画面96が表示される。マニュアル指定画面96において、指定ボックス95の形状、座標及びサイズが指定できる。また、撮影画像94上に表示されている指定ボックス95の大きさの調整も可能である。さらに、指定する領域の視認性の向上あるいは低減も調整できる。一方、自動指定ボタン93を押下することで、図10Cに示すような自動指定画面97が表示される。例えば、複数の自動指定方法の利用が可能である場合には、ユーザは適用する自動指定の方法を選択することができる。
 なお、領域指定画面90での領域指定は、指定ボックス95として示した矩形形状に限られず、楕円のような他の形状をとってもよく、また領域の中心座標等の他の指定の形態をとってもよい。このような場合、領域指定画面90は領域指定形態に応じたGUIを備える。他にも、領域指定画面90において、撮影画像からラベル画像134(図4B参照)を求めてユーザに表示し、ユーザがGUIを操作することで、ラベル画像134中の、例えば第1の計測パターン領域137を指定するようにしてもよい。
 図7の説明に戻る。領域分割部82は、このように領域指定された撮影画像中の領域を計測パターン領域とその他の領域とに分割する。領域分割部82の処理は、図4Aにおいて説明した領域分割部71の処理と同様であるため、重複する説明は省略する。なお、領域分割処理として、測長レシピを用いた領域分割処理を行う場合には、領域指定部81による領域指定を行うことなく、撮影画像を直接領域分割してもよい。領域分割部82の処理により、図9Aに示すラベル画像85を得る。ラベル画像85は、図8に示す撮影画像100を領域分割処理した画像であり、2つの計測パターン領域85aを含んでいる。
 画像生成部83は、領域分割部82が生成したラベル画像85と画像生成モデル30とを用いて、撮影画像に対応する測長用画像に相当する擬似撮影画像を生成する。図9Bにラベル画像85から生成する、撮影画像100に対応する測長用画像86の例を示す。計測パターン像86aは計測パターン領域85aについて画像生成モデル30により生成した擬似計測パターン像であり、例えば、背景86bは一様な単色画像とする。これに限らず、元の撮影画像100の計測パターン領域85a以外の領域の輝度を低下させて、擬似計測パターン像と合成してもよい。すなわち、測長用画像86における擬似計測パターン像のコントラストが、元の撮影画像100における計測パターン像101のコントラストよりも向上された像となっていればよい。
 例えば、画像生成部83では、測長用画像86において、元の撮影画像100の計測パターン領域85a以外の領域の輝度を低下させるとともに、計測パターン領域85a内の輝度を高くする調整を行い、両者を合成してもよい。この場合、測長用画像86における計測パターン像86aのコントラストは、元の撮影画像100における計測パターン像101のコントラストよりも大幅に向上される。計測パターン領域85a内の輝度を高くする調整は、ユーザが領域指定画面90等のGUIを用いて、どの程度輝度を高くするか等の操作ができるようにするとよい。
 第2学習部84では、撮影画像と画像生成部83が生成した測長用画像との組み合わせを教師データとして、測長用画像変換モデル31の学習を行う。測長用画像変換モデル31が生成する測長用画像と画像生成部83が生成した測長用画像との誤差が一定以下に収束すれば、測長用画像変換モデル31の学習を終了する。教師データの数を増やしてモデルの精度を上げるため、撮影画像の数を増やすのみならず、教師データの数を増やすための、既知のデータ拡張方法を適用することができる。
 なお、画像変換モデル作成部63は、作成した測長用画像変換モデル31の性能を確認するためのGUIを備えるとよい。図11に変換モデル確認画面140の例を示す。変換モデル確認画面140の撮影画像ロードボタン141をユーザが押下することにより、撮影画像を読み込み、入力画像144として表示させる。この例では、入力画像144には計測パターン像146とそれに近接する非計測パターン像147とが存在している。ユーザがAIモデルロードボタン142を押下することにより、測長用画像変換モデルがロードされる。その後、ユーザが実行ボタン143を押下することにより、測長用画像変換モデルにより入力画像144を変換した測長用画像145が表示される。ユーザは、入力画像144と変換された測長用画像145とを比較することにより、適切な測長用画像が生成されていることを確認することができる。
 続いて、測長システムによる測長処理について説明する。測長システムのコンピュータシステム1の記憶装置3には、学習の終了した測長用画像変換モデル31と測長レシピ32が格納されている(図2参照)。制御装置12はコンピュータシステム1から読み出された測長レシピ32の情報を用いて、SEM11により例えば半導体ウエハの画像を取得する。SEM11の撮影した撮影画像は制御装置12から撮影画像入力部21により、コンピュータシステム1に取り込まれる。
 図12に測長用画像変換部22の機能ブロック図を示す。測長用画像変換部22は画像変換部150を備える。画像変換部150は測長用画像変換モデル31を用いて、図1Aに示したような撮影画像を図1Bに示したような測長用画像に変換する。その後、測長部23が、測長用画像変換部22によって変換された測長用画像について、測長レシピ32に定義された内容にしたがって、寸法計測を行うことによって、計測パターン像の近傍にその測長を妨げる非計測パターン像が存在するような場合であっても、測長用画像では、非計測パターン像に対する計測パターン像のコントラストが、元の撮影画像よりも向上されていることにより、誤計測を抑えることができる。また、測長用画像も機械学習を行った測長用画像変換モデルを用いて行うことで、高速かつ自動的な画像変換が可能になっている。
 なお、本開示は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本開示を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
1,5:コンピュータシステム、2,6:演算処理部、3,7:記憶装置、11:SEM、12:制御装置、13,16:入力装置、14,17:ディスプレイ、15:画像記憶媒体、21:撮影画像入力部、22:測長用画像変換部、23:測長部、30:画像生成モデル、31:測長用画像変換モデル、32:測長レシピ、61:撮影画像入力部、62:画像生成モデル作成部、63:画像変換モデル作成部、71:領域分割部、72:画像強調処理部、73:第1学習部、74:測長エッジ検出部、75:領域特定部、76:領域抽出部、74a,75a,76a:処理結果、74b:ライン、74c:エッジ、75b:パターン境界、76b:計測パターン領域、77:測長エッジ学習部、78:測長エッジ推論部、77a,77b,77c:教師データ、78a,78b,78c:推論エッジ、81:領域指定部、82:領域分割部、83:画像生成部、84:第2学習部、81a:指定ボックス、85:ラベル画像、85a:計測パターン領域、86:測長用画像、86a:計測パターン像、86b:背景、90:領域指定画面、91:画像ロードボタン、92:マニュアル指定ボタン、93:自動指定ボタン、94:撮影画像、95:指定ボックス、96:マニュアル指定画面、97:自動指定画面、100:撮影画像、101:第1パターン像(計測パターン像)、102:第2パターン像(非計測パターン像)、103:ライン、111,112:輝度プロファイル、120:測長用画像、121:第1パターン像、122:第2パターン像、130:生成モデル確認画面、131:ラベル画像・参照画像ロードボタン、132:AIモデルロードボタン、133:実行ボタン、134:ラベル画像、135:参照画像、136:擬似画像、137:第1の計測パターン領域、137b:第1の擬似計測パターン像、138:第2の計測パターン領域、138b:第2の擬似計測パターン像、140:変換モデル確認画面、141:撮影画像ロードボタン、142:AIモデルロードボタン、143:実行ボタン、144:入力画像、145:測長用画像、146:計測パターン像、147:非計測パターン像、150:画像変換部。

Claims (19)

  1.  試料上に形成されたパターンの寸法計測を行う測長システムであって、
     測長用画像変換部と測長部とを備えるコンピュータシステムを有し、
     前記測長用画像変換部は、前記試料を撮影した計測対象撮影画像を、測長用画像変換モデルにより計測対象測長用画像に変換し、
     前記測長部は、前記計測対象測長用画像に含まれる計測パターン像の寸法を計測し、
     前記測長用画像変換モデルは、前記試料を撮影した学習用撮影画像と当該学習用撮影画像に対応する学習用測長用画像との組み合わせである教師データを用いて学習されており、
     前記学習用測長用画像における前記計測パターン像と前記計測パターン像に近接して存在する非計測パターン像とのコントラストは、前記学習用撮影画像における前記計測パターン像と前記非計測パターン像とのコントラストよりも向上されている、または前記学習用測長用画像では、前記学習用撮影画像における前記非計測パターン像が削除されていることを特徴とする測長システム。
  2.  請求項1において、
     前記試料を撮影する荷電粒子線装置を備え、
     前記コンピュータシステムは、前記荷電粒子線装置が撮影した撮影画像を取り込む撮影画像入力部を備えることを特徴とする測長システム。
  3.  パターンが形成された試料を撮影した撮影画像を測長用画像に変換する測長用画像変換モデルを作成するモデル作成システムであって、
     画像変換モデル作成部を備えるコンピュータシステムを有し、
     前記画像変換モデル作成部は領域分割部、画像生成部及び学習部を備え、
     前記画像変換モデル作成部の前記領域分割部は、前記撮影画像に含まれる計測パターン像の領域である計測パターン領域と前記計測パターン領域以外の背景領域とに分割したラベル画像を生成し、
     前記画像変換モデル作成部の前記画像生成部は、前記ラベル画像の前記計測パターン領域に擬似計測パターン像を生成した擬似撮影画像を作成し、
     前記画像変換モデル作成部の前記学習部は、前記撮影画像と前記擬似撮影画像との組み合わせである教師データを用いて、前記測長用画像変換モデルの学習を行い、
     前記擬似撮影画像における前記擬似計測パターン像と、前記背景領域に存在し、前記擬似計測パターン像に近接して存在する非計測パターン像とのコントラストは、前記撮影画像における前記計測パターン像と前記非計測パターン像とのコントラストよりも向上されている、または前記擬似撮影画像では、前記撮影画像における前記非計測パターン像が削除されていることを特徴とするモデル作成システム。
  4.  請求項3において、
     前記画像変換モデル作成部の前記領域分割部は、測長エッジ検出部、領域特定部及び領域抽出部を備え、
     前記測長エッジ検出部は、前記計測パターン像のエッジを検出し、
     前記領域特定部は、検出された前記エッジを補間して前記計測パターン像のパターン境界を特定し、
     前記領域抽出部は、特定された前記パターン境界に囲まれた領域を前記計測パターン領域として抽出することを特徴とするモデル作成システム。
  5.  請求項4において、
     前記コンピュータシステムは、前記計測パターン像の測長条件を表すデータである測長レシピを記憶しており、
     前記測長エッジ検出部は測長エッジ学習部及び測長エッジ推論部を備え、インタラクティブ機械学習により前記測長レシピに定義された測長カーソル内における前記計測パターン像のエッジを検出し、
     前記測長エッジ学習部は、前記計測パターン像のエッジを示す教師データにより学習モデルの学習を行い、
     前記測長エッジ推論部は、前記学習モデルにより前記測長カーソル内における前記計測パターン像のエッジの推論を行い、
     前記学習モデルにより推論された前記計測パターン像のエッジのうち、前記計測パターン像の境界から乖離した前記計測パターン像のエッジを削除して新たな教師データとして、前記測長エッジ学習部による前記学習モデルの学習を行うことを特徴とするモデル作成システム。
  6.  請求項3において、
     前記画像変換モデル作成部はさらに前記撮影画像に含まれる前記計測パターン像が存在する領域を指定する領域指定部を備えることを特徴とするモデル作成システム。
  7.  請求項3において、
     前記コンピュータシステムはさらに画像生成モデル作成部を備え、
     前記画像変換モデル作成部の前記画像生成部は、前記画像生成モデル作成部が作成した画像生成モデルにより、前記ラベル画像の前記計測パターン領域に前記擬似計測パターン像を生成することを特徴とするモデル作成システム。
  8.  請求項7において、
     前記画像生成モデル作成部は、領域分割部及び学習部を備え、
     前記画像生成モデル作成部の前記領域分割部は、前記撮影画像に含まれる前記計測パターン像の領域である計測パターン領域と前記計測パターン領域以外の背景領域とに分割したラベル画像を生成し、
     前記画像生成モデル作成部の前記学習部は、前記ラベル画像と前記撮影画像または前記撮影画像に前記計測パターン像を強調する画像処理を行った画像との組み合わせである教師データを用いて、前記画像生成モデルの学習を行うことを特徴とするモデル作成システム。
  9.  請求項8において、
     前記画像生成モデル作成部の前記領域分割部は、測長エッジ検出部、領域特定部及び領域抽出部を備え、
     前記測長エッジ検出部は、前記計測パターン像のエッジを検出し、
     前記領域特定部は、検出された前記エッジを補間して前記計測パターン像のパターン境界を特定し、
     前記領域抽出部は、特定された前記パターン境界に囲まれた領域を前記計測パターン領域として抽出することを特徴とするモデル作成システム。
  10.  請求項9において、
     前記コンピュータシステムは、前記計測パターン像の測長条件を表すデータである測長レシピを記憶しており、
     前記測長エッジ検出部は測長エッジ学習部及び測長エッジ推論部を備え、インタラクティブ機械学習により前記測長レシピに定義された測長カーソル内における前記計測パターン像のエッジを検出し、
     前記測長エッジ学習部は、前記計測パターン像のエッジを示す教師データにより学習モデルの学習を行い、
     前記測長エッジ推論部は、前記学習モデルにより前記測長カーソル内における前記計測パターン像のエッジの推論を行い、
     前記学習モデルにより推論された前記計測パターン像のエッジのうち、前記計測パターン像の境界から乖離した前記計測パターン像のエッジを削除して新たな教師データとして、前記測長エッジ学習部による前記学習モデルの学習を行うことを特徴とするモデル作成システム。
  11.  コンピュータシステムを備えた測長システムにより、試料上に形成されたパターンの寸法計測を行う測長方法であって、
     前記コンピュータシステムは、測長用画像変換部と測長部とを備え、
     前記測長用画像変換部は、前記試料を撮影した計測対象撮影画像を、測長用画像変換モデルにより計測対象測長用画像に変換し、
     前記測長部は、前記計測対象測長用画像に含まれる計測パターン像の寸法を計測し、
     前記測長用画像変換モデルは、前記試料を撮影した学習用撮影画像と当該学習用撮影画像に対応する学習用測長用画像との組み合わせである教師データを用いて学習されており、
     前記学習用測長用画像における前記計測パターン像と前記計測パターン像に近接して存在する非計測パターン像とのコントラストは、前記学習用撮影画像における前記計測パターン像と前記非計測パターン像とのコントラストよりも向上されている、または前記学習用測長用画像では、前記学習用撮影画像における前記非計測パターン像が削除されていることを特徴とする測長方法。
  12.  請求項11において、
     前記コンピュータシステムはさらに前記測長用画像変換モデルを作成する画像変換モデル作成部を備え、
     前記画像変換モデル作成部は領域分割部、画像生成部及び学習部を備え、
     前記画像変換モデル作成部の前記領域分割部は、前記学習用撮影画像に含まれる前記計測パターン像の領域である計測パターン領域と前記計測パターン領域以外の背景領域とに分割したラベル画像を生成し、
     前記画像変換モデル作成部の前記画像生成部は、前記学習用測長用画像として、前記ラベル画像の前記計測パターン領域に擬似計測パターン像を生成した擬似撮影画像を作成し、
     前記画像変換モデル作成部の前記学習部は、前記学習用撮影画像と前記擬似撮影画像との組み合わせである教師データを用いて、前記測長用画像変換モデルの学習を行うことを特徴とする測長方法。
  13.  請求項12において、
     前記画像変換モデル作成部の前記領域分割部は、測長エッジ検出部、領域特定部及び領域抽出部を備え、
     前記測長エッジ検出部は、前記計測パターン像のエッジを検出し、
     前記領域特定部は、検出された前記エッジを補間して前記計測パターン像のパターン境界を特定し、
     前記領域抽出部は、特定された前記パターン境界に囲まれた領域を前記計測パターン領域として抽出することを特徴とする測長方法。
  14.  請求項13において、
     前記コンピュータシステムは、前記計測パターン像の測長条件を表すデータである測長レシピを記憶しており、
     前記測長エッジ検出部は測長エッジ学習部及び測長エッジ推論部を備え、インタラクティブ機械学習により前記測長レシピに定義された測長カーソル内における前記計測パターン像のエッジを検出し、
     前記測長エッジ学習部は、前記計測パターン像のエッジを示す教師データにより学習モデルの学習を行い、
     前記測長エッジ推論部は、前記学習モデルにより前記測長カーソル内における前記計測パターン像のエッジの推論を行い、
     前記学習モデルにより推論された前記計測パターン像のエッジのうち、前記計測パターン像の境界から乖離した前記計測パターン像のエッジを削除して新たな教師データとして、前記測長エッジ学習部による前記学習モデルの学習を行うことを特徴とする測長方法。
  15.  請求項12において、
     前記画像変換モデル作成部はさらに前記学習用撮影画像に含まれる前記計測パターン像が存在する領域を指定する領域指定部を備えることを特徴とする測長方法。
  16.  請求項12において、
     前記コンピュータシステムはさらに画像生成モデル作成部を備え、
     前記画像変換モデル作成部の前記画像生成部は、前記画像生成モデル作成部が作成した画像生成モデルにより、前記ラベル画像の前記計測パターン領域に擬似計測パターン像を生成することを特徴とする測長方法。
  17.  請求項16において、
     前記画像生成モデル作成部は、領域分割部及び学習部を備え、
     前記画像生成モデル作成部の前記領域分割部は、前記学習用撮影画像に含まれる前記計測パターン像の領域である計測パターン領域と前記計測パターン領域以外の背景領域とに分割したラベル画像を生成し、
     前記画像生成モデル作成部の前記学習部は、前記ラベル画像と前記学習用撮影画像または前記学習用撮影画像に前記計測パターン像を強調する画像処理を行った画像との組み合わせである教師データを用いて、前記画像生成モデルの学習を行うことを特徴とする測長方法。
  18.  請求項17において、
     前記画像生成モデル作成部の前記領域分割部は、測長エッジ検出部、領域特定部及び領域抽出部を備え、
     前記測長エッジ検出部は、前記計測パターン像のエッジを検出し、
     前記領域特定部は、検出された前記エッジを補間して前記計測パターン像のパターン境界を特定し、
     前記領域抽出部は、特定された前記パターン境界に囲まれた領域を前記計測パターン領域として抽出することを特徴とする測長方法。
  19.  請求項18において、
     前記コンピュータシステムは、前記計測パターン像の測長条件を表すデータである測長レシピを記憶しており、
     前記測長エッジ検出部は測長エッジ学習部及び測長エッジ推論部を備え、インタラクティブ機械学習により前記測長レシピに定義された測長カーソル内における前記計測パターン像のエッジを検出し、
     前記測長エッジ学習部は、前記計測パターン像のエッジを示す教師データにより学習モデルの学習を行い、
     前記測長エッジ推論部は、前記学習モデルにより前記測長カーソル内における前記計測パターン像のエッジの推論を行い、
     前記学習モデルにより推論された前記計測パターン像のエッジのうち、前記計測パターン像の境界から乖離した前記計測パターン像のエッジを削除して新たな教師データとして、前記測長エッジ学習部による前記学習モデルの学習を行うことを特徴とする測長方法。
PCT/JP2022/028873 2022-07-27 2022-07-27 測長システム、モデル作成システム及び測長方法 WO2024023955A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/028873 WO2024023955A1 (ja) 2022-07-27 2022-07-27 測長システム、モデル作成システム及び測長方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/028873 WO2024023955A1 (ja) 2022-07-27 2022-07-27 測長システム、モデル作成システム及び測長方法

Publications (1)

Publication Number Publication Date
WO2024023955A1 true WO2024023955A1 (ja) 2024-02-01

Family

ID=89705652

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/028873 WO2024023955A1 (ja) 2022-07-27 2022-07-27 測長システム、モデル作成システム及び測長方法

Country Status (1)

Country Link
WO (1) WO2024023955A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0721372A (ja) * 1993-06-15 1995-01-24 Nikon Corp 画像検出装置
JP2011186678A (ja) * 2010-03-05 2011-09-22 Toshiba Teli Corp 画像処理装置および画像処理プログラム
JP2020186959A (ja) * 2019-05-13 2020-11-19 株式会社日立ハイテク パターン評価システム及びパターン評価方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0721372A (ja) * 1993-06-15 1995-01-24 Nikon Corp 画像検出装置
JP2011186678A (ja) * 2010-03-05 2011-09-22 Toshiba Teli Corp 画像処理装置および画像処理プログラム
JP2020186959A (ja) * 2019-05-13 2020-11-19 株式会社日立ハイテク パターン評価システム及びパターン評価方法

Similar Documents

Publication Publication Date Title
TWI767108B (zh) 用於檢查半導體試樣的方法與系統及在其上紀錄相關指令的電腦可讀取媒體
TWI737659B (zh) 半導體試樣的基於深度學習之檢查的方法及其系統
US8655050B2 (en) Pattern generating apparatus and pattern shape evaluating apparatus
JP4585926B2 (ja) パターンレイヤーデータ生成装置、それを用いたパターンレイヤーデータ生成システム、半導体パターン表示装置、パターンレイヤーデータ生成方法、及びコンピュータプログラム
JP2019091249A (ja) 欠陥検査装置、欠陥検査方法、及びそのプログラム
JP6872670B2 (ja) 寸法計測装置、寸法計測プログラム及び半導体製造システム
US11663713B2 (en) Image generation system
JPWO2021024402A1 (ja) 寸法計測装置、寸法計測方法及び半導体製造システム
TWI766303B (zh) 計測系統、產生在進行包含有特定之構造的半導體之畫像計測時所使用的學習模型之方法、以及儲存有用以使電腦實行產生在進行包含有特定之構造的半導體之畫像計測時所使用的學習模型之處理之程式的記錄媒體
WO2024023955A1 (ja) 測長システム、モデル作成システム及び測長方法
US9224226B2 (en) Image display device for direct drawing apparatus, and recording medium
WO2020121739A1 (ja) 画像マッチング方法、および画像マッチング処理を実行するための演算システム
JPH08335268A (ja) 領域抽出方法
WO2021140823A1 (ja) パターンエッジ検出方法、パターンエッジ検出装置、パターンエッジ検出をコンピュータに実行させるためのプログラムが記録された記録媒体
WO2021260765A1 (ja) 寸法計測装置、半導体製造装置及び半導体装置製造システム
JP2001266176A (ja) 画像処理装置および画像処理方法、並びに記録媒体
WO2023248355A1 (ja) 不適合検出装置、および、不適合検出方法
JP2020123064A (ja) 画像マッチング判定方法、画像マッチング判定装置、および画像マッチング判定方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2021215006A1 (ja) 解析装置及び解析プログラム
WO2021215005A1 (ja) 解析装置及び解析プログラム
JP7392166B2 (ja) 画像生成装置、画像生成方法およびプログラム
JP7451384B2 (ja) パターンエッジ検出方法、パターンエッジ検出装置、パターンエッジ検出をコンピュータに実行させるためのプログラムが記録された記録媒体
JP2020123034A (ja) 画像マッチング支援方法、画像マッチング支援装置、および画像マッチング支援方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2021166574A1 (ja) 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体
JPH10320556A (ja) 電子画像の領域判定方法、電子画像の領域判定システム、電子画像の領域判定システムを備えたsem装置、及び電子画像の領域判定プログラムを格納したコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22953050

Country of ref document: EP

Kind code of ref document: A1