WO2024053043A1 - 寸法計測システム、推定システム、および寸法計測方法 - Google Patents

寸法計測システム、推定システム、および寸法計測方法 Download PDF

Info

Publication number
WO2024053043A1
WO2024053043A1 PCT/JP2022/033680 JP2022033680W WO2024053043A1 WO 2024053043 A1 WO2024053043 A1 WO 2024053043A1 JP 2022033680 W JP2022033680 W JP 2022033680W WO 2024053043 A1 WO2024053043 A1 WO 2024053043A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimension measurement
line
image
edge
reference point
Prior art date
Application number
PCT/JP2022/033680
Other languages
English (en)
French (fr)
Inventor
淳 澤田
昭朗 池内
Original Assignee
株式会社日立ハイテク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ハイテク filed Critical 株式会社日立ハイテク
Priority to PCT/JP2022/033680 priority Critical patent/WO2024053043A1/ja
Publication of WO2024053043A1 publication Critical patent/WO2024053043A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Definitions

  • the present disclosure relates to a technique for measuring dimensions of a device structure, etc. from an image taken of a sample such as a semiconductor device.
  • Scanning electron microscopy is a technology for measuring the dimensions of device structures, etc. (sometimes referred to as length measurement) from images taken of samples such as semiconductor devices, and for observing, analyzing, evaluating, and inspecting samples.
  • SEM scanning electron microscopes
  • TEM transmission electron microscopes
  • a computer system built into or externally connected to the charged particle beam device processes images taken by the charged particle beam device to measure the dimensions of a target structure or pattern (for example, a trench) such as a device structure.
  • a computer system detects the contour of a structure from a cross-sectional image of a cross section of a semiconductor device (for example, a cross section obtained by cleavage), and measures dimensions (for example, trench width and trench depth) based on the contour.
  • Patent Document 1 describes, as a "pattern measurement method and measurement system using a display microscope image", "a step of setting an edge reference line on the side of a pattern in a microscope image”, and "a step of setting a plurality of edge reference lines along the edge reference line”.
  • ⁇ Step of setting a point'' ⁇ Step of integrating the brightness profiles near the search line that intersects the edge reference line at one edge point, and calculating the edge position for one edge point'', ⁇ Calculating each for multiple edge points.
  • '' ⁇ a step of calculating an approximation line of a side portion from the edge position determined'' and ⁇ a step of measuring the shape of a pattern using the approximation line'' (claim 1).
  • Patent No. 4865147 (corresponding U.S. Patent No. 7054506)
  • a computer system As a technology such as a dimension measurement system that measures the dimensions of a target structure based on detection of the outline of the target structure from an image captured using the charged particle beam device (for example, a cross-sectional image), firstly, a computer system is used. There is a technology that automatically detects contours and measures dimensions through image processing such as template matching. Secondly, there is a technique in which a person manually inputs and sets information necessary for contour detection and dimension measurement, and a computer system realizes contour detection and dimension measurement based on the information.
  • the second technique requires a person to set the information necessary for contour detection and dimension measurement.
  • the user sets information such as "edge reference line” and "edge point.”
  • image processing etc. by a computer system can be facilitated.
  • the effort required for manual operation by a person increases, and work efficiency may decrease.
  • the purpose of the present disclosure is to provide a technology for a dimension measurement system that measures the dimensions of a target structure from a captured image using the charged particle beam device described above, while providing a system in which a person inputs and sets some information.
  • An object of the present invention is to provide a technology that can reduce the time and effort required for manual operations and improve work efficiency.
  • Another object is to provide a technique that can reduce the influence of errors caused by manual operations.
  • a typical embodiment of the present disclosure has the configuration shown below.
  • a dimension measurement system is a dimension measurement system that measures the dimensions of a structure in an image, and includes a processor and a memory resource that stores data processed by the processor, and the processor
  • a screen including the image and a graphical user interface (GUI) is displayed on the user, and one area of the structure to be measured is determined based on the user's manual operation on the image on the screen.
  • GUI graphical user interface
  • specifying a reference line for specifying the part acquiring positional information of the reference line, and specifying an area of the structure to be dimensioned on the image on the screen based on manual operation by the user; specify a reference point included in the area for measuring the size, obtain positional information of the reference point, and use the reference line and the reference point to determine the area of the structure whose dimensions are to be measured in the image.
  • a contour or an edge of the object is detected, and a dimension of the structure to be measured in the image is measured using information about the detected contour or edge.
  • An estimation system is an estimation system for estimating a structure in an image, and includes a processor and a memory resource for storing data processed by the processor, and the processor provides the user with the displaying a screen including an image and a graphical user interface (GUI), and identifying a part of the area of the structure as a dimension measurement target on the image on the screen based on a manual operation by the user; specify a reference line for the measurement, obtain position information of the reference line, and, based on the user's manual operation, specify a reference point included in the area for specifying the area of the structure to be dimensioned.
  • GUI graphical user interface
  • the reference point specify the reference point, obtain position information of the reference point, accumulate data including the image, the reference line, and the reference point as learning data, and use the learning data to determine the reference line from the input image. and training a machine learning learning model for estimating the reference point, inputting an input image to be estimated to the learning model, and providing information on the estimated reference line and the estimation as an estimation result by the learning model. The information on the reference point thus determined is output.
  • a person inputs and sets some information regarding a technology such as a dimension measurement system that measures the dimensions of an object from a captured image using the charged particle beam device. While using this method, it is possible to reduce the effort and burden of manual operations and improve work efficiency. Furthermore, the influence of errors caused by manual operations can be reduced. Problems, configurations, effects, etc. other than those described above are shown in the detailed description.
  • FIG. 1 is a diagram showing a configuration example of a system including the dimension measurement system of Embodiment 1.
  • FIG. 1 is a diagram illustrating a configuration example of a computer system of a dimension measurement system according to a first embodiment;
  • FIG. 2 is a diagram illustrating a configuration example of a SEM in Embodiment 1.
  • FIG. 1 is a diagram showing the structure, dimensions, etc. of a semiconductor device in Embodiment 1.
  • FIG. FIG. 3 is a diagram showing a processing flow in the dimension measurement method according to the first embodiment.
  • FIG. 3 is a diagram showing an example of a GUI screen in the first embodiment.
  • FIG. 3 is a diagram showing an example of definition information in the first embodiment.
  • FIG. 3 is a diagram illustrating an example of a cross-sectional image and interface selection GUI in the first embodiment.
  • FIG. 3 is a diagram illustrating an example of a cross-sectional image and a region selection GUI in the first embodiment.
  • FIG. 3 is a diagram showing an example of a contour detection algorithm in a cross-sectional image in Embodiment 1;
  • FIG. 3 is a diagram showing an example of a contour detection algorithm in a cross-sectional image in Embodiment 1;
  • FIG. 3 is a diagram showing a graph of a line profile in the first embodiment.
  • 6 is a diagram illustrating an example of applying the second rule to edge candidate extraction in the first embodiment;
  • FIG. 6 is a diagram illustrating an example of combinations of edge candidates in Embodiment 1.
  • FIG. 3 is a diagram showing an example of detected contours (edge points and contour lines) in Embodiment 1; 6 is a diagram illustrating an example of contour detection regarding a mask in Embodiment 1.
  • FIG. 3 is a diagram showing an example of contour detection regarding pillars in the first embodiment.
  • FIG. 4 is a diagram illustrating an example of measurement target dimensions in the first embodiment.
  • 5 is a diagram showing an example of measuring the area of a structure in Embodiment 1.
  • FIG. 6 is a diagram showing an example of a GUI screen that displays dimension measurement results in the first embodiment.
  • FIG. FIG. 7 is a diagram illustrating an example of a cross-sectional image etc. when dust is attached in the first embodiment.
  • FIG. 4 is a diagram illustrating an example of an image of an etching target pattern and an image after actual processing in Embodiment 1; 6 is a diagram illustrating an example of collectively specifying a plurality of area reference points and the like within a cross-sectional image in the first embodiment;
  • FIG. FIG. 3 is a diagram showing a first example of setting two interface reference lines in a cross-sectional image in the first embodiment.
  • 7 is a diagram showing a second example of setting two interface reference lines in a cross-sectional image in the first embodiment.
  • FIG. 7 is a diagram illustrating an example of a GUI screen regarding an interface reference line adjustment function as a first modification of the first embodiment;
  • FIG. 7 is a diagram illustrating a cross-sectional image and the like when a reference line other than an interface is used as a reference line as a second modification of the first embodiment.
  • 7 is a diagram illustrating another method of setting a line profile as a third modification of the first embodiment.
  • FIG. 7 is a diagram illustrating a method of setting a dimension measurement target line using area reference points as a fourth modification of the first embodiment;
  • FIG. 7 is a diagram showing a method for setting on/off of a dimension measurement target using area reference points as a fifth modification of the first embodiment.
  • 7 is a diagram illustrating a method for setting a horizontal line profile in the dimension measurement system of Embodiment 2.
  • FIG. 7 is a diagram illustrating a method for setting a line profile in the radial direction in the dimension measurement system 2 according to the third embodiment.
  • FIG. 7 is a diagram showing the input/output configuration of a learning model in Embodiment 4;
  • FIG. 7 is a diagram showing the configuration of a learning model in Embodiment 4;
  • FIG. 7 is a diagram showing a learning processing flow in Embodiment 4;
  • FIG. 7 is a diagram showing an example of a GUI screen of an estimation function in Embodiment 4;
  • FIG. 7 is a diagram showing the input/output configuration of a learning model in a modification of the fourth embodiment.
  • FIG. 7 is a diagram showing the input/output configuration of a learning model in a modification of the fourth embodiment.
  • FIG. 7 is a diagram showing an example of a GUI screen in a modification of the fourth embodiment.
  • FIG. 7 is a diagram showing a configuration example of a computer system of a dimension measurement system according to a fifth embodiment.
  • FIG. 7 is a diagram showing a dimension measurement processing flow in Embodiment 5.
  • FIG. 7 is a diagram illustrating an example of setting points and lines to support contour detection on an image in Comparative Example 1 with respect to the embodiment.
  • FIG. 7 is a diagram illustrating an example of setting points and lines to support dimension measurement on an image in Comparative Example 2 with respect to the embodiment.
  • the main body for these is the processor or the controller made up of the processor, etc. , equipment, computers, systems, etc.
  • a computer executes processing according to a program read onto a memory, using resources such as a memory and a communication interface as appropriate by a processor. Thereby, predetermined functions, processing units, etc. are realized.
  • the processor is composed of, for example, a semiconductor device such as a CPU/MPU or a GPU.
  • the processing is not limited to software program processing, but can also be implemented using a dedicated circuit. As the dedicated circuit, FPGA, ASIC, CPLD, etc. can be applied.
  • the program may be installed in advance as data on the target computer, or may be distributed as data from the program source to the target computer.
  • the program source may be a program distribution server on a communication network or a non-transitory computer-readable storage medium such as a memory card or disk.
  • a program may be composed of multiple modules.
  • a computer system may be configured by multiple devices.
  • the computer system may be configured with a client/server system, a cloud computing system, an IoT system, etc.
  • Various types of data and information are configured, for example, in a structure such as a table or a list, but are not limited thereto. Expressions such as identification information, identifier, ID, name, number, etc. can be replaced with each other.
  • Semiconductor devices are generally manufactured by combining and repeating processes such as lithography, etching, film formation, and planarization. For example, in the etching process, as the difficulty of processing increases, efforts are being made to optimize etching conditions by combining post-processing dimensional data and machine learning, which requires technology that can measure precise dimensions at high speed and in large quantities. It is said that
  • Charged particle beam devices such as SEM and TEM are often used as a method for precise dimension measurement. This is because the charged particle beam device uses a charged particle beam with a wavelength shorter than that of light, so it is possible to observe with high resolution fine structures on the sub-nm order that cannot be observed with an optical microscope.
  • TEM observation requires pre-processing with a focused ion beam (FIB). Therefore, if it is desired to observe the cross section and measure the dimensions in a shorter time, a method of observing the cross section of the etched sample by cleavage using an SEM may be selected.
  • FIB focused ion beam
  • the structure to be measured may partially collapse due to damage or contamination during cleavage, or dust may adhere to the structure that was originally formed in the etching process. A different structure may be observed.
  • dimensions are measured for a structure having such artifacts due to cleavage, there is a risk that unintended feedback may be provided when feeding back the dimensional measurement results to etching conditions. Therefore, it is necessary to subject only structures that have been normally cleaved, in other words, only structures that exclude parts such as crumbling and dirt, to be subject to dimension measurement.
  • the processing depth (for example, trench depth) of the etched layer is often measured using the interface between the mask layer and the etched layer (for example, the Si layer) as a reference. Therefore, detection of the position of such an interface (in other words, material interface, reference interface) is also important.
  • a white shadow-like part (hereinafter referred to as a "white band").
  • This white band is a portion of a pixel with high brightness on the image, and is caused by, for example, the influence of secondary electrons from a structure in the depth direction with respect to the captured image. Therefore, it is difficult to automatically detect the outline of the device structure from the image by image processing such as binarization. That is, there are issues regarding the efficiency and accuracy of detecting the contour or edge of a device structure.
  • Patent Document 1 describes an example in which the cross-sectional structure of a magnetic head device is observed using a SEM, and dimensions such as the height and side wall angle of the structure are measured.
  • Patent Document 1 for a single magnetic head structure, by specifying an edge reference line and a plurality of edge points on a SEM image by user input, an approximate straight line for each side of the structure is calculated, and the dimensions are calculated. It is stated that it is used for measurement and calculating the angle of the side wall of a structure.
  • the number of input operations by the user is large, which is time-consuming. Become.
  • the number of input operations by the user is equal to the product of the number of target structures and the number of types of measurement dimensions (e.g. width, height, etc.). Quantity is required.
  • the burden on the user increases and work efficiency decreases.
  • the contour detection process is difficult, and efficient and accurate methods are difficult. Contour detection is difficult. Therefore, as the second technique described above, there is a method in which a user manually inputs and sets some information for supporting contour detection and dimension measurement processing by a computer system with respect to a cross-sectional SEM image. For example, a reference line or point is specified and set for the cross-sectional image. A computer system performs contour detection and dimension measurement processing on the cross-sectional image using information such as lines and points that have been set.
  • Such a method is a method (a general term including methods, devices, etc.) that combines manual operation and automatic processing, and may be referred to as a semi-automatic method for the sake of explanation.
  • FIG. 43 shows an explanatory diagram of the technique of Comparative Example 1 with respect to the embodiment.
  • the technology of Comparative Example 1 corresponds to the technology of Patent Document 1.
  • points, lines, etc. that support contour detection are set on a cross-sectional image by a user's manual operation.
  • FIG. 43A is a schematic diagram of an example of a cross-sectional image, in which pillars 4301 and trenches 4302 each having a roughly trapezoidal shape are shown on a vacuum background (schematically shown in white, but black in terms of brightness). It has an area of FIG. 43B shows an example in which the user manually inputs and sets points and lines to support contour detection in the image shown in FIG. 43A.
  • the user has set edge points ep1 to ep6 on the sides of the trapezoid of the pillar 4301.
  • the user has set the edge lines EL1 to EL3 (corresponding to the "edge reference line” in Patent Document 1) on the sides of the trapezoid of the pillar 4301.
  • a straight line connecting the edge point ep1, which is the starting point, and the edge point ep2, which is the ending point becomes the edge line EL1.
  • the computer system determines the edges forming the outline of the pillar 4301 using the set edge points ep1 to ep6 or edge lines EL1 to EL3. For example, the computer system detects the edge of the pillar 4301 by referring to the brightness profile in the vertical direction on the edge line EL1 and searching for brightness on the brightness profile. The computer system determines an approximate straight line regarding the contour by connecting the plurality of detected edges. The computer system measures the dimensions of the structure pattern, such as the width and height of the pillar 4301, based on the detected outline information.
  • the number of manual operations and inputs required by the user is to input and set at least two edge points for each side of a structure in the image, for example, a trapezoidal pattern. Therefore, as the number of structures such as the pillar 4301 and the types of dimensions to be measured increase, the effort required for manual operations by the user increases. Furthermore, the more complicated the pattern shape, the more time and effort it takes.
  • Comparative Example 1 can be considered to be a technique in which the user inputs and sets lines, points, etc. for support, as if tracing the outline or edge of a structure pattern in an image. Such techniques require a lot of manual operation. Further, since the operation is manual, it is not always possible for the user to accurately set support lines, points, etc. for the outline or edge of the structure pattern on the image, and errors occur for each user.
  • FIG. 44 shows Comparative Example 2 as another prior art example.
  • a user manually sets lines, points, etc. to support dimension measurement on a cross-sectional image.
  • FIG. 44A shows a schematic diagram of an example of a cross-sectional image, and includes, for example, four pillars 4401 and four trenches 4402.
  • the user directly specifies the location where the dimension measurement is to be performed, that is, the position where the measurement target dimension is defined, for the structure pattern in the cross-sectional image, for example, the pillar 4401 and the trench 4402 having a roughly trapezoidal shape. manually input and set.
  • (B) in FIG. 44 shows a case where the trench depth is measured.
  • the two end points (points a1 and a2) that define the trench depth are used as the dimension measurement target location.
  • the user decides and specifies it. For example, this is an operation such as clicking a mouse point by point.
  • Point a1 is a point pointing to the top of trench 4402
  • point a2 is a point pointing to the bottom of trench 4402.
  • One end of the dimension measurement target line 4403 is point a1, and the other end is point a2.
  • the computer system measures the length of the dimension measurement target line 4403 defined by the two specified points (points a1 and a2) as the trench depth.
  • the two points are the starting and ending points of the dimension.
  • (C) of FIG. 44 shows that for each pillar 4401, the two ends that define the pillar width (the corresponding dimension measurement line 4404) are to be measured.
  • the user determines and specifies the points (points b1, b2).
  • Point b1 is a point on the left side wall of pillar 4401
  • point b2 is a point on the right side wall of pillar 4401.
  • One end of the dimension measurement target line 4404 is point b1, and the other end is point b2.
  • the computer system measures the length of the dimension measurement target line 4404 defined by the two specified points (points b1 and b2) as the pillar width.
  • Comparative Example 2 the user is required to input at least two points for each target structure pattern, each dimension measurement target location, and each dimension type. Therefore, in Comparative Example 2, as in Comparative Example 1, as the number of target structures and types of dimensions increase, the effort required for manual operations by the user increases. Furthermore, errors occur due to manual operations (mouse operations, etc.) and subjective judgment.
  • the two points designated by the user for the dimension measurement target location and dimension may deviate from the actual situation, and may also vary from person to person. Such errors affect the accuracy of dimensional measurements.
  • the dimension measurement system, etc. of the embodiment has the following solving means, etc.
  • the dimension measurement system of the embodiment has a processor and memory resources, and captures an image (in other words, a cross-sectional image, an object Processing related to contour detection and dimension measurement is performed for images (images, captured images, etc.).
  • the processor executes processing according to the dimension measurement method of the embodiment on data and information such as images stored on memory resources.
  • the dimension measurement system of the embodiment inputs, specifies, and sets predetermined information such as reference lines and reference points to support contour detection and dimension measurement by manual operation by a person such as a user on a cross-sectional image.
  • This system employs a semi-automatic method that combines the above methods and an automatic method in which contour detection and dimension measurement are performed automatically by a computer on a cross-sectional image in which predetermined information has been set.
  • the embodiment has such a semi-automatic method.
  • a system or method that manually specifies and selects a material interface or a structure region to be measured, and automatically performs contour detection and dimension measurement is sometimes referred to as a "semi-automatic method.”
  • the dimension measurement method of the embodiment is based on a manual operation by a user or the like on a cross-sectional image, and places such as material interfaces, which are difficult to automatically detect or automatically recognize, are measured using reference lines (in other words, interface reference lines, support lines). etc.) and the cross-sectional image, based on the user's manual operation, the area of the structure pattern to be measured that is difficult to automatically detect or recognize is set as a reference point (in other words, area reference point, support point). etc.). These steps are steps related to manual operations by humans.
  • the dimension measurement method of the embodiment includes the steps of automatically detecting the contour of the structure pattern to be dimensioned on the image in which the reference lines and reference points are set, and and a step of automatically measuring the dimensions of the measurement target. These steps are computer automated processing steps.
  • the dimension measurement system and method of the embodiment is characterized in that the manual setting method is such that the user can manually set the material interface of the target structure on the cross-sectional image by manual operation on the GUI screen.
  • An interface reference line which is a reference line for pointing to an interface
  • an area reference point which is a reference point for pointing to a structure area to be dimensioned.
  • the dimension measurement system and method of the embodiment is characterized in that the automatic method is such that the computer system processes the cross-sectional image in which the predetermined information is set as described above using a predetermined algorithm to determine the above-mentioned criteria.
  • the region of the target structure pattern is specified based on the line and the reference point, and edges forming the outline of the target structure pattern are detected.
  • the computer system measures the specified type of dimension in the area of the structure pattern to be measured, based on the reference line and reference point, and information on the detected contour.
  • the type of dimension to be measured (for example, trench width, trench depth, etc.) can be set and specified by the user on the GUI screen.
  • the computer system displays at least one of the detected contour information and the dimension measurement results to the user on a GUI screen.
  • the algorithm for the contour detection processing described above is new and different from the prior art example (see FIG. 10, etc. to be described later), and the contour of the structure can be detected more efficiently and accurately.
  • the computer system can then more efficiently and accurately measure the dimensions of the object based on the detected contour information.
  • Embodiment 1 The dimension measurement system, method, etc. of Embodiment 1 will be explained using FIG. 1 and the like.
  • FIG. 1 shows a configuration example of a semiconductor dimension measurement system, which is a system including the dimension measurement system of the first embodiment.
  • the entire system in FIG. 1 is a semiconductor dimension measurement system, and includes a scanning electron microscope (SEM) 2 and a computer system 1, which is the dimension measurement system 1 of the first embodiment.
  • the communication network 9 includes a database (DB) 3, a semiconductor device manufacturing apparatus 4, a manufacturing execution system (MES) 5, a client terminal (operation PC) 6, and the like. These components are interconnected via, for example, a LAN as the communication network 9, and are able to communicate with each other.
  • a computer system 1, which is the dimension measurement system 1 of the first embodiment is configured as a server on a communication network 9, and is communicatively connected to devices such as a scanning electron microscope (SEM) 2 and an operating PC 6.
  • SEM scanning electron microscope
  • the dimension measurement system 1 of the first embodiment is configured by a computer system 1 described later (FIG. 2).
  • This computer system 1 realizes a function as a dimension measurement system 1 based on program processing by a processor.
  • the dimension measurement system 1 has at least a contour detection function F1 and a dimension measurement function F2 as functions.
  • the contour detection function F1 is a function of detecting the contour of a structure (in other words, a pattern) from the image 7, which is a cross-sectional image of the target sample.
  • the dimension measurement function F2 is a function that measures the dimensions of the object based on information on the contour detected by the contour detection function F1, and outputs a dimension measurement result 8.
  • the SEM2 is an example of a cross-sectional image capturing device.
  • the SEM 2 has a function of obtaining, as an image 7, a cross-sectional image of a cross-section of a semiconductor device (for example, a wafer) that is a target sample.
  • the SEM 2 includes a main body 301 and a controller 302 connected to the main body 301.
  • the SEM 2 or other components may have a function of creating a cross section on the target sample.
  • the SEM 2 may be a device having a function of creating a cross section of a target semiconductor device.
  • the SEM 2 may be a FIB-SEM device or the like equipped with a focused ion beam mechanism.
  • the FIB-SEM device creates a cross section on a part of a sample by FIB processing.
  • the communication network 9 may include a cleavage device that creates a cross section by cleaving the sample.
  • the SEM 2 and computer system 1 may communicate with external devices as appropriate to input and output necessary data and information.
  • the SEM 2 transmits the data of the image 7 obtained by photographing to the computer system 1 or the operating PC 6.
  • the SEM 2 may store the data of the image 7 in the DB 3.
  • the computer system 1 acquires the image 7 from the DB 3.
  • the DB 3 is, for example, a DB server, and may store various information such as image 7 data and design data.
  • the semiconductor device manufacturing apparatus 4 is an apparatus for manufacturing a semiconductor device as a target sample, and includes equipment for each manufacturing process, such as an etching apparatus.
  • the MES 5 is a system that executes and manages the manufacturing of semiconductor devices using the semiconductor device manufacturing apparatus 4, and has sample design data, manufacturing process information, and the like.
  • the computer system 1 may refer to design data, manufacturing process information, etc. from the MES 5, the semiconductor device manufacturing apparatus 4, and the like.
  • the client terminal 6 is an operating PC used by the user U1, and is an information processing terminal device that has the function of accessing the dimension measurement system 1 (particularly the server function) via the communication network 9.
  • the user U1 such as an operator, may operate the dimension measurement system 1 directly, or may use the dimension measurement system 1 by accessing it from the client terminal 6.
  • the client terminal 6 can be a general PC or the like, and either has a built-in input device for input operations and an output device for display, etc., or has them externally connected.
  • the user U1 may access and use the SEM2 etc. from the client terminal 6.
  • the server that is the dimension measurement system 1 is configured as a client-server system with the client terminal 6.
  • the dimension measurement system 1 is responsible for the main processing, and the client terminal 6 is responsible for the function as a GUI.
  • the computer system 1 and the client terminal 6 may be integrated into a system. That is, the computer system 1 may have input/output and GUI functions.
  • the dimension measurement system 1 of the first embodiment is not limited to the configuration example shown in FIG. 1.
  • the dimension measurement system 1 may be integrally implemented in the controller 302 (FIG. 3) of the SEM 2.
  • the dimension measurement system 1 may be integrated with other components in FIG. 1 .
  • the computer system 1 is not limited to one computer, and may be realized by a cloud computing system or the like.
  • an example of an external device that is another component may include a cross-section observation device that observes the cross-section of the sample and performs analysis, inspection, etc.
  • the cross-sectional observation device may be, for example, a TEM device.
  • the SEM 2 may be used as a cross-sectional observation device.
  • the SEM 2 may be a STEM (scanning transmission electron microscope), another type of microscope, or an imaging device.
  • the communication network 9 may be provided with a program distribution server (not shown) or the like.
  • the program distribution server distributes data such as programs (software 110 in FIG. 2) for realizing the dimension measurement system 1 of the first embodiment to the computer system 1. Further, data such as images 7 and programs are not limited to input/output through communication, but may be input/output in a manner stored in a storage medium such as a memory card.
  • FIG. 2 shows a configuration example of the computer system 1 of the dimension measurement system 1 according to the first embodiment.
  • the computer system 1 includes predetermined hardware and software, and realizes functions through their cooperation.
  • the computer system 1 in FIG. 2 includes a processor 101, memory resources 102, a communication interface 103, an input/output interface device 104, and the like. Those components are connected to a bus and can communicate with each other.
  • the memory resource 102 includes a ROM 105, a RAM 106, a storage 107, and the like.
  • the processor 101 is composed of a semiconductor device such as a CPU, MPU, or GPU.
  • the processor 101 may include a ROM, RAM, various peripheral functions, and the like.
  • the processor 101 executes processing according to a control program stored in the memory resource 102, for example, software 110 including a dimension measurement program read out from the ROM 106 or the storage 107 to the RAM 105 and developed.
  • the contour detection function F1, dimension measurement function F2, etc. shown in FIG. 1 are realized as predetermined functions.
  • Software 110 controls all functions and operations described in the first embodiment. When the computer system 1 is started, an execution module based on the processor 101 and software 110 operates.
  • the storage 107 stores various data and information such as the image 7, photographing information 111, definition information 112, and dimension measurement results 8, for example.
  • Image 7 is image data etc. acquired from SEM2.
  • the dimension measurement result 8 is data such as the dimension measurement result by the dimension measurement function F2.
  • the photographing information 111 is photographing information when the image 7 was photographed with the SEM 2, and includes, for example, photographing conditions with the SEM 2, optical setting information, attribute information of the image 7, and the like.
  • the photographing information 111 includes at least information on the pixel size, which is the real space size of each pixel in the image 7, or information on the magnification by which the pixel size can be calculated.
  • the definition information 112 which will be described later (see FIG. 7, etc.), is necessary definition information and setting information regarding the functions of the dimension measurement system 1, and includes system setting information, user setting information, and the like.
  • the memory resource 102 stores data generated in the processing process as appropriate.
  • the dimension measurement system 1 may use external memory resources (for example, the DB 3 or an external storage device) as appropriate.
  • data such as the image 7 acquired from the SEM 2 or DB 3 in FIG. 1 or the operating PC 6 is stored in the storage 107 in advance.
  • the image 7 is managed in association with photographing information 111, definition information 112, dimension measurement results 8, and the like.
  • the communication interface 103 is a device in which a communication interface for the SEM 2, the communication network 9, etc. is mounted.
  • the input/output interface 104 is a device on which an input/output interface is mounted, and input devices and output devices can be externally connected. Examples of input devices include a keyboard, mouse, and microphone. Examples of output devices include displays, printers, and speakers. Note that the computer system 1 may include an input device and an output device.
  • the computer system 1 uses the input image 7 of the dimension measurement target, photographing information 111, and definition information 112 based on the input of the user U1's instructions on the GUI screen 60, and calculates the structure in the target image 7.
  • the outline of the object pattern is detected, the specified type of dimension is measured, and a dimension measurement result 8 is generated and stored. Then, the computer system 1 transmits the dimension measurement results 8 to the operating PC 6.
  • the operating PC 6 displays the image 7 and the dimension measurement results 8 on the GUI screen 60 along with the GUI.
  • the user U1 can check the dimension measurement results 8 and the like on the GUI screen 60.
  • a user U1 uses the computer system 1 by operating an input device on a client terminal 6, which is an operating PC, and displaying a screen on an output device.
  • the operating PC 6 includes a processor, a memory, a communication interface, a monitor display, a mouse, a keyboard, and the like.
  • a GUI screen 60 is displayed on the screen of the monitor display.
  • Client-server communication is performed between the computer system 1 and the client terminal 6, and the following communications and operations are performed, for example.
  • User U1 operates client terminal 6 to access computer system 1.
  • the client terminal 6 accesses the server function of the computer system 1 through the communication network 9 and sends a request.
  • the server function of the computer system 1 generates screen data including a GUI (graphical user interface) in response to a request, and transmits it to the client terminal 6.
  • the screen data may be based on a web page or the like. Alternatively, instead of screen data, target data/information may be directly transmitted and received.
  • the client terminal 6 displays a GUI screen 60 such as a web page on the display screen based on the received screen data and the like.
  • the user U1 looks at the GUI screen 60, confirms information regarding the functions of the dimension measurement system 1, and inputs settings, instructions, etc. as necessary.
  • the client terminal 6 transmits requests and information based on user input information to the computer system 1.
  • the computer system 1 executes processing related to functions based on the received requests and information, and stores the results.
  • the computer system 1 transmits screen data including, for example, the image 7 and the dimension measurement results 8 to the client terminal 6.
  • the client terminal 6 displays a GUI screen 60 including an image 7, a dimension measurement result 8, etc. based on the received data.
  • the user U1 can check the image 7, the dimension measurement results 8, etc. on the GUI screen 60.
  • FIG. 1 shows one user U1 and one client terminal 6, multiple users and multiple client terminals 6 may exist in this system.
  • the number of computer systems 1 and processors 101 is not limited to one physically, and a plurality of them may exist.
  • FIG. 3 shows an example of the configuration of the SEM2.
  • the SEM 2 is roughly divided into a SEM main body 301 and a controller 302 connected to the main body 301.
  • the main body 301 further includes an electro-optical column (hereinafter referred to as "column") and a sample chamber provided at the bottom of the column.
  • the controller 302 is a system that controls imaging by the main body 301 and the like.
  • the controller 302 includes an overall control section 320, a signal processing section 321, a storage section 322, a communication interface 323, and the like, and is also externally connected to an input device 324 and an output device 325.
  • the column of the main body 301 includes an electron gun 311, an accelerating electrode 312, a focusing lens 313, a deflection lens 314, an objective lens 315, a detector 317, etc. as components.
  • the electron gun 311 emits an electron beam b1 that is a charged particle beam.
  • the accelerating electrode 312 accelerates the electron beam b1 irradiated from the electron gun 311.
  • a focusing lens 313 focuses the electron beam b1.
  • the deflection lens 314 deflects the trajectory of the electron beam b1.
  • the objective lens 315 controls the height at which the electron beam b1 is focused.
  • the sample chamber is a room in which samples such as wafers and coupons (split pieces of wafers) are stored, and includes a stage 316 for moving the observation position on the sample to the irradiation point of the electron beam.
  • the stage 316 is a sample stand on which a semiconductor device, which is the target sample 30, is placed.
  • the stage 316 has the ability to move not only in the X and Y directions but also in the Z direction and to rotate around the XY, YX, or Z axes. can be moved in the direction of rotation within the This allows the field of view for imaging to be set.
  • the detector 317 detects particles b2 such as secondary electrons and backscattered electrons generated from the sample 30 irradiated with the electron beam b1 as electrical signals. Detector 317 outputs a detection signal that is an electrical signal.
  • the overall control unit 320 controls the operations of the controller 302 and the main body 301.
  • the overall control section 320 gives instructions such as drive control to each section.
  • Each section such as the overall control section 320 can be implemented by a computer or a dedicated circuit.
  • the signal processing unit 321 inputs the detection signal from the detector 317, performs processing such as analog/digital conversion, generates an image signal, and stores it in the storage unit 322 as data such as an image.
  • the storage unit 322 can be implemented using a nonvolatile storage device or the like.
  • the overall control unit 320 also stores photographing information regarding the image in association with the storage unit 322.
  • the communication interface 323 is a device in which a communication interface for the communication network 9 and the computer system 1 is implemented.
  • the overall control unit 320 transmits data such as images and photographic information stored in the storage unit 322 to the computer system 1 via the communication interface 323 in response to a request from the computer system 1, for example.
  • the computer system 1 stores data such as the image 7 received from the controller 302 of the SEM 2 in the memory resource 102 .
  • FIG. 4 shows an example of a structure pattern of a semiconductor device, which is a target sample in the first embodiment.
  • FIG. 4A shows a perspective view of a designed pattern shape of a three-dimensional structure, for example, a cross section along the XZ plane. This cross section is formed, for example, by cleavage or FIB processing.
  • This structure has a mask 401, pillars 402, and trenches 403.
  • the mask 401 and the pillar 402 are structures with a trapezoidal cross section, and the trench 403 is a structure with an inverted trapezoidal cross section.
  • the pillar 402 is formed below the part where the mask 401 is located, and the trench 403 is a structure with a trapezoidal cross section.
  • a trench 403 is formed below the portion where the trench 401 is not present.
  • FIG. 4B is a cross-sectional view corresponding to the cross section taken along the XZ plane in FIG. 4A, and shows an example of the dimensions to be measured.
  • the semiconductor device has a masking layer 411 made of a first material over an etched layer 412 made of a second material in the Z direction.
  • a mask 401 is formed in the mask layer 411, and pillars 402 and trenches 403 are formed in the layer to be etched 412.
  • a material interface 413 between the mask 401 and the pillar 402 in the Z direction is indicated by a broken line.
  • the dimension A1 is the trench width at the upper surface (in other words, the top) 414 of the trench 403.
  • the position of the upper surface 414 of the trench 403 corresponds to the position of the material interface 413 between the mask 401 and the pillar 402.
  • Dimension A2 is the trench width at the bottom surface (in other words, the bottom) 415 of the trench 403.
  • the dimension A3 is the trench width at, for example, an intermediate position (eg, 50% position) in the height/depth direction (Z direction) of the trench 403.
  • the position of the dimension A3 is not limited to the ratio (%), but may be defined by the distance from the top 414, the distance from the bottom 415, or the like.
  • Dimensions A1 to A3 are lengths in the X direction.
  • Dimension A4 is the trench depth, and is the length from the top 414 to the bottom 415 of the trench 403 in the Z direction.
  • Dimension A5 is the trench side wall angle, and is, for example, the angle that the side wall 416 (the trapezoidal slope portion) makes with respect to the bottom 415 of the trench 403.
  • the trench sidewall angle may be defined as the angle at a predetermined position in the Z direction.
  • the dimension B1 is the pillar width at the upper surface (in other words, the top) of the pillar 402.
  • the position of the top of pillar 402 corresponds to the position of material interface 413.
  • Dimension B2 is the pillar width at the bottom surface (in other words, the bottom) of the pillar 402.
  • the bottom position of the pillar 402 corresponds to the bottom position of the trench 403.
  • the dimension B3 is the width of the pillar 402 in the height direction (Z direction), for example, at an intermediate position (eg, 50% position).
  • the position of the dimension B3 is not limited to the ratio (%), but may be defined by the distance from the top, the distance from the bottom, or the like.
  • Dimensions B1 to B3 are lengths in the X direction.
  • Dimension B4 is the pillar height, and is the length from the top to the bottom of the pillar 402 in the Z direction.
  • Dimension B5 is the pillar side wall angle, for example, the angle that the side wall makes with the bottom surface of the pillar 402.
  • the pillar sidewall angle may be defined as the angle at a predetermined position in the Z direction.
  • the structure and dimensions to be measured are not limited to the example shown in FIG. 4. Examples of other structures include holes, fins, and the like. Examples of other dimensions include the area of the trench 403 and the like.
  • FIG. 5 shows a flowchart of a dimension measurement process executed by the computer system 1, which is the dimension measurement system 1 of the first embodiment. This flow includes steps S1 to S6.
  • the dimension measurement system 1 executes the dimension measurement method of the first embodiment according to the flow shown in FIG. Briefly, the user U1 selects and displays the target image 70 on the GUI screen 60 (FIG. 6) (step S1), and manually selects the interface reference line 11 (FIG. 8) and the area reference point 12 (FIG. 9). Specify and set (step S3).
  • the computer system 1 Based on the set information, the computer system 1 identifies the area of the structure to be dimensioned and detects the contour (step S4), and based on the information on the detected contour, the computer system dimensions are measured (step S5), and the dimension measurement result 8 is displayed on the GUI screen 60 (FIG. 20) (step S6).
  • step S1 the computer system 1 specifies the image 7 to be subjected to dimension measurement.
  • the user U1 operates the mouse etc. of the operation PC 6, moves the cursor 609 on the GUI screen 60 (FIG. 6), operates the GUI such as menus and buttons, and images the target image 7. Select file.
  • step S2 the computer system 1 specifies definition information 112 (FIG. 2) to be applied to the current dimension measurement. If the definition information 112 to be applied has been specified and set in advance, it is sufficient to simply refer to the setting.
  • the user U1 selects the definition information 112 file on the GUI screen 60.
  • the definition information 112 may be prepared in advance by the business operator as part of the software 110 (FIG. 2), or may be set and saved by the user U1 on the GUI screen 60.
  • the definition information 112 includes, as will be described later (FIG. 7), the structure pattern whose dimensions are to be measured, the dimensions of the measurement object (in other words, the type of dimension), the details of the measurement of the dimensions, etc., which are applied to the target image 7. is defined.
  • step S3 the computer system 1 specifies the interface reference line 11 and the area reference point 12 for the target image 70 on the GUI screen 60 (FIG. 6, FIG. 9, etc.) based on the manual operation of the user U1. .
  • a plurality of area reference points 12 can be specified at once as necessary.
  • information such as the position coordinates of the interface reference line 11 and the area reference point 12 set for the image 7 (also referred to as reference information) is appropriately stored in the memory resource 102 (FIG. 2).
  • the reference information is stored as part of the dimension measurement result 6.
  • step S4 the computer system 1 determines the area of the structure pattern to be dimensioned in the target image 70 based on the interface reference line 11 and area reference point 12 specified in step S3, and the definition information 112 to be applied.
  • a contour and an edge are distinguished, and in particular, edges forming the contour are detected. Edges are represented by data structures such as edge points or contour lines.
  • information regarding the detected contour is also appropriately stored in the memory resource 102 (FIG. 2). For example, their contour information is stored as part of the information of the dimension measurement results 8.
  • step S5 the computer system 1 uses the information on the interface reference line 11 and area reference point 12 specified in step S3 and the contour information detected in step S4 to determine the specified Measure the dimensions of types.
  • the computer system 1 stores the data of the dimension measurement result 8 generated as a result in the memory resource 102.
  • step S6 the computer system 1 outputs the dimension measurement result 8 to the user U1.
  • the computer system 1 causes the image 7 and the dimension measurement result 8 to be displayed on the GUI screen 60 by transmitting the dimension measurement result 8 to the operating PC 6 .
  • Step S1 Target image
  • a GUI screen 60 like the example shown in FIG. 6 is displayed on the display of the operating PC 6.
  • the upper part of FIG. 6 shows the initial display state of the GUI screen 60, and the lower part shows the state in which the target image 70 is displayed in the image column 601.
  • the GUI screen 60 includes an image field 601, a toolbar 602, a tab 603, and the like.
  • no image is displayed in the image column 601 because no target image has been specified yet.
  • Tabs 603 such as "Semi-auto" and "Auto” are also not activated.
  • the user U1 clicks on the "Semi-auto" tab 604 and selects the image file of the dimension measurement target image using the "File” button 605 on the toolbar 602.
  • the target image is image 7 that is desired to be displayed in the image column 601.
  • Operations such as clicking and selecting on the GUI screen 60 can be performed using input devices such as a mouse and keyboard of the operating PC 6 and a GUI corresponding to these operations.
  • the "Semi-auto" tab 604 is for selecting “semi-automatic method” as the mode.
  • This "semi-automatic method” mode corresponds to the dimension measurement method of the first embodiment, and is a method in which the interface reference line 11 and the area reference point 12 are manually specified as described above.
  • the "Auto” and “train” tabs are modes used in Embodiment 4, etc., which will be described later.
  • the computer system 1 changes the screen to a state as shown in the lower part of FIG.
  • the specified target image 70 is displayed in the image column 601.
  • buttons such as a "Mask” button 611, a "Pillar” button 612, and a “Trench” button 613 are also activated.
  • the lower state corresponds to the interface reference line setting mode, which will be described later.
  • the “Mask” button 611 and the like are buttons provided for each type of structure.
  • buttons are used to select, for example, a mask 401, a pillar 402, a trench 403, etc. as shown in FIG. 4 as the type of structure pattern for which the interface reference line 11 and the area reference point 12 are to be specified.
  • the computer system 1 understands the type of structure pattern to be processed.
  • Step S2 Definition information
  • a file of definition information 112 to be applied to target image 70 is selected.
  • the definition information 112 file is a file in which definition information, setting information, etc. necessary for measuring the dimensions of the target structure pattern are stored for each target structure pattern.
  • FIG. 7 shows an example of the definition information 112 file in a table format.
  • this file has row number (#), "pattern type", "length measurement name”, “length measurement type”, and “length measurement definition information” as column items.
  • the "pattern type” item indicates the type of structure pattern (the above-mentioned trench, etc.) whose dimensions are to be measured.
  • the "length measurement name” item indicates the name of the length measurement to be performed. This length measurement name represents the target dimension as shown in FIG. 4 described above, and the user U1 can arbitrarily name it.
  • the “length measurement type” item indicates the type of length measurement to be performed. For example, the value "CD from interface” means "CD (Critical Dimension) at a position at a predetermined distance from the interface”.
  • the "Length measurement definition information” item indicates length measurement definition information for each "Length measurement type".
  • the value "0 nm from reference line” means that the length is measured at "a position 0 nm from the interface reference line.” This corresponds to information that defines the vertical position of dimensions A1 to A3 in FIG.
  • the predetermined distance corresponds to, for example, the distance d in FIG. 18C, which will be described later.
  • definition information 112 necessary for length measurement may be set and stored in a file in advance.
  • the file of definition information 112 can be set on the GUI screen 60, the file to be applied can be selected, and the same information can be reused for each length measurement.
  • the definition information 112 is not limited to this, and the definition information 112 may be input in step S2 each time the length is measured.
  • the definition information 112 may be input in step S2 each time the length is measured.
  • the setting information related to dimension measurement such as length measurement position and length measurement type information
  • the setting information can be set each time for subsequent dimension measurements. There is no need to do so.
  • the lower part of FIG. 7 shows an example of the configuration of a GUI screen for selecting definition information 112.
  • a definition information selection GUI 701 such as a list box is displayed on the GUI screen, and the file of the definition information 112 to be applied, in this example, the top
  • the user U1 can select and apply one or more pieces of definition information in a specified row of the table shown in FIG.
  • Such functions are realized through cooperation between the processor 101 and the software 110.
  • a program for selecting the definition information 112 may be stored in a storage provided in the client terminal 6, and the operation shown in the lower part of FIG. 7 may be realized by the processor provided in the client terminal 6.
  • the definition information 112 can be preset on the client terminal 6 side.
  • the one to be applied is selected on the GUI screen 60 by the operation of the user U1.
  • the definition information 112 in FIG. 7 regarding the trench 403, there are three types of candidates shown in rows numbered #3 to #5.
  • the user U1 selects one or more of these candidates to apply. In this way, it is possible to measure multiple types of dimensions simultaneously, and processing and work can be made more efficient.
  • the definition information 112 (in other words, dimension measurement setting information, dimension setting information) is used to determine the measurement target dimensions (dimensions as shown in FIG. 4) for each target structure pattern of the target image. (including type, measurement position, etc.) can be specified and set by user U1's operation.
  • the definition information 112 is information that determines how and what kind of dimensions are to be measured for the interface reference line 11, the area reference point 12, and the detected contour information.
  • the designation and setting of the target dimensions and definition information 112 may also be realized on the GUI screen 60 as follows.
  • the computer system 1 in the modified example displays, for example, an image related to dimensions as shown in FIG. 4 (B) on the GUI screen 60 as a GUI image based on design pattern information, etc.
  • a table of information 112, etc. is displayed.
  • the computer system 1 displays, on the GUI screen 60, an image (for example, an arrow image) of a dimension measurement target line representing a candidate dimension (for example, dimension A1, etc.) for each structure pattern such as the trench 403.
  • the computer system 1 receives an operation of a cursor or the like by the user U1 on the GUI screen 60, selects a target dimension, and sets detailed definition information in the table of definition information 112 for each selected target dimension.
  • the position in the vertical direction that defines the dimension A3 can be set by a ratio, a distance, or the like.
  • Step S3 (1) Interface reference line
  • the structure pattern whose dimensions are to be measured is specified, for example, by the "Trench” button 613 in FIG.
  • the interface reference line 11 is designated and set for the trench and the like. This interface reference line 11 is specified in accordance with the material interface 413 as shown in FIG. At the same vertical position as the material interface 413 are the bottom of the mask 401, the top of the pillar 402, and the top of the trench 403.
  • the user U1 operates the interface selection GUI 61 displayed in the image field 601 to designate the interface reference line 11 at a desired position aligned with the material interface 413 in the target image 70.
  • the computer system 1 sets the interface reference line 11 at a specified position in the vertical direction (Z direction) in the target image 70 .
  • FIG. 8A shows an example of the target image 70 in the image column 601 corresponding to FIG. 6, and
  • FIG. 8B shows an interface reference line as the interface selection GUI 61 on the target image 70 in FIG. 11 is displayed.
  • the example of the target image 70 in (A) includes a mask 401, a pillar 402, and a trench 403. Note that depending on the image, only a part of them may be included. Note that in the drawings, the color brightness of the image is schematically expressed in black and white.
  • the vacuum region which is the background region including the trench 403, has the lowest brightness and is dark, and is illustrated by a black pattern.
  • the luminance is higher and brighter in the order of the pillar 402 region and the mask 401 region.
  • a white band 406 occurs near the boundary between the background region including the trench 403 and the regions of the mask 401 and pillars 402. This region 406 has the highest luminance and is brightest, and is illustrated with a white pattern.
  • the interface reference line 11 as the interface selection GUI 61 is displayed at an arbitrary position in the target image 70, for example, at an intermediate position in the Z direction.
  • the interface selection GUI 61 is displayed as a dotted straight line extending in the X direction, and corresponds to the interface reference line 11.
  • the user U1 operates the cursor 609 in the image field 601 based on the operation of an input device such as a mouse, and operates the interface reference line 11 of the interface selection GUI 61.
  • the user U1 specifies the interface reference line 11 at a position in the vertical direction (Z direction) in accordance with the material interface 413 (FIG. 4), in this example, in accordance with the interface between the mask 401 and the pillar 402. do.
  • the surface selection GUI 61 allows the position of the surface reference line 11 indicated by a dotted straight line in the Z direction (vertical direction) to be changed by, for example, clicking or dragging the cursor 609.
  • the user U1 changes the position of the interface reference line 11 up or down by placing the cursor 609 on the interface reference line 11, clicking and dragging, and moving the cursor 609 up or down. Since the user U1 can roughly determine the position of the material interface 413 from the difference in brightness between different materials (for example, the mask 401 and the pillar 402) in the image 70, the user U1 can draw the interface reference line according to the position of the material interface 413. Place 11.
  • the user U1 determines the position of the interface reference line 11 by a predetermined operation (for example, releasing the click button).
  • the interface reference line 11 is a straight line extending in the X direction as shown in the figure, and the interface reference line 11 can be specified only by specifying the height position of one point within the target image 70 at the minimum. This can be achieved with less input effort.
  • the computer system 1 sets the interface reference line 11 at the position specified by the above operation in the target image 70.
  • the setting information of the interface reference line 11 includes, for example, position coordinate information in the illustrated vertical direction (Z direction).
  • the computer system 1 displays the set interface reference line 11 in a predetermined expression.
  • the interface reference line 11 in the interface selection GUI 61 may change from a dotted line of a predetermined color to a solid line of a predetermined color.
  • the surface selection GUI 61 is not limited to the above example. For example, up and down buttons or a vertical slide bar may be used, or a form for inputting vertical position coordinates may be used.
  • the interface reference line 11 extending in the lateral direction (X direction) is set corresponding to the X direction. Indicates when to do so.
  • the interface reference line 11 may extend in a direction other than the horizontal direction depending on the actual situation such as the direction of the material interface in the cross-sectional image.
  • the user U1 may be able to specify and set the direction of extension of the interface reference line 11 on the GUI screen 60.
  • the user U1 After setting the interface reference line 11, the user U1 operates the "Next" button 610 in the GUI screen 60 (FIG. 6).
  • the computer system 1 changes the GUI screen 60 from the interface reference line setting mode as shown in FIG. 6 to the area reference point setting mode as shown in FIG. 9 in accordance with the operation.
  • the interface reference line 11 is a line for support and reference of contour detection and dimension measurement processing.
  • the interface reference line 11 is a line for the user U1 to judge and specify the material interface 413.
  • the interface reference line 11 is a line that can also be used as a reference for detecting and determining the structure area to be measured and the dimensions to be measured.
  • the measurement target dimension can be determined based on the detected contour line and the definition information 112, with the designated interface reference line 11 as a reference.
  • the trench width having the dimension A1 and the trench depth having the dimension A4 are defined based on the detected contour line in accordance with the position of the specified interface reference line 11 in the Z direction.
  • the position of the upper side (top), which is one end of the trench depth, is defined by the interface reference line 11.
  • the dimension A3 is defined as a position at a predetermined distance or rate below the position of the specified interface reference line 11 as a reference.
  • Step S3 (2) Area reference point
  • a region reference point 12 that roughly represents the region of the structure pattern to be dimensioned is specified and set for the target image 70 in the image column 601 by manual operation by the user U1. Ru.
  • one or more area reference points 12 are specified using the area selection GUI 62 as a predetermined GUI for the structure pattern of the type specified by the above-mentioned button.
  • FIG. 9 shows the state of the area reference point setting mode on the GUI screen 60.
  • the lower part of FIG. 9 shows an enlargement of the target image 70 in the image column 601.
  • a region reference point 12 as a region selection GUI 62, etc. are displayed on the target image 70 in the image field 601, in addition to the above-mentioned set interface reference line 11, a region reference point 12 as a region selection GUI 62, etc. are displayed.
  • the area reference point 12 is not displayed.
  • the user U1 operates the area selection GUI 62 using a cursor 609 based on a mouse or the like, and specifies the area reference point 12 within the area of the trench or the like whose dimension is to be measured.
  • the area reference point 12 and the perpendicular line 13 may be displayed at any position within the target image 70 from the initial state.
  • area reference points 901, 902, and 903 are displayed as the area reference points 12 in the area selection GUI 62 at the positions specified by the user U1.
  • area reference points 901 and 902 are specified within the area of the two masks 401
  • an area reference point 903 is specified within the area of the trench 403. has been done.
  • the computer system 1 displays the area reference point 12 in a predetermined manner (for example, circularly, in a predetermined color, etc.) at a specified position. As shown in the figure, the region of the mask 401 and the region of the trench 403 are partially separated by the interface reference line 11.
  • the computer system 1 draws a perpendicular line 13, which is a straight line perpendicular to the interface reference line 11, from the position of the specified area reference point 12 in the vertical direction (Z direction). and display it in a predetermined manner (for example, a dotted line).
  • a perpendicular line 904 is drawn upward from the area reference point 903
  • perpendicular lines 905 are drawn downward from the area reference points 901 and 902, respectively.
  • the display of the perpendicular line 13 is also included as part of the area selection GUI 62, but the display of the perpendicular line 13 may be omitted.
  • the user U1 may operate the initially displayed area reference point 12 by clicking, dragging, etc. with the cursor 609, and move it to a desired position and place it.
  • the area reference point 12 can be specified not only for the above example but also for the pillar 402. Further, if necessary, it is also possible to return to the interface reference line setting mode and re-set the interface reference line 11. In a modified example, the interface reference line 11 and the area reference point 12 may be set simultaneously in the target image 70 in the image column 601.
  • one point at an arbitrary position included in the area of a certain trench 403 (the illustrated inverted trapezoidal area closed by the interface reference line 11) is designated as the area reference point 903.
  • This area reference point 903 points to the area of the trench 403.
  • a perpendicular line 13 (904) is drawn vertically upward from the area reference point 903, that is, in the direction where the interface reference line 11 is located. Since the perpendicular line 13 is automatically determined when the area reference point 11 is specified, there is no need for the user U1 to perform an operation to draw the perpendicular line 13.
  • the area selection GUI 62 requires only an operation of specifying one point at a rough position for each structure pattern by clicking or the like, and there is no need to specify a detailed position, so the operation effort is small.
  • a plurality of area reference points 12 and associated perpendicular lines 13 can be specified at once, if necessary.
  • three area reference points 12 are specified.
  • the computer system 1 grasps the type of structure associated with the designated area reference point 12 in accordance with the designation of the type of structure using the "Mask" button 611 or the like.
  • the computer system 1 sets designated area reference points 12 for each structure pattern in the target image 70.
  • step S3 contour detection and dimension measurement are automatically performed by the computer system 1 based on the setting information (steps S4 and S5).
  • the region reference point 12 is a point for supporting contour detection and dimension measurement processing.
  • the area reference point 12 is a point for the user U1 to roughly designate the area of the structure pattern whose dimensions are to be measured.
  • the structure whose dimensions are to be measured is the trench 403, and the dimension to be measured (in other words, the type of dimension) is the trench width (for example, dimension A3 in FIG. 4, dimension 1803 in (C) of FIG. 18, which will be described later).
  • the region reference point 12 only roughly points to the region of the trench 403 of interest.
  • the area reference point 12 does not specify the height position at which the trench width is to be measured, nor does it specify the two points at both ends of the dimension measurement line that defines the trench width. Therefore, the effort required to operate regarding the area reference point 12 is small.
  • one of the functions of the area reference point 12 is not only the function of pointing to the structure area to be measured, but also the following functions. That is, as shown in FIG. 10, etc., which will be described later, the position of the area reference point 12 in the Z direction is between the upper rectangular area where the line profile 20 is extracted in the X direction and the lower rectangular area where the line profile 20 is extracted in the radial direction. It is divided into a semicircular area. The method of generating these line profiles 20 changes depending on the position of the area reference point 12.
  • the area reference point 12 can also be used as a reference for determining the measurement target dimension by the computer system 1.
  • the material interface of the structure pattern in the cross-sectional image (for example, the material interface 413 in FIG. 4) can serve as a reference when measuring dimensions. For example, there are cases where it is desired to measure a dimension (for example, trench depth) starting from a material interface. Therefore, it is effective to understand the material interface as accurately as possible.
  • a semi-automatic method is used, and the user U1 designates and sets the interface reference line 11 pointing to the material interface by subjective judgment and manual operation with respect to the material interface in the cross-sectional image.
  • the computer system 1 can perform dimension measurements based on the interface reference line 11, and can perform efficient processing.
  • a computer it is difficult for a computer to automatically determine and detect the area of a structure (for example, a trench, etc.) to be dimensioned from a cross-sectional image.
  • a typical conventional technique for example, Comparative Example 2
  • a user manually specifies a location to be measured.
  • a semi-automatic method is used, in which the user U1 manually specifies and sets the area reference point 12 that roughly indicates the dimension measurement target area in the cross-sectional image, and then the computer system 1 automatically Identify the target structure area and measure its dimensions.
  • Step S4 Contour detection part 1
  • step S4 a contour detection process is performed for the structure pattern whose dimensions are to be measured using the position coordinate information of the selected and specified interface reference line 11 and the position coordinate information of the area reference point 12.
  • an algorithm for processing when contour detection is performed for the trench 403 will be described with reference to FIG. 10 and the like.
  • FIG. 10 is a schematic explanatory diagram of contour detection using the interface reference line 11 and the area reference point 12 in the target image 70.
  • FIG. 11 is an explanatory diagram corresponding to FIG. 10, in which the image content is simplified by making the background area white for ease of viewing, and supplementary information about the line profile 20 and the like is shown.
  • the computer system 1 operates in the X direction (horizontal direction in the image) which is perpendicular to the perpendicular line 13 (904) extending from the area reference point 12 (903) upward in the Z direction (vertical direction in the image). direction), a line profile 20 is acquired starting from the perpendicular 13 side.
  • the line profile 20 is data composed of the luminance values of pixels on the line on the pixel data of the image 7.
  • 15 line profiles 20 indicated by numbers #1 to #15 are acquired as the plurality of line profiles 20.
  • the plurality of line profiles 20 are obtained, for example, as follows. 10 and 11, the computer system 1 draws a perpendicular line 13 from the area reference point 12 to the upper interface reference line 11, and extracts an intersection 14 between the perpendicular line 13 and the interface reference line 11. Starting from the intersection 14, the computer system 1 first extracts line profiles 20 (#1, #15) on the interface reference line 11 in the left and right directions in the X direction.
  • the line segment extending from the intersection 14 to the left to the end of the range 23 is the line profile 20 with number #1
  • the line segment extending from the intersection 14 to the right to the end of the range 23 is the line profile 20 with number #1.
  • these left and right line profiles 20 are set as two lines instead of one line.
  • the computer system 1 sets a plurality of points (referred to as division points 15) at a predetermined interval or number, for example, on the perpendicular line 13 connecting the intersection point 14 on the interface reference line 11 and the area reference point 12. do.
  • These division points 15 are points that define positions for extracting a plurality of line profiles 20 in the X direction.
  • the computer system 1 similarly extracts line profiles 20 extending in the X direction within ranges 23 to the left and right in the X direction, respectively, starting from each dividing point 15 .
  • three division points 15 (FIG. 11) are added, and line profiles 20 with numbers #2 to #4 are on the left, and line profiles 20 with numbers #12 to #14 are on the right. has been obtained.
  • eight line profiles 20, indicated by numbers #1 to #4 and #12 to #15 are obtained in the upper range from the area reference point 12.
  • the range 23 is a range for extracting the line profile 20.
  • the range 23 is a rectangular area up to a predetermined length from the perpendicular line 13 to the left and right on the upper side in the Z direction from the area reference point 12, and is a rectangular area up to a predetermined length from the area reference point 12 on the lower side in the Z direction. It is a semicircular area up to the radius.
  • a line profile 20 extending in the X direction is set in the rectangular area above the area reference point 12; In the lower semicircular region, a line profile 20 extending in the radial direction at each position in the radial direction is set.
  • these two types of line profiles 20 are used to detect the outline (particularly the edges forming the outline) of the target structure pattern.
  • the computer system 1 acquires a plurality of line profiles 20 extending in the radial direction within the lower semicircular range 23 from the area reference point 12 (903).
  • the computer system 1 acquires a line profile 20 with number #5 extending to the left in the X direction and a line profile 20 with number #11 extending to the right in the X direction from the position of the area reference point 12. do.
  • the computer system 1 is configured to perform the following operations within a semicircular area from the line profile 20 with number #5 to the line profile 20 with number #11, with the area reference point 12 as the center point, for example, at predetermined angular intervals or numbers. Set multiple radial directions by dividing.
  • the computer system 1 acquires line profiles 20 extending in each radial direction (in other words, the direction of the rotation angle). In this example, five line profiles 20, indicated by numbers #6 to #10, have been acquired.
  • the two line profiles 20 with numbers #5 and #11 extend in the X direction and can be said to belong to both the upper range and the lower range, so those two lines are included. It may be assumed that a total of 10 line profiles 20 are acquired in the upper range.
  • numbers (IDs) for identification are assigned in the order starting from the left side and working around to the right side, as shown by the dashed arrows. but not limited to. Further, the processing order of the plurality of line profiles 20 does not have to be limited to the numerical order.
  • the range 23 (for example, the length from the area reference point 12) and the quantity (for example, the interval and number of divisions) for acquiring the line profile 20 may be set as fixed values in advance in the implementation of the software 110, or may be defined in advance.
  • the information 112 may be set by the user as setting values corresponding to the structure pattern.
  • the method of using the line profiles 20 in two types of directions in the first embodiment corresponds to the characteristics such as the shape of the target structure pattern.
  • the structure pattern such as the trench 403 generally has an uneven or trapezoidal shape.
  • it is suitable to extract the line profile 20 in the X direction or the radial direction.
  • the line profile 20 when detecting the outline of a region of a trench 403 having a concave and inverted trapezoidal shape, the line profile 20 is set with the region reference point 12 as the center in the lower range from the region reference point 12.
  • Set in the radial direction (in other words, the radial direction).
  • the line profile 20 in the radial direction (set for numbers #6 to #10 in FIG. 11) passes through the vicinity of the side wall and bottom of the trench 403, as shown in the figure. It becomes possible to extract edge candidate points 21 (edge candidate points existing on each line profile with numbers #6 to #10).
  • the computer system 1 extracts edge candidate points 21 on each of the plurality of line profiles 20 acquired above, which are edge candidates related to the outline of the region of the structure to be measured.
  • the computer system 1 extracts edge candidate points 21 on one line profile 20 based on a predetermined rule.
  • the edge candidate point 21 is a candidate point that becomes an edge forming the outline of the target structure pattern.
  • edge candidate points 21 may not be extracted, or two or more edge candidate points 21 may be extracted.
  • edge candidate points 21 extracted on the line profile 20 are shown as white square points and black square points.
  • the first point is designated as an edge candidate point 21a indicated by a white square point for distinction
  • the second point is designated as an edge candidate point 21a indicated by a black square point. It is set as point 21b.
  • the outline of trench 402 and the like may be vague, such as white band 406.
  • the edge (end point) here refers to, for example, the pixel (or the position or coordinates of the pixel) at the most probable position as the outline of a structure, or the pixel at the most probable position among the pixels constituting the white band 406. It means a line formed by a set. Note that the coordinates between pixels can also be defined as edges.
  • the computer system 1 determines the brightness change on each line profile 20 and extracts edge candidate points 21 according to a predetermined rule. In this process for each line profile 20, it is sufficient to determine a change in brightness value in a single direction, for example, the X direction. Therefore, the detection of contours or edges is facilitated compared to the determination of brightness changes in each direction within a two-dimensional image in the prior art.
  • the predetermined rule is a regulation regarding the direction and amount of brightness change for determining the edge candidate point 21.
  • the predetermined rule may be that the brightness increases from low to high, that the amount of change in brightness is equal to or greater than a threshold, or that an intermediate value of the difference in brightness changes is used.
  • the details of the predetermined rules are not limited.
  • the lower part of FIG. 12 shows a graph obtained by reversing the polarity of the upper graph in the X direction, and this graph matches the direction in FIG. 10 and the like.
  • the area of the trench 403 corresponding to the background changes to the area of the pillar 402 or mask 401, so the brightness value increases. do.
  • the brightness value increases greatly at that point.
  • the brightness value is increased from the brightness value v1 to the brightness value v2.
  • the area from the coordinate x1 to the coordinate x2 corresponds to the white band 406.
  • the brightness value decreases because it enters the area of the pillar 402 or mask 401.
  • the brightness value is decreased from the brightness value v2 to the brightness value v4.
  • the area from the coordinate x2 to the coordinate x3 corresponds to the area of the pillar 402 or the mask 401 (particularly the material interface 413).
  • the brightness value again enters the white band 406, so the brightness value increases greatly, and in this example, the brightness value increases from the brightness value v4 to the brightness value v2.
  • the area from the coordinate x3 to the coordinate x4 corresponds to the white band 406.
  • the brightness value decreases significantly, and in this example, the brightness value decreases from the brightness value v2 to the brightness value v1.
  • the position of the edge candidate point 21 to be extracted is defined as a position between the minimum and maximum brightness values.
  • the edge candidate point 21 is located between the luminance value v1, which is the minimum value, and the luminance value v2, which is the maximum value.
  • the coordinate x1 of the position corresponding to the brightness value v3 between the local minimum value and the local maximum value becomes the edge candidate point 21 (first edge candidate point 21a) indicated by a white square point.
  • the position at which the edge candidate point 21 is extracted is defined, for example, by an intermediate value between a local minimum value and a local maximum value, but is not limited thereto.
  • the definition of which position among the brightness change locations is to be extracted as the edge candidate point 21 is not limited to the example of using the intermediate value as described above.
  • a threshold value Th[%] regarding the rate of brightness value is provided as a setting.
  • the brightness value is B
  • the local maximum value of the brightness change around the edge candidate is Bmax
  • the local minimum value is Bmin
  • the brightness value to be used as an edge candidate is Bth
  • B Calculate th The position corresponding to B th is defined as the edge candidate point 21.
  • Equation 1 the position of the brightness value corresponding to the ratio of the threshold Th for the difference between the local maximum value and the local minimum value is defined as the position of the edge candidate point 21. Setting the threshold Th to 50% corresponds to the example of the intermediate value in FIG. 12 .
  • the above regulations regarding the determination of edge candidate points 21 are just one example.
  • a method of setting the edge candidate point 21 at a position deviated by a certain value from the position of the maximum value or the minimum value may also be applied.
  • one of the rules regarding the extraction of edge candidate points 21 is that when detecting the outline of the region of the trench 403 as shown in FIG. Then, edge candidate points 21 are extracted.
  • the rule is to determine the edge candidate point 21 at a location where the brightness increases in the direction of the line profile 20.
  • the locations where the brightness changes are large are near the coordinate x1 and near the coordinate x2.
  • the brightness value v1 in the positive direction of the X direction near the perpendicular line 13 is smaller, and the brightness value v2 in the negative direction of the X direction far from the perpendicular line 13 is larger, and the brightness change increases from low to high. It is.
  • the brightness value v2 in the positive direction of the X direction near the perpendicular 13 is larger, and the brightness value v4 in the negative direction of the X direction far from the perpendicular 13 is larger, and the brightness change is from high to low. It is a decrease.
  • the edge candidate point 21 (21a) is extracted at, for example, near the coordinate x1, which is a location where the luminance change increases from low to high among the two locations where the luminance change is large.
  • the edge candidate point 21 is not extracted near the coordinate x2, which is a location where the brightness change decreases from high to low.
  • an edge candidate point 21a white square point
  • an edge candidate point 21b black square point
  • the computer system 1 determines the amount of change in brightness at a point where the brightness value v1, which is the minimum value, increases to the brightness value v2, which is the maximum value, and calculates, for example, the brightness value v3, which is the intermediate value.
  • an edge candidate point 21a is extracted at the coordinate x1 corresponding to the brightness value v3.
  • the computer system 1 determines and extracts edge candidate points 21 for each line profile 20 using the same rules.
  • the rule regarding the location of brightness change from which the edge candidate point 21 is extracted if the rule for extracting at a location where the brightness increases is the first rule, and the rule for extracting at a location where the brightness decreases is the second rule, then the first rule is Instead of the second rule, the second rule may be applied.
  • the edge candidate point 21 is extracted on the side of the white band 406 close to the perpendicular 13 (for example, near the coordinate x1) as described above, but when the second rule is applied, , the edge candidate point 21 (for example, the position of the luminance value v5) is extracted on the opposite side of the white band 406, that is, on the side far from the perpendicular line 13 (for example, near the coordinate x2).
  • the brightness value v2 which is the maximum value
  • the coordinate x2 of the position corresponding to the brightness value v5, which is the intermediate value is an edge candidate. It is extracted as point 21.
  • FIG. 13 shows the edge candidate points 21 extracted for the trench 403 when the applied rule is changed from the first rule to the second rule for the target image 70 etc. similar to FIG. 10. show.
  • These edge candidate points 21 are arranged at positions that are generally expanded outward (positions closer to the pillar 402) than the edge candidate points 21 according to the first rule in FIG.
  • the rules to be applied may be different for each type of structure pattern. For example, if the target is the trench 403, the first rule for extraction is applied at a location where the brightness increases, and if the mask 401 or pillar 402 is the target, the second rule is applied at a location where the brightness decreases. May be applied.
  • the edge candidate points 21 to be extracted differ depending on the applied rule.
  • the outline of the trench 403 and the outline of the pillar 402 can be detected as separate outlines with different position coordinates, or they can be detected as outlines with similar position coordinates.
  • Which of the various rules and methods to apply including the rule for extracting the edge candidate points 21, may be fixed in advance in the implementation of the software 110, or the computer system 1 may User settings may be made possible on the GUI screen 60 by U1. Based on the definition information 112, rules depending on the structure pattern may be selected and applicable.
  • the second edge candidate point 21b black square point
  • the brightness change on the line profile 20 is checked in the direction from the perpendicular line 13 side to the end of the range 23, and the brightness change is significant at a location where the amount of brightness change is sufficiently large, for example, a significant brightness change location near the white band 406.
  • the position corresponding to the intermediate value is extracted as the edge candidate point 21.
  • the second edge candidate point 21b black square point
  • the first edge candidate point 21a corresponds to an edge forming the outline of the target trench 403, but the second edge candidate point 21b corresponds to an edge forming the actual outline of the trench 403. I haven't.
  • the second edge candidate point 21b may also become an edge forming the outline of the target structure pattern.
  • the computer system 1 in the first embodiment obtains a plurality of edge candidate points 21 by extracting the edge candidate points 21 on the line profile 20 in the same manner for all the plurality of line profiles 20 as described above. .
  • a plurality of (for example, 15) edge candidate points 21a indicated by white square points and a plurality of (for example, 13) edge candidate points 21b indicated by black square points are obtained.
  • the computer system 1 in the first embodiment makes a comprehensive judgment from these multiple edge candidate points 21 and detects edges that constitute the outline of the target structure pattern.
  • the line profiles 20 with numbers #1 to #5 and numbers #11 to #15 correspond to the transition from the trench 403 to the pillar 402, and the edge candidate points 21a and 21b corresponding to the side walls of the trench 403 and the pillar 402 are can get.
  • the line profiles 20 with numbers #1 and #15 are on the interface reference line 11. Therefore, for example, the brightness value v4 in FIG. 12 is a brightness value near the material interface, and although it is a constant value in the example of FIG. 12, it may actually be a variable value.
  • edge candidate points 21 can be similarly extracted in the direction of each line profile 20.
  • edge candidate points 21 can be similarly extracted in the direction of each line profile 20.
  • the line profile 20 with number #6 only one edge candidate point 21 (white square point) is extracted.
  • an edge candidate point 21a near the bottom of the trench 403 and an edge candidate point 21b corresponding to the boundary with the underlying material layer are extracted.
  • Step S4 Contour detection part 2
  • an example of a method for determining edges constituting the outline of a structure pattern whose dimensions are to be measured, for example, the trench 403, based on the plurality of edge candidate points 21 of the plurality of line profiles 20 will be described.
  • the computer system 1 selects arbitrary edge candidate points 21 for each line profile 20 and creates a combination of a plurality of edge candidate points 21. At this time, the computer system 1 calculates the evaluation value of the edge-likeness of the contour for the combination of edge candidate points 21. The computer system 1 determines the combination of edge candidate points 21 with the highest evaluation value as the contour edge (in other words, edge point). The computer system 1 determines which edge point to select based on the positional relationship between the plurality of edge candidate points 21 in the combination.
  • the software 110 also includes an algorithm for making such a determination.
  • FIG. 14 shows an example of a combination of edge candidate points 21.
  • Combination #1 is an example of a correct answer.
  • a small white circle point indicates one edge point 22 selected from edge candidate points 21 for each line profile 20.
  • Combination #2 is an incorrect example, and the second edge candidate point 21b is selected in the line profile 20 with number #1.
  • Combination #3 is an incorrect example, and the second edge candidate point 21b is selected in the line profile 20 with number #2.
  • Combination #4 is an incorrect example, and the second edge candidate point 21b is selected in the line profiles 20 with numbers #1 and #2.
  • the first evaluation viewpoint is the amount of change in brightness value.
  • FIG. 10 and the like are schematic diagrams, there are only clear edges, but in actual cross-sectional images taken with an electron microscope, the edges may be unclear. For example, due to the above-mentioned collapse and contamination, minute brightness changes may occur near the outline of a structure in a cross-sectional image due to dust adhesion, noise during imaging, and the like. It would be an error to determine an edge using such a brightness change as the edge candidate point 21.
  • it may be defined as a luminance gradient value.
  • the difference ⁇ B near the coordinate x1 can be calculated.
  • the second evaluation viewpoint is the distance between edge candidate points 21. Since the outline of a structure should be continuously connected, it is defined that the closer the distance between the edge candidate points 21, the higher the edge-likeness. If the distance between the edge candidate points 21 is long, there is a high possibility that the edge of an object other than the object, such as dust attached to a cross section of a structure, is being detected. For example, in the examples of FIGS. 10 and 14, the edge candidate point 21a indicated by the white square point of the line profile 20 numbered #2 is closer to the edge candidate point 21a indicated by the white square point of the line profile 20 numbered #1. , the edge candidate point 21b indicated by the black square point of the line profile 20 with number #2 is far away. These correspond to combination #1 and combination #3 in FIG. 14.
  • the computer system 1 calculates the evaluation value for a combination such that the smaller the distance between the edge candidate points 21, the larger the evaluation value.
  • the computer system 1 selects a plurality of edge points 22 that are considered to have the highest edge-likeness. For example, combination #1 is selected.
  • the evaluation value of the contour line consisting of is calculated as E.
  • the evaluation value E is an evaluation value of contour continuity, and can be defined, for example, by the following equation 2.
  • ⁇ B n in Equation 2 is the difference between the maximum value and minimum value of brightness around the edge candidate point 21 selected in the n-th line profile 20.
  • D n,n+1 is the distance between the edge candidate point 21 selected in the nth line profile 20 and the edge candidate point 21 selected in the (n+1)th line profile 20.
  • the computer system 1 selects and determines the combination with the maximum evaluation value E as the edge point 22 from among all the combinations of edge candidate points 21 .
  • the computer system 1 may create a contour formed by these edge points 22, for example, a contour line connecting the edge points 22 in order, and use the contour line as the contour detection result.
  • calculation using the method of determining the edge with the maximum evaluation value E may be NP-hard. For example, if there are 100 line profiles 20 and each line profile 20 has 10 edge candidate points 21, there are 10 to the 100th power of combinations, so it is difficult to calculate the evaluation value E for all combinations. be. Therefore, a combination of edge candidate points 21 with approximately the maximum evaluation value E may be found using an approximate method. For example, let P n be an arbitrary edge candidate point 21 of the nth line profile 20, and let P n +1 be an arbitrary edge candidate point 21 of the (n+1)th line profile 20 adjacent to the nth line profile 20.
  • Equation 3 the temporary evaluation value is E temp , which is defined by Equation 3 below.
  • the computer system 1 selects one edge candidate point 21 from among the edge candidate points 21 of the first line profile 20, and selects one edge candidate point 21 of the second line profile 20 for which the evaluation value E temp is maximum. 21 is determined.
  • the edge candidate points 21 of the third and subsequent line profiles 20 are determined in the same manner.
  • the computer system 1 calculates the evaluation value E from the combination of the obtained edge candidate points 21.
  • the computer system 1 selects another edge candidate point 21 of the first line profile 20, performs the same process, and calculates the evaluation value E from the combination of the obtained edge candidates.
  • the computer system 1 selects the combination with the highest evaluation value E among the combinations of edge candidate points 21 obtained by the edge candidate points 21 selected in the first line profile 20, and selects the combination with the highest evaluation value E.
  • the combination of edge candidate points 21 is determined as follows. Such an approximate method can significantly reduce calculation time and realize automatic contour detection within a finite amount of time.
  • the method for determining the edge point 22 is not limited to the above method.
  • edge points 22 corresponding to the 15 edge candidate points 21 (21a) indicated by white square points are obtained as the outline of the trench 403.
  • FIG. 15 shows an example of contour detection results.
  • the computer system 1 may form the outline 24 of the trench 403 by connecting the edge points 22 with a line, as shown in FIG. This contour line 24 corresponds to a part of the contour detection result.
  • contour line 24 is formed by sequentially connecting detected edge points 22 (indicated by white circles) with straight lines in the target image 70.
  • contour line 24 represents the contour of the sidewalls and bottom in the region of trench 403.
  • the upper surface of the region of trench 403 is open and demarcated by interface reference line 11 .
  • the computer system 1 may, for example, create an approximate curve as a smoothing process based on the plurality of edge points 22 and use it as the contour line 22. Further, the contour line 24 may be omitted and the contour may be expressed only by the plurality of edge points 22. If the number of edge points 22 is sufficiently large, the contour can still be expressed.
  • the computer system 1 may display edge points 22 or contour lines 24 as the contour detection results, as shown in FIG. 15, within the GUI screen 60, for example, on the target image in the image field 601.
  • the computer system 1 may display dimension values of dimension measurement results 8, which will be described later, on the GUI screen 60 together with the outline 24 and the like.
  • FIG. 16 shows the case of contour detection (particularly edge candidate point extraction) regarding the mask 401
  • FIG. 17 shows the case of contour detection (particularly edge candidate point extraction) regarding the pillar 402.
  • the examples in FIGS. 16 and 17 show cases in which the above-described first rule of extracting at locations with increased brightness is applied as the rule for extracting edge candidate points 21.
  • the edge of the outline of the trench 403 and the edge of the outline of the pillar 402 will be different.
  • the area reference point 12 is specified within the area of a certain mask 401.
  • the computer system 1 draws a perpendicular line 13 downward from the area reference point 12 to the interface reference line 11, and extracts an intersection point 14.
  • the computer system 1 extracts a plurality of line profiles 20 in the X direction in the area from the area reference point 12 to the intersection 14.
  • the computer system 1 extracts a plurality of line profiles 20 in the radial direction in the region above the region reference point 12 .
  • the computer system 1 extracts edge candidate points 21 from each line profile 20 based on the above-mentioned first rule and the like.
  • Computer system 1 determines edge points 22 for mask 401 based on a combination of multiple edge candidate points 21.
  • a line profile 20 in the radial direction is applied in the upper range from the area reference point 12.
  • the line profile 20 in the radial direction passes through the contour of the mask 401 having a convex shape and a trapezoidal shape, so that edge candidate points 21 of the contour of the mask 401 can be extracted.
  • the area reference point 12 is specified within the area of a certain pillar 402.
  • the computer system 1 draws a perpendicular line 13 upward from the area reference point 12 to the interface reference line 11, and extracts an intersection point 14.
  • the computer system 1 extracts a plurality of line profiles 20 in the X direction in the area from the area reference point 12 to the intersection 14.
  • the computer system 1 extracts a plurality of line profiles 20 in the radial direction in the region below the region reference point 12 .
  • the computer system 1 extracts edge candidate points 21 from each line profile 20 based on the above-mentioned first rule and the like.
  • the computer system 1 determines the edge point 22 regarding the pillar 402 based on the combination of the plurality of edge candidate points 21.
  • Step S5 Dimension measurement
  • the computer system 1 performs dimension measurement processing on the contour information detected in step S4 by referring to the definition information 112 selected in step S2, obtains the dimension measurement result 8, and displays the result on the GUI screen 60. indicate.
  • FIG. 18 shows a schematic explanatory diagram of an example in which the dimensions of the trench 403 are measured based on the contour information of the trench 403, for example.
  • the contour information in the two-dimensional target image 70 includes information on the edge points 22 and contour lines 24 as described above.
  • FIG. 18 shows the case where the trench depth (dimension A4 in FIG. 4) is measured.
  • the computer system 1 sets a dimension measurement target line 1801 for measuring the trench depth dimension A4.
  • a trench depth dimension measurement target line 1801 is drawn perpendicularly to the edge of the contour furthest in the vertical direction (edge point p8 in this example) from the interface reference line 11 specified in step S1. Definable as a line.
  • the computer system 1 measures the dimension A4 on the set dimension measurement target line 1801.
  • FIG. 18B shows a case where the trench width (dimension A1 in FIG. 4) at the position of the interface reference line 11 corresponding to the material interface 413 is measured as the trench width.
  • the computer system 1 sets a dimension measurement target line 1802 for the dimension A1.
  • the computer system 1 takes edge points p1 and p15, which are the two intersection points of the interface reference line 11 specified in step S3 and the outline of the trench 403, and draws a line between these edge points to determine the dimension measurement target.
  • a line 1802 can be defined.
  • FIG. 18(C) shows a case where the trench width is measured at a position 30 nm below the position of the interface reference line 11 corresponding to the material interface 413 as a predetermined distance d.
  • the computer system 1 sets a dimension measurement target line 1803 at a position at a predetermined distance.
  • the computer system 1 calculates how many pixels on the target image the distance 30 nm corresponds to from the interface reference line 11, based on information such as the pixel size of the target image.
  • the computer system 1 extracts two intersections (endpoints 1811 and 1812 in this example) between the horizontal line (straight line extending in the X direction) at the calculated position and the outline (outline 24) of the trench 403.
  • the computer system 1 can define a dimension measurement target line 1803 as a line drawn between those two intersection points.
  • the dimensions of the pillars 304 and the mask 303 can also be measured in the same way. Further, other types of dimensions can be similarly measured.
  • the computer system 1 may measure an angle (for example, an angle of a side wall) calculated from a partial region of the outline of a structure.
  • FIG. 18(D) shows a case where the side wall angle 1804 of the trench 403 is measured.
  • the angle 1804 formed by the left side wall is measured with respect to a position at a specified distance (for example, 30 nm) downward from the interface reference line 11.
  • the computer system 1 detects edge points (in this example, edge points p1 to p3), calculate an approximate straight line regarding the side wall.
  • the computer system 1 may refer to a part of the contour line 24 already calculated from the edge points 22 described above.
  • the computer system 1 calculates the angle 1804 that the approximate straight line or contour line 24 makes with respect to the horizontal line at the designated position. In this way, the side wall angle at the specified position can be measured.
  • the computer system 1 measures the area of a region surrounded by the outline of the structure (outline 24) and the material interface 413 (interface reference line 11), for example, the trench area. You may.
  • the computer system 1 can measure the area of the region of the target structure based on the interface reference line 11, the region reference point 12, the definition information 112, the detected contour line 24, and the like.
  • FIG. 19 shows an example of measuring the area of the trench 403.
  • the user U1 specifies area as the type of measurement target dimension on the GUI screen 60 based on the definition information 112, and specifies the interface reference line 11 and the area reference point 12 for the target image 70.
  • the computer system 1 detects edge points 22 and contour lines 24 as described above based on the specified interface reference line 11 and area reference point 12.
  • the computer system 1 extracts a closed region including the region reference point 12, which is composed of an interface reference line 11 and a contour line 24 formed by a plurality of edge points 22. This closed region corresponds to the trench 403 region.
  • the computer system 1 counts the number of pixels included in the extracted region of the trench 403 and calculates the area based on the pixel information and the like. This provides the area measurement result.
  • Step S6 Output of dimension measurement results
  • the computer system 1 stores the data of the dimension measurement result 8, which is the result of step S5, in the memory resource 102, and displays it on the GUI screen 60 to the user U1.
  • the dimension measurement result 8 may include position coordinate information of the interface reference line 11 and position coordinate information of the area reference point 12 specified in step S3.
  • FIG. 20 shows an example of a GUI screen 60 that displays the dimension measurement results 8.
  • the measurement target dimension for example, the trench width dimension A4 of the dimension measurement target structure (for example, the trench 403) is displayed superimposed on the target image 70 in the image column 601 described above.
  • the dimension measurement target line (indicated by a white arrow) for the target dimension is displayed, and if necessary, you can add a leader line to the target dimension measurement target line (for example, "A4"/"Depth") and the dimension measurement target line (indicated by a white arrow).
  • the measured value for example, "100nm" is displayed.
  • a result column 2001 at the bottom information such as dimension measurement values for each target dimension is displayed in a table.
  • the present invention is not limited to this, and as another display example, information such as the position coordinates of two points defining the dimension measurement target line may be further displayed.
  • the user U1 manually detects material interfaces that are difficult to detect automatically and the rough position of the structure region to be measured using the interface reference line 11 and the region reference point 12 in the cross-sectional image.
  • a semi-automatic method is adopted in which the computer system 1 automatically performs contour detection and dimension measurement based on the interface reference line 11 and area reference point 12. Therefore, it is possible to shorten the time required for the processing and work of dimension measurement on the cross-sectional image, and the effort of the user U1 can be reduced. Furthermore, the influence of errors caused by manual operations can be reduced.
  • the user U1 specifies the interface reference line 11 for the material interface and roughly specifies the area reference point 12 for the dimension measurement target structure area using subjective judgment and manual operation for the cross-sectional image. Just do it.
  • the computer system 1 detects edges constituting the outline of the structure pattern in the cross-sectional image based on the designated interface reference line 11 and area reference point 12 through processing using a predetermined algorithm.
  • the computer system 1 measures the specified type of dimension based on the detected edge information.
  • the main manual operation by the user U1 is only the operation of specifying the interface reference line 11 and the area reference point 12, so the number of inputs is small and the effort of the user U1 is reduced. can.
  • the computer system 1 since the computer system 1 accurately detects the contour and performs dimension measurement based on the interface reference line 11 and the area reference point 12, human errors are less likely to be reflected in the dimension measurement results.
  • the semi-automatic method in Embodiment 1 also has at least the following first advantage and second advantage compared to the automatic dimension measurement method of the prior art example.
  • the first advantage is that dimensions can be measured while excluding structural patterns that are not suitable as targets for dimension measurement.
  • the "structural pattern that is not suitable as a target for dimension measurement” includes, for example, a structure that has the aforementioned collapse or dust adhesion.
  • the cross-sectional structure of a semiconductor is recognized based on pattern matching/template matching, and the outline/edge of the recognized cross-sectional structure is detected.
  • dimensions are measured for all objects, including dust, that are recognized and detected from within the target image based on pattern matching/template matching.
  • portions caused by collapse, dust, noise during imaging, etc. may also be recognized and detected as contours/edges and become targets for dimension measurement. Parts with such dust and the like are inappropriate and should be excluded from dimension measurement targets.
  • FIG. 21 shows an example of contour detection and dimension measurement results in a target image 2100 that includes a structure pattern with dust attached.
  • dust due to contamination has adhered to the cross section of the target sample.
  • a SEM that observes a cleaved substrate, such dust may adhere.
  • a trench 2102 in the target image 2100 has a dust portion 2110 corresponding to the dust on the right side wall thereof.
  • contour edges are detected for each of the three trenches 2101 to 2103, and are separated by, for example, 30 nm from the interface reference line 11 corresponding to the material interface.
  • the trench width is being measured at the bottom position.
  • Dimension measurement target lines 2111 to 2113 in each trench 2101 to 2103 are indicated by arrows.
  • the outline of the dust portion 2110 is also detected and the dimensions are measured.
  • a dust portion 2110 attached to the right side wall of the trench 2102 protrudes into the region of the trench 2102 in a convex shape, and a contour line including an edge point 2105 is detected at the convex portion.
  • a dimension measurement target line 2112 in the trench 2102 is set between the contour line of the left side wall and the contour line of the dust portion 2110. Therefore, the length measurement value at the dimension measurement target line 2112 becomes a value shorter than the length measurement value at the trench structure (for example, the trench 2101) without dust.
  • the user U1 visually checks the contents of the target image 2110, and if the user U1 determines that the trench 2102 with the dust portion 2110 is inappropriate for length measurement, the user U1 The area reference point 12 is not specified for. As a result, for example, the length of the trenches 2101 and 2103 to which the area reference point 12 is designated is measured, but the length of the trench 2102 is not measured. In this way, parts that give inappropriate length measurement results can be excluded.
  • the user U1 confirms the dimension measurement results on the GUI screen 60. do. If the user U1 wants to exclude the dimension measurement results for the trench 403 including the dust portion 2110, he or she clicks on the area reference point 12 displayed in the target image to change it from the on state to the off state. In accordance with this operation, the computer system 1 rejects the dimensional measurement results for the trench 403, and also erases the display of the dimensional measurement results, as in (B).
  • a second advantage is that dimensions can be measured even for a structural pattern that deviates from a design pattern or a template pattern.
  • the "structural pattern that deviates from the design pattern or template pattern” includes, for example, a structural pattern as shown in FIG. 22.
  • FIG. 22(A) shows an image 2201 of a cross-sectional structure of the target shape of etching processing, for example, and FIG. 22(B) shows an image 2202 of the processed shape after actual etching.
  • (A) corresponds to a design pattern, etc.
  • the structure of the trench 403B shown in FIG. 22B has a shallow trench depth and is different from the structure of the trench 403A in FIG. .
  • trench 403B has a large difference in trench depth from trench 403A.
  • the trench can be created by simply specifying the interface reference line 11 and the area reference line 12 for the image 2202.
  • the dimensions of 403B (for example, trench depth 2203) can be measured.
  • step S3 on the GUI screen 60, the user U1 collectively sets the interface reference line 11 and the area reference point 12 for a plurality of structure patterns in the cross-sectional image 70. It is also possible.
  • FIG. 23 shows an example in which a plurality of area reference points 12 and the like are collectively set for a plurality of structure patterns in the target image 70.
  • the target image 70 includes four masks 401, four pillars 402, and three trenches 403.
  • the user U1 performs an operation to designate one interface reference line 11 at the material interface between the mask 401 and the pillar 402. Further, the user U1 performs an operation to designate the area reference point 12 in the area of each structure.
  • the user U1 specifies a plurality of area reference points 12 by operating a mouse or the like and sequentially clicking the positions of each area with the cursor 609.
  • the area reference point 12 for the mask 401 is shown as a triangle mark
  • the area reference point 12 for the pillar 402 is shown as a square mark
  • the area reference point 12 for the trench 403 is shown as a circle mark.
  • FIG. 24 shows a case where two interface reference lines 11 (11A, 11B) are set in a cross-sectional image 2400.
  • the cross-sectional image 2400 includes a first-layer structure 2401, a second-layer structure 2402, and a third-layer structure 2403 as three-layer structures on the base layer. Assume that each layer is made of different materials and has different brightness.
  • the material interface includes a first interface between the first layer structure 2401 and the second layer structure 2402, and a second interface between the second layer structure 2402 and the third layer structure 2403.
  • the user U1 sets the interface reference line 11 at each of the two material interfaces for such a cross-sectional image 2400 on the GUI screen 60.
  • An interface reference line 11A is specified for the first interface
  • an interface reference line 11B is specified for the second interface.
  • the user U1 can specify area reference points 12 for areas divided by interface reference lines 11 corresponding to each material interface.
  • area reference points 12A, 12B, and 12C are specified for the first layer structure 2401, the second layer structure 2402, and the third layer structure 2403. Contour detection and dimension measurement are possible for each area specified by the area reference point 12.
  • perpendicular lines 13 are drawn from the area reference point 12B to the upper and lower interface reference lines 11A and 11B, respectively, as shown in the lower part of FIG.
  • the computer system 1 applies the line profile 20 in the X direction to the area including the area reference point 12B.
  • the computer system 1 extracts edge candidate points 21 on each of a plurality of line profiles 20 in the X direction within the region. Based on this information, the computer system 1 can detect the outline of the second layer structure 2402 including the area reference point 12B and measure the specified dimension (for example, width).
  • FIG. 25 shows an example of setting two interface reference lines 11 (11a, 11b) at different height positions when there are two material interfaces at different height positions in the cross-sectional image 2500.
  • the cross-sectional image 2500 includes a structure 2501 at a first height, a structure 2502 at a second height, a structure 2503 at a third height, and a structure 2504 at a fourth height.
  • the material interface includes a first material interface between the structure 2501 and the structure 2502, and a second material interface between the structure 2503 and the structure 2504. The height of the first material interface and the height of the second material interface are different.
  • the user U1 uses the interface selection GUI 61 on the GUI screen 60 to specify the interface reference line 11 in accordance with the height position of each material interface.
  • An interface reference line 11a is specified for the first material interface
  • an interface reference line 11b is specified for the second material interface.
  • the interface selection GUI 61 is a GUI that allows each location in the cross-sectional image 2500 to be specified as a line segment.
  • the user U1 operates the cursor 609 using a mouse or the like to specify the start point and end point for each interface reference line 11.
  • the interface reference lines 11a and 11b can be drawn at desired positions.
  • the computer system 1 can perform contour detection and dimension measurement for the structures 2501 to 2504 based on the respective interface reference lines 11 and area reference points 12.
  • the interface reference line 11 is set for the material interface between different materials.
  • the interface reference line 11 is not limited to this, and as another modification, contour detection etc.
  • a reference line may be established for support of
  • the reference line in the X direction may be set to point to the bottom of the pillar 402.
  • a reference line may be set to indicate the divisions.
  • the computer system 1 can use these reference lines as boundaries or edges for predetermined processing such as contour detection.
  • the functional parts up to step S4 in FIG. 5 can be regarded as a contour detection system and method, and may be implemented as such a contour detection system and method.
  • the computer system 1 in this contour detection system and method stores and outputs information regarding the contour or edge of the structure pattern detected from the target image in step S4.
  • the computer system 1 displays an image including edge points 22 and contour lines 24 as shown in FIG. 15 to the user U1 on the GUI screen 60.
  • Any system for example, an observation device, an inspection device, etc. can use the information regarding the contour or edge generated and output by this contour detection system.
  • the interface reference line 11 is a straight line extending in the horizontal direction (X direction) depending on the direction of the material interface in the cross-sectional image, but the invention is not limited to this.
  • the interface reference line 11 may be a line extending in the vertical direction (Z direction), for example, depending on the content of the cross-sectional image of the target sample.
  • Modification 1 Interface reference line adjustment function
  • the deviation is adjusted. It may also have an adjustment function.
  • FIG. 26 shows an explanatory diagram of the adjustment function (in other words, the interface reference line adjustment function) in Modification 1.
  • the adjustment function in other words, the interface reference line adjustment function
  • FIG. 26 shows an explanatory diagram of the adjustment function (in other words, the interface reference line adjustment function) in Modification 1.
  • the GUI screen 60 in addition to the image field 601, there is an adjustment field 2601 for the interface reference line 11.
  • the position of the interface reference line 11 specified and set on the GUI screen 60 of FIG. 6 described above can serve as a reference for defining the structure area to be measured and the dimensions to be measured.
  • This interface reference line 11 can be set by manual selection by the user U1 as shown in FIG. 8, or estimation by AI, which will be described later.
  • the interface reference line set visually by a human or estimated by AI may not necessarily match the actual material interface. If this deviation is larger than a certain level, it may have a large effect on the dimensional measurement accuracy.
  • the computer system 1 in the first modification uses the vertical luminance information of the pixels of the target image to adjust the deviation regarding the position of the interface reference line 11.
  • a GUI screen 60 as shown in FIG. 26 is displayed.
  • the computer system 1 displays an average graph 2604 of brightness values (in other words, an average profile of brightness values at the y-coordinate) in an adjustment field 2601 on the right side of the target image 70 in the image field 601.
  • This average brightness value graph 2604 is an average graph of brightness values for each y-coordinate (vertical coordinate in the image) of pixel data constituting the target image 70.
  • this graph is displayed with the vertical axis on the screen as the y-coordinate of the target image 70, and the horizontal axis on the screen as the average value of the luminance values at each y-coordinate.
  • step S3 of FIG. 2 the user U1 sets the interface reference line 11c on the target image 70 by manual operation.
  • This interface reference line 11c has a deviation of more than a certain degree with respect to the actual interface between the mask and the pillar, and for example, it has entered the area on the pillar side.
  • the computer system 1 detects a position (position 2606) corresponding to the interface on the average profile (average graph 2604) of the luminance value of the y-coordinate. This detection is possible based on a determination of a change in brightness as shown in the figure.
  • the processor modifies the interface reference line 11 to match the position 2606. In this example, the modified interface reference line 11d is displayed vertically moved upward from the unmodified interface reference line 11c.
  • the search range of the interface may be set as a range limited to an appropriate number of pixels in the vertical direction with respect to the interface reference line 11c set by the user U1.
  • the adjustment function in Modification 1 may be included in the software 110 in FIG. 2, or may be prepared as separate adjustment software and stored in the storage 107 or the like. According to the first modification, it is possible to reduce the influence on the dimension measurement accuracy when there is a large deviation in the interface reference line 11.
  • the interface reference line 11 when displaying the interface reference line 11 as an initial state in the interface selection GUI 61 (FIG. 6) for setting the interface reference line 11, the above adjustment function is used for the target image from the beginning,
  • the interface reference line 11 may be automatically determined and displayed.
  • Modification 2 has a function of specifying and setting a part of a structure in a cross-sectional image other than an interface as a reference line.
  • FIG. 27(A) shows an example of setting the reference line 11C for a certain cross-sectional image 2701 in Modification 2
  • FIG. 27(B) shows an example of setting the reference line 11D for a certain cross-sectional image 2701.
  • the reference line 11C is set at a position below the material interface 413 in the vertical direction (Z direction) and within the area of the pillar 402.
  • the reference line 11D is set in the region of the mask 401 at a position above the material interface 413 in the vertical direction (Z direction).
  • FIG. 27A it is assumed that the dimensions are measured at a position a predetermined distance above the bottom (bottom 2705) of the trench 403, for example, 20 nm.
  • a dimension measurement target line 2710 at that position is shown.
  • the reference line 11C is specified at a position below the material interface 413.
  • a region reference point 12 is designated below the reference line 11C.
  • the computer system 1 detects the outline of the area corresponding to the trench 403 based on the reference line 11C and the area reference point 12, and measures the dimension at the position of the dimension measurement target line 2710 based on the definition information 112. .
  • the reference line 11D is specified at a position above the material interface 413 when dimension measurement is performed at the same position as in FIG. 27(A).
  • the dimensions at the position of the dimension measurement target line 2710 can be measured.
  • the length measurement positions are the same, and the dimension values at the dimension measurement target line 2710 are the same. In either case, there is no problem because the dimensions at the position of the dimension measurement target line 2710 are not defined based on the positions of the material interface 413 and the reference lines 11C and 11D.
  • the bottom of the trench 403 (bottom 2705) can be determined based on the position coordinate information of the edge of the contour detected by the method described above.
  • the edge point 22 located at the lowest position in the Z direction may be set as the bottom 2705 of the trench 403.
  • the bottom 2705 may be the average value of a plurality of edge points 22 that are close to each other in the Z direction.
  • a dimension measurement target line 2710 can be set, for example, at a position 20 nm above the bottom 2705.
  • the reference line specified in step S3 may have a large deviation from the material interface 413, and may also be intentionally specified at a location other than the material interface 413. be.
  • the reference lines 11C and 11D in Modification 2 do not have the function of pointing to the material interface 413, but have the function of roughly pointing to a part of the region (for example, the top) of the target trench 403.
  • FIG. 27 shows an example of setting measurement target dimensions like the examples of (A) and (B) in FIG. 27 in the definition information 112. Such dimensions can also be set and selected on the GUI screen 60 described above.
  • FIG. 28 shows an explanatory diagram of Modification 3.
  • the area reference point 12 when specifying the area reference point 12 in the trench 403 in the target image 70 similar to that in FIG. 10, the area reference point 12 is specified at a higher position in the vertical direction than in the example of FIG. .
  • This area reference point 12 roughly indicates the area of the trench 403.
  • the computer system 1 instead of setting the line profile 20 in the X direction and the line profile 20 in the radial direction with the position of the area reference point 12 as the boundary as shown in FIG.
  • the line profile 20 of the type is set.
  • the computer system 1 not only draws a perpendicular line 13 from the area reference point 12 in the direction of the interface reference line 11, but also draws a perpendicular line 2801 (shown as a dashed-dotted line) in the negative Z direction on the opposite side. Pull.
  • the computer system 1 places the reference point 16 (a diamond-shaped point ) is taken.
  • a rectangular area 2810 from the intersection point 14 to the reference point 16 is set as the first area for extracting the line profile 20 in the X direction, and a semicircular area 2820 further below from the reference point 16 is used as the line profile
  • the profile 20 is determined as the second region to be extracted.
  • the distance from the intersection 14 to the reference point 16 may be settable using the software 110 or the definition information 112. Further, the interval and number of line profiles 20 to be extracted in the first region and the second region may also be settable using the software 110 or the definition information 112.
  • the area reference point 12 has not only a function of roughly pointing to the structure area to be measured, but also a function of specifying a position defining the dimension to be measured.
  • FIG. 29 shows an example of the target image 70, interface reference line 11, area reference point 12, dimension measurement target line 2901, etc. in Modification 4.
  • the specified area reference point 12 not only roughly indicates the area of the trench 403, but also a vertical line for measuring the trench width (dimension A3 in FIG. 4), as shown by the dimension measurement target line 2901. Specifies the position in the direction.
  • the vertical position for measuring the trench width (dimension A3), as shown by the dimension measurement target line 2901 is specified by the distance or rate in the definition information 112 described above. Rather, it is specified by the position of the area reference point 12 manually operated by the user U1.
  • the computer system 1 detects the contour of the trench 403 based on the specified interface reference line 11 and area reference point 12, and measures the trench width (dimension A3) at the position of the specified area reference point 12.
  • a dimension measurement target line 2901 is set for the measurement, and the dimension A3 is measured.
  • step S3 of FIG. 5 the user U1 looks at the cross-sectional image on the GUI screen 60 and checks whether there are any inappropriate spots such as dust. However, such a location is excluded from the target by not specifying the area reference point 12. Thereafter, the computer system 1 automatically performs contour detection and dimension measurement and outputs the results.
  • a confirmation step by the user U1 may be additionally provided between the contour detection process in step S4 and the dimension measurement process in step S5 in FIG.
  • This modification 5 has the following processing and operation.
  • modification 5 after the contour detection process in step S4 in FIG. 5, a step is provided in which the user U1 confirms the contour detection result on the GUI screen 60.
  • the computer system 1 displays the result of the contour detection in step S4 superimposed on the cross-sectional image on the GUI screen 60.
  • FIG. 30 shows an example of displaying the contour detection results for the target image 3000 in an additional step in Modification 5.
  • area reference points 12 (12c, 12d, 12e) are specified for three trenches 3001 to 3003, the outlines (edge points 22, etc.) of those three trenches are detected, Displayed as a contour detection result.
  • the user U1 confirms and determines whether or not to directly perform dimension measurement on these contour detection results, and if so, presses a dimension measurement execution button (not shown) on the GUI screen 60. Thereby, the computer system 1 executes dimension measurement processing based on the contour detection results and displays the dimension measurement results.
  • the user U1 wants to exclude a part of the contour detection result from the dimension measurement target, the user U1 specifies the part. For example, by specifying the displayed area reference point 12 again using the cursor 609 or the like, the area reference point 12 can be changed from an on state to an off state. For example, there is a dust portion 3010 in the trench 3002, which is reflected in the contour detection result.
  • the user U1 wants to exclude the trench 3002 from the target, the user U1 clicks on the area reference point 12d to turn it off.
  • the display of the area reference point 12d is changed from a display representing an on state to a display representing an off state.
  • the user U1 then presses the dimension measurement execution button. Thereby, the computer system 1 executes the dimension measurement process excluding the trench 3002 including the area reference point 12d in the OFF state, and displays the dimension measurement result.
  • the dimension measurement results are displayed, for example, as shown in (B) at the bottom of FIG. 30.
  • the trench width is displayed as the dimensional measurement result.
  • the user U1 can determine the dimension measurement target after viewing the contour detection results.
  • Embodiment 2 The dimension measurement system and the like of Embodiment 2 will be explained using FIG. 31 and the like.
  • the basic configuration of Embodiment 2 and the like is the same as that of Embodiment 1, and below, the constituent parts of Embodiment 2 and the like that are different from Embodiment 1 will be mainly explained.
  • two types of line profiles 20, a line profile 20 extending in the X direction and a line profile 20 in the radial direction are used to determine the outline of a structure.
  • edge detection using the line profile 20 in the radial direction may not be necessary.
  • Embodiment 2 shows a method of detecting contour edges using only the line profile 20 extending in the X direction (lateral direction) without using the line profile 20 in the radial direction.
  • FIG. 31 shows an example of detecting edges forming the outline of the pillar 402 using only the line profile 20 extending in the horizontal direction in the second embodiment.
  • FIG. 31A shows an example of an interface reference line 11, an area reference point 12, a dimension measurement target line 3101, etc. in a certain target image 3100.
  • FIG. 31B shows an example of setting the line profile 20 in the X direction based on FIG. 31A.
  • the width of the pillar is measured at a predetermined distance, for example, 30 nm, downward in the Z direction from the interface reference line 11 corresponding to the material interface.
  • a dimension measurement target line 3101 for that pillar width is shown.
  • the user U1 specifies the interface reference line 11 according to the material interface, and specifies the area reference point 12 within the area of the pillar 402 whose length is to be measured.
  • the user U1 specifies the area reference point 12 at an arbitrary position below the dimension measurement target line 3101 in the Z direction. However, here, it is assumed that the position of the area reference point 12 in the Z direction is lower than the position in the Z direction at which the pillar width, which is the dimension to be measured, is measured (condition A).
  • the computer system 1 draws a perpendicular line 13 from the designated area reference point 12 to the interface reference line 11 and extracts the intersection 14, as shown in (B).
  • the computer system 1 extracts a plurality of line profiles 20 extending in the X direction in a region 3110 between the region reference point 12 and the intersection point 14.
  • the line profile 20 is a straight line perpendicular to the perpendicular line 13 and the direction of a predetermined distance (30 nm).
  • the method of generating the line profile 20 in the X direction is the same as in the first embodiment. In this example, ten line profiles 20 numbered #1 to #10 are extracted.
  • the computer system 1 uses the acquired plurality of X-direction line profiles 20 to detect edges forming the outline of the pillar 402 in the same manner as in the first embodiment.
  • a plurality of edge candidate points 21 indicated by white square points and edge candidate points 21 indicated by black square points are detected at locations where the luminance decreases on the line profile 20.
  • Edge points 22 are determined for the plurality of edge candidate points 21 based on the above-mentioned evaluation.
  • a plurality of edge candidate points 21 indicated by white square points are determined as edge points 22 forming the outline of the pillar 402.
  • the computer system 1 Based on the detected edge information and definition information 112, the computer system 1 measures the dimensions of the pillar 402 at a predetermined distance (30 nm) below the interface reference line 11 corresponding to the material interface. Regarding the target line 3101, the pillar width (dimension B3) can be measured. Thus, in this example, edge detection using the line profile 20 in the radial direction is not necessary.
  • the computer system 1 displays, in the target image 3100, a reference image corresponding to the dimension measurement target line 3101 at the position where the pillar width, which is the measurement target dimension, is to be measured, based on the definition information 112 and the interface reference line 11,
  • the designation of the area reference point 12 is accepted at a position below the dimension measurement target line 3101.
  • the user U1 can designate the area reference point 12 at a position below the target line 3101 for dimension measurement by looking at the image as a guide.
  • the following may be used to cope with the case where the user U1 specifies the area reference point 12 above the position where the pillar width is to be measured.
  • the computer system 1 not only draws a perpendicular line 13 upward from the specified area reference point 12 but also draws a perpendicular line downward from the area reference point 12.
  • the computer system 1 sets the perpendicular line 13 and a range on the perpendicular line from which the line profile 20 in the X direction is extracted. For example, the computer system 1 determines the range from which the line profile 20 in the X direction is extracted, from the intersection point 14 to a position set at a distance below, or from the area reference point 12 to a position set at a distance set below. May be set. This makes it possible to satisfy condition A.
  • the line profile 20 in the radial direction is omitted, and the edge using only the line profile 20 in the X direction is Contour detection and dimension measurement can be achieved by performing only detection.
  • the computer system 1 In the second embodiment, only the function of performing edge detection using only the horizontal line profile 20 may be implemented.
  • the computer system 1 or the user A configuration may also be adopted in which U1 selects which function to use.
  • the computer system 1 receives the definition information 112 and the designation of the measurement target structure (for example, a pillar) on the GUI screen 60, and the designation of the interface reference line 11 and the area reference point 12, and determines their positional relationship. Depending on the situation, it may be determined which function to use and automatically apply it.
  • Embodiment 3 shows a method of detecting contour edges using only the line profile 20 in the radial direction without using the line profile 20 in the horizontal direction.
  • FIG. 32 shows an example of detecting edges forming the outline of the trench 403 using only the line profile 20 in the radial direction in the third embodiment.
  • FIG. 32 shows an example of the interface reference line 11, area reference point 12, dimension measurement target line 3201, radial direction line profile 20, etc. in a certain target image 3200.
  • the computer system 1 sets only the line profile 20 in the radial direction in the semicircular range 3210 below the area reference point 12. In this example, seven line profiles 20 indicated by numbers #1 to #7 are set.
  • the computer system 1 detects the edge of the contour of the trench 403 on the line profile 20 in the radial direction.
  • edge candidate points 21 are detected on each line profile 20. Based on the edge candidate points 21, the aforementioned edge points 22 are determined.
  • the outline of the trench 403 can be formed based on the edge points 22.
  • the computer system 1 determines the positional relationship between the interface reference line 11 and the area reference point 12 specified by the user U1, even if their vertical positions do not match. If the difference is a small difference within a predetermined range, it may be assumed that the area reference point 12 is specified on the interface reference line 11, and edge detection in the radial direction may be applied.
  • the trench depth (dimension A4 in FIG. 4) is used as an example of the measurement target dimension, and a corresponding dimension measurement target line 3201 (indicated by a white arrow) is shown.
  • the computer system 1 determines the dimension set between the interface reference line 11 corresponding to the top of the trench 403 and the bottom of the trench 403 based on the contour line.
  • the measurement target line 3201 the trench depth can be measured.
  • edge detection using the line profile 20 in the X direction is not necessary.
  • Embodiment 3 may also have a form in which only the edge detection function in the radial direction is implemented, or a form in which both functions are provided and the function to be used can be selected. Alternatively, the functions used by the computer system 1 may be automatically determined.
  • Embodiment 4 The estimation system and method of Embodiment 4 will be explained using FIG. 33 and the like.
  • machine learning using AI is further added to the dimensional measurement system and method of Embodiment 1 and the like.
  • AI machine learning is applied to the step of specifying and setting the interface reference line 11 and the area reference point 12 manually by the user U1 in step S3 of FIG.
  • the computer system 1 performs machine learning on the interface reference line 11 and area reference points 12 for a cross-sectional image, and calculates the interface reference line 11 and area reference points from the input target image based on a learning model. It additionally includes the step of estimating the point 12 and presenting it to the user U1.
  • Embodiment 5 can further reduce the effort involved in manually inputting, specifying, and setting the interface reference line 11 and the area reference point 12 by the user U1, and further improves the efficiency of the entire work.
  • the system in Embodiment 4 is an interface reference line and area reference point estimation system, a material interface estimation system, a dimension measurement target structure region estimation system, a measurement target dimension estimation system, etc.
  • the computer system 1 uses the cross-sectional image and information including the position coordinate information of the interface reference line 11 and the position coordinate information of the area reference point 12 included in the dimension measurement results in the first embodiment.
  • a DB containing a machine learning model is constructed using the included information.
  • the computer system 1 detects material interfaces (corresponding interface standards 11) and structure areas to be measured (corresponding to them) that are difficult to detect with normal image recognition. The estimation of the area reference point 12) is realized.
  • the dimension measurement result 8 (FIG. 2) in the first embodiment includes information on the interface reference line 11 and the area reference point 12 set in step S3.
  • information on the interface reference line 11 and area reference point 12 may be stored in a form that is associated with information such as dimension values in the dimension measurement result 8. In the fourth embodiment, such information is utilized.
  • FIG. 33 shows the configuration of computer system 1D, which is the estimation system of the fourth embodiment.
  • the configuration of FIG. 33 is generally similar to that of FIG. 2, but has the following different configurations.
  • the computer system 1D has a function of estimating the interface reference line 11 and the area reference point 12 in the cross-sectional image using AI machine learning.
  • Software 110D including a learning/estimation program is stored in the memory resource 102 of the computer system 1D, for example, the RAM 106.
  • This software 110D is data that implements processing functions including AI machine learning and estimation in the fourth embodiment.
  • the computer system 1D stores a DB 140 for AI machine learning, etc. in the storage 107.
  • the DB 140 is data handled by the software 110D, and includes learning data 141 related to machine learning, etc., and learning model data 142.
  • the learning data 141 is a data set for learning AI, in other words, a data set necessary for machine learning, a data set for training a model, and includes data such as the image 7 described above.
  • the learning model data 142 is a data set of a machine learning model, is data of a model generated based on the learning data 141, and includes data of learning parameters optimized by learning. The contents of the learning data are as shown in FIG. 34 and the like.
  • FIG. 34 shows the configuration of the input/output relationship for the machine learning learning model 200 in the fourth embodiment.
  • computer system 1D uses learning data 141 to construct and train learning model 200.
  • the learning model 200 is a model in which learning parameters included in the learning model data 142 are set.
  • the learning data 141 includes pixel data of the cross-sectional image, coordinates of the interface reference line 11, coordinates of the area reference point 12 (if there are multiple points, point #1, #2, etc.), etc. It is data.
  • data 141 data in which the user U1 specified the interface reference line 11 and the area reference point 12 to the target image, which has been used and stored in the system of the first embodiment in the past, can be applied.
  • the computer system 1D inputs input data 201 including cross-sectional images and the like that are actually subjected to dimension measurement etc. to the latest trained learning model 200.
  • the computer system 1D performs estimation processing on the input data 201 using the learning model 200, and outputs the estimation result as output data 202.
  • the output data 202 is data of the feature amount estimated from the input target image, including the coordinates of the estimated interface reference line 11 (referred to as the estimated interface reference line 11X), the estimated area reference point 12 (estimated area reference point 12X), etc.
  • the computer system 1D or any other system can arbitrarily use the estimation result 3302 (FIG. 33), which is the output data 202.
  • the computer system 1D displays the estimated interface reference line 11X and the estimated area reference point 12X, which are the estimation results 3302, on the target image on the GUI screen 60, and presents them to the user U1 as suggestion or recommendation information.
  • the user U1 may check the estimated interface reference line 11X and the estimated area reference point 12X on the GUI screen 60, and may use them as they are or after modifying them.
  • Image data 3301 is image data that is newly input to AI.
  • the image 7 is acquired from the SEM 2 to the operating PC 6, and the image 7 is used as the image data 3301.
  • the image data 3301 is transmitted from the operating PC 6 to the computer system 1D.
  • Computer system 1D stores the image data 3301 as part of learning data 141.
  • the present invention is not limited to this, and, for example, the image data 3301 of the image 7 acquired by the computer system 1D from the SEM 2 may be used as the learning data.
  • Image data stored in another external storage, DB server, etc. to the computer system 1D may be used as the learning data.
  • the estimation result 3302 is data of the estimation result by the AI learning model 200.
  • the computer system 1D generates, stores, and outputs the estimation result 3302 as the output data 202 of the learning model 200 for the target image of the input data 201 (for example, the image specified from the operating PC 6).
  • Computer system 1D transmits estimation result 3302 to operation PC 6.
  • the operating PC 6 displays an estimated interface reference line 11X and an estimated region reference point 12X as the estimation result 3302 on the cross-sectional image corresponding to the input target image on the GUI screen 60 (FIG. 37, which will be described later).
  • Computer system 1D accumulates learning data 141.
  • related information such as image data and photographic information 111, the coordinates of the interface reference line 11 included in the past dimension measurement results 8, and the information of the coordinates of the area reference point 12 are stored in the DB 140 from the SEM 2 and the operation PC 6. It is stored in the learning data 141. In the following, it is assumed that the learning data 141 has already been stored in the DB 140 of the storage 107.
  • FIG. 35 shows a configuration example of a learning model 200 for machine learning.
  • a CNN convolutional neural network
  • This CNN propagates the pixel information 3501 of the image input to the input layer to the intermediate layer and the output layer in order, and calculates the pixel information 3501 of the image.
  • this CNN outputs the estimated interface coordinates (coordinates of the estimated interface reference line 11X) and one or more structure region coordinates (coordinates of the estimated region reference point 12X) from the output layer.
  • the interface coordinates are estimated positional coordinates for the interface reference line 11 representing the material interface 413.
  • the structure area coordinates are estimated values of the position coordinates of the area reference point 12 representing the area of the structure pattern that is the target of dimension measurement and the like.
  • the intermediate layer parameters are set so that the errors between the interface coordinates and structure region coordinates output by the learning model 200, which is a CNN, and the correct interface coordinates and structure region coordinates are minimized. (included in learning model parameters 142) are adjusted.
  • the specific layer structure in CNN varies depending on the learning model adopted, and the details are not limited.
  • the case of CNN is shown as the learning model 200 to be applied, but the present invention is not limited to this and is applicable. Any machine learning model that can output interface coordinates and structure area coordinates in response to input of image information such as pixel data can be applied.
  • FIG. 36 shows the learning process flow of the learning phase in the fourth embodiment, and includes steps S41 to S45.
  • step S41 the user U1 operates the GUI on the GUI screen 60 of the display of the operating PC 6 to read the data of the target image and the dimension measurement result 8 of the target image into the computer system 1D.
  • step S42 the computer system 1D includes the coordinates of the interface reference line 11 and the coordinates of one or more area reference points 12 included in the data of the target image and dimension measurement results 8 read in step S41.
  • the data is registered and saved as learning data 141 in the DB 140.
  • step S43 the computer system 1D determines whether the amount of learning data accumulated as the learning data 141 has exceeded a preset certain amount, and if it has not yet exceeded the certain amount ( If N), the process returns to step S41 and repeats. If the quantity exceeds a certain level (Y), the process proceeds to step S44.
  • step S44 the computer system 1D converts the pixel data of the target image, the interface reference line coordinates, and one or more area reference point coordinates in the learning data 141 held in the storage 107 into the training data of the learning model 200. (Learning data 141 in FIG. 34).
  • step S45 the computer system 1D performs learning/training on the learning model 200 using the teacher data (learning data 141 in FIG. 34) acquired in step S44, and generates/updates the learning model.
  • the teacher data learning data 141 in FIG. 34
  • step S45 the computer system 1D performs learning/training on the learning model 200 using the teacher data (learning data 141 in FIG. 34) acquired in step S44, and generates/updates the learning model.
  • pixel data of a target image of teacher data is input as input data 201 to the learning model 200 (CNN in FIG. 35), and interface coordinates and Learning is performed so that the structure area coordinates are close to the coordinates of the correct interface reference point 11 and area reference point 12 of the teacher data.
  • Examples of the GUI on the GUI screen 60 regarding the learning phase are as follows.
  • a "train” tab is provided as one of the tabs 603.
  • the user U1 performs operations such as clicking on the "train” tab.
  • the computer system 1D switches the content/mode of the GUI screen 60 to the model learning GUI screen.
  • User U1 operates the "File” button on the GUI screen for model learning, selects a target image file to be used for learning by operating a mouse, etc., and selects the file of the selected file by operating the "Enter” button. Load the data.
  • the computer system 1D also reads data such as the interface reference line 11 and the area reference point 12 in the dimension measurement result 8 as various data associated with the image.
  • FIG. 37 shows a display example of the GUI screen 60 in the estimation phase.
  • FIG. 37 is a screen example of the estimation function.
  • This screen has an estimation type field 3701.
  • interface coordinates in other words, interface reference line coordinates
  • structure area coordinates in other words, area reference point coordinates
  • the estimation target image column 3702 the estimation target image to be input is selected and displayed.
  • the estimation result image column 3703 the output estimation result information is displayed superimposed on the estimation target image.
  • the estimation result image field 3703 displays an estimated interface reference line 11X and an estimated area reference point 12X regarding the mask and trench.
  • the type of structure to be estimated may also be selectable on this screen.
  • the manual setting step portion in the semi-automatic method of Embodiment 1 can be automated using machine learning, and the effort of manual operation by user U1 can be reduced.
  • learning by the learning model 200 involves learning both the interface reference line 11 and the area reference point 12.
  • the learning is divided into two parts: learning of the interface reference line 11 and learning of the area reference point 12.
  • FIG. 38 shows a learning model etc. in a modified example.
  • (A) shows the first learning model 200A
  • (B) shows the second learning model 200B.
  • the coordinates of an interface reference line 11 representing a material interface are learned by the first learning model 200A
  • the coordinates of an area reference point 12 representing an area of a structure pattern targeted for dimension measurement etc. are learned.
  • CNN can be applied to the structure of the learning models 200A and 200B, for example, as in FIG. 35.
  • the first learning model 200A in (A) is learned using the learning data 141A including the coordinates of the interface reference line 11.
  • the second learning model 200B in (B) is trained using learning data 141B including the coordinates of one or more area reference points 12.
  • a target image is input as input data 201A to the first learning model 200A in (A), and data including the coordinates of the estimated interface reference line 11X is output as output data 202A.
  • a target image is input as input data 201B to the second learning model 200B in (B), and data including the coordinates of the estimation area reference point 12X is output as output data 202B.
  • a system and method that only performs learning and estimation using the first learning model 200A in (A) or only learning and estimation using the second learning model 200B in (B) may be used. It is also possible to provide a system and method for doing so.
  • Modification (2) As another modification of the fourth embodiment, the following is possible.
  • This modification has a function of estimating base point coordinates for dimension measurement.
  • the estimation target is not the coordinates of the area reference point 12 of the structure pattern area, but the position of the measurement target dimension in the structure pattern area.
  • the estimation targets are the starting point coordinates and the end point coordinates of the dimension to be measured, in other words, the coordinates of two points defining the line to be measured.
  • FIG. 39 shows a learning model 200C, etc. in this modification.
  • the learning data 141C in the learning phase includes data on the coordinates of the starting and ending points of the measurement target dimension of the target image.
  • Output data 202C output as an estimation result from the learning model 200C in the estimation phase includes data on the coordinates of the starting point and ending point of the measurement target dimension.
  • FIG. 40 shows an example of displaying the estimation results on the GUI screen 60 in this modification.
  • "coordinates of starting point and ending point of dimension” is selected in the estimation type column 4001.
  • trench width is selected as the dimension type to be estimated.
  • estimation target images are displayed.
  • the coordinates of the starting point 4011 and end point 4012 of the measurement target dimension as the estimation result are plotted on the estimation target image and displayed together with the dimension measurement target line 4010.
  • Embodiment 5 is a combination of Embodiment 1 and Embodiment 4, and includes both the contour detection and dimension measurement functions using the semi-automatic method described above and the estimation function using machine learning. This is a form of preparation.
  • the user U1 specifies the interface reference line 11 and the area reference point 12 for the target image using the function of the system in the first embodiment, and semi-automatically detects the contour. and dimension measurement, and data including the interface reference line 11 and area reference point 12 at that time is accumulated as learning data 141.
  • the system and method of the fifth embodiment uses the learning data 141 to train the learning model 200.
  • the learning model 200 in the estimation phase, is used for the input target image by the function of the system of the fourth embodiment, and the estimated interface standard representing the material interface is output as the output of the estimation result.
  • a line 11X and one or more estimated area reference points 12X representing the dimension measurement target structure area are output.
  • the system and method of the fifth embodiment performs contour detection and dimension measurement of the target image based on the estimation results.
  • the system and method of the fifth embodiment may display the estimated interface reference line 11X and the estimated area reference point 12X to the user U1 on the GUI screen 60 so that the user U1 can confirm or correct them.
  • FIG. 41 shows a configuration example of a computer system 1E, which is a dimension measurement system according to the fifth embodiment.
  • This computer system 1E is a system in which the computer system 1 of FIG. 2 and the computer system 1D of FIG. 33 are combined into one system.
  • This computer system 1E automatically accumulates the semi-automatic dimension measurement results as learning data 141, and uses the learning/estimation function to learn/estimate the interface reference line 11 and area reference point 12.
  • This computer system 1E displays the estimation result 4102 (estimated interface reference line 11X and estimation area reference point 12X) based on the learning model on the GUI screen 60, performs automatic dimension measurement using the estimation result 4102, and calculates the dimension measurement result. 4102(8) is displayed on the GUI screen 60.
  • the RAM 106 stores software 110 including the dimension measurement program in the first embodiment and software 110D including the learning/estimation program in the fourth embodiment. .
  • the processor 101 implements each function by performing processing according to the software 110 and the software 110D.
  • the software 110 also realizes a function of automatically measuring dimensions using the estimation result 4102 by the software 110D.
  • the user can also decide whether to use manual setting using the semi-automatic method in Embodiment 1 or automatic estimation using the estimation function in Embodiment 4. U1 can be selected.
  • the storage 107 also stores estimation results 4102 by the software 110D. Further, another storage 107D includes a DB 140 similar to that in the fourth embodiment. Storage 107 and storage 107D may be combined into one.
  • the target image 7 and the related shooting information 111 and definition information 112 can be input to the computer system 1E from the SEM 2 or the operating PC 6, and are saved in the storage 107 or the storage 107D.
  • the computer system 1E sends the estimation result 4102 and the dimension measurement result 4101(8) to the operation PC 6, and the operation PC 6 displays the target image 7, the estimation result 4102, and the dimension measurement result 4101(8) on the GUI screen 60. etc. will be displayed.
  • FIG. 42 shows a processing flow of automatic dimension measurement in the fifth embodiment, and includes steps S51 to S59.
  • step S51 the computer system 1E inputs the image 7 to be measured, the photographing information 111, and the definition information 112 based on the input operation of the user U1 from the operating PC 6, and uses the semi-automatic method in the first embodiment.
  • Dimension measurement is performed using the dimension measurement function in , and dimension measurement result 8 is obtained.
  • An image 7 and a dimension measurement result 8 are displayed on the GUI screen 60 of the operating PC 6.
  • step S52 the computer system 1E automatically generates learning data 141 for learning from the dimension measurement result 8 in step S51 (data including the interface reference line 11 and the area reference point 12), and registers it in the DB 140. do.
  • step S53 the computer system 1E constructs and trains a learning model 200 (for example, similar to FIG. 34) using the selected learning data 141.
  • step S54 the computer system 1E confirms whether the accuracy of estimation by the learning model is sufficient. If it is sufficient (Y), the process advances to step S57; if it is insufficient (N), the process advances to step S55.
  • step S55 the computer system 1E checks whether the learning model is overfitted, and if it is overfitted (Y), the process proceeds to step S56, and if it is not overfitted (N), Return to step S52.
  • step S56 the computer system 1E reselects the learning data 141 used for learning, and returns to step S53.
  • step S57 the computer system 1E registers a learning model with sufficient accuracy as a trained model.
  • step S58 the computer system 1E inputs the image 7 of the dimension measurement target based on the operation of the user U1 on the operation PC 6. Further, the user U1 selects the fully automatic dimension measurement mode on the GUI screen 60.
  • step S59 the computer system 1E measures the dimensions of the target image, which is the input image, in a fully automatic dimension measurement mode. The details of step S59 may be as follows, for example.
  • the computer system 1E automatically performs contour detection and dimension measurement without presenting the estimation result 4102 to the user U1.
  • the computer system 1E inputs the pixel data of the input image into the learning model of the estimation function, and obtains the estimated interface reference line 11X and the estimated area reference point 12X as the estimation result 4102.
  • the computer system 1E detects the outline of the target structure from the target image using the position coordinate information of the estimated interface reference line 11X and the estimated area reference point 12X, and measures the specified dimension based on the detected outline etc. Then, a dimension measurement result 4101 is obtained.
  • the computer system 1E transmits the dimension measurement result 4101(8) to the operating PC 6, and displays the dimension measurement result 4101(8) on the GUI screen 60.
  • the computer system 1E presents the estimation result 4102 to the user U1, and after the user U1 confirms the estimation result 4102, performs contour detection and dimension measurement.
  • the computer system 1E inputs the pixel data of the input image into the learning model of the estimation function, and obtains the estimated interface reference line 11X and the estimated area reference point 12X as the estimation result 4102.
  • the computer system 1E transmits the estimation result 4102 including the estimated interface reference line 11X and the estimated area reference point 12X to the operating PC 6.
  • the operating PC 6 displays the estimated interface reference line 11X and the estimated area reference point 12X of the estimation result 4102 on the target image on the GUI screen 60.
  • the user U1 confirms the estimation result 4102 on the GUI screen 60, applies it as is by operating a predetermined button, etc. if it is to be applied as is, or applies it after manually modifying it if it is to be modified, and then rejects (rejects) the estimation result 4102. application), reject it by operating a predetermined button, etc.
  • the computer system 1E detects a contour from the target image using the applied estimated interface reference line 11X and estimated area reference point 12X, and detects the detected contour.
  • the specified dimensions are measured based on the above, and a dimension measurement result 4101 is obtained.
  • the computer system 1E transmits the dimension measurement result 4101(8) to the operating PC 6, and displays the dimension measurement result 4101(8) on the GUI screen 60.
  • the dimension measurement system and method of the fifth embodiment According to the dimension measurement system and method of the fifth embodiment, the following effects are achieved.
  • the user U1 can accumulate learning data without being particularly conscious of it.
  • the learning model in the fourth embodiment can be trained using the accumulated learning data, and the accuracy of estimation of material interfaces, structure regions, etc. can be improved. Then, using the estimation results from the learning model, the interface reference line 11 and the area reference point 12 can be set more easily and more accurately, and the length measurement work can be made more efficient.
  • 1...Dimension measurement system (computer system), 2...SEM, 6...Client terminal device (operation PC), 7...Image, 8...Dimension measurement result, 11...Interface reference line, 12...Region reference point, 13...Perpendicular line , 14... Intersection, 20... Line profile, 21... Edge candidate point, 60... GUI screen, 70... Target image, 101... Processor, 102... Memory resource, 111... Shooting information, 112... Definition information, 401... Mask, 402 ...Pillar, 403...Trench, U1...User.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Length-Measuring Devices Using Wave Or Particle Radiation (AREA)

Abstract

寸法計測システム等に関して、人が一部の情報を入力・設定する方式としつつ、人の手動操作の手間や負荷を低減できる技術を提供する。寸法計測システムは、ユーザに対し、画像およびグラフィカル・ユーザ・インタフェース(GUI)を含む画面を表示させ、画面における画像上で、ユーザの手動操作に基づいて、寸法計測対象の構造物の領域の一部を特定するための基準線(界面基準線)を指定し、寸法計測対象の構造物の領域を特定するための当該領域内に含まれる基準点(領域基準点)を指定し(ステップS3)、基準線と基準点とを用いて、画像内の寸法計測対象の構造物の領域の輪郭またはエッジを検出し(ステップS4)、検出された輪郭またはエッジの情報を用いて、画像内の寸法計測対象の構造物の寸法を計測する(ステップS5)。

Description

寸法計測システム、推定システム、および寸法計測方法
 本開示は、半導体デバイス等の試料を撮像した画像からデバイス構造等の寸法を計測する技術に関する。
 半導体デバイス等の試料を撮像した画像からデバイス構造等の寸法を計測(測長と記載する場合もある)する技術や、試料の観察、解析、評価、検査等を行う技術としては、走査電子顕微鏡(Scanning Electron Microscope:SEM)や透過電子顕微鏡(Transmission Electron Microscope:TEM)に代表される荷電粒子ビーム装置を用いてそれらの処理(寸法計測と総称する場合がある)を行う技術がある。荷電粒子ビーム装置に内蔵または外部接続されるコンピュータシステムは、荷電粒子ビーム装置による撮像画像を処理して、デバイス構造等の対象の構造物やパターン(例えばトレンチ)の寸法を計測する。
 例えば、コンピュータシステムは、半導体デバイスの断面(例えば劈開による断面)を撮像した断面画像から、構造物の輪郭を検出し、その輪郭に基づいて寸法(例えばトレンチ幅やトレンチ深さ)を計測する。
 先行技術例として、特許第4865147号(特許文献1)が挙げられる。特許文献1には、「ディスプレイ顕微鏡画像を用いたパターン測定方法及び測定システム」として、「顕微鏡画像におけるパターンの辺部にエッジ基準線を設定するステップ」、「エッジ基準線に沿って複数のエッジポイントを設定するステップ」、「一つのエッジポイントにおいてエッジ基準線と交差するサーチライン近傍の輝度プロファイルを積算し、一つのエッジポイントに関するエッジ位置を算出するステップ」、「複数のエッジポイントでそれぞれ算出したエッジ位置から辺部の近似線を算出するステップ」、「近似線によりパターンの形状を測定するステップ」(請求項1)等の旨が記載されている。
特許第4865147号(対応米国特許第7054506号)
 上記荷電粒子ビーム装置を用いた撮像画像(例えば断面画像)から、対象の構造物の輪郭の検出に基づいて、対象の寸法を計測する寸法計測システム等の技術としては、第1に、コンピュータシステムが自動でテンプレートマッチング等の画像処理により輪郭検出や寸法計測を実現する技術がある。また、第2に、人が手動操作によって輪郭検出や寸法計測のために必要な情報を入力・設定し、その情報に基づいてコンピュータシステムが輪郭検出や寸法計測を実現する技術がある。
 第1の技術では、テンプレートマッチング等の画像処理による適切な輪郭検出が難しい場合や計算負荷が高すぎる場合がある。
 第2の技術では、輪郭検出や寸法計測のために必要な情報を、人が設定する必要がある。例えば特許文献1の場合、「エッジ基準線」や「エッジポイント」等の情報をユーザが設定する。人が設定した情報を用いることで、コンピュータシステムによる画像処理等が容易化できる。しかしながら、第2の技術の場合、人の手動操作の手間が大きくなり、作業効率が低下する場合がある。
 本開示の目的は、上記荷電粒子ビーム装置を用いて撮像画像から対象の構造物の寸法を計測する寸法計測システム等の技術に関して、人が一部の情報を入力・設定する方式としつつ、人の手動操作の手間を低減でき、作業効率を高めることができる技術を提供することである。他の目的は、人の手動操作による誤差の影響を低減できる技術を提供することである。
 本開示のうち代表的な実施の形態は以下に示す構成を有する。実施の形態の寸法計測システムは、画像内の構造物の寸法を計測する寸法計測システムであって、プロセッサと、前記プロセッサが処理するデータを格納するメモリ資源と、を備え、前記プロセッサは、ユーザに対し、前記画像、およびグラフィカル・ユーザ・インタフェース(GUI)を含む画面を表示させ、前記画面における前記画像上で、前記ユーザの手動操作に基づいて、寸法計測対象の前記構造物の領域の一部を特定するための基準線を指定し、前記基準線の位置情報を取得し、前記画面における前記画像上で、前記ユーザの手動操作に基づいて、寸法計測対象の前記構造物の領域を特定するための前記領域内に含まれる基準点を指定し、前記基準点の位置情報を取得し、前記基準線と前記基準点とを用いて、前記画像内の寸法計測対象の前記構造物の領域の輪郭またはエッジを検出し、検出された前記輪郭またはエッジの情報を用いて、前記画像内の寸法計測対象の前記構造物の寸法を計測する。
 実施の形態の推定システムは、画像内の構造物を推定する推定システムであって、プロセッサと、前記プロセッサが処理するデータを格納するメモリ資源と、を備え、前記プロセッサは、ユーザに対し、前記画像、およびグラフィカル・ユーザ・インタフェース(GUI)を含む画面を表示させ、前記画面における前記画像上で、前記ユーザの手動操作に基づいて、寸法計測対象の前記構造物の領域の一部を特定するための基準線を指定し、前記基準線の位置情報を取得し、前記ユーザの手動操作に基づいて、寸法計測対象の前記構造物の領域を特定するための前記領域内に含まれる基準点を指定し、前記基準点の位置情報を取得し、前記画像、前記基準線、および前記基準点を含むデータを、学習用データとして蓄積し、前記学習用データを用いて、入力画像から前記基準線および前記基準点を推定するための機械学習の学習モデルを訓練し、推定対象の入力画像を前記学習モデルに入力し、前記学習モデルによる推定結果として、推定された前記基準線の情報、および推定された前記基準点の情報を出力する。
 本開示のうち代表的な実施の形態によれば、上記荷電粒子ビーム装置を用いて撮像画像から対象物の寸法を計測する寸法計測システム等の技術に関して、人が一部の情報を入力・設定する方式としつつ、人の手動操作の手間や負荷を低減でき、作業効率を高めることができる。また、人の手動操作による誤差の影響を低減できる。上記した以外の課題、構成および効果等については、発明を実施するための形態において示される。
実施の形態1の寸法計測システムを含むシステムの構成例を示す図。 実施の形態1の寸法計測システムのコンピュータシステムとしての構成例を示す図。 実施の形態1で、SEMの構成例を示す図。 実施の形態1で、半導体デバイスの構造や寸法等を示す図。 実施の形態1の寸法計測方法での処理フローを示す図。 実施の形態1で、GUI画面の例を示す図。 実施の形態1で、定義情報の例を示す図。 実施の形態1で、断面画像および界面選択GUIの例を示す図。 実施の形態1で、断面画像および領域選択GUIの例を示す図。 実施の形態1で、断面画像での輪郭検出アルゴリズム例を示す図。 実施の形態1で、断面画像での輪郭検出アルゴリズム例を示す図。 実施の形態1で、ラインプロファイルのグラフを示す図。 実施の形態1で、エッジ候補抽出に第2ルールを適用する場合の例を示す図。 実施の形態1で、エッジ候補の組み合わせの例を示す図。 実施の形態1で、検出された輪郭(エッジ点および輪郭線)の例を示す図。 実施の形態1で、マスクに関する輪郭検出の例を示す図。 実施の形態1で、ピラーに関する輪郭検出の例を示す図。 実施の形態1で、計測対象寸法の例を示す図。 実施の形態1で、構造物の面積を計測する例を示す図。 実施の形態1で、寸法計測結果を表示するGUI画面の例を示す図。 実施の形態1で、ゴミが付着した場合の断面画像等の例を示す図。 実施の形態1で、エッチングの加工目標パターンの画像と、実際の加工後の画像との例を示す図。 実施の形態1で、断面画像内に複数の領域基準点等をまとめて指定する例を示す図。 実施の形態1で、断面画像内に2つの界面基準線を設定する第1の例を示す図。 実施の形態1で、断面画像内に2つの界面基準線を設定する第2の例を示す図。 実施の形態1の変形例1として、界面基準線の調整機能についてのGUI画面の例を示す図。 実施の形態1の変形例2として、界面以外を基準線とする場合の断面画像等を示す図。 実施の形態1の変形例3として、ラインプロファイルの他の設定方法について示す図。 実施の形態1の変形例4として、領域基準点を用いた寸法計測対象線の設定方法について示す図。 実施の形態1の変形例5として、領域基準点を用いた寸法計測対象のオン/オフの設定方法について示す図。 実施の形態2の寸法計測システムにおける、横方向のラインプロファイルの設定方法について示す図。 実施の形態3の寸法計測システム2における、動径方向のラインプロファイルの設定方法について示す図。 実施の形態4の推定システムのコンピュータシステムとしての構成例を示す図。 実施の形態4で、学習モデルの入出力の構成を示す図。 実施の形態4で、学習モデルの構成を示す図。 実施の形態4で、学習処理フローを示す図。 実施の形態4で、推定機能のGUI画面の例を示す図。 実施の形態4の変形例における、学習モデルの入出力の構成を示す図。 実施の形態4の変形例における、学習モデルの入出力の構成を示す図。 実施の形態4の変形例における、GUI画面の例を示す図。 実施の形態5の寸法計測システムのコンピュータシステムとしての構成例を示す図。 実施の形態5で、寸法計測処理フローを示す図。 実施の形態に対する比較例1における、画像に対し輪郭検出のサポートのための点や線を設定する例を示す図。 実施の形態に対する比較例2における、画像に対し寸法計測のサポートのための点や線を設定する例を示す図。
 以下、図面を参照しながら本開示の実施の形態を詳細に説明する。図面において、同一部には原則として同一符号を付し、繰り返しの説明を省略する。図面において、構成要素の表現は、発明の理解を容易にするために、実際の位置、大きさ、形状、範囲等を表していない場合がある。
 説明上、プログラムによる処理について説明する場合に、プログラムや機能や処理部等を主体として説明する場合があるが、それらについてのハードウェアとしての主体は、プロセッサ、あるいはそのプロセッサ等で構成されるコントローラ、装置、計算機、システム等である。計算機は、プロセッサによって、適宜にメモリや通信インタフェース等の資源を用いながら、メモリ上に読み出されたプログラムに従った処理を実行する。これにより、所定の機能や処理部等が実現される。プロセッサは、例えばCPU/MPUやGPU等の半導体デバイス等で構成される。処理は、ソフトウェアプログラム処理に限らず、専用回路でも実装可能である。専用回路は、FPGA、ASIC、CPLD等が適用可能である。
 プログラムは、対象計算機に予めデータとしてインストールされていてもよいし、プログラムソースから対象計算機にデータとして配布されてもよい。プログラムソースは、通信網上のプログラム配布サーバでもよいし、非一過性のコンピュータ読み取り可能な記憶媒体、例えばメモリカードやディスクでもよい。プログラムは、複数のモジュールから構成されてもよい。コンピュータシステムは、複数台の装置によって構成されてもよい。コンピュータシステムは、クライアント・サーバシステム、クラウドコンピューティングシステム、IoTシステム等で構成されてもよい。各種のデータや情報は、例えばテーブルやリスト等の構造で構成されるが、これに限定されない。識別情報、識別子、ID、名前、番号等の表現は互いに置換可能である。
 [課題等]
 課題等について補足説明する。近年、半導体デバイス性能向上のためにデバイス構造の微細化が進められると共に、Fin-FET(Field Effect Transistor)や3D-NAND等に代表されるデバイス構造の立体化および複雑化が進んでいる。このような先端デバイスの寸法は、ナノメートル(nm)オーダーであり、構造物間の膜構造は、サブnmオーダーの加工精度が求められるようになった。
 半導体デバイスは、一般に、リソグラフィ、エッチング、成膜、平坦化等のプロセスの組合せとその繰り返しにより作製される。例えばエッチング工程では、加工難易度の上昇に伴い、加工後寸法データと機械学習との組合せによるエッチング条件最適化が取り組まれるようになっており、高速かつ大量に精密な寸法を計測する技術が必要とされている。
 精密な寸法計測の手法としては、SEMやTEM等の荷電粒子ビーム装置が用いられることが多い。なぜなら、荷電粒子ビーム装置は、光よりも波長の短い荷電粒子ビームを用いるため、光学顕微鏡では観察できないサブnmオーダーの微細構造を高分解能で観察できるためである。
 計測手段としてSEMとTEMを比較した場合、TEMでの観察には収束イオンビーム装置(Focused Ion Beam:FIB)での前処理が必要である。そのため、より短時間で断面観察と寸法計測を行いたい場合には、エッチング加工後の試料を劈開した断面をSEMで観察する方法が選択される場合がある。
 しかしながら、劈開試料断面は、劈開時のダメージやコンタミネーション等の影響により、計測対象の構造が部分的に崩れる場合、またはゴミ等が付着する場合等があり、本来のエッチング工程で形成された構造とは異なる構造が観察されることがある。このような劈開によるアーティファクトを持つ構造を寸法計測した場合、寸法計測結果からエッチング条件にフィードバックを行う際に、意図しないフィードバックを行ってしまう恐れがある。そのため、正常に劈開された構造のみを、言い換えると崩れやゴミ等の部分を除外した構造のみを、寸法計測の対象にする必要がある。
 これに加え、エッチング工程の寸法計測では、マスク層と被エッチング層(例えばSi層)との界面を基準として、被エッチング層の加工深さ(例えばトレンチ深さ)を計測することが多い。そのため、このような界面(言い換えると材料界面、基準界面)の位置の検出も重要である。
 しかしながら、上記劈開試料断面のような構造物の正常性判断や、界面位置の正確な検出は、従来のテンプレートマッチング等の画像処理方法では困難である。そのため、従来、寸法計測対象の構造物の正常性は、計測者であるオペレータの主観的な判断に任されていた。
 また、正常な寸法計測対象の構造物と、正確な基準界面の位置とが決定された場合でも、その決定後の計測作業には、精度面の課題が残されている。劈開試料断面をSEMで観察する場合、撮像画像において、デバイス構造(例えばピラー)と開放部である真空領域との境界、すなわちデバイス構造の輪郭の付近の領域には、白い影のような部分(以下、「ホワイトバンド」と称する)が生じてしまう。このホワイトバンドは、画像上で高輝度の画素の部分であり、例えば撮像画像に対する奥行き方向にある構造物からの二次電子等の影響により生じる。そのため、当該画像からデバイス構造の輪郭を二値化等の画像処理によって自動検出することが困難である。すなわち、デバイス構造の輪郭ないしエッジの検出の効率や精度に関して課題がある。
 このため、従来の断面SEM画像の寸法計測は、オペレータの人の手動操作および判断で行われることが多く、手間が大きい。また、オペレータの人ごとに、手動操作および判断に誤差が生じ、輪郭検出および寸法計測に関する精度や正確度が異なるという課題もある。
 例えば特許文献1では、磁気ヘッドデバイスの断面構造をSEMで観察し、構造物の高さや側壁角度等の寸法を計測する例が記載されている。特許文献1では、単一の磁気ヘッド構造物に対して、ユーザ入力によりエッジ基準線や複数のエッジポイントをSEM画像上に指定することにより、構造物の各辺の近似直線を算出し、寸法計測や構造物側壁の角度算出に利用する旨が記載されている。
 上記のような輪郭検出および寸法計測のために必要な一部の情報をユーザが入力・設定する方式(前述の第2の技術)の場合、ユーザによる入力操作の数量が多くなり、手間が大きくなる。断面SEM画像内に複数の対象構造物が含まれている場合、ユーザによる入力操作の数量は、対象構造物の数と、計測寸法種類(例えば幅、高さ等)の数との、掛け合わせ分の数量が、必要となる。複数の試料、複雑かつ複数の構造物を対象として寸法計測を行う場合、ユーザの負荷の増大、作業効率の低下につながる。
 特に、エッチング加工後の寸法計測では、残存したマスクパターンの各種寸法、エッチングにより掘りこまれたトレンチ部分の各種寸法、またはマスクパターン直下のフィンないしピラー型構造物の各種寸法、の計測が必要である。このような場合に、断面画像からの対象構造物パターンの輪郭検出および寸法計測に関する自動化や、ユーザの手動操作による入力の負荷の低減および作業効率化等が求められる。
 [第1および第2の技術]
 従来、半導体デバイスの製造プロセスでは、ウェハに対し、デポジションやエッチング等の加工によって、マスク、ピラー、トレンチ等の構造(構造物、パターン等と記載する場合がある)が形成される。製造プロセスでは、このような加工結果として得られた3次元の構造物が適正かを確認や検査する必要がある。この場合に、前述のように、例えば劈開やFIB加工等の手段を用いて、構造の断面が作製され、SEM等の手段によってその断面の画像が撮像される。その断面画像に対し、コンピュータシステムおよびオペレータにより、測長や観察等の処理や作業が行われ、構造物の形状が適正か等の確認や検査がされる。
 このために、断面画像から、構造物の輪郭ないしエッジを判断・検出して寸法を計測する必要がある。このような処理・作業を効率化するために、コンピュータシステムによる自動化や効率化が求められる。しかしながら、前述のように、断面画像から構造物の輪郭を検出して構造物の寸法を計測する処理については、完全自動での実現は難しい。
 従来、前述の第1の技術として、コンピュータシステムによって完全自動で断面SEM画像から対象構造物の輪郭を検出して寸法計測する場合には、輪郭検出の処理に難しさがあり、効率的で正確な輪郭検出が難しい。そこで、前述の第2の技術として、断面SEM画像に対し、コンピュータシステムによる輪郭検出や寸法計測の処理をサポートするための一部の情報を、ユーザが手動操作で入力・設定する方式がある。例えば、断面画像に対し、基準となる線や点などが指定・設定される。その断面画像に対し、設定されている線や点などの情報を用いて、コンピュータシステムが、輪郭検出および寸法計測の処理を行う。このような方式は、手動操作と自動処理との組み合わせによる方式(方法や装置等を含む総称)であり、説明上、半自動方式と記載する場合がある。
 [比較例1]
 図43は、実施の形態に対する、比較例1の技術についての説明図を示す。比較例1の技術は、特許文献1の技術と対応している。比較例1の技術は、断面画像に対し、ユーザの手動操作で、輪郭検出のためのサポートとなる点や線などを設定するものである。図43の(A)は、断面画像の例の模式図であり、真空の背景(模式で白色で示すが輝度としては黒色である)上に、概略的に台形形状を有するピラー4301やトレンチ4302の領域を有する。図43の(B)は、(A)の画像に対し、ユーザが、手動操作で、輪郭検出のサポートのための点や線を入力・設定した例を示す。本例では、ユーザが、ピラー4301の台形の辺に、エッジポイントep1~ep6を設定している。言い換えると、ユーザが、ピラー4301の台形の辺に、エッジラインEL1~EL3(特許文献1での「エッジ基準線」に相当する)を設定している。例えば、始点となるエッジポイントep1と、終点となるエッジポイントep2とを結んだ直線が、エッジラインEL1となる。
 コンピュータシステムは、設定されたエッジポイントep1~ep6またはエッジラインEL1~EL3を用いて、ピラー4301の輪郭を構成するエッジを決定する。例えば、コンピュータシステムは、エッジラインEL1上で、垂直方向に輝度プロファイルを参照し、輝度プロファイル上で輝度をサーチすることで、ピラー4301のエッジを検出する。コンピュータシステムは、検出された複数のエッジを結ぶことで、輪郭に関する近似直線を決定する。コンピュータシステムは、検出した輪郭の情報に基づいて、構造物パターンの寸法、例えばピラー4301の幅や高さ等を計測する。
 比較例1では、ユーザの手動操作、入力の数量としては、画像内の構造物、例えば台形のパターンの辺ごとに、少なくとも2つのエッジポイントを入力・設定する必要がある。このため、ピラー4301等の構造物の数や、計測する寸法の種類が増えるほど、ユーザの手動操作の手間が増大する。また、パターン形状が複雑になるほど、手間が増大する。
 比較例1は、ユーザが、画像内の構造物パターンの輪郭ないしエッジをなぞるように、サポートのための線や点などを入力・設定する技術であると捉えることができる。このような技術は、手動操作の手間が大きい。また、手動操作であるため、ユーザが、画像上の構造物パターンの輪郭ないしエッジに対し、正確にサポートのための線や点などを設定できるとは限らず、ユーザごとに誤差が生じる。
 [比較例2]
 図44には、他の従来技術例として、比較例2について示す。比較例2の技術は、断面画像に対し、ユーザが、手動操作で、寸法計測のサポートのための線や点などを設定するものである。図44の(A)は断面画像の例の模式図を示し、例えば4つのピラー4401、4つのトレンチ4402を有する。比較例2では、断面画像内の構造物パターン、例えば概略的に台形形状を有するピラー4401やトレンチ4402に対し、ユーザが、寸法計測をしたい箇所を、すなわち計測対象寸法を規定する位置を、直接的に、手動操作で入力・設定する。
 例えば、図44の(B)は、トレンチ深さを測長する場合を示す。トレンチ深さを測長したい場合に、トレンチ4402ごとに、寸法計測対象箇所として、トレンチ深さ(それに対応する寸法計測対象線4403)を規定する2つの端の点(点a1,a2)を、ユーザが判断して指定する。例えば、点毎にマウスのクリック等の操作である。点a1はトレンチ4402のトップを指し示す点であり、点a2はトレンチ4402のボトムを指し示す点である。寸法計測対象線4403における一方の端が点a1、他方の端が点a2である。その後、コンピュータシステムは、指定された2点(点a1,a2)で規定される寸法計測対象線4403の箇所を、トレンチ深さとして測長する。2点は、言い換えると、寸法の起点・終点である。
 図44の(C)は、同様に、ピラー幅を測長したい場合に、ピラー4401ごとに、寸法計測対象箇所として、ピラー幅(それに対応する寸法計測対象線4404)を規定する2つの端の点(点b1,b2)を、ユーザが判断して指定する。点b1はピラー4401の左側の側壁の点であり、点b2はピラー4401の右側の側壁の点である。寸法計測対象線4404における一方の端が点b1、他方の端が点b2である。その後、コンピュータシステムは、指定された2点(点b1,b2)で規定される寸法計測対象線4404の箇所を、ピラー幅として測長する。
 このように、比較例2では、ユーザが、対象の構造物パターンごとに、および寸法計測対象箇所、寸法種類ごとに、少なくとも2点を入力する操作が必要である。このため、比較例2は、比較例1と同様に、対象の構造物の数や、寸法種類が増えるほど、ユーザの手動操作の手間が増大する。また、人の手動操作(マウス操作等)や主観判断による誤差を生じる。寸法計測対象箇所および寸法(例えばトレンチ深さ)に対し、ユーザが指定した2点は、実態からズレが生じる場合があり、また、個人差が生じ得る。そのような誤差は、寸法計測の精度に影響する。
 [解決手段等]
 上記のような課題等を踏まえ、実施の形態の寸法計測システム等は、以下のような解決手段等を有する。
 実施の形態の寸法計測システムは、プロセッサおよびメモリ資源を有し、試料である半導体デバイスの断面の構造が写るように電子顕微鏡等の荷電粒子ビーム装置によって撮影した画像(言い換えると、断面画像、対象画像、撮像画像など)を対象として、輪郭検出および寸法計測に関する処理を行う。プロセッサは、メモリ資源上に記憶される画像などのデータ・情報に対し、実施の形態の寸法計測方法に従った処理を実行する。
 実施の形態の寸法計測システムは、断面画像に対し、ユーザ等の人による手動操作で、輪郭検出および寸法計測をサポートするための基準線や基準点などの所定の情報を入力・指定・設定する方式と、所定の情報が設定された断面画像に対し、コンピュータによる自動処理で、輪郭検出および寸法計測の処理を行う自動方式と、の組み合わせによる半自動方式を採用したシステムである。実施の形態は、このような半自動方式での工夫を有する。なお、材料界面や寸法計測対象構造物領域を手動操作で指定・選択し、輪郭検出および寸法計測を自動で実行するシステムや方法を、「半自動方式」と記載する場合がある。
 実施の形態の寸法計測方法は、断面画像に対し、ユーザ等の人による手動操作に基づいて、自動検出や自動認識が難しい材料界面等の箇所を、基準線(言い換えると界面基準線、サポート線など)として指定するステップと、断面画像に対し、ユーザの手動操作に基づいて、自動検出や自動認識が難しい寸法計測対象の構造物パターンの領域を、基準点(言い換えると領域基準点、サポート点など)として指定するステップとを有する。これらのステップは、人の手動操作に関するステップである。そして、実施の形態の寸法計測方法は、上記基準線および基準点が設定された画像に対し、寸法計測対象の構造物パターンの輪郭検出を自動で行うステップと、検出された輪郭の情報に基づいて、計測対象の寸法を自動で計測するステップと、を有する。これらのステップは、コンピュータ自動処理に関するステップである。
 実施の形態の寸法計測システムおよび方法は、まず、手動設定の方式の特徴としては、断面画像に対し、ユーザが、GUI画面での手動操作で、対象の構造物の材料界面に対し、その材料界面を指し示すための基準線である界面基準線を指定し、また、寸法計測対象構造物領域を指し示すための基準点である領域基準点を指定する。このような手動操作のステップは、従来技術例とは異なる新しいユーザ・インタフェースとして実現される。これにより、入力数量などが減少し、ユーザの手間や負荷を低減できるとともに、ユーザの手動操作による誤差も低減できる。
 実施の形態の寸法計測システムおよび方法は、次に、自動方式の特徴としては、上記のように所定の情報が設定された断面画像に対し、コンピュータシステムが、所定のアルゴリズムによる処理で、上記基準線および基準点に基づいて、対象の構造物パターンの領域を特定し、対象の構造物パターンの輪郭を構成するエッジを検出する。
 そして、コンピュータシステムは、上記基準線および基準点と、検出された輪郭の情報とに基づいて、寸法計測対象の構造物パターンの領域における、指定された種類の寸法を計測する。計測対象とする寸法の種類(例えばトレンチ幅、トレンチ深さ等)については、GUI画面でユーザが設定・指定できる。
 コンピュータシステムは、上記検出した輪郭の情報と、寸法計測結果との少なくとも一方を、GUI画面でユーザに対し表示する。
 上記輪郭検出の処理のアルゴリズムは、従来技術例とは異なる新しいものであり(後述の図10等)、構造物の輪郭をより効率的に正確に検出できる。そして、コンピュータシステムは、検出された輪郭の情報に基づいて、対象の寸法をより効率的に正確に計測できる。
 <実施の形態1>
 図1等を用いて、実施の形態1の寸法計測システムおよび方法等について説明する。
 [半導体寸法計測システム]
 図1は、実施の形態1の寸法計測システムを含んだシステムである半導体寸法計測システムの構成例を示す。図1のシステム全体は、半導体寸法計測システムであり、走査電子顕微鏡(SEM)2と、実施の形態1の寸法計測システム1であるコンピュータシステム1とを含んで構成されている。また、図1のシステムの構成例では、通信網9上に、データベース(DB)3、半導体デバイス製造装置4、製造実行システム(MES)5、クライアント端末(操作用PC)6等を有する。これらの構成要素は、通信網9として例えばLANを介して相互に接続され、互いに通信可能である。実施の形態1の寸法計測システム1であるコンピュータシステム1は、通信網9上にサーバとして構成されており、走査電子顕微鏡(SEM)2や操作用PC6等の装置と通信で接続される。
 実施の形態1の寸法計測システム1は、後述(図2)のコンピュータシステム1によって構成される。このコンピュータシステム1は、プロセッサによるプログラム処理に基づいて、寸法計測システム1としての機能を実現する。寸法計測システム1は、機能として、少なくとも、輪郭検出機能F1および寸法計測機能F2を有する。輪郭検出機能F1は、対象試料の断面画像である画像7から、構造物(言い換えるとパターン)の輪郭を検出する機能である。寸法計測機能F2は、輪郭検出機能F1によって検出した輪郭の情報に基づいて、対象の寸法を計測し、寸法計測結果8を出力する機能である。
 SEM2は、断面画像撮像装置の例である。SEM2は、対象試料である半導体デバイス(例えばウェハ)の断面を撮像した断面画像を画像7として得る機能を有する。SEM2は、後述の図3に示すが、本体301と、本体301に接続されたコントローラ302とを有して構成されている。
 SEM2、または他の構成要素には、対象試料に断面を作製する機能を有してもよい。例えば、SEM2は、対象の半導体デバイスに対し、断面を作製する機能を有する装置としてもよい。例えば、SEM2は、収束イオンビーム機構を備えるFIB-SEM装置等としてもよい。FIB-SEM装置は、FIB加工により試料の一部に断面を作製する。SEM2とは別に、断面を作製する機能を有する装置が存在してもよい。例えば、通信網9上に、試料の劈開によって断面を作製する劈開装置を有してもよい。
 SEM2やコンピュータシステム1は、外部装置との間で適宜に通信などを行って、必要なデータ・情報を入出力してもよい。例えば、SEM2は、撮影によって得た画像7のデータを、コンピュータシステム1または操作用PC6に送信する。あるいは、SEM2は、画像7のデータを、DB3に格納してもよい。その場合、コンピュータシステム1は、DB3から画像7を取得する。DB3は、例えばDBサーバであり、画像7のデータや、設計データ等の各種の情報を格納してもよい。
 半導体デバイス製造装置4は、対象試料である半導体デバイスを製造する装置であり、各製造プロセスの装置、例えばエッチング装置などが挙げられる。MES5は、半導体デバイス製造装置4を用いた半導体デバイスの製造を実行管理するシステムであり、試料の設計データや製造プロセス情報等を有する。コンピュータシステム1は、MES5や半導体デバイス製造装置4等から、設計データや製造プロセス情報等を参照してもよい。
 クライアント端末6は、ユーザU1が使用する操作用PCであり、通信網9を介して寸法計測システム1(特にサーバ機能)にアクセスする機能を有する情報処理端末装置である。オペレータ等のユーザU1は、寸法計測システム1を直接的に操作してもよいし、あるいは、クライアント端末6から寸法計測システム1にアクセスすることで利用してもよい。クライアント端末6は、一般的なPC等が適用でき、入力操作のための入力デバイスや、表示等のための出力デバイスを内蔵しているか、それらが外部接続されている。ユーザU1は、クライアント端末6からSEM2等にアクセスして利用してもよい。
 実施の形態1では、寸法計測システム1であるサーバは、クライアント端末6との間で、クライアント・サーバシステムとして構成される。寸法計測システム1は、主要な処理を担い、クライアント端末6は、GUIとしての機能を担う。コンピュータシステム1とクライアント端末6とが一体であるシステムとしてもよい。すなわち、コンピュータシステム1に入出力およびGUI機能を有してもよい。
 実施の形態1の寸法計測システム1は、図1の構成例に限定されない。例えば、SEM2のコントローラ302(図3)に、寸法計測システム1が一体的に実装されてもよい。図1の他の構成要素に、寸法計測システム1が一体的に実装されてもよい。コンピュータシステム1は、1台の計算機に限らずに、クラウドコンピューティングシステム等で実現されてもよい。
 図1の例に限らず、他の構成要素である外部装置の例として、試料の断面を観察して解析・検査等を行う断面観察装置を有してもよい。断面観察装置は、例えばTEM装置等でもよい。あるいは、SEM2を断面観察装置としてもよい。SEM2は、STEM(走査透過型電子顕微鏡)や、他の種類の顕微鏡、撮像装置としてもよい。
 通信網9には、図示しないプログラム配信サーバ等が設けられてもよい。プログラム配信サーバは、実施の形態1の寸法計測システム1を実現するためのプログラム等のデータ(図2でのソフトウェア110)を、コンピュータシステム1に配信する。また、画像7やプログラム等のデータは、通信での入出力に限らずに、メモリカード等の記憶媒体に格納された態様で入出力されてもよい。
 [コンピュータシステム]
 図2は、実施の形態1の寸法計測システム1のコンピュータシステム1としての構成例を示す。コンピュータシステム1は、所定のハードウェアおよびソフトウェアを備え、それらの協働で機能を実現する。図2のコンピュータシステム1は、プロセッサ101、メモリ資源102、通信インタフェース103、入出力インタフェース装置104等を備える。それらの構成要素はバスに接続され、相互に通信可能である。メモリ資源102は、ROM105、RAM106、ストレージ107等を有する。
 プロセッサ101は、CPUあるいはMPUやGPU等の半導体デバイスによって構成される。プロセッサ101は、ROMやRAMや各種周辺機能等を備えてもよい。プロセッサ101は、メモリ資源102に格納されている制御プログラム、例えばROM106またはストレージ107からRAM105に読み出されて展開された、寸法計測プログラムを含むソフトウェア110に従った処理を実行する。これにより、所定の機能として、図1の輪郭検出機能F1や寸法計測機能F2等が実現される。ソフトウェア110は、実施の形態1で説明するすべての機能や動作を司る。コンピュータシステム1の起動時には、プロセッサ101およびソフトウェア110に基づいた実行モジュールが動作する。
 ストレージ107には、例えば、画像7、撮影情報111、定義情報112、寸法計測結果8等の各種のデータ・情報が格納される。画像7は、SEM2から取得した画像データ等である。寸法計測結果8は、寸法測機能F2による寸法計測結果等のデータである。撮影情報111は、SEM2で画像7を撮影した際の撮影情報であり、例えばSEM2での撮影条件や光学設定情報、画像7の属性情報等を含む。撮影情報111には、画像7における1画素あたりの実空間上の大きさであるピクセルサイズの情報、または、そのピクセルサイズが計算可能である倍率などの情報を少なくとも含む。
 定義情報112は、後述するが(図7等)、寸法計測システム1の機能に関する必要な定義情報や設定情報であり、システム設定情報やユーザ設定情報等を含む。その他、メモリ資源102には、適宜に処理過程で生じるデータ等が記憶される。なお、寸法計測システム1は、外部のメモリ資源(例えばDB3や外部記憶装置)を適宜に利用してもよい。
 コンピュータシステム1では、例えば、事前に、図1のSEM2またはDB3または操作用PC6から取得した画像7等のデータが、ストレージ107に格納される。画像7には、撮影情報111や定義情報112や寸法計測結果8等が関連付けられて管理される。
 通信インタフェース103は、SEM2や通信網9等に対する通信インタフェースが実装されている装置である。入出力インタフェース104は、入出力インタフェースが実装されている装置であり、入力デバイスや出力デバイスが外部接続可能である。入力デバイスの例はキーボードやマウスやマイクが挙げられる。出力デバイスの例はディスプレイやプリンタやスピーカが挙げられる。なお、コンピュータシステム1に入力デバイスや出力デバイスが内蔵されていてもよい。
 コンピュータシステム1は、GUI画面60でのユーザU1の指示等の入力に基づいて、入力された寸法計測対象の画像7、撮影情報111、および定義情報112を用いて、対象の画像7内の構造物パターンに関する輪郭を検出して、指定された種類の寸法を計測し、寸法計測結果8として生成して記憶する。そして、コンピュータシステム1は、寸法計測結果8を操作用PC6へ送信する。操作用PC6は、GUI画面60に、GUIとともに、画像7および寸法計測結果8を表示する。ユーザU1は、GUI画面60で寸法計測結果8等を確認できる。
 オペレータ等であるユーザU1は、操作用PCであるクライアント端末6における入力デバイスの操作や出力デバイスの画面表示を通じて、コンピュータシステム1を利用する。操作用PC6は、図示しないが、プロセッサ、メモリ、通信インタフェース、モニタディスプレイ、マウスやキーボード等を備える。モニタディスプレイの画面には、GUI画面60が表示される。
 コンピュータシステム1とクライアント端末6との間では、クライアント・サーバ通信が行われ、例えば以下のような通信や動作が行われる。ユーザU1は、クライアント端末6を操作し、コンピュータシステム1にアクセスする。クライアント端末6は、通信網9を通じてコンピュータシステム1のサーバ機能にアクセスし、要求を送信する。コンピュータシステム1のサーバ機能は、要求に応じて、GUI(グラフィカル・ユーザ・インタフェース)を含む画面データを生成し、クライアント端末6に送信する。画面データは、Webページ等によるものでもよい。あるいは、画面データではなく、対象のデータ・情報を直接的に送受信する形態でもよい。クライアント端末6は、受信した画面データ等に基づいて、ディスプレイの画面に、Webページ等によるGUI画面60を表示する。ユーザU1は、そのGUI画面60を見て、寸法計測システム1の機能に関する情報を確認し、必要に応じて設定や指示等を入力する。
 クライアント端末6は、ユーザ入力情報に基づいた要求や情報をコンピュータシステム1に送信する。コンピュータシステム1は、受信した要求や情報に基づいて、機能に関する処理を実行し、結果を保存する。コンピュータシステム1は、例えば画像7や寸法計測結果8等を含む画面データを、クライアント端末6に送信する。クライアント端末6は、受信したデータに基づいて、画像7や寸法計測結果8等を含むGUI画面60を表示する。ユーザU1は、そのGUI画面60で画像7や寸法計測結果8等を見て確認できる。
 図1では、一人のユーザU1および1台のクライアント端末6を示しているが、本システムには、複数のユーザおよび複数のクライアント端末6が存在してもよい。コンピュータシステム1やプロセッサ101は、物理的に1個に限らずに、複数が存在してもよい。
 [SEM]
 図3は、SEM2の構成例を示す。SEM2は、大別して、SEMの本体301と、本体301に対し接続されるコントローラ302とを有する。本体301は更に、電子光学カラム(以下、「カラム」と称する)とカラム下部に設けられた試料室とにより構成される。コントローラ302は、本体301による撮像などを制御するシステムである。コントローラ302は、全体制御部320、信号処理部321、記憶部322、通信インタフェース323等を備え、また、入力デバイス324や出力デバイス325が外部接続されている。
 本体301のカラムは、構成要素として、電子銃311、加速電極312、集束レンズ313、偏向レンズ314、対物レンズ315、検出器317等を備える。電子銃311は、荷電粒子ビームである電子ビームb1を出射する。加速電極312は、電子銃311から照射された電子ビームb1を加速する。集束レンズ313は、電子ビームb1を集束する。偏向レンズ314は、電子ビームb1の軌道を偏向させる。対物レンズ315は、電子ビームb1の集束する高さを制御する。試料室は、ウェハやクーポン(ウェハの割断片)等の試料が格納される部屋であり、試料上の観察位置を電子ビームの照射点に移動させるためのステージ316を備える。
 ステージ316は、対象の試料30である半導体デバイスを載置する試料台である。ステージ316は、X方向やY方向のみならずZ方向への移動機能やXY、YX軸或いはZ軸に対する回転機能も備えており、撮像した視野を正対画像に対する水平方向および垂直方向、或いは視野内での回転方向に移動可能である。これにより、撮像の視野が設定できる。
 検出器317は、電子ビームb1が照射された試料30から発生した二次電子や後方散乱電子等の粒子b2を電気信号として検出する。検出器317は、電気信号である検出信号を出力する。
 全体制御部320は、コントローラ302および本体301の動作を制御する。全体制御部320は、各部に駆動制御などの指示を与える。全体制御部320等の各部は、コンピュータまたは専用回路などで実装できる。信号処理部321は、検出器317からの検出信号を入力し、アナログ/デジタル変換等の処理を行って画像信号を生成し、記憶部322に画像等のデータとして保存する。記憶部322は、不揮発性記憶装置等で実装できる。全体制御部320は、画像に関する撮影情報等も記憶部322に関連付けて保存する。
 通信インタフェース323は、通信網9やコンピュータシステム1に対する通信インタフェースが実装された装置である。全体制御部320は、例えばコンピュータシステム1からの要求等に応じて、記憶部322に記憶されている画像や撮影情報等のデータを、通信インタフェース323を介して、コンピュータシステム1に送信する。コンピュータステム1は、SEM2のコントローラ302から受信した画像7等のデータをメモリ資源102に格納する。
 [半導体デバイス]
 図4は、実施の形態1での対象試料である半導体デバイスの構造物パターン等の例を示す。図4の(A)では、3次元の構造物の設計上のパターンの形状を斜視図で示し、例えばX-Z面での断面を示している。この断面は例えば劈開やFIB加工によって形成される。この構造物は、マスク401、ピラー402、トレンチ403を有する。マスク401およびピラー402は、断面が台形状の構造物であり、トレンチ403は、断面が逆台形状の構造物であり、マスク401がある部分の下側にピラー402が形成されており、マスク401が無い部分の下側にトレンチ403が形成されている。
 図4の(B)は、(A)のX-Z面での断面に対応した断面図で、計測対象である寸法の例を示している。半導体デバイスは、Z方向で、第2材料による被エッチング層412の上に、第1材料によるマスク層411を有する。マスク層411にはマスク401が形成されており、被エッチング層412にはピラー402およびトレンチ403が形成されている。Z方向でマスク401とピラー402との間を材料界面413として破線で示す。
 寸法A1は、トレンチ403の上面(言い換えるトップ)414でのトレンチ幅である。トレンチ403の上面414の位置は、マスク401とピラー402との材料界面413の位置と対応している。寸法A2は、トレンチ403の底面(言い換えるとボトム)415でのトレンチ幅である。寸法A3は、トレンチ403の高さ・深さ方向(Z方向)で、例えば中間位置(例えば50%位置)でのトレンチ幅である。寸法A3の位置は、率(%)に限らずに、トップ414からの距離や、ボトム415からの距離等によって定義されてもよい。寸法A1~A3は、X方向での長さである。
 寸法A4は、トレンチ深さであり、Z方向でトレンチ403のトップ414からボトム415までの長さである。寸法A5は、トレンチ側壁角度であり、例えばトレンチ403のボトム415に対して、側壁416(台形の斜面の部分)が為す角度である。トレンチ側壁角度は、Z方向の所定の位置での角度として定義されてもよい。
 寸法B1は、ピラー402の上面(言い換えるとトップ)でのピラー幅である。ピラー402のトップの位置は、材料界面413の位置と対応している。寸法B2は、ピラー402の底面(言い換えるとボトム)でのピラー幅である。ピラー402のボトムの位置は、トレンチ403のボトムの位置と対応している。寸法B3は、ピラー402の高さ方向(Z方向)で、例えば中間位置(例えば50%位置)でのピラー幅である。寸法B3の位置は、率(%)に限らずに、トップからの距離や、ボトムからの距離等によって定義されてもよい。寸法B1~B3は、X方向での長さである。
 寸法B4は、ピラー高さであり、Z方向でピラー402のトップからボトムまでの長さである。寸法B5は、ピラー側壁角度であり、例えばピラー402の底面に対して側壁が為す角度である。ピラー側壁角度は、Z方向の所定の位置での角度として定義されてもよい。
 寸法計測対象の構造物や寸法は、図4の例に限定されない。他の構造物の例としては、ホールやフィン等が挙げられる。他の寸法の例としては、トレンチ403等の面積が挙げられる。
 [寸法計測方法]
 実施の形態1の寸法計測方法について説明する。図5は、実施の形態1の寸法計測システム1であるコンピュータシステム1により実行される寸法計測処理のフロー図を示す。このフローは、ステップS1~S6を有する。寸法計測システム1は、図5のようなフローで、実施の形態1の寸法計測方法を実行する。概要としては、ユーザU1は、GUI画面60(図6)で対象画像70を選択・表示し(ステップS1)、手動操作で界面基準線11(図8)および領域基準点12(図9)を指定・設定する(ステップS3)。コンピュータシステム1は、設定されたそれらの情報に基づいて、寸法計測対象の構造物の領域を特定して輪郭を検出し(ステップS4)、検出された輪郭の情報に基づいて、指定された種類の寸法を計測し(ステップS5)、寸法計測結果8をGUI画面60(図20)に表示する(ステップS6)。
 ステップS1では、コンピュータシステム1は、寸法計測対象となる画像7を指定する。本例では、ユーザU1は、操作用PC6のマウス等を操作し、GUI画面60(図6)で、カーソル609を動かし、メニューやボタン等のGUIを操作して、対象となる画像7の画像ファイルを選択する。
 ステップS2で、コンピュータシステム1は、今回の寸法計測に適用する定義情報112(図2)を指定する。予め適用する定義情報112が指定・設定済みである場合には、その設定を参照するだけでもよい。本例では、ユーザU1は、GUI画面60で、定義情報112のファイルを選択する。定義情報112は、予め事業者によりソフトウェア110(図2)の一部として用意しておいてもよいし、GUI画面60でユーザU1が設定して保存しておいてもよい。定義情報112には、後述するが(図7)、対象の画像7に対し適用する、寸法計測対象の構造物パターン、計測対象の寸法(言い換えると寸法の種類)、その寸法の計測の詳細などが定義されている。
 ステップS3で、コンピュータシステム1は、ユーザU1の手動操作に基づいて、GUI画面60(図6や図9等)で、対象画像70に対し、界面基準線11と領域基準点12とを指定する。領域基準点12は、必要に応じて複数点がまとめて指定可能である。なお、画像7に対し設定された界面基準線11および領域基準点12の位置座標などの情報(基準情報とも記載)は、適宜にメモリ資源102(図2)に保存される。例えば、寸法計測結果6の一部の情報として、それらの基準情報が保存される。
 ステップS4で、コンピュータシステム1は、ステップS3で指定された界面基準線11および領域基準点12と、適用する定義情報112とに基づいて、対象画像70内の寸法計測対象の構造物パターンの領域の輪郭を検出する。なお、実施の形態1では、輪郭とエッジとを区別し、特に、輪郭を構成するエッジが検出される。エッジは、エッジ点または輪郭線などのデータ構造で表現される。なお、検出された輪郭に関する情報(エッジ点や輪郭線の情報。輪郭情報とも記載)も、適宜にメモリ資源102(図2)に保存される。例えば、寸法計測結果8の一部の情報として、それらの輪郭情報が保存される。
 ステップS5で、コンピュータシステム1は、ステップS3で指定された界面基準線11および領域基準点12の情報と、ステップS4で検出された輪郭情報とを用いて、対象の構造物における、指定された種類の寸法を計測する。コンピュータシステム1は、その結果生成された寸法計測結果8のデータをメモリ資源102に保存する。
 ステップS6で、コンピュータシステム1は、寸法計測結果8を、ユーザU1に対し出力する。コンピュータシステム1は、寸法計測結果8を操作用PC6に送信することで、GUI画面60に画像7および寸法計測結果8を表示させる。
 以下では、各ステップについて、図面を用いながら詳細や具体例等を説明する。
 [ステップS1:対象画像]
 初めに、操作用PC6のディスプレイには、図6の例のようなGUI画面60が表示される。図6の上部には、GUI画面60の初期表示状態を示し、下部には、画像欄601に対象画像70が表示された状態を示す。GUI画面60内には、画像欄601、ツールバー602、タブ603等を有する。初期表示状態では、まだ対象画像が指定されていないので、画像欄601には画像が表示されていない。「Semi-auto」や「Auto」等のタブ603もアクティベートされていない。
 ユーザU1は、「Semi-auto」タブ604をクリックし、ツールバー602における「File」ボタン605で、寸法計測対象画像の画像ファイルを選択する。対象画像は、画像欄601に表示させたい画像7である。GUI画面60でのクリックや選択等の操作は、操作用PC6のマウスやキーボード等の入力デバイスと、それらの操作に対応したGUIとを用いて行うことができる。
 「Semi-auto」タブ604は、モードとして「半自動方式」を選択するものである。この「半自動方式」モードは、実施の形態1の寸法計測方法と対応しており、前述のように界面基準線11および領域基準点12を手動操作で指定する方式である。「Auto」や「train」のタブは、後述の実施の形態4等で用いられるモードである。
 対象画像の寸法計測を実行したい場合、ユーザU1は「Measure」ボタン606を押す。その操作に応じて、コンピュータシステム1は、図6の下部に示すような状態に画面を遷移させる。下部の状態の画面では、画像欄601に、指定された対象画像70が表示される。この画面では、「Mask」ボタン611、「Pillar」ボタン612、「Trench」ボタン613等のボタンもアクティベートされる。下部の状態は、後述の界面基準線設定モードに相当する。「Mask」ボタン611等は、構造物の種別ごとに設けられるボタンである。
 ユーザU1は、対象画像70内の寸法計測対象の構造物パターンに応じて、「Mask」ボタン611、「Pillar」ボタン612、「Trench」ボタン613のいずれかのボタンをクリック操作する。これらのボタンは、界面基準線11や領域基準点12を指定する対象となる構造物パターンの種別として、例えば図4のようなマスク401、ピラー402、トレンチ403等を選択するものである。このように対象の構造物パターンの種別を指定することで、コンピュータシステム1による処理対象や処理内容を限定し、より容易化することができる。なお、他の種別の構造物パターンがある場合には、他のボタンが同様に設けられる。
 例えば、図1のユーザU1が、対象画像70内のトレンチについて計測したい場合、言い換えるとトレンチに対し界面基準線11や領域基準線12を設定したい場合、ユーザU1は、まず「Trench」ボタン613を押す。これにより、コンピュータシステム1は、処理対象の構造物パターンの種別を把握する。
 [ステップS2:定義情報]
 ステップS2では、対象画像70に対し適用する定義情報112のファイルが選択される。定義情報112のファイルは、対象の構造物パターンの寸法計測のために必要な定義情報や設定情報などを、対象の構造物パターンごとに格納したファイルである。
 図7の上部には、定義情報112のファイルの一例を表形式で示す。このファイルは、図示の表において、列項目として、行番号(#)、「パターン種別」、「測長名」、「測長種類」、「測長定義情報」を有する。「パターン種別」項目は、寸法計測の対象の構造物パターンの種別(前述のトレンチ等)を示す。「測長名」項目は、実行する測長の呼び名を示す。この測長名は、前述の図4のような対象寸法を表しており、ユーザU1が任意に呼び名を付けることができる。「測長種類」項目は、実行する測長の種類を示す。例えば値「CD from interface」の場合は、「界面(interface)から所定の距離の位置でのCD(Critical Dimension)」の意味である。
 「測長定義情報」項目は、「測長種類」ごとの測長の定義情報を示す。例えば値「0nm from reference line」の場合は、「界面基準線から0nmの位置」で測長するという意味である。これは、図4での寸法A1~A3等の縦方向の位置を規定する情報に相当する。所定の距離は、例えば後述の図18の(C)での距離dに相当する。
 測長に必要なこれらの定義情報112は、ファイルに事前に設定・格納しておけばよい。例えば、GUI画面60で、定義情報112のファイルの設定が可能であり、適用するファイルの選択が可能であり、測長ごとに同じ情報を再利用することも可能である。これに限らず、定義情報112は、測長の都度に、ステップS2で入力されるものとしてもよい。半導体デバイスの画像を用いた寸法計測においては、同一構造の試料の決まった箇所の寸法を繰り返し計測する場合が多い。このような計測を行う場合、測長位置や測長の種別情報等、寸法計測に関する設定情報を定義情報112として一度設定しておけば、次回以降の寸法計測において、設定情報を計測の都度設定する必要が無くなる。
 図7の下部には、定義情報112を選択するGUI画面の構成例を示している。対象画像70に対し、例えば「Trench」ボタン613で対象がトレンチとして指定された後、リストボックス等の定義情報選択GUI701をGUI画面に表示させ、適用する定義情報112のファイル、本例では、上部に示す表のうちの指定された行の定義情報を、1つ以上、ユーザU1が選択して適用できる。このような機能は、プロセッサ101とソフトウェア110の協働により実現される。或いは、クライアント端末6に備えられたストレージに定義情報112の選択用プログラムを格納し、クライアント端末6が備えるプロセッサにより図7下部に示す操作を実現してもよい。更には、クライアント端末6に定義情報112の編集用プログラムを格納しておけば、クライアント端末6側で定義情報112の事前設定が可能となる。
 指定された対象の構造物パターン(例えばトレンチ)に対し、そのパターンに関連付けられた、候補となる定義情報が複数存在する場合には、GUI画面60で、ユーザU1の操作により、適用する1つ以上の定義情報を選択できる。例えば図7の定義情報112の例では、トレンチ403に関して、候補として番号#3~#5の行で示す3種類が存在する。ユーザU1は、これらの候補から、適用するものを1つ以上選択する。このようにして、複数の種類の寸法を同時に計測することも可能であり、処理・作業を効率化できる。
 [定義情報を用いた対象寸法の指定・設定]
 実施の形態1では、上記のように、定義情報112(言い換えると寸法計測設定情報、寸法設定情報)を用いて、対象画像の対象構造物パターンごとに、計測対象寸法(図4のような寸法種類や計測位置などを含む)を、ユーザU1の操作で指定・設定できる。まとめると、定義情報112は、界面基準線11、領域基準点12、および検出される輪郭情報に対し、どのような種類の寸法をどのように計測するかについて定める情報である。
 対象寸法および定義情報112の指定・設定については、他にも、GUI画面60で以下のように実現してもよい。変形例でのコンピュータシステム1は、設計パターン情報等に基づいて、GUI画面60に、例えば図4の(B)のような寸法に関する画像をGUI画像として表示し、また、図7のような定義情報112の表などを表示する。コンピュータシステム1は、GUI画面60で、トレンチ403等の構造物パターンごとに、候補となる寸法(例えば寸法A1等)を表す寸法計測対象線などの画像(例えば矢印画像)を表示する。コンピュータシステム1は、GUI画面60で、ユーザU1によるカーソル等の操作を受け付けて、対象寸法を選択し、選択された対象寸法ごとに、詳細な定義情報を、定義情報112の表に設定する。例えば寸法A3を規定する縦方向の位置を、率や距離等で設定できる。
 [ステップS3:(1)界面基準線]
 ステップS3では、GUI画面60で、対象画像70に対し、ユーザU1によるマウス等の手動操作によって、寸法計測対象の構造物パターンについて、例えば図6中の「Trench」ボタン613等で指定されているトレンチ等について、まず、界面基準線11が指定・設定される。この界面基準線11は、図4のような材料界面413に合わせて指定される。材料界面413と同じ縦方向位置には、マスク401のボトム、ピラー402のトップ、トレンチ403のトップがある。
 ユーザU1は、界面基準線設定モードで、画像欄601に表示される界面選択GUI61を操作して、対象画像70内の材料界面413に合わせた所望の位置に、界面基準線11を指定する。コンピュータシステム1は、対象画像70における指定された縦方向(Z方向)の位置に、界面基準線11を設定する。
 図8等も用いながら、実施の形態1での界面選択方法、界面基準線設定方法について説明する。図8の(A)は、図6と対応した画像欄601の対象画像70の例を示し、図8の(B)は、(A)の対象画像70上に界面選択GUI61としての界面基準線11が表示された状態を示す。
 (A)の対象画像70の例では、マスク401、ピラー402、およびトレンチ403が含まれている。なお、画像に応じては、それらの一部のみが含まれている場合もある。なお、図面では、画像のカラーの輝度を、白黒で模式図として表現している。本例では、トレンチ403を含む背景領域である真空領域は、最も輝度が低く、暗くなっており、黒パターンで図示している。トレンチ403に対し、ピラー402の領域、マスク401の領域の順で、輝度が高く、明るくなっている。また、トレンチ403を含む背景領域と、マスク401およびピラー402の領域との境界付近には、ホワイトバンド406が生じている。この領域406は、最も輝度が高く、明るくなっており、白パターンで図示している。
 (B)の例では、初期状態では、対象画像70内の任意の位置、例えばZ方向で中間位置に、界面選択GUI61としての界面基準線11が表示される。界面選択GUI61は、X方向に延在する点線直線として表示されており、界面基準線11に相当する。ユーザU1は、マウス等の入力デバイスの操作に基づいて、画像欄601で、カーソル609を操作して、界面選択GUI61の界面基準線11を操作する。これにより、ユーザU1は、材料界面413(図4)に合わせて、本例では、マスク401とピラー402との界面に合わせた、縦方向(Z方向)の位置に、界面基準線11を指定する。
 界面選択GUI61は、例えば、カーソル609によるクリックやドラッグの操作によって、点線直線で示す界面基準線11のZ方向(縦方向)での位置が変更できる。例えば、ユーザU1は、界面基準線11にカーソル609を合わせてクリックし、ドラッグして、カーソル609を上下に動かすことで、界面基準線11の位置を上下に変更する。ユーザU1は、画像70内の異なる材料(例えばマスク401とピラー402)同士の輝度の違いから、材料界面413の位置が概略的にわかるので、その材料界面413の位置に合わせて、界面基準線11を配置する。ユーザU1は、所定の操作(例えばクリックボタンを離す)で、界面基準線11の位置を決定する。
 本例では、界面基準線11は、図示のようにX方向に延在する直線であり、界面基準線11の指定は、最小では対象画像70内で1点の高さ位置を指定する操作のみで実現でき、入力の手間が小さい。
 コンピュータシステム1は、対象画像70における上記操作で指定された位置に、界面基準線11を設定する。界面基準線11の設定情報は、例えば図示の縦方向(Z方向)での位置座標情報を有する。コンピュータシステム1は、設定された界面基準線11を、所定の表現で表示する。例えば、界面選択GUI61での界面基準線11は、所定の色の点線から、所定の色の実線に変化してもよい。界面選択GUI61は、上記例に限らずに可能である。例えば、上下ボタンや縦方向スライドバーを用いてもよいし、縦方向の位置座標を入力するフォームを用いてもよい。
 本例では、断面画像内で材料界面413が横方向(X方向)に延在しているため、そのX方向に対応して、横方向(X方向)に延在する界面基準線11を設定する場合を示している。これに限定されず、断面画像内での材料界面の方向等の実態に合わせて、界面基準線11は、横方向以外の方向に延在するものとしてもよい。変形例としては、GUI画面60で、界面基準線11の延在の方向について、ユーザU1による指定・設定を可能としてもよい。
 上記界面基準線11を設定した後、ユーザU1は、GUI画面60(図6)内の「Next」ボタン610を操作する。コンピュータシステム1は、その操作に応じて、GUI画面60を、図6のような界面基準線設定モードから、図9のような領域基準点設定モードに遷移させる。
 [界面基準線の機能について]
 実施の形態1では、界面基準線11は、輪郭検出および寸法計測の処理のサポートや基準のための線である。特に、界面基準線11は、ユーザU1が材料界面413を判断して指定するための線である。また、特に、界面基準線11は、寸法計測対象構造物領域や計測対象寸法を検出・決定するための基準として用いることもできる線である。
 実施の形態1では、後述のように、寸法計測の際には、検出された輪郭線、および定義情報112に基づいて、指定された界面基準線11を基準として、計測対象寸法を決定できる。例えば図4で、寸法A1であるトレンチ幅や、寸法A4であるトレンチ深さは、検出された輪郭線に基づいて、指定された界面基準線11のZ方向の位置に合わせて規定される。例えばトレンチ深さにおける一方の端である上辺(トップ)の位置は、界面基準線11によって規定される。また、寸法A3については、指定された界面基準線11の位置を基準として下側に所定の距離や率での位置として規定される。
 [ステップS3:(2)領域基準点]
 ステップS3では、さらに、GUI画面60で、画像欄601の対象画像70に対し、ユーザU1の手動操作によって、寸法計測対象の構造物パターンの領域をおおまかに表す領域基準点12が指定・設定される。その際には、前述のボタンで指定されている種別の構造物パターンについて、所定のGUIとして、領域選択GUI62を用いて、領域基準点12が1つ以上指定される。
 図9を参照しながら、寸法計測対象構造物領域の領域基準点12の選択方法について説明する。図9は、GUI画面60における領域基準点設定モードの状態を示す。図9の下部には、画像欄601の対象画像70の拡大を示す。このモードでは、画像欄601の対象画像70上に、前述の設定された界面基準線11の他に、領域選択GUI62としての領域基準点12等が表示される。初期状態では領域基準点12は表示されない。ユーザU1は、マウス等に基づいたカーソル609等の操作で領域選択GUI62を操作し、寸法計測対象とするトレンチ等の領域内に、領域基準点12を指定する。
 なお、変形例では、初期状態から、対象画像70内の任意の位置に、領域基準点12や垂線13を表示してもよい。
 本例では、領域選択GUI62における領域基準点12として、ユーザU1により指定された位置に、領域基準点901,902,903が表示されている。本例では、「Mask」ボタン611のクリック後に2つのマスク401の領域内に領域基準点901,902が指定され、「Trench」ボタン613のクリック後にトレンチ403の領域内に領域基準点903が指定されている。コンピュータシステム1は、指定された位置に、領域基準点12を所定の態様(例えば円形、所定の色など)で表示する。マスク401の領域やトレンチ403の領域は、図示のように、一部が界面基準線11によって区切られている。
 また、領域基準点12の指定に伴い、コンピュータシステム1は、指定された領域基準点12の位置から、縦方向(Z方向)で、界面基準線11に対し、垂直な直線である垂線13を引き、所定の態様(例えば点線)で表示する。本例では、領域基準点903から上側に垂線904が引かれており、領域基準点901,902から下側にそれぞれ垂線905が引かれている。本実施例では領域選択GUI62の一部として垂線13の表示も含むが、垂線13の表示を省略してもよい。
 上記例に限らず、他の領域選択GUI60の例では、初期表示された領域基準点12をユーザU1がカーソル609でクリック、ドラッグ等で操作し、所望の位置に移動して配置してもよい。上記例に限らず、ピラー402についても同様に領域基準点12を指定可能である。また、必要に応じて、界面基準線設定モードに戻り、界面基準線11の設定をやり直すこともできる。変形例では、画像欄601の対象画像70内で、界面基準線11と領域基準点12とを同時並行で設定可能としてもよい。
 図9の例では、あるトレンチ403の領域(図示の逆台形状で界面基準線11によって閉じられた領域)内に含まれる任意の位置の1点が、領域基準点903として指定されている。この領域基準点903は、そのトレンチ403の領域を指し示している。その領域基準点903から縦方向で上側、すなわち界面基準線11がある方向に、垂線13(904)が引かれる。垂線13は、領域基準点11が指定されれば自動的に定まるので、ユーザU1が垂線13を引く操作を行う必要は無い。上記のように、領域選択GUI62は、構造物パターンごとに、おおまかな位置に1点をクリック等で指定する操作のみでよく、細かい位置を指定する必要は無いので、操作の手間が小さい。
 また、対象画像70内で、領域基準点12およびそれに伴う垂線13は、必要に応じて複数をまとめて指定可能である。本例では、2つのマスク401、1つのトレンチ403を寸法計測対象とする場合に、3個の領域基準点12が指定されている。コンピュータシステム1は、「Mask」ボタン611等での構造物の種別の指定に応じて、指定された領域基準点12に関連付けられる構造物の種別を把握する。コンピュータシステム1は、対象画像70に対し、構造物パターンごとに、指定された領域基準点12を設定する。
 ユーザU1は、界面基準線11および領域基準点12の指定・設定を終了する場合、GUI画面60の「Finish」ボタン614を押す。この操作に応じて、コンピュータシステム1は、領域基準点設定モードを終了する。これによりステップS3が終了する。その後、それらの設定情報に基づいて、コンピュータシステム1による輪郭検出および寸法計測が自動実行される(ステップS4,S5)。
 [領域基準点の機能について]
 実施の形態1では、領域基準点12は、輪郭検出および寸法計測の処理のサポートのための点である。特に、領域基準点12は、ユーザU1が寸法計測対象となる構造物パターンの領域をおおまかに指定するための点である。
 例えば、寸法計測対象の構造物がトレンチ403であり、計測対象寸法(言い換えると寸法種類)がトレンチ幅(例えば図4での寸法A3、後述の図18の(C)での寸法1803)である。この場合に、領域基準点12は、対象のトレンチ403の領域をおおまかに指し示しているだけである。この領域基準点12や界面基準線11に基づいて後述のアルゴリズムで処理されることで、そのトレンチ403の領域が特定され、輪郭が検出される。領域基準点12は、そのトレンチ幅を計測する高さ位置を指定するものではなく、そのトレンチ幅を規定する寸法計測対象線の両端の2点を指定するものでもない。そのため、領域基準点12に関する操作の手間は小さい。
 また、実施の形態1では、領域基準点12の機能の1つとして、寸法計測対象構造物領域を指し示す機能だけでなく、以下のような機能も有する。すなわち、後述の図10等に示すが、領域基準点12のZ方向の位置は、X方向にラインプロファイル20を抽出する上部の矩形の領域と、動径方向にラインプロファイル20を抽出する下部の半円の領域とを分けている。領域基準点12の位置に応じて、これらのラインプロファイル20の生成方法が変わる。
 なお、変形例(後述)では、領域基準点12は、コンピュータシステム1による計測対象寸法を決定するための基準として用いることもできる。
 [材料界面および寸法計測対象領域について]
 断面画像内の構造物パターンの材料界面(例えば図4の材料界面413)は、寸法計測の際に基準となり得る。例えば、材料界面を起点とした寸法(例えばトレンチ深さ)を計測したい場合がある。そのため、材料界面をなるべく正確に把握することが有効である。しかしながら、前述のように、従来の画像処理等の技術では、断面画像から材料界面を判断・検出することには難しさがあり、効率が良くない。そのため、実施の形態1では、半自動方式とし、断面画像内の材料界面に対し、ユーザU1が主観判断および手動操作によって、材料界面を指し示す界面基準線11を指定・設定する。これにより、コンピュータシステム1は、界面基準線11を基準とした寸法計測等が可能であり、効率的な処理が可能である。
 また、従来技術では、断面画像からコンピュータが自動処理で寸法計測対象の構造物の領域(例えばトレンチ等)を判断・検出することにも難しさがある。一般的な従来技術(例えば比較例2)では、ユーザが手動操作によって寸法計測対象箇所を指定する。しかしながら、そのような従来技術では、ユーザの手間が大きい。そのため、実施の形態1では、半自動方式とし、ユーザU1が手動操作によって断面画像内の寸法計測対象領域をおおまかに指し示す領域基準点12を指定・設定し、その後に、コンピュータシステム1が自動的に対象構造物領域を特定し、寸法を計測する。
 [ステップS4:輪郭検出 その1]
 ステップS4では、上記選択・指定された界面基準線11の位置座標情報、および領域基準点12の位置座標情報を用いて、寸法計測対象の構造物パターンについての輪郭検出処理が行われる。以下では、図10等を参照しながら、トレンチ403について輪郭検出を行う場合の処理のアルゴリズム等について説明する。
 図10は、対象画像70における、界面基準線11および領域基準点12を用いた輪郭検出についての模式説明図である。本例では、トレンチ403に関する領域基準点903および垂線904を用いた輪郭検出の場合を示す。また、図11は、図10に対応して、見やすいように背景領域を白にする等して画像内容を簡易化し、ラインプロファイル20等についての補足の情報を示す説明図である。
 [ラインプロファイル]
 コンピュータシステム1は、領域基準点12(903)から、Z方向(画像内での縦方向)の上側に延在する垂線13(904)に対し、垂直方向であるX方向(画像内での横方向)に、垂線13側を起点として、ラインプロファイル20を取得する。ラインプロファイル20は、画像7の画素データ上でそのライン上の画素の輝度値によって構成されるデータである。図10の例では、複数のラインプロファイル20として、番号#1~#15で示す15本のラインプロファイル20が取得されている。
 複数のラインプロファイル20は、例えば以下のように取得される。図10および図11で、コンピュータシステム1は、領域基準点12から上側の界面基準線11に垂線13を引き、その垂線13と界面基準線11との交点14を抽出する。コンピュータシステム1は、その交点14を起点として、まず、界面基準線11上で、X方向で左右のそれぞれの方向に、ラインプロファイル20(#1,#15)を抽出する。本例では、交点14から左に、範囲23の端まで延在した線分が、番号#1のラインプロファイル20であり、交点14から右に、範囲23の端まで延在した線分が、番号#15のラインプロファイル20である。なお、これらの左右のラインプロファイル20は、1本の線ではなく、2本の線として設定される。
 次に、コンピュータシステム1は、界面基準線11上の交点14と、領域基準点12とを結ぶ垂線13上に、例えば所定の間隔または数によって、複数の点(分割点15とする)を設定する。これらの分割点15は、複数のX方向のラインプロファイル20を抽出するための位置を規定する点である。コンピュータシステム1は、それぞれの分割点15を始点として、同様に、X方向の左右に、それぞれ、範囲23内で、X方向に延在するラインプロファイル20を抽出する。本例では、3個の分割点15(図11)が追加されており、左側に、番号#2~#4のラインプロファイル20と、右側に、番号#12~#14のラインプロファイル20とが取得されている。上記処理により、まず、領域基準点12から上側の範囲では、番号#1~#4および#12~#15で示す、8本のラインプロファイル20が取得されている。
 範囲23は、ラインプロファイル20を抽出するための範囲である。範囲23は、領域基準点12からZ方向で上側では、垂線13から左右に所定の長さまでの矩形の領域であり、領域基準点12からZ方向で下側では、領域基準点12から所定の半径までの半円の領域である。
 実施の形態1の寸法計測方法における輪郭検出処理のアルゴリズムでは、図示のように、領域基準点12から上側の矩形の領域ではX方向に延在するラインプロファイル20を設定し、領域基準点12から下側の半円の領域では動径方向の各位置の半径方向に延在するラインプロファイル20を設定する。実施の形態1では、これらの2種類のラインプロファイル20(言い換えると輝度プロファイル情報)を用いて、対象の構造物パターンの輪郭(特に輪郭を構成するエッジ)を検出する方式である。
 次に、コンピュータシステム1は、領域基準点12(903)から下側の半円の範囲23内で、動径方向に延在する複数のラインプロファイル20を取得する。まず、コンピュータシステム1は、領域基準点12の位置から、X方向で左側に延在する番号#5のラインプロファイル20と、X方向で右側に延在する番号#11のラインプロファイル20とを取得する。また、コンピュータシステム1は、領域基準点12を中心点として、番号#5のラインプロファイル20から番号#11のラインプロファイル20までの半円の領域内で、例えば所定の角度の間隔または数で、分割によって複数の動径方向を設定する。そして、コンピュータシステム1は、それぞれの動径方向(言い換えると回転の角度の方向)に延在するラインプロファイル20を取得する。本例では、番号#6から#10までで示す、5本のラインプロファイル20が取得されている。
 なお、番号#5と番号#11の2本のラインプロファイル20は、X方向に延在し、上側の範囲と下側の範囲との両方に属しているとも言えるので、それらの2本を含めて上側の範囲で合計10本のラインプロファイル20が取得されると捉えてもよい。
 なお、図11の例では、複数のラインプロファイル20の設定にあたり、破線矢印で示すように、左側から開始して右側に回り込む順序で識別のための番号(ID)を付与しているが、これに限定されない。また、複数のラインプロファイル20の処理順序は、番号の順に限らなくてもよい。
 ラインプロファイル20を取得する範囲23(例えば領域基準点12からの長さ)や数量(例えば分割の間隔や数など)については、予めソフトウェア110の実装上の固定の設定値としてもよいし、定義情報112において構造物パターンに応じた設定値としてユーザ設定できるものとしてもよい。
 実施の形態1での2種類の方向のラインプロファイル20を用いる方式は、対象の構造物パターンの形状等の特性と対応している。例えば、トレンチ403等の構造物パターンは、概略的に凹凸や台形の形状を有する。このような構造物パターンの形状に対し、X方向や動径方向にラインプロファイル20を抽出することが適している。図10の例では、凹形状で逆台形の形状を有するトレンチ403の領域を対象として輪郭を検出する場合に、領域基準点12から下側の範囲ではラインプロファイル20を領域基準点12を中心とする動径方向(言い換えると半径方向)に設定する。動径方向のラインプロファイル20(図11では番号#6から#10に対して設定)は、図示のように、トレンチ403の側壁や底部の付近を経由するので、トレンチ403の側壁や底部の付近のエッジ候補点21(番号#6から#10の各ラインプロファイル上に存在するエッジ候補点)を抽出可能となる。
 実施の形態1では、対象の構造物パターンの指定に応じて、あるいは、界面基準線11に対し領域基準点12がZ方向で上側にあるか下側にあるかといった位置関係に応じて、2種類のラインプロファイル20の設定の仕方を自動的に選択可能である。
 [エッジ候補の抽出]
 次に、コンピュータシステム1は、上記取得された複数のラインプロファイル20について、各ラインプロファイル20上で、寸法計測対象の構造物の領域の輪郭に関するエッジ候補となるエッジ候補点21を抽出する。コンピュータシステム1は、1つのラインプロファイル20上で、所定のルールに基づいて、エッジ候補点21を抽出する。エッジ候補点21は、対象の構造物パターンの輪郭を構成するエッジとなる候補の点である。各ラインプロファイル20上では、エッジ候補点21が抽出できない場合もあるし、2つ以上が抽出される場合もある。
 なお、ここでは、輪郭とエッジとを区別する。図10では、ラインプロファイル20上において抽出されたエッジ候補点21を、白四角点や黒四角点で示している。本例では、2つのエッジ候補点21が抽出された場合に、区別のために、1番目の点を白四角点で示すエッジ候補点21aとし、2番目の点を黒四角点で示すエッジ候補点21bとしている。トレンチ402等の輪郭は、ホワイトバンド406のように曖昧である場合がある。ここでのエッジ(端点)とは、例えばホワイトバンド406を構成する画素のうち、構造物の輪郭として最も確からしい位置の画素(ないし当該画素の位置または座標)、或いは最も確からしい位置の画素の集合によって構成される線を意味する。なお、画素間の座標をエッジと定義することもできる。
 コンピュータシステム1は、各ラインプロファイル20上で輝度変化を判断して、所定のルールで、エッジ候補点21を抽出する。このラインプロファイル20ごとの処理では、単一方向、例えばX方向での輝度値の変化を判断すればよい。そのため、従来技術例での2次元画像内の各方向での輝度変化の判断に比べ、輪郭ないしエッジの検出が容易化される。
 所定のルールとは、エッジ候補点21を決めるための輝度変化の方向や量などに関する規定である。例えば、所定のルールは、輝度が低から高に増加する箇所であること、かつ、輝度変化量が閾値以上であること、輝度変化の差分の中間値を採用すること、等が挙げられる。所定のルールの詳細については限定しない。
 [ラインプロファイル上のエッジ候補点抽出]
 図12には、図10の番号#1のラインプロファイル20について、横軸を、対象画像70内の横方向(X方向)の位置座標とし、縦軸を対象画像70上の画素の輝度値としてプロットしたグラフを示す。本例では、横軸の位置座標は、図面での左側が、垂線13に近い側(X方向正方向)であり、右側が、垂線13から遠い側(X方向負方向)である。グラフでの原点の位置(座標x0とする)は、交点14の位置に相当し、グラフでの右側の端の位置(座標x5とする)は、範囲23の端に達した位置に相当する。
 図12の下部には、上部のグラフについてX方向正負を反転したグラフを示し、このグラフは図10等での方向と一致している。
 番号#1のラインプロファイル20上で、交点14の位置(座標x0)から、左側に進むと、背景に対応したトレンチ403の領域から、ピラー402またはマスク401の領域に変わるので、輝度値が増加する。この際、ホワイトバンド406を経由するので、その箇所では輝度値が大きく増加する。本例では輝度値v1から輝度値v2に増加している。座標x1から座標x2の付近は、ホワイトバンド406と対応している。その後、座標x2の付近では、ピラー402またはマスク401の領域に入るので、輝度値が減少している。本例では輝度値v2から輝度値v4に減少している。座標x2から座標x3までは、ピラー402またはマスク401の領域(特に材料界面413)に相当する。座標x3の付近では、再びホワイトバンド406に入るので、輝度値が大きく増加し、本例では輝度値v4から輝度値v2に増加している。座標x3から座標x4の付近は、ホワイトバンド406と対応している。座標x4の付近では、ホワイトバンド406から再び背景領域に入るので、輝度値が大きく減少し、本例では輝度値v2から輝度値v1に減少している。
 実施の形態1では、ラインプロファイル20上のエッジ候補点21の抽出の処理の一例として、以下のようなルールを適用する。図12のようなグラフにおいて、抽出するエッジ候補点21の位置は、輝度値の極小値と極大値との間の位置として定義される。本例では、座標x1の付近では、エッジ候補点21は、極小値である輝度値v1と、極大値である輝度値v2との間にある位置とされる。例えば、極小値と極大値との中間の輝度値v3に対応した位置の座標x1が、白四角点で示すエッジ候補点21(第1のエッジ候補点21a)となる。エッジ候補点21を抽出する位置は、例えば極小値と極大値との中間値で定義されるが、これに限定されない。
 輝度変化箇所のうちどの位置をエッジ候補点21として抽出するかについての規定は、上記中間値とする例に限らずに可能である。例えば、輝度値の率に関する閾値Th[%]を、設定として設ける。ここでは、輝度値をBとし、エッジ候補周辺の輝度変化における極大値をBmax、極小値をBminとし、エッジ候補にする輝度値をBthとした場合に、例えば以下の式1でBthを計算する。Bthになる位置を、エッジ候補点21とする。
 式1:   Bth=(Bmax-Bmin)*Th/100+Bmin
 式1では、極大値と極小値との差分について閾値Thの率に応じた輝度値の位置を、エッジ候補点21の位置としている。閾値Thを50%とする場合は、図12での中間値の例に相当する。
 上記エッジ候補点21の決定に関する規定は、あくまで実施例の一つである。エッジ候補点21の決定に関する他の規定の例としては、極大値もしくは極小値の位置から一定値ずれた位置をエッジ候補点21にする方法なども適用可能である。
 また、実施の形態1では、エッジ候補点21の抽出に関するルールの1つとして、図10等のトレンチ403の領域の輪郭検出では、垂線13に近い側が暗く、垂線13から遠い側が明るい、という箇所で、エッジ候補点21を抽出する。言い換えると、ラインプロファイル20の方向上、輝度増加箇所でエッジ候補点21を判断するルールとする。例えば図12のグラフでは、輝度変化が大きい箇所として、座標x1付近や座標x2付近がある。座標x1付近では、垂線13に近いX方向正方向での輝度値v1の方が小さく、垂線13から遠いX方向負方向での輝度値v2の方が大きく、輝度変化は低から高への増加である。座標x2付近では、垂線13に近いX方向正方向での輝度値v2の方が大きく、垂線13から遠いX方向負方向での輝度値v4の方が大きく、輝度変化は、高から低への減少である。
 そのため、このルールでは、輝度変化が大きい2箇所のうち、輝度変化が低から高に増加する箇所である例えば座標x1付近で、エッジ候補点21(21a)が抽出される。輝度変化が高から低に減少する箇所である例えば座標x2付近では、エッジ候補点21は抽出されない。このようなルールに基づいて、本例では、座標x1の位置にエッジ候補点21a(白四角点)が抽出され、座標x3の位置にエッジ候補点21b(黒四角点)が抽出されている。
 コンピュータシステム1は、例えば座標x1付近では、極小値である輝度値v1から極大値である輝度値v2へ増加する箇所での輝度変化量を判断し、例えば中間値である輝度値v3を計算し、その輝度値v3に対応する座標x1にエッジ候補点21aを抽出する。コンピュータシステム1は、各ラインプロファイル20について、同様のルールで、エッジ候補点21を判断・抽出する。
 変形例では、上記エッジ候補点21を抽出する輝度変化の箇所に関するルールについて、輝度増加箇所で抽出するルールを第1のルール、輝度減少箇所で抽出するルールを第2のルールとすると、第1のルールではなく、第2のルールを適用するようにしてもよい。上記第1のルールを適用した場合では、上記のようにホワイトバンド406における垂線13に近い側(例えば座標x1付近)でエッジ候補点21が抽出されるが、第2のルールを適用した場合では、ホワイトバンド406における反対側、すなわち垂線13から遠い側(例えば座標x2付近)でエッジ候補点21(例えば輝度値v5の位置)が抽出される。例えば、座標x2付近では、極大値である輝度値v2から、極小値である輝度値v4に減少しており、それらの例えば中間値である輝度値v5に対応する位置の座標x2が、エッジ候補点21として抽出される。
 図13は、変形例に関して、図10と同様の対象画像70等に対し、適用するルールを第1のルールから第2のルールに変更した場合に、トレンチ403について抽出されるエッジ候補点21を示す。これらのエッジ候補点21は、図11の第1のルールでのエッジ候補点21に比べて、全体的に外側に拡大した位置(ピラー402に近い位置)に配置されている。
 構造物パターンの種別ごとに、適用するルールを異ならせてもよい。例えば、トレンチ403が対象である場合には、輝度増加箇所で抽出する第1のルールを適用し、マスク401やピラー402が対象である場合には、輝度減少箇所で抽出する第2のルールを適用してもよい。適用するルールに応じて、抽出されるエッジ候補点21が異なる。例えば、トレンチ403の輪郭線とピラー402の輪郭線とを位置座標が異なる別々の輪郭線として検出することもできるし、それらの輪郭線を類似の位置座標の輪郭線として検出することもできる。
 上記エッジ候補点21を抽出するためのルールを含む各種のルールや方法のいずれを適用するかについては、予めソフトウェア110の実装上の固定的な設定としてもよいし、あるいは、コンピュータシステム1がユーザU1によるGUI画面60でのユーザ設定を可能としてもよい。定義情報112に基づいて、構造物パターンに応じたルールを選択して適用可能としてもよい。
 また、図10等の例では、例えば番号#1のラインプロファイル20上で、1番目のエッジ候補点21a(白四角点)に加え、2番目のエッジ候補点21b(黒四角点)も抽出されている。この観点について説明する。上記ルールの例では、垂線13側から範囲23の端までの方向でラインプロファイル20上の輝度変化を調べて、輝度変化量が十分に大きい箇所、例えばホワイトバンド406の付近における顕著な輝度変化箇所で中間値に対応する位置をエッジ候補点21として抽出する。このようなルールや方法に応じて、図示したように、2番目のエッジ候補点21b(黒四角点)も抽出される場合がある。
 本例では、1番目のエッジ候補点21aは、対象であるトレンチ403の輪郭を構成するエッジとなるが、2番目のエッジ候補点21bは、実際のトレンチ403の輪郭を構成するエッジには該当していない。しかしながら、他の例では、2番目のエッジ候補点21bも、対象の構造物パターンの輪郭を構成するエッジとなる可能性がある。
 実施の形態1でのコンピュータシステム1は、上記のようにラインプロファイル20上のエッジ候補点21の抽出を、複数のすべてのラインプロファイル20について同様に行うことで、複数のエッジ候補点21を得る。例えば図10等のように、白四角点で示す複数(例えば15個)のエッジ候補点21a、および黒四角点で示す複数(例えば13個)のエッジ候補点21bが得られる。実施の形態1でのコンピュータシステム1は、これらの複数のエッジ候補点21から総合的な判断を行い、対象の構造物パターンの輪郭を構成するエッジを検出する。
 番号#1~#5ならびに番号#11~#15のラインプロファイル20は、トレンチ403からピラー402への遷移に対応しており、トレンチ403およびピラー402の側壁に対応したエッジ候補点21a,21bが得られる。なお、番号#1,#15のラインプロファイル20は、界面基準線11上にある。そのため、例えば、図12での輝度値v4は、材料界面の付近の輝度値であり、図12の例では一定値であるが、実際には変動する値になる場合もある。
 動径方向の番号#6~#10のラインプロファイル20については、各ラインプロファイル20の方向上で、同様にエッジ候補点21が抽出できる。例えば番号#6のラインプロファイル20では、1つのエッジ候補点21(白四角点)のみが抽出されている。番号#7のラインプロファイル20では、トレンチ403の底面付近でのエッジ候補点21aと、下地の材料層との境界に対応したエッジ候補点21bとが抽出されている。
 なお、マスク401やピラー402を対象としてエッジ候補点21を抽出する場合にも、上記トレンチ403の場合と同様の処理を適用可能である。
 [ステップS4:輪郭検出 その2]
 次に、上記複数のラインプロファイル20の複数のエッジ候補点21に基づいて、寸法計測対象の構造物パターン、例えばトレンチ403についての、輪郭を構成するエッジを決定する方法の一実施例について説明する。
 コンピュータシステム1は、各ラインプロファイル20につき、任意のエッジ候補点21を選択し、複数のエッジ候補点21の組み合わせを作成する。その際、コンピュータシステム1は、エッジ候補点21の組み合わせにおける、輪郭のエッジらしさの評価値を計算する。コンピュータシステム1は、その評価値が最も高い、エッジ候補点21の組み合わせを、輪郭のエッジ(言い換えるとエッジ点)として決定する。コンピュータシステム1は、組み合わせにおける複数のエッジ候補点21同士の位置関係などに基づいて、選択するエッジ点を判断する。ソフトウェア110にはこのような判断のためのアルゴリズムも実装されている。
 図14は、エッジ候補点21の組み合わせの例を示す。組み合わせ#1は、正解の例である。小さい白丸点は、ラインプロファイル20ごとにエッジ候補点21から選択された1つのエッジ点22を示す。選択点であるエッジ点22を結ぶことで、トレンチ403の側壁の輪郭を構成する輪郭線が形成される。組み合わせ#2は、不正解の例であり、番号#1のラインプロファイル20では第2のエッジ候補点21bが選択されている。組み合わせ#3は、不正解の例であり、番号#2のラインプロファイル20では第2のエッジ候補点21bが選択されている。組み合わせ#4は、不正解の例であり、番号#1および#2のラインプロファイル20で第2のエッジ候補点21bが選択されている。
 なお、1つのラインプロファイル20上に、エッジ候補点21が無い場合や、1個のエッジ候補点21のみがある場合や、3個以上のエッジ候補点21がある場合など、様々な場合がある。それらの場合でも、組み合わせを同様に作成することができる。
 [エッジらしさの評価]
 ここで、エッジらしさの評価には、少なくとも2つの評価観点が挙げられる。1つ目の評価観点は、輝度値の変化量である。図10等では模式図で表しているため、明瞭なエッジしかないが、実際の電子顕微鏡による断面画像では、不明瞭なエッジとなっている場合がある。例えば、前述の崩れやコンタミネーション等により、断面画像では、構造物の輪郭付近に、ゴミ付着や撮影時のノイズ等によって生じる、微小な輝度変化が生じる場合がある。このような輝度変化をエッジ候補点21としてエッジを決定することは、誤りとなる。
 実施の形態1では、それらの影響を受けにくくするために、上記評価の際に、輝度変化量が大きいほどエッジらしさが高い、すなわち評価値が大きい、と定義する。具体的な評価値計算としては、エッジ候補点21の周辺の輝度変化領域における輝度の極大値と極小値との差(ΔB=(Bmax-Bmin))で定義してもよい。あるいは、輝度の勾配値として定義してもよい。輝度値変化量の評価の例としては、図12の例では、座標x1付近での差ΔBなどが計算できる。
 2つ目の評価観点は、エッジ候補点21間の距離である。構造物の輪郭は連続的につながるはずなので、エッジ候補点21間の距離が近い方が、エッジらしさが高い、と定義する。エッジ候補点21間の距離が遠い場合、構造物の断面に付着しているゴミ等の、対象とは異なる物のエッジを検出している可能性が高い。例えば、図10や図14の例では、番号#1のラインプロファイル20の白四角点で示すエッジ候補点21aに対し、番号#2のラインプロファイル20の白四角点で示すエッジ候補点21aは近く、番号#2のラインプロファイル20の黒四角点で示すエッジ候補点21bは遠い。それらは、図14での組み合わせ#1と組み合わせ#3が対応する。
 そのため、番号#1のラインプロファイル20のエッジ候補点21aに対し、番号#2のラインプロファイル20のエッジ候補点21aの方をつなげた場合(組み合わせ#1等)の方が、輪郭のエッジらしさが高いと考えられる。すなわち、コンピュータシステム1は、組み合わせについて、エッジ候補点21間の距離が小さいほど、評価値を大きくなるように計算する。
 定量的に評価値を計算する場合、エッジとなる箇所は、上記第1の観点のように輝度変化量が大きいほどエッジらしさが高いと言えるが、その観点だけでは、現在注目している構造物以外の箇所におけるエッジ候補の評価値も高くなり得る。そのため、実施の形態1では、上記第1の観点に加え、輪郭の連続性も評価に含めるために、上記第2の観点も適用して、エッジらしさの評価値を計算する。コンピュータシステム1は、その評価結果に基づいて、エッジらしさが最も高いと考えらえる複数のエッジ点22を選択する。例えば、組み合わせ#1が選択される。
 エッジ候補点21間の距離などについての具体的な評価値計算としては、各ラインプロファイル20から任意のエッジ候補点21を選択して図14のような組み合わせを作成し、それらのエッジ候補点21から成る輪郭線の評価値をEとして計算する。評価値Eは、輪郭の連続性の評価値であり、例えば以下の式2で定義できる。
 式2:   E=Σ^(N-1)_(n=1){ΔBn/Dn,n+1
 式2におけるΔBnは、n番目のラインプロファイル20で選択したエッジ候補点21の周辺での輝度の極大値と極小値との差である。Dn,n+1は、n番目のラインプロファイル20で選択したエッジ候補点21と(n+1)番目のラインプロファイル20で選択したエッジ候補点21との距離である。コンピュータシステム1は、すべてのエッジ候補点21の組み合わせのうちで、評価値Eが最大となる組み合わせを、エッジ点22として選択・決定する。コンピュータシステム1は、それらのエッジ点22によって形成される輪郭、例えばエッジ点22を順に結んだ輪郭線を作成し、その輪郭線を輪郭検出結果としてもよい。
 ただし、上記評価値Eが最大となるエッジを決定する方法での計算は、NP困難に該当する場合がある。例えば、ラインプロファイル20が100本存在し、各ラインプロファイル20に10個のエッジ候補点21がある場合、10の100乗の組み合わせが存在するため、全組み合わせでの評価値Eの計算は困難である。そのため、近似的な方法で、おおよそ評価値Eが最大となるエッジ候補点21の組み合わせを求めてもよい。例えば、n番目のラインプロファイル20の任意のエッジ候補点21をPnとし、n番目のものと隣接する(n+1)番目のラインプロファイル20の任意のエッジ候補点21をPn+1とする。PnとPn+1との距離をDとし、Pn+1のエッジ候補点21の周辺の輝度の極大値と極小値との差をΔBnとする。その場合に、一時的な評価値をEtempとし、以下の式3で定義する。
 式3:   Etemp=ΔB/D
 そして、コンピュータシステム1は、1番目のラインプロファイル20のエッジ候補点21から1つのエッジ候補点21を選択し、それに対して評価値Etempが最大になる2番目のラインプロファイル20のエッジ候補点21を決定する。3番目以降のラインプロファイル20のエッジ候補点21についても同様の方法で決定する。コンピュータシステム1は、得られたエッジ候補点21の組み合わせから、評価値Eを計算する。その後、コンピュータシステム1は、1番目のラインプロファイル20の別のエッジ候補点21を選択し、同様の処理を行い、得られたエッジ候補の組み合わせから、評価値Eを計算する。コンピュータシステム1は、上記1番目のラインプロファイル20で選択した各エッジ候補点21によって得られた、エッジ候補点21の組み合わせのうちで、最も評価値Eが高い組み合わせを、おおよそ評価値Eが最大となるエッジ候補点21の組み合わせとして決定する。このような近似的な方法により、計算時間を大幅に削減でき、有限時間内に自動輪郭検出を実現できる。エッジ点22を決定する方法は、上記方法に限定されない。
 [エッジ点および輪郭線の検出]
 図10の領域基準点12で指定されたトレンチ403の例では、トレンチ403の輪郭として、白四角点で示す15個のエッジ候補点21(21a)に対応したエッジ点22が得られる。図15は、輪郭検出結果の例を示す。コンピュータシステム1は、図15のように、それらのエッジ点22を線でつなげることで、トレンチ403の輪郭線24を形成してもよい。この輪郭線24は、輪郭検出結果の一部に相当する。
 図15の例では、対象画像70において、検出されたエッジ点22(白丸点で示す)同士を順に直線でつなげることで、輪郭線24が形成されている。図15の例では、輪郭線24は、トレンチ403の領域における側壁および底部の輪郭を表している。トレンチ403の領域の上面は開放されており界面基準線11によって区切られている。
 これに限定されず、コンピュータシステム1は、例えば、複数のエッジ点22に基づいて、スムージング処理として、近似曲線を作成し、それを輪郭線22としてもよい。また、輪郭線24は省略し、複数のエッジ点22のみで輪郭が表現されてもよい。エッジ点22の数が十分に多い場合、それでも輪郭が表現できる。
 また、コンピュータシステム1は、図15のような、輪郭検出結果であるエッジ点22または輪郭線24を、GUI画面60内に、例えば画像欄601の対象画像上に、表示してもよい。コンピュータシステム1は、後述の寸法計測結果8の寸法値などを、GUI画面60で、輪郭線24等と共に表示してもよい。
 [マスクやピラーの場合の輪郭検出]
 上記例ではトレンチ403の場合を示したが、ピラー402等の場合にも同様に可能である。図16は、同様に、マスク401に関する輪郭検出(特にエッジ候補点抽出)の場合を示し、図17は、ピラー402に関する輪郭検出(特にエッジ候補点抽出)の場合を示す。なお、図16および図17の例では、エッジ候補点21の抽出の際のルールとしては、前述した、輝度増加箇所で抽出する第1のルールを適用した場合を示している。この場合、例えば前述のトレンチ403の輪郭のエッジと、ピラー402の輪郭のエッジとは異なる結果となる。
 図16の例では、あるマスク401の領域内に領域基準点12が指定されている。コンピュータシステム1は、領域基準点12から下側に界面基準線11まで垂線13を引き、交点14を抽出する。コンピュータシステム1は、領域基準点12から交点14までの領域では、X方向のラインプロファイル20を複数抽出する。コンピュータシステム1は、領域基準点12から上側の領域では、動径方向のラインプロファイル20を複数抽出する。コンピュータシステム1は、各ラインプロファイル20から前述の第1のルール等に基づいてエッジ候補点21を抽出する。コンピュータシステム1は、複数のエッジ候補点21の組み合わせに基づいて、マスク401に関するエッジ点22を決定する。
 図示のように、マスク401の場合、領域基準点12から上側の範囲では動径方向のラインプロファイル20を適用する。これにより、動径方向のラインプロファイル20が、凸形状、台形形状を有するマスク401の輪郭を経由するので、マスク401の輪郭のエッジ候補点21を抽出できる。
 図17の例では、あるピラー402の領域内に領域基準点12が指定されている。コンピュータシステム1は、領域基準点12から上側に界面基準線11まで垂線13を引き、交点14を抽出する。コンピュータシステム1は、領域基準点12から交点14までの領域では、X方向のラインプロファイル20を複数抽出する。コンピュータシステム1は、領域基準点12から下側の領域では、動径方向のラインプロファイル20を複数抽出する。コンピュータシステム1は、各ラインプロファイル20から前述の第1のルール等に基づいてエッジ候補点21を抽出する。コンピュータシステム1は、複数のエッジ候補点21の組み合わせに基づいて、ピラー402に関するエッジ点22を決定する。
 [ステップS5:寸法計測]
 ステップS5では、コンピュータシステム1は、上記ステップS4で検出した輪郭情報について、ステップS2で選択した定義情報112を参照して、寸法計測処理を行い、寸法計測結果8を得て、GUI画面60に表示する。
 図18には、例えばトレンチ403の輪郭情報に基づいてトレンチ403の寸法計測を行う例の模式説明図を示す。前提として2次元の対象画像70での輪郭情報として、前述のようなエッジ点22や輪郭線24の情報を有する。
 図18の(A)は、トレンチ深さ(図4での寸法A4)を計測する場合を示す。コンピュータシステム1は、トレンチ深さの寸法A4を計測するための、寸法計測対象線1801を設定する。まず、トレンチ深さの寸法計測対象線1801は、ステップS1で指定された界面基準線11から、縦方向で最も離れた輪郭のエッジ(本例ではエッジ点p8)に対して、垂直に引いた線として、定義可能である。コンピュータシステム1は、設定した寸法計測対象線1801で寸法A4を計測する。
 図18の(B)は、トレンチ幅として、材料界面413に対応する界面基準線11の位置でのトレンチ幅(図4での寸法A1)を計測する場合を示す。コンピュータシステム1は、寸法A1のための寸法計測対象線1802を設定する。コンピュータシステム1は、ステップS3で指定された界面基準線11と、トレンチ403の輪郭との2つの交点であるエッジ点p1,p15をとり、それらのエッジ点間に引いた線として、寸法計測対象線1802を定義可能である。
 図18の(C)は、トレンチ幅として、材料界面413に対応する界面基準線11の位置から所定の距離dとして30nm下の位置でのトレンチ幅を計測する場合を示す。ここでのd=30nmは、ユーザU1が定義情報112で指定・設定した距離である。前述の図4の寸法A3のように、これは距離ではなく率(%)での指定も可能である。コンピュータシステム1は、所定の距離の位置に寸法計測対象線1803を設定する。コンピュータシステム1は、対象画像のピクセルサイズ等の情報に基づいて、距離30nmが対象画像上で界面基準線11から何ピクセル離れている位置に対応しているかを計算する。コンピュータシステム1は、その計算した位置の水平線(X方向に延在する直線)と、トレンチ403の輪郭(輪郭線24)との2つの交点(本例では端点1811,1812)を抽出する。コンピュータシステム1は、それらの2つの交点間に引いた線として、寸法計測対象線1803を定義可能である。
 ピラー304やマスク303の寸法についても同様に計測可能である。また、他の種類の寸法についても同様に計測可能である。例えば、コンピュータシステム1は、構造物の輪郭の一部領域から計算される角度(例えば側壁の角度)などを計測してもよい。
 図18の(D)は、トレンチ403の側壁角度1804を計測する場合を示す。本例では、定義情報112に基づいて、界面基準線11から下側に指定された距離(例えば30nm)の位置を基準として、左側の側壁が為す角度1804を計測する。コンピュータシステム1は、トレンチ403の輪郭の一部の領域、本例では、左側の側壁で、かつ、界面基準線11から30nm下の位置までの領域1820におけるエッジ点(本例ではエッジ点p1~p3)から、側壁に関する近似直線を計算する。もしくは、コンピュータシステム1は、前述のエッジ点22から計算済みの輪郭線24の一部を参照してもよい。そして、コンピュータシステム1は、指定された位置での水平線に対し、その近似直線または輪郭線24が為す角度1804を計算する。このようにして、指定された位置での側壁角度が計測できる。
 また、他の種類の寸法の例として、コンピュータシステム1は、構造物の輪郭(輪郭線24)と、材料界面413(界面基準線11)とによって囲まれる領域についての面積、例えばトレンチ面積を計測してもよい。コンピュータシステム1は、界面基準線11、領域基準点12、定義情報112、および検出された輪郭線24等に基づいて、対象の構造物の領域の面積を計測できる。
 図19には、トレンチ403の面積を計測する例を示す。ユーザU1は、GUI画面60で、定義情報112に基づいて、計測対象寸法の種類として面積を指定し、対象画像70に対し界面基準線11および領域基準点12を指定する。コンピュータシステム1は、指定された界面基準線11および領域基準点12に基づいて、前述のようにエッジ点22や輪郭線24を検出する。コンピュータシステム1は、界面基準線11と、複数のエッジ点22による輪郭線24とで構成される、領域基準点12を含んだ閉領域を抽出する。この閉領域がトレンチ403の領域に対応する。コンピュータシステム1は、抽出されたトレンチ403の領域に含まれる画素数をカウントし、画素情報等に基づいて面積を計算する。これにより面積の計測結果が得られる。
 [ステップS6:寸法計測結果出力]
 コンピュータシステム1は、ステップS5の結果である寸法計測結果8のデータをメモリ資源102に記憶し、ユーザU1に対しGUI画面60で表示する。寸法計測結果8には、ステップS3で指定された界面基準線11の位置座標情報や領域基準点12の位置座標情報などを含めてもよい。
 図20は、寸法計測結果8を表示するGUI画面60の例を示す。図20のGUI画面60では、前述の画像欄601における対象画像70に対して、寸法計測対象構造物(例えばトレンチ403)の計測対象の寸法(例えばトレンチ幅の寸法A4)が重畳して表示されている。例えば、対象寸法の寸法計測対象線(白矢印で示す)が表示され、その寸法計測対象線に、必要に応じて引き出し線を付けて、対象寸法(例えば「A4」/「Depth」)および寸法計測値(例えば「100nm」)が表示されている。それとともに、下側にある結果(Result)欄2001では、表において、対象寸法ごとに寸法計測値などの情報が表示されている。これに限らず、他の表示例としては、さらに、寸法計測対象線を規定する2点の位置座標等の情報を表示してもよい。
 [実施の形態1の効果等]
 実施の形態1によれば、断面画像に対し、自動検出が困難な材料界面と、寸法計測対象構造物領域の大まかな位置とを、ユーザU1が手動操作で界面基準線11および領域基準点12として指定・設定し、その後に界面基準線11および領域基準点12に基づいてコンピュータシステム1が自動で輪郭検出および寸法計測を行う、半自動方式とした。そのため、断面画像に対する寸法計測の処理・作業に要する時間を短縮でき、ユーザU1の手間を削減できる。また、人の手動操作による誤差の影響を低減できる。従来技術例(比較例1,2)の場合、人が構造物の輪郭または対象寸法箇所を目分量で指定するので、誤差が多く、その誤差が寸法計測の精度に反映されてしまう。それに対し、実施の形態1によれば、半自動方式で輪郭を検出した後は自動寸法計測となるため、誤差が少なく、寸法計測の精度も高くなる。
 実施の形態1では、断面画像に対し、ユーザU1が、主観判断および手動操作によって、材料界面に対し界面基準線11を指定し、寸法計測対象構造物領域に対しおおまかに領域基準点12を指定するだけでよい。コンピュータシステム1は、指定された界面基準線11および領域基準点12に基づいて、所定のアルゴリズムの処理で、断面画像内の構造物パターンの輪郭を構成するエッジを検出する。コンピュータシステム1は、検出したエッジの情報に基づいて、指定された種類の寸法を計測する。これにより、実施の形態1によれば、ユーザU1の主な手動操作は、界面基準線11および領域基準点12を指定する操作だけで済むので、入力の数量が少なく、ユーザU1の手間が低減できる。また、コンピュータシステム1が、界面基準線11および領域基準点12に基づいて、正確に輪郭検出および寸法計測を行うので、人による誤差が、寸法計測結果に反映されにくい。
 実施の形態1における半自動方式は、従来技術例の自動寸法計測方式などと比較して、少なくとも以下のような第1の利点および第2の利点も有する。
 [第1の利点について]
 第1の利点として、寸法計測対象として適切ではない構造パターンを除外して、寸法計測可能である。「寸法計測対象として適切ではない構造パターン」とは、例えば前述の崩れやゴミ付着等がある構造物が挙げられる。
 従来技術例として、半導体の断面構造を、パターンマッチング/テンプレートマッチングに基づいて認識し、認識した断面構造の輪郭/エッジを検出する方法もある。しかし、このような方法では、パターンマッチング/テンプレートマッチングに基づいて対象画像内から認識・検出された、ゴミ等を含むすべての物について、寸法計測を行うことになる。パターンマッチング/テンプレートマッチングに基づいて、崩れ、ゴミ、撮影時のノイズ等により生じた部分も、輪郭/エッジとして認識・検出されて、寸法計測対象となってしまう場合がある。このようなゴミ等が付着した部分は、不適切であるため、寸法計測対象からは除外したい。
 図21には、ゴミが付着した構造物パターンを含んだ対象画像2100における輪郭検出および寸法計測結果の例を示す。対象試料の断面にコンタミネーションによるゴミが付着したとする。劈開基板の観察を行うSEMでは、このようなゴミの付着が生じ得る。図21の例では、対象画像2100内のあるトレンチ2102の右側の側壁に、そのゴミに対応したゴミ部分2110を有する。
 図21の上部の(A)では、3つのトレンチ2101~2103に対し、それぞれ輪郭のエッジ(エッジ点22とそれらを結ぶ輪郭線)が検出され、材料界面に対応する界面基準線11から例えば30nm下の位置でのトレンチ幅の測長が行われている。各トレンチ2101~2103における寸法計測対象線2111~2113を矢印で示す。
 このとき、本例では、ゴミ部分2110についても輪郭検出および寸法計測がされている。トレンチ2102の右側の側壁に付着したゴミ部分2110が、トレンチ2102の領域内に凸状に出ており、その凸状に出た箇所に、エッジ点2105を含む輪郭線が検出されている。トレンチ2102での寸法計測対象線2112は、左側の側壁の輪郭線から、そのゴミ部分2110の輪郭線までの間に設定されている。そのため、寸法計測対象線2112での測長値は、ゴミが付いていないトレンチ構造(例えばトレンチ2101)での測長値よりも短い値になってしまう。
 これに対し、実施の形態1によれば、(A)のようなゴミ部分2110を含む対象画像2100の場合でも、ゴミ部分2110を除外する対応が可能である。図21の下部の(B)には、実施の形態1での対応を示す。前述の手動操作のステップで、ユーザU1は、対象画像2110の内容を目視確認し、ゴミ部分2110があるトレンチ2102については測長に不適切であると判断した場合、ユーザU1は、そのトレンチ2102に対して領域基準点12を指定しない。これにより、例えば領域基準点12が指定されたトレンチ2101,2103では測長がされるが、トレンチ2102では測長がされない。このようにして、不適切な測長結果となる部分を除外できる。
 他の変形例としては以下としてもよい。図21の(A)と同様に、3箇所のトレンチに対し図示しない領域基準点12が指定されて一旦寸法計測結果が得られた後、ユーザU1がGUI画面60でそれらの寸法計測結果を確認する。ユーザU1がゴミ部分2110を含むトレンチ403についての寸法計測結果を除外したい場合には、対象画像内に表示されている領域基準点12をクリック等で操作してオン状態からオフ状態に変更する。この操作に従い、コンピュータシステム1は、そのトレンチ403についての寸法計測結果を不採用とし、(B)と同様に、寸法計測結果の表示も消去する。
 [第2の利点について]
 第2の利点として、設計パターンあるいはテンプレートパターンとは乖離した構造パターンであっても、寸法計測可能である。「設計パターンあるいはテンプレートパターンとは乖離した構造パターン」とは、例えば図22に示すような構造物パターンが挙げられる。
 図22の(A)には、例えばエッチング加工の目的形状の断面構造の画像2201を示し、図22の(B)には、実際のエッチング後の加工形状の画像2202を示す。(A)は設計パターン等と対応している。図22の(A)と(B)を比較すれば分かるように、(B)に示されるトレンチ403Bの構造は、トレンチ深さが浅く、(A)のトレンチ403Aの構造とは乖離している。言い換えると、トレンチ403Bは、トレンチ403Aに対し、トレンチ深さの差が大きい。
 このような場合、従来技術例のテンプレートマッチング方法によって、図22の(A)の画像2201を用いたテンプレート画像を、図22の(B)の画像2202にマッチングさせることは困難である。この場合、コンピュータシステムは、マッチングできないので、寸法計測対象無しと判断してしまう。
 また、図22の(B)の画像2202に相当するテンプレート画像を事前に用意することも困難である。一般に、ある加工条件で加工を行った半導体の断面を観察して構造を確認する場合、加工目標の構造はわかるが、実際の加工によってどのような構造になったかについては、電子顕微鏡で確認するまでわからない。もちろん、最適なエッチング条件のときの電子顕微鏡像が手元に無い場合も多い。
 それに対し、実施の形態1によれば、図22の(C)に示すように、テンプレート画像が無くても、画像2202に対し、界面基準線11および領域基準線12を指定するだけで、トレンチ403Bの寸法(例えばトレンチ深さ2203)を計測できる。
 [複数の対象構造物]
 なお、実施の形態1によれば、ステップS3で、GUI画面60で、ユーザU1は、断面画像70内の複数の構造物パターンに対し、まとめて界面基準線11や領域基準点12を設定することも可能である。
 図23は、対象画像70に対し、複数の構造物パターンについて、複数の領域基準点12等をまとめて設定する例を示す。図23の例では、対象画像70内に、4つのマスク401、4つのピラー402、および3つのトレンチ403が含まれている。ユーザU1は、マスク401とピラー402との間の材料界面に、1本の界面基準線11を指定する操作を行う。また、ユーザU1は、それぞれの構造物の領域に、領域基準点12を指定する操作を行う。例えば、ユーザU1は、マウス等を操作し、カーソル609によって、それぞれの領域の位置を順次にクリックすることで、複数の領域基準点12を指定する。本例では、マスク401に対する領域基準点12を三角印で表示し、ピラー402に対する領域基準点12を四角印で表示し、トレンチ403に対する領域基準点12を丸印で表示している。
 このように、実施の形態1によれば、複数の構造物を測長する際に、従来技術例よりも、手動操作の手間が少ない。複数の材料界面は、それらの高さ位置が同じである場合、1本の界面基準線11を指定すれば済む。複数の構造物の領域は、それぞれの領域内の任意の位置をおおまかに指定すればよく、領域基準点12の位置の厳密性は不要である。
 [2つ以上の界面基準線]
 実施の形態1では、断面画像内の1つの材料界面に対し1つの界面基準線11を設定する場合を説明したが、これに限定されない。断面画像内の2つ以上の材料界面に対し2つ以上の界面基準線11を設定することも同様に可能である。
 図24には、断面画像2400内に2つの界面基準線11(11A,11B)を設定する場合を示す。本例では、断面画像2400内に、基層上の3層の構造物として、第1層の構造物2401、第2層の構造物2402、第3層の構造物2403を有する。各層の材料が異なり、輝度が異なるとする。材料界面として、第1層の構造物2401と第2層の構造物2402との第1界面と、第2層の構造物2402と第3層の構造物2403との第2界面とを有する。ユーザU1は、GUI画面60で、このような断面画像2400に対し、2つの材料界面のそれぞれに界面基準線11を設定する。第1界面には界面基準線11Aが指定され、第2界面には界面基準線11Bが指定されている。
 また、ユーザU1は、それぞれの材料界面に対応する界面基準線11で区分される領域に対し、領域基準点12を指定できる。本例では、第1層の構造物2401、第2層の構造物2402、第3層の構造物2403に対し、領域基準点12A,12B,12Cが指定されている。領域基準点12で指定されたそれぞれの領域について、輪郭検出および寸法計測が可能である。例えば、領域基準点12Bの場合、図24の下部に示すように、領域基準点12Bから上下の界面基準線11A,11Bに対しそれぞれ垂線13が引かれる。本例では、コンピュータシステム1は、領域基準点12Bを含む領域に対し、X方向のラインプロファイル20を適用する。コンピュータシステム1は、当該領域内での複数のX方向のラインプロファイル20上にそれぞれエッジ候補点21を抽出する。コンピュータシステム1は、これらの情報に基づいて、領域基準点12Bを含む第2層の構造物2402についての輪郭線を検出し、指定された寸法(例えば幅)を計測できる。
 また、図25は、断面画像2500内に、高さ位置が異なる2つの材料界面がある場合に、高さ位置が異なる2つの界面基準線11(11a,11b)を設定する例を示す。本例では、断面画像2500内に、第1高さの構造物2501、第2高さの構造物2502、第3高さの構造物2503、第4高さの構造物2504を有する。材料界面としては、構造物2501と構造物2502との第1材料界面と、構造物2503と構造物2504との第2材料界面とを有する。第1材料界面の高さと、第2材料界面の高さとが異なる。
 ユーザU1は、GUI画面60で、界面選択GUI61を用いて、それぞれの材料界面の高さ位置に合わせて、界面基準線11を指定する。第1材料界面には界面基準線11aが指定され、第2材料界面には界面基準線11bが指定されている。本例では、界面選択GUI61は、断面画像2500内で、それぞれの箇所ごとに、線分として指定可能なGUIである。例えば、ユーザU1は、マウス等でカーソル609を操作して、界面基準線11ごとに始点と終点とを指定する。これにより、所望の位置に界面基準線11a,11bを引くことができる。その後、コンピュータシステム1は、それぞれの界面基準線11および領域基準点12に基づいて、構造物2501~2504について、輪郭検出および寸法計測が可能である。
 このように、断面画像内の複数の箇所の材料界面の高さ位置が異なる場合には、高さ位置が異なる界面基準線11を指定する対応が可能である。
 実施の形態1では、異なる材料間の材料界面に対し界面基準線11を設定する場合を説明したが、これに限定されず、他の変形例としては、材料界面以外の箇所に、輪郭検出等のサポートのための基準線を設定してもよい。例えば、図4や図10で、ピラー402の底部(ボトム)を指し示すように、X方向の基準線を設定してもよい。また、画像内で、任意の構造物の領域を複数に区分したい場合に、その区分を指し示す基準線を設定してもよい。コンピュータシステム1は、それらの基準線を、輪郭検出等の所定の処理上の境界や端として利用できる。
 [輪郭検出システム]
 上記実施の形態1の寸法計測システムおよび方法は、図5のステップS4までの機能部分を、輪郭検出システムおよび方法として捉えることができ、このような輪郭検出システムおよび方法として実装してもよい。この輪郭検出システムおよび方法におけるコンピュータシステム1は、ステップS4で対象画像から検出した構造物パターンの輪郭またはエッジに関する情報を、記憶および出力する。例えば、コンピュータシステム1は、GUI画面60で、ユーザU1に対し、図15のようなエッジ点22や輪郭線24を含む画像を表示する。任意のシステム(例えば観察装置や検査装置など)は、この輪郭検出システムにより生成・出力された輪郭またはエッジに関する情報を利用できる。
 [変形例]
 実施の形態1に関して、以下のような各種の変形例が可能である。
 実施の形態1では、断面画像での材料界面の方向に応じて、界面基準線11は横方向(X方向)に延在する直線としたが、これに限定されない。変形例では、対象試料の断面画像の内容に応じて、界面基準線11を例えば縦方向(Z方向)に延在する線とすることも可能である。
 [変形例1:界面基準線の調整機能]
 実施の形態1の変形例1の寸法計測システムおよび方法としては、構造物パターンの材料界面とユーザU1が指定した界面基準線11との間に、位置に関してズレがある場合に、そのズレを調整する調整機能を有してもよい。
 図26は、変形例1での調整機能(言い換えると界面基準線調整機能)についての説明図を示す。図26では、GUI画面60の例として、画像欄601に加え、界面基準線11についての調整欄2601を有する。
 前述の図6のGUI画面60上で指定・設定する界面基準線11の位置は、寸法計測対象構造物領域や計測対象寸法を規定する基準となり得る。この界面基準線11は、前述の図8のようにユーザU1の手動操作による選択、あるいは後述のAIによる推定などによって設定できる。しかしながら、断面画像を構成する領域間の境界がはっきりしない場合等、ヒトが目視設定した、あるいはAIが推定した界面基準線は、実際の材料界面とは必ずしも一致しない場合がある。このズレがある程度以上に大きい場合、寸法計測精度に大きな影響を与える可能性がある。
 そこで、変形例1でのコンピュータシステム1は、対象画像の画素の縦方向の輝度情報を用いて、界面基準線11の位置に関するズレを調整する。変形例1では、図2のステップS1で画像ファイルが選択されると、図26のようなGUI画面60が表示される。コンピュータシステム1は、画像欄601の対象画像70の右側の調整欄2601に、輝度値の平均グラフ2604(言い換えるとy座標の輝度値の平均プロファイル)を表示する。この輝度値の平均グラフ2604は、その対象画像70を構成する画素データのy座標(画像内の縦方向の座標)毎の輝度値の平均グラフである。本例では、このグラフは、画面内での縦軸を対象画像70のy座標とし、画面内での横軸を各y座標での輝度値の平均値として、表示している。
 図2のステップS3で、ユーザU1が、手動操作によって、対象画像70上に界面基準線11cを設定したとする。この界面基準線11cは、実際のマスクとピラーとの界面に対し、ある程度以上のズレを有する場合であり、例としてピラー側の領域内に入り込んでいる場合である。
 この状態で、調整を行いたい場合、ユーザU1が「Correct」ボタン2605を押す。すると、コンピュータシステム1は、y座標の輝度値の平均プロファイル(平均グラフ2604)上で、界面に相当する位置(位置2606)を検出する。この検出は、図示のように輝度変化の判断に基づいて可能である。そして、プロセッサは、その位置2606に合わせるように、界面基準線11を修正する。本例では、修正前の界面基準線11cに対し、修正後の界面基準線11dは、修正前の界面基準線11cから縦方向で上側に移動されて表示されている。
 上記平均グラフ2604を用いた界面位置の検出のアルゴリズムとしては、マスク401の部分とピラー402の部分とで、プロファイルの平均輝度値が異なることから、当該プロファイルの一次微分を計算して求める手法が適用できる。あるいは、当該プロファイルのローカルミニマムを求める手法等が適用できる。上記界面の探索範囲は、ユーザU1が設定した界面基準線11cに対し上下方向に適当なピクセル分だけ限定された範囲として設定する手法が挙げられる。
 変形例1での調整機能は、図2のソフトウェア110に含まれていてもよいし、別の調整用ソフトウェアとして用意されてストレージ107等に格納されていてもよい。変形例1によれば、界面基準線11に大きなズレを有する場合の寸法計測精度に与える影響を低減できる。
 他の変形例としては、界面基準線11を設定する界面選択GUI61(図6)において、初期状態として界面基準線11を表示する際に、対象画像に対し上記調整機能を最初から使用して、自動的に界面基準線11を決めて表示してもよい。
 [変形例2:界面以外の基準線]
 変形例2は、断面画像内の構造物における、界面以外の箇所を、基準線として指定・設定する機能を有する。
 図27の(A)は、変形例2における、ある断面画像2701に対する基準線11Cの設定例を示し、(B)は、ある断面画像2701に対する基準線11Dの設定例を示す。(A)で、基準線11Cは、材料界面413に対し、縦方向(Z方向)で下側の位置、ピラー402の領域内に設定されている。(B)で、基準線11Dは、材料界面413に対し、縦方向(Z方向)で上側の位置、マスク401の領域内に設定されている。
 例えば、ユーザU1が寸法計測したい箇所が、材料界面413を基準としない箇所である場合には、基準線(前述の界面基準線11)の位置を材料界面413に合わせた位置にする必要は無い。
 具体例として、図27の(A)では、トレンチ403の底部(ボトム2705)から上側に所定の距離、例えば20nm上の位置で、寸法計測を行うとする。その位置での寸法計測対象線2710を示す。この場合に、材料界面413よりも下側の位置に、基準線11Cが指定されている。また、図示しないが、基準線11Cよりも下側に、領域基準点12が指定されている。コンピュータシステム1は、それらの基準線11Cおよび領域基準点12に基づいて、トレンチ403に対応した領域の輪郭を検出し、定義情報112に基づいて、寸法計測対象線2710の位置で寸法を計測する。
 同様に、図27の(B)では、(A)と同様の位置での寸法計測を行う場合に、材料界面413よりも上側の位置に、基準線11Dが指定されている。(B)でも同様に、寸法計測対象線2710の位置での寸法が計測できる。(A),(B)ともに、測長の位置は同じになり、寸法計測対象線2710での寸法値は同じとなる。いずれの場合でも、寸法計測対象線2710の位置での寸法は、材料界面413および基準線11C,11Dの位置を基準として規定される寸法ではないので、問題無い。
 また、図27の例では、トレンチ403の底部(ボトム2705)は、前述の方法で検出された輪郭のエッジの位置座標情報に基づいて決定できる。例えば前述(図15)のエッジ点22のうちでZ方向の位置が最も下側にあるエッジ点22を、トレンチ403のボトム2705としてもよい。あるいは、Z方向の位置が近い複数のエッジ点22の平均値をボトム2705としてもよい。そのボトム2705から、定義情報112に従い、例えば20nm上の位置に、寸法計測対象線2710が設定できる。
 変形例2のように、ステップS3で指定する基準線は、材料界面413からのズレが大きくても構わない場合があり、また、意図的に材料界面413以外の箇所に指定することも可能である。変形例2での基準線11C,11Dは、材料界面413を指し示す機能ではなく、対象のトレンチ403の領域の一部(例えばトップ)をおおまかに指し示す機能を有している。
 なお、図27の下部の(C)には、定義情報112において、図27の(A),(B)の例のような計測対象寸法を設定する例を示している。前述のGUI画面60で、このような寸法も設定や選択ができる。
 [変形例3:領域基準点]
 領域基準点12の機能に関して、以下のような変形例も可能である。
 図28は、変形例3についての説明図を示す。図28では、図10と同様の対象画像70において、トレンチ403に領域基準点12を指定する場合に、図10の例よりも縦方向でより上の位置に領域基準点12が指定されている。この領域基準点12は、トレンチ403の領域をおおまかに指し示す。
 変形例3では、図10のように領域基準点12の位置を境にX方向のラインプロファイル20と動径方向のラインプロファイル20とを設定するのではなく、別の所定の方式でそれらの2種類のラインプロファイル20を設定する。図28では、コンピュータシステム1は、領域基準点12から、界面基準線11の方向に垂線13を引くだけでなく、反対側であるZ方向負方向にも垂直線2801(一点鎖線として図示)を引く。例えば、予めの規定として、コンピュータシステム1は、それらの垂線13および垂直線2801上で、界面基準線11の交点14からZ方向下側に、所定の距離の位置に、基準点16(菱形点で示す)をとる。そして、交点14から基準点16までの矩形の領域2810を、X方向のラインプロファイル20を抽出する第1領域とし、基準点16から更に下側の半円の領域2820を、動径方向のラインプロファイル20を抽出する第2領域として決定する。
 交点14から基準点16までの距離は、ソフトウェア110や定義情報112で設定可能としてもよい。また、第1領域や第2領域で、ラインプロファイル20を抽出する間隔や数も、ソフトウェア110や定義情報112で設定可能としてもよい。
 変形例3では、領域基準点12が指定されたZ方向の位置によらずに、2種類のラインプロファイル20が生成される。図23の例では、領域基準点12よりも下側に基準点16が設定されているが、これに限らず、領域基準点12よりも上側に基準点16が設定される場合でも成立する。
 [変形例4:領域基準点]
 変形例4は、領域基準点12の機能として、寸法計測対象構造物領域をおおまかに指し示す機能のみならず、計測対象寸法を規定する位置を指定する機能も持たせる。
 図29には、変形例4における、対象画像70、界面基準線11、領域基準点12、寸法計測対象線2901等の例を示す。指定された領域基準点12は、トレンチ403の領域を大まかに指し示しているのみならず、寸法計測対象線2901で示すような、トレンチ幅(図4での寸法A3)を測長するための縦方向の位置を指定している。言い換えると、本例では、寸法計測対象線2901で示すような、トレンチ幅(寸法A3)を測長するための縦方向の位置を、前述の定義情報112での距離や率で指定するのではなく、ユーザU1の手動操作による領域基準点12の位置によって指定している。
 コンピュータシステム1は、指定された界面基準線11および領域基準点12に基づいて、トレンチ403の輪郭を検出し、指定された領域基準点12の位置に、トレンチ幅(寸法A3)の測長のための寸法計測対象線2901を設定し、当該寸法A3を計測する。
 他の例では、領域基準点12によって、計測対象寸法として例えばトレンチ深さ(図4での寸法A4)に関するX方向の位置を指定することも可能である。
 この変形例4では、領域基準点12の位置の指定に関して、細かい位置を指定するので、ユーザの負荷が少し増えるが、比較例2のように計測対象寸法の2点を指定する方式に比べると、1点の指定で済む。
 [変形例5]
 実施の形態1では、前述の図21の例のように、図5のステップS3で、ユーザU1は、GUI画面60で、断面画像を見て、ゴミ等の不適切な箇所が無いかを確認し、そのような箇所については領域基準点12を指定しないようにして対象から除外する。その後、コンピュータシステム1は、輪郭検出および寸法計測を自動で実行して結果を出力する。
 変形例5としては、図5のステップS4の輪郭検出処理とステップS5の寸法計測処理との間に、ユーザU1による確認のステップを追加で設けてもよい。この変形例5は、以下のような処理・動作となる。変形例5では、図5のステップS4の輪郭検出処理の後に、ユーザU1がGUI画面60で輪郭検出結果を確認するステップが設けられる。この追加のステップでは、コンピュータシステム1は、GUI画面60で、断面画像に対し、ステップS4の輪郭検出の結果を重ねて表示する。
 図30は、変形例5での追加のステップで、対象画像3000に対し輪郭検出結果を表示する例を示す。図30では、例えば3つのトレンチ3001~3003について領域基準点12(12c,12d,12e)が指定されていた場合に、それらの3つのトレンチの輪郭線(エッジ点22等)が検出されて、輪郭検出結果として表示されている。ユーザU1は、これらの輪郭検出結果について、そのまま対象として寸法計測を行うかを確認・判断し、行う場合には、GUI画面60内の図示しない寸法計測実行ボタンを押す。これにより、コンピュータシステム1は、その輪郭検出結果に基づいた寸法計測処理を実行し、寸法計測結果を表示する。
 あるいは、ユーザU1は、輪郭検出結果の一部の箇所について、寸法計測対象から除外する場合には、その箇所を指定する。例えば、表示されている領域基準点12を、カーソル609等で再度指定する操作によって、その領域基準点12をオン状態からオフ状態に変更できる。例えば、トレンチ3002には、ゴミ部分3010があり、輪郭検出結果に反映されている。ユーザU1は、トレンチ3002を対象外にする場合に、領域基準点12dをクリック等で操作してオフ状態にする。例えば、領域基準点12dの表示は、オン状態を表す表示から、オフ状態を表す表示に変更される。そして、ユーザU1は、寸法計測実行ボタンを押す。これにより、コンピュータシステム1は、オフ状態の領域基準点12dを含むトレンチ3002を対象外にして、寸法計測処理を実行し、寸法計測結果を表示する。
 寸法計測結果の表示は例えば図30の下部の(B)のようになる。トレンチ3001,3003については寸法計測結果として例えばトレンチ幅が表示されている。このように、変形例5では、ユーザU1が輪郭検出結果を見てから寸法計測対象を決めることができる。
 <実施の形態2>
 図31等を用いて、実施の形態2の寸法計測システム等について説明する。実施の形態2等における基本的な構成は、実施の形態1と同様であり、以下では、実施の形態2等における実施の形態1とは異なる構成部分について主に説明する。実施の形態1では、図10等に示したように、X方向に延在するラインプロファイル20と、動径方向のラインプロファイル20との、2種類のラインプロファイル20を用いて、構造物の輪郭のエッジを検出する方法を示した。これに限定されず、動径方向でのラインプロファイル20を用いたエッジの検出は、必要ではない場合もある。実施の形態2は、動径方向のラインプロファイル20を用いずに、X方向(横方向)に延在するラインプロファイル20のみを用いて、輪郭のエッジを検出する方法を示す。
 [横方向のラインプロファイルのみを用いた輪郭検出]
 図31は、実施の形態2における、横方向に延在するラインプロファイル20のみを用いて、ピラー402の輪郭を構成するエッジを検出する例を示す。図31の(A)は、ある対象画像3100における、界面基準線11、領域基準点12、寸法計測対象線3101等の例を示す。図31の(B)は、(A)に基づいた、X方向のラインプロファイル20の設定例を示す。
 (A)のように、ピラー402の構造において、材料界面に対応する界面基準線11に対しZ方向で下側に所定の距離、例えば30nmの位置でピラー幅(図4での寸法B3)についての測長を行うとする。その場合に、そのピラー幅についての寸法計測対象線3101を示す。ユーザU1は、材料界面に合わせて界面基準線11を指定し、測長したいピラー402の領域内に領域基準点12を指定する。
 本例では、ユーザU1は、寸法計測対象線3101よりもZ方向で下側の任意の位置に領域基準点12を指定する。ただし、ここでは、領域基準点12のZ方向の位置は、計測対象寸法であるピラー幅を計測するZ方向の位置に対し、より下側であるとする(条件Aとする)。
 この場合、コンピュータシステム1は、(B)のように、指定された領域基準点12から界面基準線11に垂線13を引いて交点14を抽出する。コンピュータシステム1は、領域基準点12と交点14との間の領域3110において、X方向に延在する複数のラインプロファイル20を抽出する。ラインプロファイル20は、垂線13および所定の距離(30nm)の方向に対して垂直な直線である。X方向のラインプロファイル20の生成の仕方は、実施の形態1と同様である。本例では、番号#1~#10の10本のラインプロファイル20が抽出されている。
 コンピュータシステム1は、取得した複数のX方向のラインプロファイル20を用いて、実施の形態1と同様の方法で、ピラー402の輪郭を構成するエッジを検出する。本例では、ラインプロファイル20上で輝度が減少する箇所で、白四角点で示す複数のエッジ候補点21や、黒四角点で示すエッジ候補点21が検出されている。複数のエッジ候補点21について、前述の評価に基づいて、エッジ点22が決定される。例えば白四角点で示す複数のエッジ候補点21が、ピラー402の輪郭線を構成するエッジ点22として決定される。
 コンピュータシステム1は、このような検出したエッジの情報および定義情報112に基づいて、ピラー402における、材料界面に対応する界面基準線11の下側の所定の距離(30nm)の位置での寸法計測対象線3101について、ピラー幅(寸法B3)を計測できる。このように、本例では、動径方向のラインプロファイル20を用いたエッジ検出は必要ではない。
 なお、条件Aを満たすためには、以下のようにしてもよい。コンピュータシステム1は、対象画像3100内に、定義情報112および界面基準線11に基づいて、計測対象寸法であるピラー幅を計測する位置の寸法計測対象線3101に相当する目安の画像を表示し、その寸法計測対象線3101よりも下側の位置で領域基準点12の指定を受け付ける。ユーザU1は、その寸法計測対象線3101の目安の画像を見ることで、それよりも下側の位置に領域基準点12を指定できる。
 もしくは、ユーザU1が、ピラー幅を計測する位置よりも上側に領域基準点12を指定した場合にも対応できるように、以下のようにしてもよい。コンピュータシステム1は、指定された領域基準点12から上側に垂線13を引くのみならず、領域基準点12から下側にも垂直線を引く。コンピュータシステム1は、垂線13およびその垂直線上に、X方向のラインプロファイル20を抽出する範囲を設定する。例えば、コンピュータシステム1は、交点14から下側に設定された距離の位置まで、あるいは、領域基準点12から下側に設定された距離の位置まで、X方向のラインプロファイル20を抽出する範囲を設定してもよい。これにより条件Aを満たせる。
 上記例のように、実施の形態2では、領域基準点12と計測対象構造物および寸法とに応じて、動径方向のラインプロファイル20を省略し、X方向のラインプロファイル20のみを用いたエッジ検出のみを行うことで、輪郭検出および寸法計測を実現できる。
 実施の形態2は、横方向のラインプロファイル20のみを用いてエッジ検出を行う機能のみが実装されている形態としてもよい。あるいは、実施の形態2は、X方向でのエッジ検出を行う機能と動径方向でのエッジ検出を行う機能(後述の実施の形態3)との両方を備えた上で、コンピュータシステム1またはユーザU1がいずれの機能を使用するかを選択する形態としてもよい。例えば、コンピュータシステム1は、GUI画面60での定義情報112や計測対象構造物(例えばピラー)の指定と、界面基準線11および領域基準点12の指定とを受けて、それらの位置関係などに応じて、いずれの機能を使用するかを判断して自動的に適用してもよい。
 <実施の形態3>
 実施の形態3は、横方向のラインプロファイル20を用いずに、動径方向のラインプロファイル20のみを用いて、輪郭のエッジを検出する方法を示す。
 [動径方向のラインプロファイルのみを用いた輪郭検出]
 図32は、実施の形態3における、動径方向のラインプロファイル20のみを用いて、トレンチ403の輪郭を構成するエッジを検出する例を示す。図32では、ある対象画像3200における、界面基準線11、領域基準点12、寸法計測対象線3201、動径方向のラインプロファイル20等の例を示す。
 例えば、図32のような、浅いトレンチ構造(トレンチ深さが比較的小さいトレンチ403)を対象として輪郭検出および寸法計測する場合、材料界面に対応した界面基準線11上に領域基準点12を指定・配置してもよい。その場合、図示のように、前述の垂線13は存在しない。そのため、実施の形態3では、コンピュータシステム1は、領域基準点12に対し下側の半円の範囲3210において、動径方向のラインプロファイル20のみを設定する。本例では、番号#1~#7で示す7本のラインプロファイル20が設定されている。コンピュータシステム1は、動径方向のラインプロファイル20上で、トレンチ403の輪郭のエッジを検出する。本例では、各ラインプロファイル20上にエッジ候補点21が検出されている。エッジ候補点21に基づいて、前述のエッジ点22が決定される。エッジ点22に基づいてトレンチ403の輪郭線が形成できる。
 なお、図32で、コンピュータシステム1は、ユーザU1によって指定された界面基準線11と領域基準点12との位置関係について、それらの縦方向の位置が一致していなくても、それらの位置の差が所定の範囲内の小さい差である場合には、界面基準線11上に領域基準点12が指定されたものとみなし、動径方向でのエッジ検出を適用するようにしてもよい。
 本例では、計測対象寸法の例として、トレンチ深さ(図4での寸法A4)とし、対応する寸法計測対象線3201(白矢印で示す)を示している。コンピュータシステム1は、このような検出したエッジの情報および定義情報112に基づいて、トレンチ403のトップに対応する界面基準線11と、輪郭線に基づいたトレンチ403のボトムとの間に設定した寸法計測対象線3201について、トレンチ深さを計測できる。このように、本例では、X方向のラインプロファイル20を用いたエッジ検出は必要ではない。
 実施の形態3についても、実施の形態2と同様に、動径方向でのエッジ検出の機能のみを実装した形態としてもよいし、両方の機能を備えた上で使用する機能を選択可能な形態としてもよいし、コンピュータシステム1が使用する機能を自動判断する形態としてもよい。
 <実施の形態4>
 図33等を用いて、実施の形態4の推定システムおよび方法について説明する。実施の形態4および後述の実施の形態5では、実施の形態1等の寸法計測システムおよび方法をベースとして、さらに、AIによる機械学習を追加する。実施の形態4および5では、図5のステップS3でのユーザU1の手動操作による界面基準線11および領域基準点12の指定・設定のステップ部分に、AIの機械学習を適用する。
 特に、実施の形態4の推定システムおよび方法は、断面画像における界面基準線11および領域基準点12についての機械学習および推定の部分のみをシステムおよび方法として独立化したものである。実施の形態4の推定システムおよび方法は、コンピュータシステム1により、断面画像に対する界面基準線11および領域基準点12について機械学習を行い、入力対象画像から学習モデルに基づいて界面基準線11および領域基準点12を推定してユーザU1に対し提示するステップを、追加で有する。後述の実施の形態5は、実施の形態1の寸法計測システムおよび方法に、実施の形態4の機能部分を追加した形態に相当する。
 これにより、実施の形態4は、断面画像から、材料界面や構造物パターン領域を特定しやすくなる。実施の形態5は、界面基準線11および領域基準点12をユーザU1が手動操作で入力・指定・設定するステップに関する手間をさらに低減でき、作業全体のさらなる効率化を図れる。
 実施の形態4でのシステムは、言い換えると、界面基準線および領域基準点の推定システム、材料界面推定システム、寸法計測対象構造物領域推定システム、計測対象寸法推定システム等である。
 [機械学習の対象]
 実施の形態4は、機械学習の対象に関して、以下の3つの形態が可能である。実施の形態4では、特に下記3.の場合(図34)を説明するが、これに限らず、変形例(図38)で示すように、下記1.または2.の形態も同様に可能である。
 1. 界面基準線11のみを対象として機械学習および推定を行う形態。
 2. 領域基準点12のみを対象として機械学習および推定を行う形態。
 3. 界面基準線11と領域基準点12との両方を対象として機械学習および推定を行う形態。
 実施の形態4では、コンピュータシステム1は、断面画像と、実施の形態1での寸法計測結果に含まれる、界面基準線11の位置座標情報を含む情報、および領域基準点12の位置座標情報を含む情報とを用いて、機械学習のモデルを含むDBを構築する。コンピュータシステム1は、機械学習等を用いた画像認識技術を利用することで、通常の画像認識では検出が困難である材料界面(それに対応した界面基準11)や寸法計測対象構造物領域(それに対応した領域基準点12)の推定を実現する。
 なお、実施の形態1での寸法計測結果8(図2)には、ステップS3で設定された界面基準線11および領域基準点12の情報が含まれている。もしくは、寸法計測結果8における寸法値等の情報に対し、別に、界面基準線11および領域基準点12の情報が関連付けられた形態で保存されていてもよい。実施の形態4では、それらの情報を利用する。
 [コンピュータシステム]
 図33に、実施の形態4の推定システムであるコンピュータシステム1Dの構成を示す。図33の構成は、概略的には図2と同様であるが、異なる構成として以下を有する。コンピュータシステム1Dは、AIの機械学習を用いて、断面画像における界面基準線11や領域基準点12を推定する機能を有する。
 コンピュータシステム1Dのメモリ資源102、例えばRAM106には、学習・推定プログラムを含むソフトウェア110Dが格納されている。このソフトウェア110Dは、実施の形態4でのAIの機械学習および推定を含む処理機能を実現するデータである。コンピュータシステム1Dは、ストレージ107に、AIの機械学習等のためのDB140を格納している。DB140は、ソフトウェア110Dが扱うデータであり、機械学習等に関する学習データ141と、学習モデルデータ142とを含んでいる。
 学習データ141は、AIを学習させるためのデータセット、言い換えると機械学習に必要なデータセット、モデルを訓練するためのデータセットであり、前述の画像7等のデータを含む。学習モデルデータ142は、機械学習のモデルのデータセットであり、学習データ141に基づいて生成されたモデルのデータであり、学習によって最適化された学習パラメータのデータを含む。学習データの内容は図34等に示す通りである。
 [機械学習および推定]
 図34には、実施の形態4での、機械学習の学習モデル200に対する入出力の関係などの構成を示す。学習フェーズでは、コンピュータシステム1Dは、学習データ141を用いて、学習モデル200を構築および訓練する。学習モデル200は、学習モデルデータ142に含まれている学習パラメータが設定されているモデルである。学習データ141は、断面画像の画素データ、界面基準線11の座標、領域基準点12の座標(複数の点がある場合には、点#1,#2,……とする)、等を含むデータである。学習データ141は、過去に実施の形態1のシステムで使用され保存されている、ユーザU1が対象画像に界面基準線11や領域基準点12を指定したデータが適用できる。
 推定フェーズでは、コンピュータシステム1Dは、実際に寸法計測等の対象となる断面画像等を含む入力データ201を、最新の訓練済みの学習モデル200に入力する。コンピュータシステム1Dは、入力データ201に対し、学習モデル200による推定処理によって、推定結果を出力データ202として出力する。出力データ202は、入力対象画像から推定された特徴量のデータであり、推定された界面基準線11(推定界面基準線11Xとする)の座標、推定された領域基準点12(推定領域基準点12Xとする)の座標、等を含むデータである。
 コンピュータシステム1Dまたは他の任意のシステムは、出力データ202である推定結果3302(図33)を任意に利用可能である。例えば、コンピュータシステム1Dは、GUI画面60において、対象画像上に、推定結果3302である推定界面基準線11Xおよび推定領域基準点12Xを表示し、提案や推奨の情報としてユーザU1に対し提示してもよい。ユーザU1は、GUI画面60でそれらの推定界面基準線11Xや推定領域基準点12Xを確認し、それらをそのまま使用してもよいし、修正して使用してもよい。
 図33でのコンピュータシステム1Dのプロセッサ101は、ストレージ107からRAM106に展開されたソフトウェア110Dに従った処理を全て実行する。これにより、図34のような学習および推定に関する処理機能が実現される。画像データ3301は、AIに新規に入力される画像データである。例えばSEM2から操作用PC6に画像7を取得し、その画像7をその画像データ3301とする。操作用PC6からその画像データ3301をコンピュータシステム1Dに送信する。コンピュータシステム1Dは、その画像データ3301を、学習データ141の一部として格納する。これに限らず、例えば、コンピュータシステム1DがSEM2から取得した画像7の画像データ3301を学習用データとしてもよい。コンピュータシステム1Dに対し外付けの別のストレージやDBサーバ等に格納されている画像データを、学習用データとしてもよい。
 推定結果3302は、AIの学習モデル200による推定結果のデータである。コンピュータシステム1Dは、入力データ201の対象画像(例えば操作用PC6から指定された画像)に対し、学習モデル200の出力データ202として推定結果3302を生成・記憶・出力する。コンピュータシステム1Dは、推定結果3302を操作用PC6に送信する。操作用PC6は、GUI画面60において、入力対象画像に対応した断面画像上に、その推定結果3302としての推定界面基準線11Xおよび推定領域基準点12Xを表示する(後述の図37)。
 [学習データの蓄積]
 コンピュータシステム1Dは、学習データ141を蓄積する。そのために、SEM2や操作用PC6から、画像データや撮影情報111等の関連情報、過去の寸法計測結果8に含まれる界面基準線11の座標、および領域基準点12の座標の情報を、DB140の学習データ141内に蓄積する。以下では、学習データ141は、既にストレージ107のDB140に蓄積されている前提とする。
 [学習モデルの生成]
 コンピュータシステム1Dは、DB140の学習データ141に基づいて、学習モデル200を構築・生成する。図35は、機械学習の学習モデル200の構成例を示す。本例では、学習モデル200として、ニューラルネットワークの一例であるCNN(畳み込みニューラルネットワーク)を用いる。このCNNは、入力層に入力される画像の画素情報3501を、中間層、出力層へと順に伝搬し、演算する。これにより、このCNNは、出力層から、推定された界面座標(推定界面基準線11Xの座標)、および、1つまたは複数の構造物領域座標(推定領域基準点12Xの座標)を出力する。中間層においては、畳み込み層等が多数層繰り返される。界面座標は、材料界面413を表す界面基準線11についての位置座標の推定値である。構造物領域座標は、寸法計測等の対象となる構造物パターンの領域を表す領域基準点12についての位置座標の推定値である。
 図34の学習フェーズでは、CNNである学習モデル200によって出力される、界面座標および構造物領域座標と、正解の界面座標および構造物領域座標との誤差が最小となるように、中間層のパラメータ(学習モデルパラメータ142に含まれる)が調整される。
 CNNにおける具体的な層構造は、採用する学習モデルに応じて異なり、詳細を限定しない。実施の形態4(図35)では、適用する学習モデル200としてCNNの場合を示したが、これに限定されずに適用可能である。画素データ等の画像情報の入力に対し、界面座標および構造物領域座標を出力できる機械学習のモデルであれば、適用可能である。
 [学習フェーズのフロー]
 図36は、実施の形態4での学習フェーズの学習処理フローを示し、ステップS41~S45を有する。ステップS41で、ユーザU1は、操作用PC6のディスプレイのGUI画面60でGUIを操作し、対象画像とその対象画像の寸法計測結果8のデータを、コンピュータシステム1Dに読み込む。ステップS42で、コンピュータシステム1Dは、ステップS41で読み込まれた対象画像および寸法計測結果8のデータに含まれている、界面基準線11の座標、および1つ以上の領域基準点12の座標を含むデータを、DB140に学習データ141として登録・保存する。
 AIの学習モデル200の学習を行うためには、十分な学習データが無いと、精度が出ない。そのため、コンピュータシステム1Dは、登録・蓄積された学習データの数量が、事前に設定した一定の数量以上になるまでは、学習モデル200の学習を行わないようにする。すなわち、ステップS43で、コンピュータシステム1Dは、学習データ141として蓄積された学習データの数量が、事前に設定した一定の数量以上となったかを判断し、まだ一定の数量以上となっていない場合(N)にはステップS41に戻って繰り返し、一定の数量以上となった場合(Y)にはステップS44に進む。
 ステップS44で、コンピュータシステム1Dは、ストレージ107に保持している学習データ141における、対象画像の画素データと、界面基準線座標および1つ以上の領域基準点座標とを、学習モデル200の教師データ(図34での学習データ141)として取得する。
 そして、ステップS45で、コンピュータシステム1Dは、ステップS44で取得した教師データ(図34での学習データ141)を用いて、学習モデル200の学習・訓練を行い、学習モデルを生成・更新する。前述のように、学習では、学習モデル200(図35でのCNN)に、入力データ201として教師データの対象画像の画素データが入力され、推定結果として出力される出力データ202における、界面座標と構造物領域座標とが、教師データの正解の界面基準点11の座標と領域基準点12の座標とに近くなるように、学習が行われる。
 上記学習フェーズに関するGUI画面60でのGUIの例は、以下が挙げられる。前述の図6のGUI画面60では、タブ603の1つとして「train」タブが設けられている。ユーザU1は、モデル学習を行う場合には、「train」タブをクリック等操作する。コンピュータシステム1Dは、その操作に応じて、GUI画面60の内容/モードを、モデル学習用GUI画面に切り替える。ユーザU1は、モデル学習用GUI画面で、「File」ボタンを操作して、マウス等の操作で、学習に用いる対象画像のファイルを選択し、「Enter」ボタンを操作して、選択したファイルのデータを読み込ませる。コンピュータシステム1Dは、選択された対象画像の画素データの他に、その画像に関連付けられている各種のデータとして、寸法計測結果8における界面基準線11や領域基準点12等のデータも読み込む。
 [GUI画面:推定フェーズ]
 図37は、推定フェーズでのGUI画面60の表示例を示す。図37は、推定機能の画面例である。本画面は、推定タイプ欄3701を有し、推定タイプ欄3701では、推定対象として、界面座標(言い換えると界面基準線座標)と、構造物領域座標(言い換えると領域基準点座標)とをそれぞれオン/オフで選択できる。推定対象画像欄3702では、入力する推定対象画像が選択され表示される。推定結果画像欄3703では、出力された推定結果情報が、推定対象画像上に重ねた態様で表示される。本例では、推定結果画像欄3703に、推定界面基準線11Xと、マスクおよびトレンチに関する推定領域基準点12Xとが表示されている。推定対象の構造物種別についても本画面で選択可能としてもよい。
 [実施の形態4の効果等]
 実施の形態4の推定システムおよび方法によれば、機械学習を用いて、実施の形態1での半自動方式における手動設定ステップ部分について自動化でき、ユーザU1の手動操作の手間が低減できる。
 実施の形態4のシステムおよび方法に、実施の形態1~3の各種の機能やステップを追加した形態も勿論可能である。
 [変形例(1)]
 実施の形態4の変形例として、以下が可能である。実施の形態4では、図34のように、学習モデル200による学習は、界面基準線11と領域基準点12との両方の学習とした。それに対し、変形例では、界面基準線11の学習と、領域基準点12の学習との2つに分ける。
 図38は、変形例における学習モデル等を示す。(A)は、第1の学習モデル200Aについて示し、(B)は、第2の学習モデル200Bについて示す。この変形例では、例えば材料界面を表す界面基準線11の座標については、第1の学習モデル200Aで学習させ、寸法計測等の対象となる構造物パターンの領域を表す領域基準点12の座標については、第2の学習モデル200Bで学習させる。学習モデル200A,200Bの構造は、例えば図35と同様にCNNを適用できる。
 学習フェーズでは、(A)の第1の学習モデル200Aについては、界面基準線11の座標を含む学習データ141Aを用いて学習する。(B)の第2の学習モデル200Bについては、1つ以上の領域基準点12の座標を含む学習データ141Bを用いて学習する。
 推定フェーズでは、(A)の第1の学習モデル200Aに対し、入力データ201Aとして対象画像が入力され、出力データ202Aとして、推定界面基準線11Xの座標を含むデータが出力される。(B)の第2の学習モデル200Bに対し、入力データ201Bとして対象画像が入力され、出力データ202Bとして、推定領域基準点12Xの座標を含むデータが出力される。
 変形例としては、(A)の第1の学習モデル200Aを用いた学習および推定のみを行うシステムおよび方法としてもよいし、(B)の第2の学習モデル200Bを用いた学習および推定のみを行うシステムおよび方法としてもよい。
 [変形例(2)]
 実施の形態4の他の変形例として、以下が可能である。この変形例では、寸法計測のための基点座標を推定する機能を有する。この変形例では、推定対象を、構造物パターン領域の領域基準点12の座標とするのではなく、構造物パターン領域での計測対象寸法の位置とする。特に、推定対象を、計測対象寸法の起点座標および終点座標、言い換えると、寸法計測対象線を規定する2点の座標とする。
 図39は、この変形例での学習モデル200C等を示す。学習フェーズでの学習データ141Cは、対象画像の計測対象寸法の起点・終点の座標のデータを含んでいる。推定フェーズでの学習モデル200Cから推定結果として出力される出力データ202Cは、計測対象寸法の起点・終点の座標のデータを含んでいる。
 図40は、この変形例でのGUI画面60に推定結果を表示する例を示す。本例では、推定タイプ欄4001で、「寸法の起点・終点の座標」が選択されている。また、寸法タイプ欄4004では、推定対象の寸法種類として、例えばトレンチ幅(middle CD)が選択されている。推定対象画像欄4002では、推定対象画像が表示されている。推定結果画像欄4003では、推定対象画像上に、推定結果としての計測対象寸法の起点4011および終点4012の座標がプロットされて、寸法計測対象線4010とともに表示されている。
 <実施の形態5>
 図41等を用いて、実施の形態5の寸法計測システム等について説明する。実施の形態5は、実施の形態1と実施の形態4とを1つに併合した形態であり、前述の半自動方式での輪郭検出および寸法計測の機能と、機械学習による推定機能との両方を備える形態である。
 実施の形態5のシステムおよび方法は、学習フェーズでは、実施の形態1でのシステムの機能によって、対象画像に対しユーザU1が界面基準線11および領域基準点12を指定し、半自動方式で輪郭検出および寸法計測を行い、その際の界面基準線11および領域基準点12を含むデータを、学習データ141として蓄積する。実施の形態5のシステムおよび方法は、その学習データ141を用いて、学習モデル200を訓練する。
 実施の形態5のシステムおよび方法は、推定フェーズでは、実施の形態4のシステムの機能によって、入力対象画像に対し、学習モデル200を用いて、推定結果の出力として、材料界面を表す推定界面基準線11Xと、寸法計測対象構造物領域を表す1つ以上の推定領域基準点12Xとを出力する。実施の形態5のシステムおよび方法は、その推定結果に基づいて、対象画像の輪郭検出および寸法計測を行う。実施の形態5のシステムおよび方法は、ユーザU1に対し、GUI画面60で、推定界面基準線11Xおよび推定領域基準点12Xを表示して、ユーザU1による確認や修正を可能としてもよい。
 [寸法計測システム]
 図41は、実施の形態5の寸法計測システムであるコンピュータシステム1Eの構成例を示す。このコンピュータシステム1Eは、図2のコンピュータシステム1と図33のコンピュータシステム1Dとが1つに併合されたシステムである。このコンピュータシステム1Eは、半自動方式での寸法計測結果を自動的に学習データ141として蓄積し、学習・推定機能によって、界面基準線11および領域基準点12について学習・推定する。このコンピュータシステム1Eは、学習モデルによる推定結果4102(推定界面基準線11Xおよび推定領域基準点12X)をGUI画面60に表示し、推定結果4102を用いた自動的な寸法計測を行い、寸法計測結果4102(8)をGUI画面60に表示する。
 コンピュータシステム1Eのメモリ資源102には、例えばRAM106には、実施の形態1での寸法計測プログラムを含むソフトウェア110と、実施の形態4での学習・推定プログラムを含むソフトウェア110Dとが格納されている。プロセッサ101は、ソフトウェア110およびソフトウェア110Dに従った処理を行うことで、各機能を実現する。ソフトウェア110は、ソフトウェア110Dによる推定結果4102を用いて、自動的に寸法計測を行う機能も実現する。また、実施の形態5では、モード設定に応じて、実施の形態1での半自動方式での手動設定と、実施の形態4での推定機能による自動推定と、のいずれを使用するかについてもユーザU1が選択できる。
 ストレージ107には、実施の形態1と同様のデータ・情報に加え、ソフトウェア110Dによる推定結果4102も保存される。また、別のストレージ107Dには、実施の形態4と同様のDB140を備えている。ストレージ107とストレージ107Dは1つにまとめてもよい。
 対象の画像7およびそれに関連する撮影情報111や定義情報112は、実施の形態4と同様に、SEM2や操作用PC6からコンピュータシステム1Eに入力でき、ストレージ107またはストレージ107Dに保存される。コンピュータシステム1Eは、推定結果4102や寸法計測結果4101(8)を操作用PC6に送信し、操作用PC6は、GUI画面60に、対象の画像7、推定結果4102、寸法計測結果4101(8)等を表示させる。
 [自動寸法計測]
 図42は、実施の形態5での、自動寸法計測の処理フローを示し、ステップS51~59を有する。ステップS51では、コンピュータシステム1Eは、操作用PC6からのユーザU1の入力操作に基づいて、寸法計測対象の画像7、撮影情報111、および定義情報112を入力し、実施の形態1での半自動方式での寸法計測機能による寸法計測を行い、寸法計測結果8を得る。操作用PC6のGUI画面60には、画像7および寸法計測結果8が表示される。
 ステップS52で、コンピュータシステム1Eは、ステップS51の寸法計測結果8(界面基準線11および領域基準点12を含むデータ)から、自動的に、学習用である学習データ141を生成し、DB140に登録する。ステップS53で、コンピュータシステム1Eは、選択した学習データ141を用いて、学習モデル200(例えば図34と同様)を構築および訓練する。
 ステップS54で、コンピュータシステム1Eは、学習モデルによる推定の精度が十分であるかを確認する。十分である場合(Y)には、ステップS57へ進み、不十分である場合(N)には、ステップS55へ進む。ステップS55では、コンピュータシステム1Eは、学習モデルが過学習となっていないかを確認し、過学習である場合(Y)には、ステップS56へ進み、過学習ではない場合(N)には、ステップS52へ戻る。ステップS56では、コンピュータシステム1Eは、学習に用いる学習データ141を再選択し、ステップS53に戻る。
 ステップS57では、コンピュータシステム1Eは、十分な精度の学習モデルを学習済みモデルとして登録する。ステップS58では、コンピュータシステム1Eは、操作用PC6でのユーザU1の操作に基づいて、寸法計測対象の画像7を入力する。また、ユーザU1は、GUI画面60で、全自動寸法計測モードを選択する。ステップS59では、コンピュータシステム1Eは、入力画像である対象画像に対し、全自動寸法計測モードで、寸法計測を行う。ステップS59の詳細としては、例えば以下としてもよい。
 第1の処理例としては、コンピュータシステム1Eは、推定結果4102をユーザU1に提示せずに、自動的に輪郭検出および寸法計測まで行う。この場合、コンピュータシステム1Eは、入力画像の画素データを、推定機能の学習モデルに入力し、推定結果4102として、推定界面基準線11Xおよび推定領域基準点12Xを得る。コンピュータシステム1Eは、推定界面基準線11Xおよび推定領域基準点12Xの位置座標情報を用いて、対象画像から対象構造物の輪郭を検出し、検出した輪郭等に基づいて、指定された寸法を計測し、寸法計測結果4101を得る。コンピュータシステム1Eは、寸法計測結果4101(8)を操作用PC6に送信し、GUI画面60に寸法計測結果4101(8)を表示させる。
 第2の処理例としては、コンピュータシステム1Eは、推定結果4102をユーザU1に提示し、ユーザU1が推定結果4102を確認した後、輪郭検出および寸法計測を行う。この場合、コンピュータシステム1Eは、入力画像の画素データを、推定機能の学習モデルに入力し、推定結果4102として、推定界面基準線11Xおよび推定領域基準点12Xを得る。コンピュータシステム1Eは、推定界面基準線11Xおよび推定領域基準点12Xを含む推定結果4102を、操作用PC6に送信する。操作用PC6は、GUI画面60で、対象画像上に、推定結果4102の推定界面基準線11Xおよび推定領域基準点12Xを表示させる。ユーザU1は、GUI画面60で推定結果4102を確認し、そのまま適用する場合には所定のボタン等の操作でそのまま適用し、修正する場合には手動操作で修正してから適用し、却下(非適用)する場合には所定のボタン等の操作で却下する。ユーザU1が推定結果4102を確認して適用された場合、コンピュータシステム1Eは、対象画像から、適用された推定界面基準線11Xおよび推定領域基準点12Xを用いて、輪郭を検出し、検出した輪郭等に基づいて、指定された寸法を計測し、寸法計測結果4101を得る。コンピュータシステム1Eは、寸法計測結果4101(8)を操作用PC6に送信し、GUI画面60に寸法計測結果4101(8)を表示させる。
 [実施の形態5の効果等]
 実施の形態5の寸法計測システムおよび方法によれば、以下のような効果がある。ユーザU1は、実施の形態1での半自動方式で測長作業を行うことで、特に意識せずに学習データを蓄積できる。実施の形態5によれば、蓄積された学習データを用いて、実施の形態4での学習モデルを訓練し、材料界面や構造物領域などの推定の精度を高めることができる。そして、学習モデルによる推定結果を用いて、界面基準線11や領域基準点12をより容易に、より正確に設定でき、測長作業をより効率化できる。
 以上、本開示の実施の形態について具体的に説明したが、前述の実施の形態に限定されず、要旨を逸脱しない範囲で種々変更可能である。各実施の形態は、必須構成要素を除き、構成要素の追加・削除・置換などが可能である。特に限定しない場合、各構成要素は、単数でも複数でもよい。各実施の形態や変形例を組み合わせた形態も可能である。
 1…寸法計測システム(コンピュータシステム)、2…SEM、6…クライアント端末装置(操作用PC)、7…画像、8…寸法計測結果、11…界面基準線、12…領域基準点、13…垂線、14…交点、20…ラインプロファイル、21…エッジ候補点、60…GUI画面、70…対象画像、101…プロセッサ、102…メモリ資源、111…撮影情報、112…定義情報、401…マスク、402…ピラー、403…トレンチ、U1…ユーザ。

Claims (19)

  1.  輝度の異なる複数の領域を含む画像として表示された構造物の寸法を計測する寸法計測システムであって、
     プロセッサと、前記プロセッサが処理するデータを格納するメモリ資源とを備えたコンピュータシステムと、
     ユーザによる手動操作が行われるグラフィカル・ユーザ・インタフェース(GUI)が表示されるディスプレイと、を備え、
     前記プロセッサは、
     前記GUI上で行われる前記ユーザの手動操作に基づき、前記複数の領域間の境界の一部を特定するための基準線および当該基準線の位置情報と、前記複数の領域のいずれかの領域内に設定された基準点および当該基準点の位置情報とを求め、
     前記基準線と前記基準点とを用いて、前記画像における前記構造物の輪郭またはエッジを検出し、
     当該検出された輪郭またはエッジの情報を用いて前記構造物の寸法を計測する、
     寸法計測システム。
  2.  請求項1記載の寸法計測システムにおいて、
     前記プロセッサは、
     前記基準点と前記基準線との間で設定される垂線上で、前記基準線に平行な方向に延在するラインプロファイルを複数設定し、
     当該ラインプロファイル上で、ラインプロファイルを構成する画素の輝度変化に基づき前記輪郭またはエッジの候補を抽出し、
     抽出された候補に基づき前記輪郭またはエッジを検出する、
     寸法計測システム。
  3.  請求項1に記載の寸法計測システムにおいて、
     前記プロセッサは、
     前記基準点から動径方向に延在する位置上に複数のラインプロファイルを設定し、
     当該ラインプロファイル上で、当該ラインプロファイルを構成する画素の輝度変化に基づき前記輪郭またはエッジの候補を抽出し、
     抽出された候補に基づいて前記輪郭またはエッジを検出する、
     寸法計測システム。
  4.  請求項1に記載の寸法計測システムにおいて、
     前記プロセッサは、
     前記基準点と前記基準線との間に設定される垂線上で、前記基準線に平行な方向に延在する第1のラインプロファイルを複数設定し、
     前記基準点から動径方向に延在する位置上に第2のラインプロファイルを複数設定し、
     前記第1および第2のラインプロファイル上で、当該第1および第2のラインプロファイルを構成する画素の輝度変化に基づき前記輪郭またはエッジの候補を抽出し、
     抽出された候補に基づいて、前記輪郭またはエッジを検出する、
     寸法計測システム。
  5.  請求項1記載の寸法計測システムにおいて、
     前記プロセッサは、
     検出された前記輪郭またはエッジの情報と、計測対象寸法を規定する定義情報とを用いて前記構造物の寸法を求める、
     寸法計測システム。
  6.  請求項1記載の寸法計測システムにおいて、
     前記基準線は、前記画像内の材料界面に対し指定される、
     寸法計測システム。
  7.  請求項1記載の寸法計測システムにおいて、
     前記コンピュータシステムは、
     前記GUI上で設定された前記基準線を前記構造物上での確からしい基準線位置に調整する調整機能を提供する
     寸法計測システム。
  8.  請求項1記載の寸法計測システムにおいて、
     前記画像は、マスク、ピラー、またはトレンチの少なくともいずれか一つが形成された半導体デバイスの断面画像である、
     寸法計測システム。
  9.  請求項2~4のいずれか一項に記載の寸法計測システムにおいて、
     前記プロセッサは、複数の前記ラインプロファイルにおける前記輪郭またはエッジの候補について当該候補の組み合わせを作成し、
     当該候補間の距離または輝度の変化量に基づく評価値に基づいて前記輪郭またはエッジを選択することにより、前記輪郭またはエッジを検出する、
     寸法計測システム。
  10.  請求項1記載の寸法計測システムにおいて、
     前記プロセッサは、前記GUIに表示される前記画像に、指定された前記基準線および前記基準点を重畳して表示させる、
     寸法計測システム。
  11.  請求項1記載の寸法計測システムにおいて、
     前記プロセッサは、前記GUIに表示される前記画像に、検出された前記輪郭またはエッジを重畳して表示させる、
     寸法計測システム。
  12.  請求項1記載の寸法計測システムにおいて、
     前記プロセッサは、前記GUIに表示される前記画像に、計測された前記寸法を重畳して表示させる、
     寸法計測システム。
  13.  請求項1記載の寸法計測システムにおいて、
     前記コンピュータシステムは、前記画像、前記基準線、および前記基準点を含む学習用データが格納されるストレージを備え、
     前記メモリ資源には、前記画像を入力、当該画像に対する前記基準線および前記基準点を出力とする学習モデルが実装されており、
     前記プロセッサは、前記学習モデルにより推定された、新規な入力画像に対する前記基準線および前記基準点の情報を用いて、当該新規な入力画像に含まれる前記構造物の輪郭またはエッジを検出し、
     当該検出された輪郭またはエッジの情報を用いて前記構造物の寸法を計測する、
     寸法計測システム。
  14.  請求項13記載の寸法計測システムにおいて、
     前記プロセッサは、前記ストレージに格納された前記学習用データを用いて前記学習モデルを訓練する、
     寸法計測システム。
  15.  請求項13記載の寸法計測システムにおいて、
     前記プロセッサは、前記画像と、前記ユーザの手動操作に基づいて当該画像に対して求められた前記基準線の位置情報および前記基準点の位置情報とを、前記学習用データとして前記ストレージに蓄積する、
     寸法計測システム。
  16.  プロセッサと、前記プロセッサが処理するデータを格納するメモリ資源と、グラフィカル・ユーザ・インタフェース(GUI)が表示されるディスプレイとを備える寸法計測システムを用い、輝度の異なる複数の領域を含む画像として表示された構造物の寸法を計測する寸法計測方法であって、
     前記GUIに表示された前記構造物の画像に対して実行される、前記寸法計測システムのユーザの手動操作に基づき、前記複数の領域間の境界の一部を特定する基準線と、前記複数の領域のいずれかの領域内に指定された基準点とを設定し、
     当該基準線および基準点の位置情報を取得し、
     前記基準線と前記基準点とを用いて前記構造物の輪郭またはエッジを検出し、当該検出された輪郭またはエッジの情報を用いて前記構造物の寸法を計測する、
     寸法計測方法。
  17.  請求項16記載の寸法計測方法において、
     前記基準点と前記基準線との間で設定される垂線上で、当該基準線に平行な方向に延在するラインプロファイルを複数設定し、
     当該ラインプロファイル上で、各ラインプロファイルを構成する画素の輝度変化に基づき前記輪郭またはエッジの候補を抽出し、
     当該抽出された候補に基づき前記輪郭またはエッジを検出する、
     寸法計測方法。
  18.  請求項16に記載の寸法計測方法において、
     前記基準点から動径方向に延在する位置上に複数のラインプロファイルを設定し、
     当該ラインプロファイル上で、各ラインプロファイルを構成する画素の輝度変化に基づき前記輪郭またはエッジの候補を抽出し、
     当該抽出された候補に基づいて前記輪郭またはエッジを検出する、
     寸法計測方法。
  19.  グラフィカル・ユーザ・インタフェース(GUI)が表示されるディスプレイを備えたコンピュータを用い、輝度の異なる複数の領域を含む画像として表示された構造物の寸法を計測するために、前記コンピュータに対して以下のステップを実行させるためのプログラムが記憶された不揮発性記録媒体。
     前記GUIに表示された前記構造物の画像に対して実行される、前記寸法計測システムのユーザの手動操作に基づき、前記複数の領域間の境界の一部を特定する基準線と、前記複数の領域のいずれかの領域内に指定された基準点とを設定するステップ、
     当該基準線および基準点の位置情報を取得するステップ、
     前記基準線と前記基準点とを用いて前記構造物の輪郭またはエッジを検出するステップ、
     当該検出された輪郭またはエッジの情報を用いて前記構造物の寸法を計測するステップ。
PCT/JP2022/033680 2022-09-08 2022-09-08 寸法計測システム、推定システム、および寸法計測方法 WO2024053043A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/033680 WO2024053043A1 (ja) 2022-09-08 2022-09-08 寸法計測システム、推定システム、および寸法計測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/033680 WO2024053043A1 (ja) 2022-09-08 2022-09-08 寸法計測システム、推定システム、および寸法計測方法

Publications (1)

Publication Number Publication Date
WO2024053043A1 true WO2024053043A1 (ja) 2024-03-14

Family

ID=90192462

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/033680 WO2024053043A1 (ja) 2022-09-08 2022-09-08 寸法計測システム、推定システム、および寸法計測方法

Country Status (1)

Country Link
WO (1) WO2024053043A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007024896A (ja) * 2005-07-19 2007-02-01 Fei Co 構造の3次元表面粗さを測定する方法
WO2010052855A1 (ja) * 2008-11-05 2010-05-14 株式会社日立ハイテクノロジーズ パターン寸法計測方法及びそれを用いた走査電子顕微鏡
JP2013250106A (ja) * 2012-05-31 2013-12-12 Hitachi High-Technologies Corp 計測方法、画像処理装置、及び荷電粒子線装置
WO2021024402A1 (ja) * 2019-08-07 2021-02-11 株式会社日立ハイテク 寸法計測装置、寸法計測方法及び半導体製造システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007024896A (ja) * 2005-07-19 2007-02-01 Fei Co 構造の3次元表面粗さを測定する方法
WO2010052855A1 (ja) * 2008-11-05 2010-05-14 株式会社日立ハイテクノロジーズ パターン寸法計測方法及びそれを用いた走査電子顕微鏡
JP2013250106A (ja) * 2012-05-31 2013-12-12 Hitachi High-Technologies Corp 計測方法、画像処理装置、及び荷電粒子線装置
WO2021024402A1 (ja) * 2019-08-07 2021-02-11 株式会社日立ハイテク 寸法計測装置、寸法計測方法及び半導体製造システム

Similar Documents

Publication Publication Date Title
US7888638B2 (en) Method and apparatus for measuring dimension of circuit pattern formed on substrate by using scanning electron microscope
JP4769025B2 (ja) 走査型電子顕微鏡用撮像レシピ作成装置及びその方法並びに半導体パターンの形状評価装置
JP4220358B2 (ja) 半導体パターン計測方法
JP5948138B2 (ja) 欠陥解析支援装置、欠陥解析支援装置で実行されるプログラム、および欠陥解析システム
JP4223979B2 (ja) 走査型電子顕微鏡装置及び走査型電子顕微鏡装置における装置としての再現性能評価方法
JP5525421B2 (ja) 画像撮像装置および画像撮像方法
JP6239633B2 (ja) 荷電粒子線装置
JP2006215020A (ja) 高精度パターン形状評価方法及びその装置
US11663713B2 (en) Image generation system
WO2020121564A1 (ja) 寸法計測装置、寸法計測プログラム及び半導体製造システム
TW201403488A (zh) 圖樣比對方法及裝置
JPWO2013122022A1 (ja) 画像評価装置及びパターン形状評価装置
US20220405905A1 (en) Sample observation device and method
TW201535555A (zh) 圖案測定裝置及電腦程式
WO2016121009A1 (ja) 荷電粒子線装置
WO2024053043A1 (ja) 寸法計測システム、推定システム、および寸法計測方法
US7834316B2 (en) Method for adjusting imaging magnification and charged particle beam apparatus
TW202412136A (zh) 尺寸計測系統、推測系統以及尺寸計測方法
JP6207893B2 (ja) 試料観察装置用のテンプレート作成装置
US20230052350A1 (en) Defect inspecting system and defect inspecting method
TWI822126B (zh) 試料觀察裝置、試料觀察方法及電腦系統
WO2021166142A1 (ja) パターンマッチング装置、パターン測定システムおよび非一時的コンピュータ可読媒体
JP2023103539A (ja) プロセッサシステム、半導体検査システム、およびプログラム
JP7167323B2 (ja) パターン計測装置および計測方法
WO2023242954A1 (ja) 荷電粒子線装置および注目画像データを出力する方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22958122

Country of ref document: EP

Kind code of ref document: A1