WO2022064707A1 - 解析システム - Google Patents

解析システム Download PDF

Info

Publication number
WO2022064707A1
WO2022064707A1 PCT/JP2020/036694 JP2020036694W WO2022064707A1 WO 2022064707 A1 WO2022064707 A1 WO 2022064707A1 JP 2020036694 W JP2020036694 W JP 2020036694W WO 2022064707 A1 WO2022064707 A1 WO 2022064707A1
Authority
WO
WIPO (PCT)
Prior art keywords
sample
observation
analysis system
multilayer structure
coordinates
Prior art date
Application number
PCT/JP2020/036694
Other languages
English (en)
French (fr)
Inventor
杏彩 金野
宗史 設楽
一郎 藤村
大二 切畑
大海 三瀬
Original Assignee
株式会社日立ハイテク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ハイテク filed Critical 株式会社日立ハイテク
Priority to CN202080105369.2A priority Critical patent/CN116157891A/zh
Priority to KR1020237009048A priority patent/KR20230049740A/ko
Priority to JP2022551107A priority patent/JP7446453B2/ja
Priority to US18/027,501 priority patent/US20230377836A1/en
Priority to PCT/JP2020/036694 priority patent/WO2022064707A1/ja
Priority to TW110132556A priority patent/TWI809491B/zh
Publication of WO2022064707A1 publication Critical patent/WO2022064707A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B15/00Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons
    • G01B15/04Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B15/00Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/22Optical or photographic arrangements associated with the tube
    • H01J37/222Image processing arrangements associated with the tube
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/0209Low-coherence interferometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/04Measuring microscopes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/244Detectors; Associated components or circuits therefor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/26Electron or ion microscopes; Electron or ion diffraction tubes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/10Measuring as part of the manufacturing process
    • H01L22/12Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/56Measuring geometric parameters of semiconductor structures, e.g. profile, critical dimensions or trench depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/611Specific applications or type of materials patterned objects; electronic devices
    • G01N2223/6116Specific applications or type of materials patterned objects; electronic devices semiconductor wafer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/633Specific applications or type of materials thickness, density, surface weight (unit area)
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/20Positioning, supporting, modifying or maintaining the physical state of objects being observed or treated
    • H01J2237/202Movement
    • H01J2237/20207Tilt
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/244Detection characterized by the detecting means
    • H01J2237/2448Secondary particle detectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/245Detection characterised by the variable being measured
    • H01J2237/24571Measurements of non-electric or non-magnetic variables
    • H01J2237/24578Spatial variables, e.g. position, distance
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/26Electron or ion microscopes
    • H01J2237/2611Stereoscopic measurements and/or imaging

Definitions

  • the present invention relates to an analysis system, and more particularly to an analysis system capable of acquiring depth information of a multilayer structure contained in a sample.
  • a method of obtaining pattern depth information by observing the sample while scraping the sample little by little with an integrated ion beam (FIB), or a sample created by mechanical polishing is used.
  • FIB integrated ion beam
  • Patent Document 1 FIB is used to process a sample into a tapered shape, and an electron microscope is used to obtain a surface observation image of the formed slope, and the start position of the downhill slope and scanning of an electron beam are obtained.
  • a technique for calculating the depth of a pattern based on a distance and a tilt angle is disclosed.
  • the means using FIB can evaluate a pattern with high accuracy, but there are problems such as a narrow processing area, a long evaluation time, and difficulty in reacquiring data. Further, although the means for predicting the inclination angle of the polished surface can be evaluated quickly, there is a problem that the accuracy of the evaluation value of the pattern is low because the depth information of the pattern can be calculated only by prediction.
  • the analysis system in one embodiment is a step of (a) irradiating a sample containing a multilayer structure with an electron beam from a first direction to acquire a first image of the sample viewed from the first direction. , (B) A step of irradiating the sample with the electron beam from a second direction intersecting with the first direction to acquire a second photographed image of the sample as seen from the second direction, (c). ) The first photographed image, the second photographed image, the number of layers of the multilayer structure, the thickness of one layer or the thickness of each layer of the multilayer structure, and the depth at which the first layer of the multilayer structure starts. A step of acquiring the depth information of the multilayer structure by using the information of the sample including the above.
  • the analysis system in one embodiment acquires (a) a first image of the sample viewed from the first direction by irradiating the sample including the multilayer structure with an electron beam from the first direction. Steps, (b) a step of designating an observation range in the first image, (c) the first step using an objective lens for a plurality of points of the sample within the designated observation range. Based on the step of focusing the electron beam in one direction, (d) the result of the focusing in the step (c), between the objective lens and the focal position at the plurality of points of the sample.
  • Steps of acquiring distances and creating a WD profile graphing those distances (e) the number of layers of the multi-layer structure, the thickness of one layer or the thickness of each layer of the multi-layer structure, and the thickness of the multi-layer structure.
  • the step includes a step of acquiring the depth information of the multilayer structure by collating the information of the sample including the depth at which the first layer starts with the WD profile.
  • the depth information of the multi-layer structure can be acquired quickly and with high accuracy.
  • FIG. 1 It is a schematic diagram which shows an example of the charged particle beam apparatus in Embodiment 1.
  • FIG. It is a top view of the sample in Embodiment 1.
  • FIG. It is sectional drawing of the sample in Embodiment 1.
  • FIG. It is a top view of the sample in Embodiment 1.
  • FIG. It is sectional drawing of the sample in Embodiment 1.
  • FIG. It is a flowchart of the analysis system in Embodiment 1.
  • It is a schematic diagram which shows the operation screen in Embodiment 1.
  • FIG. It is a schematic diagram which shows the operation screen in Embodiment 1.
  • FIG. It is a schematic diagram which shows the operation screen in Embodiment 1.
  • FIG. It is a schematic diagram which shows the operation screen in Embodiment 1.
  • FIG. It is a schematic diagram which shows the operation screen in Embodiment 1.
  • FIG. It is a schematic diagram which shows the operation screen in Embodiment 1.
  • FIG. It is a schematic diagram
  • FIG. 6 is a photographed image and a recording table of the pattern analysis in the first embodiment. It is a flowchart of the analysis system in Embodiment 2. It is a flowchart of the analysis system in Embodiment 3. It is a schematic diagram which shows the operation screen in Embodiment 3. FIG. It is a schematic diagram which shows the operation screen in Embodiment 3. FIG. It is a schematic diagram which shows the operation screen in Embodiment 3. FIG. It is a schematic diagram which shows the operation screen in Embodiment 3. FIG. It is a schematic diagram which shows the operation screen in Embodiment 3. FIG.
  • FIG. 1 It is a recording table which shows the recording example of each information in Embodiment 3. It is a schematic diagram which shows the operation screen in Embodiment 1.
  • FIG. It is a schematic diagram which shows an example of the surface shape measuring apparatus in Embodiment 4. It is a flowchart of the analysis system in Embodiment 4. It is a schematic diagram which shows the operation screen in Embodiment 4.
  • FIG. 1 It is a recording table which shows the recording example of each information in Embodiment 3. It is a schematic diagram which shows the operation screen in Embodiment 1.
  • FIG. It is a schematic diagram which shows an example of the surface shape measuring apparatus in Embodiment 4.
  • the X direction, the Y direction, and the Z direction described in the present application intersect each other and are orthogonal to each other.
  • the Z direction may be described as the vertical direction, the height direction, or the thickness direction of a certain structure.
  • Embodiment 1 The analysis system according to the first embodiment will be described below. First, the charged particle beam apparatus 1 constituting a part of the analysis system will be described with reference to FIG. In FIG. 1, for example, a scanning electron microscope (SEM) is exemplified as the charged particle beam device 1.
  • SEM scanning electron microscope
  • the charged particle beam device 1 shown in FIG. 1 analyzes the sample SAM by irradiating the sample SAM arranged in the sample chamber 7 with the electron beam EB1 from the electron gun 3 provided inside the lens barrel 2. It is a device for observing and measuring).
  • the charged particle beam device 1 includes a sample chamber 7 and a lens barrel 2 attached to the sample chamber 7 and constituting an electron beam column.
  • the lens barrel 2 has an electron gun 3 capable of irradiating the electron beam EB1, a condenser lens 4 for focusing the electron beam EB1, a deflection coil 5 for scanning the electron beam EB1, and an electron beam EB1 for focusing. It includes an objective lens 6 and the like.
  • a sample table (holder) 8 for mounting the sample SAM, a stage 9 for installing the sample table 8, a stage control device 10, a detector 11, and the like are provided inside the sample chamber 7.
  • the sample chamber 7 is provided with an introduction / outlet.
  • the sample table 8 on which the sample SAM is mounted is conveyed to the inside of the sample chamber 7 via the introduction / extraction port and installed in the stage 9. Further, when taking out the sample SAM, the sample table 8 on which the sample SAM is mounted is conveyed to the outside of the sample chamber 7 via the introduction / extraction port.
  • the stage control device 10 is connected to the stage 9 and can displace the position and orientation of the stage 9.
  • the displacement of the stage 9 displaces the position and orientation of the sample SAM.
  • the stage control device 10 includes an XY-axis drive mechanism that can be driven in a direction parallel to the mounting surface of the charged particle beam device 1, a Z-axis drive mechanism that can be driven in a direction perpendicular to the above-mentioned mounting surface, and rotation. It has an R-axis drive mechanism that can be driven in a direction and a T-axis drive mechanism that can be driven in a direction inclined with respect to the XY plane.
  • Each of these drive mechanisms is a mechanism used for analyzing any part of the sample SAM and the sample table 8 installed on the stage 9. As a result, the portion of the sample SAM to be analyzed is moved to the center of the imaging field of view and tilted in an arbitrary direction.
  • the detector 11 can detect the secondary electron EM2 emitted from the sample SAM when the sample SAM is irradiated with the electron beam EB1 at the time of analysis of the sample SAM.
  • the detector 11 may be provided inside the sample chamber 7 or inside the lens barrel 2.
  • the charged particle beam device 1 includes a comprehensive control unit C0, and includes a display device 20 and an operation device 21 electrically connected to the comprehensive control unit C0 inside or outside the charged particle beam device 1.
  • the display device 20 is, for example, a display
  • the operation device 21 is, for example, a mouse and a keyboard.
  • various types of information are input to the general control unit C0 or output from the general control unit C0.
  • the comprehensive control unit C0 has a scanning signal control unit C1, a stage control unit C2, and a calculation unit C3, and controls them. Therefore, in the present application, it may be described that the control performed by the scanning signal control unit C1, the stage control unit C2, and the calculation unit C3 is performed by the comprehensive control unit C0. Further, the comprehensive control unit C0 having the scanning signal control unit C1, the stage control unit C2, and the calculation unit C3 may be regarded as one control unit, and the comprehensive control unit C0 may be simply referred to as a “control unit”.
  • the scanning signal control unit C1 is electrically connected to the electron gun 3, the condenser lens 4, the deflection coil 5, and the objective lens 6 to control their operations.
  • the electron gun 3 receives a control signal from the scanning signal control unit C1 to generate an electron beam EB1, and the electron beam EB1 is irradiated toward the sample SAM.
  • Each of the condenser lens 4, the deflection coil 5, and the objective lens 6 receives a control signal from the scanning signal control unit C1 and excites a magnetic field.
  • the magnetic field of the condenser lens 4 causes the electron beam EB1 to be focused so as to have an appropriate beam diameter.
  • the electron beam EB1 is deflected by the magnetic field of the deflection coil 5 and scanned two-dimensionally on the sample SAM.
  • the magnetic field of the objective lens 6 causes the electron beam EB1 to be refocused on the sample SAM.
  • the electron beam EB1 can be focused on the sample SAM.
  • the stage control unit C2 is electrically connected to the stage control device 10 and has a function of controlling the operation of each drive mechanism of the stage control device 10 and always linking the field of view and the coordinates of the stage 9.
  • the calculation unit C3 includes an image acquisition unit C4, an image combination unit C5, an instruction input unit C6, a storage unit C7, and a pattern shape analysis unit C8.
  • the image acquisition unit C4 is electrically connected to the detector 11 and controls this operation. Further, the image acquisition unit C4 can process the secondary electron EM2 detected by the detector 11 as a signal and convert this signal into a captured image (image data). The captured image is output to the display device 20, and the user can confirm the captured image on the display device 20.
  • the image combining unit C5 can connect the above-mentioned captured images acquired by the image acquisition unit C4 to create, for example, a wide area image as shown in FIG. 6 described later.
  • the wide area image is output to the display device 20, and the user can confirm the wide area image on the display device 20.
  • the instruction input unit C6 receives the information input by the user on the display device 20 using the operation device 21.
  • the storage unit C7 can store information such as the coordinates of the stage 9 and the acquired captured image (image data). In addition, each information is associated with each other.
  • the pattern shape analysis unit C8 has a function of analyzing a plurality of pattern shapes included in the sample SAM.
  • the calculation unit C3 uses the information received by the instruction input unit C6 and the information stored in the storage unit C7 to relate to stage coordinates, pattern shape analysis, depth information of the multi-layer structure, and the like, which will be described later. The calculation can be performed.
  • FIG. 2Ba is a split cross-sectional view of the sample SAM cut along the line AA of FIG. 2Aa on the observation surface 30.
  • FIG. 2Bb is a split cross-sectional view of the sample SAM cut along the line BB of FIG. 2Ab on the observation surface 30.
  • the sample SAM in the first embodiment is, for example, a slice obtained from a part of a wafer on which various semiconductor devices are formed. Therefore, the sample SAM includes a semiconductor substrate, a semiconductor element such as a transistor formed on the semiconductor substrate, a highly integrated large-scale integrated circuit (LSI) device composed of a plurality of transistors, and a plurality of gate electrodes. It includes a multi-layer wiring layer including, and an interlayer insulating film formed between them.
  • LSI large-scale integrated circuit
  • the sample SAM has an upper surface TS and a lower surface BS on the opposite side of the upper surface TS.
  • a part of the sample SAM is polished by a polishing device such as an ion milling device, a FIB or a dimple grinder.
  • 2Aa and 2Ba show diagrams of samples polished by an ion milling device or FIB.
  • 2Ab and 2Bb show a diagram of a sample SAM polished by an ion milling device or a dimple grinder.
  • an observation surface (polished surface) 30 forming an inclined surface is formed on a part of the upper surface TS of the sample SAM by this polishing treatment.
  • FIGS. 2Aa and 2Ab also show an enlarged view of a part of the sample SAM including the observation surface 30.
  • the sample SAM contains a plurality of patterns 32.
  • Each of the plurality of patterns 32 is, for example, a semiconductor device having a columnar structure extending in the Z direction.
  • each of the plurality of patterns 32 is, for example, a structure such as an LSI wiring or a transistor having a multilayer structure.
  • a plurality of conductor layers such as the multilayer wiring layer are shown as a multilayer structure 31. That is, the sample SAM includes a plurality of conductor layers laminated in the first direction (Z direction), which is the direction from the upper surface TS of the sample SAM toward the lower surface BS of the sample SAM, as the multilayer structure 31. Further, although not shown in detail here, the multilayer structure 31 is formed around a plurality of patterns 32.
  • the observation surface 30 is inclined from the upper surface TS of the sample SAM toward the lower surface BS of the sample SAM. More specifically, in cross-sectional view, the observation surface 30 forms an inclined surface that is continuously inclined from the upper surface TS toward the lower surface BS.
  • the polishing process by the polishing device is performed so that all the layers of the multilayer structure 31 are polished, and the bottom portion of the observation surface 30 is located deeper than the bottom layer of the multilayer structure 31. Therefore, all the layers of the multilayer structure 31 are exposed on the observation surface 30 and the fractured surface.
  • the analysis system includes, as a method for measuring the sample SAM, a step performed in the polishing apparatus, a step performed in the sample preparation apparatus, and a step performed in the charged particle beam apparatus 1. Therefore, not only the charged particle beam device 1, but also their polishing device and sample preparation device form a part of the analysis system.
  • step S1 the sample SAM is prepared.
  • a sample SAM is prepared by cutting out a part of the wafer using a sample preparation device such as a diamond cutter.
  • the cut out sample SAM is transferred from the sample preparation device to the polishing device.
  • the polishing device is, for example, an ion milling device, a FIB, a dimple grinder, or the like.
  • the observation surface 30 is formed on a part of the upper surface TS by polishing the upper surface TS of the sample SAM using a polishing device.
  • the polished sample SAM is transferred from the polishing device to the sample preparation device.
  • the sample preparation device is, for example, a FIB or an ion milling device.
  • the sample SAM shown in FIG. 2Ba or FIG. 2Bb is produced by cutting the sample SAM on the observation surface 30 by the sample preparation device. Then, the cut sample SAM is mounted on the sample table 8.
  • step S2 the sample SAM is installed.
  • the sample table 8 on which the sample SAM is mounted is transported from the sample preparation device to the charged particle beam device 1.
  • the sample table 8 on which the sample SAM is mounted is installed on the stage 9 so that the upper surface TS of the sample SAM faces the electron gun 3.
  • the upper surface TS including the observation surface 30 is arranged perpendicular to the Z direction.
  • step S3 the application is started.
  • the application is started by the user performing an operation on the display device 20 using the operation device 21.
  • the operation screen 40a is displayed on the display device 20 as shown in FIG.
  • the operation screen 40a is mainly used for the user to input an instruction to the comprehensive control unit C0 and for the user to obtain each information from the comprehensive control unit C0.
  • the user can switch between the display unit 41 for wide area image shooting, the display unit 42 for depth information acquisition, and the display unit 70 for pattern analysis.
  • the display unit 41 for wide area image shooting includes a shot image display unit 43, a condition display unit 44, a capture button B1, a reference button B2, a button B3 for adding a position designation tool, and a button for starting wide area image creation. B4 is provided.
  • the capture button B1 is used when irradiating the sample SAM with the electron beam EB1 and acquiring a captured image.
  • the reference button B2 is used when outputting a captured image captured in the past to the captured image display unit 43.
  • the button B3 for adding the position designation tool is used when adding the observation range 45 described later.
  • the button B4 for starting wide area image creation is used when continuous shooting is performed in order to create a wide area image in step S6 described later.
  • the condition display unit 44 displays shooting conditions such as start point coordinates, end point coordinates, magnification, and number of shots. Further, the condition display unit 44 is provided with a button B5 for determining the shooting conditions and a button B6 for setting further details of the shooting conditions.
  • step S4 alignment and acquisition of the whole image which is a photographed image seen from the first direction (Z direction) are performed.
  • the user performs alignment including focusing of the electron beam EB1 on the sample SAM and changing the magnification.
  • the capture button B1 the sample SAM is irradiated with the electron beam EB1 from the first direction (Z direction), and the entire image including the observation surface 30 is acquired.
  • the acquired overall image seen from the first direction (Z direction) is output from the comprehensive control unit C0 to the captured image display unit 43.
  • the user can grasp the outline of the sample SAM.
  • step S5 shooting conditions are set.
  • the user drags the mouse, which is, for example, the operating device 21 on the captured image display unit 43, so that the observation range 45 is designated for the entire image including the observation surface 30.
  • the comprehensive control unit C0 converts the designated observation range 45 into the position coordinates of the sample SAM, and outputs the start point coordinates and the end point coordinates to the condition display unit 44.
  • the user can additionally specify the observation range 45 by clicking the button B3 for adding the position specification tool.
  • another observation range 45 that is offset in the Y direction with respect to the initially selected observation range 45 can be added.
  • the comprehensive control unit C0 accepts the input imaging conditions and starts continuous imaging for creating a plurality of imaging images of the sample SAM viewed from the first direction (Z direction).
  • step S6 when the user clicks the B4 button, a wide area image which is a photographed image of the sample SAM viewed from the first direction (Z direction) is acquired.
  • the electron beam EB1 is irradiated to the upper surface TS (observation surface 30) of the sample SAM installed on the stage 9.
  • the secondary electrons EB2 emitted from the sample SAM are detected as a signal.
  • the image acquisition unit C4 of the comprehensive control unit C0 acquires a captured image viewed from the first direction (Z direction) based on the detected signal. By performing these operations in order for the observation target within the observation range 45, a plurality of captured images are acquired.
  • a plurality of captured images acquired in step S5 are joined by the image coupling unit C5 of the comprehensive control unit C0 to create a wide area image viewed from the first direction (Z direction). Will be done.
  • the created wide area image is output to the captured image display unit 43.
  • the comprehensive control unit C0 acquires a plurality of captured images and wide area images based on the above signals detected by the detector 11.
  • the comprehensive control unit C0 can associate the coordinates of the captured image with the coordinates of the stage 9. Therefore, the user can confirm the coordinate information of the target observation position and the like. These coordinates are stored in the storage unit C7 of the comprehensive control unit C0.
  • step S6 it is premised that a wide area image is created, but depending on the sample, it is not necessary to create a wide area image, and there are cases where only one or several places need to be photographed. In this case, only the start point coordinates are displayed on the condition display unit 44, and the end point coordinates are not displayed.
  • the following description of wide area image creation includes the case of shooting at one or several places.
  • step S7 the reference coordinates are specified.
  • the user clicks on the first portion of the multilayer structure 31 exposed on the observation surface 30.
  • the first place is, for example, the first layer of the multilayer structure 31.
  • the comprehensive control unit C0 designates the first location as the reference coordinates (x1, y1) 46a viewed from the first direction (Z direction) in the wide area image.
  • the designated reference coordinates (x1, y1) 46a are stored in the storage unit C7.
  • the first layer of the multilayer structure 31 in the present application is the layer closest to the upper surface TS of the sample SAM, and corresponds to the uppermost layer of the multilayer structure 31. In the following description, the same applies to the case of expressing "the first layer of the multilayer structure 31".
  • the sample can clearly confirm the multi-layer structure, it is easy to specify a layer suitable as a starting point as the reference coordinate, for example, the first layer of the multi-layer structure.
  • a layer suitable as a starting point for example, the first layer of the multi-layer structure.
  • the multilayer structure cannot be clearly confirmed.
  • the position of a specific pattern or the position of a structure having another shape can be specified as the reference coordinates (x1, y1) 46a.
  • step S8 the sample SAM is tilted.
  • a control signal is transmitted from the stage control unit C2 of the general control unit C0 to the stage control device 10, and the T-axis drive mechanism of the stage control device 10 is driven. That is, the stage control device 10 is controlled so that the fractured surface of the sample SAM faces the electron gun 3 in the second direction intersecting the first direction, and the stage 9 in which the sample SAM is installed is tilted.
  • the user can observe the fractured surface of the sample SAM from the second direction (Y direction).
  • the stage 9 is tilted 90 degrees
  • the first direction (Z direction) is orthogonal to the second direction (Y direction).
  • first direction is described as the Z direction and the second direction is described as the Y direction here, the first direction and the second direction are not limited to the Z direction and the Y direction, and may be directions that intersect each other. Just do it.
  • the drive range of the T-axis drive mechanism of the stage control device 10 may be less than 90 degrees.
  • the user takes out the sample table 8 on which the sample SAM is mounted from the sample chamber 7, removes the sample SAM from the sample table 8, and in a state where the sample SAM is tilted 90 degrees, the sample SAM is returned to the sample table 8 again.
  • the sample table 8 on which the sample SAM is mounted is returned to the sample chamber 7.
  • step S9 alignment and acquisition of a cross-sectional image which is a photographed image of the sample SAM viewed from the second direction (Y direction) are performed by the same method as in step S4.
  • the acquired cross-sectional image is output from the comprehensive control unit C0 to the captured image display unit 43.
  • step S10 the reference coordinates are linked.
  • the user switches from the display unit 41 for wide area image shooting to the display unit 42 for acquiring depth information on the operation screen 40a.
  • the display unit 42 for acquiring depth information includes a captured image display unit 43, a capture button B1, a reference button B2, and a reference button B2, similarly to the display unit 41 for wide area image capture.
  • a button B3 for adding a position designation tool is provided.
  • the display unit 42 for acquiring depth information is provided with a movement condition display unit 47 and a layer information display unit 48.
  • the movement condition display unit 47 is provided with a button B7 for moving to the reference position, a button B8 for linking with the first direction, and a button B9 for moving to the X coordinate. Further, the layer information display unit 48 can display layer information such as the number of layers, the thickness of one layer, and the depth at which the first layer starts.
  • the photographed image display unit 43 displays a cross-sectional image of the sample SAM seen from the second direction (Y direction) acquired in step S9.
  • the stage control unit C2 of the comprehensive control unit C0 moves the stage control device 10 so that the stage 9 is located at the X coordinate x1 of the reference coordinates (x1, y1) 46a.
  • the X-coordinate position 49 of the stage 9 after movement is displayed on the captured image display unit 43.
  • the Z coordinate z1 as a reference in the second direction (Y direction) is obtained. It is specified. That is, the user performs a click operation on the second portion of the multilayer structure 31 exposed on the observation surface 30 in the cross-sectional image and corresponding to the coordinate x1 of the reference coordinates (x1, y1) 46a.
  • the reference Z coordinate z1 is specified in the second direction (Y direction).
  • the comprehensive control unit C0 designates the second location as the reference coordinates (x1, z1) 46b in the cross-sectional image, and the reference coordinates (x1, y1) 46a and The reference coordinates (x1, z1) 46b are associated with each other.
  • the correspondence between the reference coordinates (x1, z1) 46b, the reference coordinates (x1, y1) 46a, and the reference coordinates (x1, z1) 46b is stored in the storage unit C7.
  • step S11 the observation coordinates (x2, y2) 46c are specified and the stage 9 is moved.
  • the comprehensive control unit C0 displays a wide-area image (FIG. 6) as seen from the first direction (Z direction) acquired in step S6. It is displayed on the unit 43.
  • the third place is a place different from the above-mentioned first place, for example, a layer different from the first layer of the multilayer structure 31.
  • the comprehensive control unit C0 designates the third location as the observation coordinates (x2, y2) 46c viewed from the first direction (Z direction) in the wide area image.
  • the comprehensive control unit C0 causes the movement condition display unit 47 to display the X coordinate x2 of the designated observation coordinates (x2, y2) 46c.
  • the stage control unit C2 of the comprehensive control unit C0 controls the stage so that the stage 9 is located at the X coordinate x2 of the observation coordinates (x2, y2) 46c. Move the device 10.
  • FIG. 9 shows the operation screen 40a after the stage 9 has moved in FIG. As shown in FIG. 9, the X-coordinate position 49 of the moved stage 9 is displayed on the captured image display unit 43.
  • the Z coordinate z2 is specified by the user performing a click operation on the multilayer structure 31 at the position overlapping the X coordinate position 49 on the captured image display unit 43. That is, the user performs a click operation on the fourth portion of the multilayer structure 31 exposed on the observation surface 30 in the cross-sectional image and corresponding to the coordinates x2 of the observation coordinates (x2, y2) 46c.
  • the Z coordinate z2 is specified.
  • the comprehensive control unit C0 designates the above-mentioned fourth point as the observation coordinates (x2, z2) 46d in the cross-sectional image.
  • the correspondence between the observation coordinates (x2, y2) 46c, the observation coordinates (x2, y2) 46c, and the observation coordinates (x2, z2) 46d is stored in the storage unit C7.
  • the comprehensive control unit C0 moves the stage 9 toward the designated observation coordinates (x2, z2) 46d.
  • Alignment is performed in step S12.
  • the user focuses the electron beam EB1 on the sample SAM, changes the magnification, and the like in order to perform detailed observation of the target observation coordinates (x2, z2) 46d.
  • step S13 the captured image viewed from the second direction (Y direction) is acquired.
  • step S12 when the user clicks the capture button B1, shooting is performed and a captured image viewed from the second direction (Y direction) is acquired.
  • the acquired photographed image is stored in the storage unit C7.
  • steps S12 and S13 are not essential from the viewpoint of acquiring the depth information of the multilayer structure 31, and may be omitted.
  • step S14 the depth information of the multilayer structure 31 is acquired.
  • the calculation unit C3 of the comprehensive control unit C0 has the depth (Z direction) of the observation coordinates (x2, z2) 46d from the reference coordinates (x1, z1) 46b. Distance in) is calculated.
  • the user displays the information of the sample SAM including the number of layers of the multilayer structure 31, the thickness of one layer of the multilayer structure 31 or the thickness of each layer, the depth at which the first layer of the multilayer structure 31 starts, and the like.
  • Input to the unit 48 is the information of the sample SAM including the number of layers of the multilayer structure 31, the thickness of one layer of the multilayer structure 31 or the thickness of each layer, the depth at which the first layer of the multilayer structure 31 starts, and the like.
  • the calculation unit C3 of the comprehensive control unit C0 can be referred to.
  • the number of layers of the observed coordinates (x2, z2) 46d from the coordinates (x1, z1) 46b is calculated.
  • the calculation unit C3 of the comprehensive control unit C0 is the observation coordinates (x2, z2) from the upper surface TS of the sample SAM. Calculate the depth and number of layers of 46d. That is, it is calculated which layer of the multilayer structure 31 the observation coordinates (x2, z2) 46d are located.
  • the depth information of the multilayer structure 31 is acquired using the wide area image and the cross-sectional image. That is, the depth information of the multilayer structure 31 includes the depth and the number of layers of the observation coordinates (x2, z2) 46d from the reference coordinates (x1, z1) 46b and the observation coordinates (x2, z2) from the upper surface TS of the sample SAM. ) 46d depth and number of layers. Further, these pieces of information are stored in the storage unit C7.
  • step S15 it is determined whether or not to observe other observation coordinates.
  • step S16 When no observation of other observation coordinates is performed (NO), the next step is step S16.
  • steps S11 to S14 are repeated.
  • the comprehensive control unit C0 can give depth information at all of the target observation coordinates on the order of nanometers.
  • the coordinates and the depth information of the multilayer structure 31 acquired in steps S1 to S15 are recorded as a recording table as shown in FIG. 10 and stored in the storage unit C7.
  • the wide area image seen from the first direction (Z direction) and the cross-sectional image seen from the second direction (Y direction) are used, and the respective coordinates are used.
  • the depth information of the multilayer structure 31 can be acquired. Then, the user can directly obtain the depth information of the multilayer structure 31 on the order of nanometers.
  • the machined area is There are problems such as narrowness, time-consuming evaluation, and difficulty in reacquiring data, and the means for predicting the inclination angle of the polished surface has problems such as low accuracy of depth information.
  • the analysis system in the first embodiment can be performed in a wider area and in a shorter time than the means using the FIB, and the data can be easily reacquired. Further, the analysis system in the first embodiment can obtain more accurate depth information than the means for predicting the inclination angle of the polished surface. That is, in the analysis system according to the first embodiment, the depth information of the multilayer structure 31 can be acquired quickly and with high accuracy.
  • step S16 a plurality of patterns 32 included in the sample SAM are analyzed.
  • the user switches from the display unit 42 for acquiring depth information to the display unit 70 for pattern analysis on the operation screen 40a.
  • the display unit 70 for pattern analysis is provided with a captured image display unit 43, an image reading setting unit 71, a button B19 for pattern detection, and a button B20 for pattern analysis. Further, the image reading setting unit 71 is provided with a reading button B17 and a reference button B18.
  • the user inputs the number of layers or the depth of the sample SAM and clicks the reading button B17, so that the comprehensive control unit C0 controls the depth of the multilayer structure 31 acquired in step S14.
  • the comprehensive control unit C0 controls the depth of the multilayer structure 31 acquired in step S14.
  • an image is taken at the observation coordinates (x3, y3, z3) 46e, which is the input position, and the photographed image is displayed on the image display unit 43.
  • the user can also click the reference button B18 to select a photographed image acquired in the past.
  • the comprehensive control unit C0 detects a plurality of patterns 32 using image recognition technology, assigns numbers to the plurality of patterns 32, and assigns numbers to the plurality of patterns 32. Is displayed on the captured image display unit 43.
  • the pattern shape analysis unit C8 uses the image recognition technique to measure the diameters of the plurality of patterns 32 at the observation coordinates (x3, y3, z3) 46e. Is automatically measured. Then, the pattern shape analysis unit C8 acquires pattern shape information such as a major axis diameter, a minor axis diameter, an average diameter, and roundness for each of the plurality of patterns 32. These pattern shape information is stored in the storage unit C7.
  • observation coordinates (x3, y3, z3) 46e described here indicate the coordinates of the center position of the photographed image being observed. Therefore, the calculated number of layers also indicates the number of layers at the center position of the observed image.
  • the comprehensive control unit C0 can record the acquired pattern shape information as a recording table, and can output the recording table together with the observed photographed image as shown in FIG. Further, such pattern shape information is associated with other information and recorded in the recording table of FIG.
  • the depth information of the multilayer structure 31 can be acquired, but also the pattern shape information of the plurality of patterns 32 included in the sample SAM can be acquired. can.
  • the timing of forming the fractured surface of the sample SAM is different from that in the first embodiment, and the wide area image is acquired from the first direction (Z direction), and the reference coordinates (x1, y1) 46a are obtained. After the designation and designation of the observation coordinates (x2, y2) 46c are made, the fractured surface of the sample SAM is formed.
  • step S21 the observation surface 30 of the sample SAM is formed by the same method as in step S1.
  • the sample SAM is in the state of FIG. 2Aa or FIG. 2Ab, and the fractured surface is not formed. In this state, the sample SAM is mounted on the sample table 8.
  • steps S22 to S27 the same work as in steps S2 to S7 is performed.
  • the comprehensive control unit C0 acquires a wide area image of the sample SAM seen from the first direction (Z direction), and the reference coordinates (x1, y1) 46a are specified in the wide area image.
  • step S28 the observation coordinates (x2, y2) 46c are specified before the reference coordinates (x1, z1) 46b are specified. That is, following the designation of the reference coordinates (x1, y1) 46a shown in FIG. 6, the observation coordinates (x2, y2) 46c shown in FIG. 8 are designated.
  • step S29 the sample SAM is taken out.
  • the sample SAM is taken out from the sample chamber 7, and then the sample SAM is removed from the sample table 8.
  • the sample SAM is then transported to a sample preparation device such as a FIB or ion milling device.
  • step S30 a fractured surface is formed.
  • the sample SAM shown in FIG. 2Ba or FIG. 2Bb is produced.
  • step S31 the sample SAM is mounted on the sample table 8 so that the fractured surface is irradiated on the electron beam EB.
  • the cut sample SAM is mounted on the sample table 8.
  • the sample table 8 is transported to the charged particle beam device 1, and the sample table 8 is installed on the stage 9.
  • the fractured surface of the sample SAM is arranged perpendicular to the Z direction so as to face the electron gun 3.
  • step S32 the application is started by the same method as in step S3 and the like.
  • step S33 alignment and acquisition of a cross-sectional image which is a photographed image of the sample SAM viewed from the second direction (Y direction) are performed by the same method as in step S9.
  • steps S34 to S38 the same work as in steps S10 to S14 is performed. That is, the comprehensive control unit C0 sees the second portion of the multilayer structure 31 corresponding to the coordinate x1 of the reference coordinates (x1, y1) 46a in the cross-sectional image from the second direction (Y direction) as the reference coordinates (x1,). z1) Designated as 46b. Further, the comprehensive control unit C0 views the fourth portion of the multilayer structure 31 corresponding to the coordinate x2 of the observation coordinates (x2, y2) 46c in the cross-sectional image from the second direction (Y direction) at the observation coordinates (x2, y2). z2) Designated as 46d.
  • the calculation unit C3 of the comprehensive control unit C0 calculates the depth and the number of layers of the observation coordinates (x2, z2) 46d from the reference coordinates (x1, z1) 46b, and the observation coordinates from the upper surface TS of the sample SAM ( x2, z2) Calculate the depth of 46d and the number of layers.
  • step S39 as in step S15, steps S34 to S38 are repeated until the observation of all the observation coordinates is completed.
  • the depth information of the multilayer structure 31 can be acquired quickly and with high accuracy.
  • the sample SAM when the sample SAM is first cut as in the first embodiment, it is unknown whether or not the split cross section is a surface on which the pattern of the multilayer structure 31 can be clearly observed.
  • the sample SAM since the sample SAM is cut later, it is easy to create a surface on which the pattern of the multilayer structure 31 can be clearly observed.
  • the second embodiment it is necessary to cut the sample SAM according to the position of the reference coordinates (x1, y1) 46a designated before the cut of the sample SAM.
  • the split position may be slightly deviated from the position of the reference coordinates (x1, y1) 46a. From this point of view, the first embodiment is more suitable than the second embodiment.
  • step S40 as in step S16, the analysis of the plurality of patterns 32 is performed, and the pattern shape information of the plurality of patterns 32 is acquired.
  • working distance which is the distance between the objective lens 6 and the focal position due to the focusing of the electron beam EB1 in the first direction (Z direction).
  • WD the depth information of the multilayer structure 31 is acquired based on the WD.
  • step S41 the observation surface 30 of the sample SAM is formed by the same method as in step S1. At this time, the sample SAM is in the state of FIG. 2Aa or FIG. 2Ab, and the fractured surface is not formed.
  • steps S42 to S44 the same work as in steps S2 to S4 is performed.
  • the sample table 8 on which the sample SAM is mounted is installed on the stage 9 so that the upper surface TS of the sample SAM faces the electron gun 3.
  • the application is started.
  • alignment and acquisition of the whole image which is a photographed image seen from the first direction (Z direction) are performed.
  • the operation screen 40b is displayed on the display device 20 as shown in FIG.
  • the operation screen 40b is mainly used for the user to input an instruction to the comprehensive control unit C0 and for the user to obtain each information from the comprehensive control unit C0.
  • the user can switch between the display unit 51 for WD acquisition setting, the display unit 52 for WD profile, the display unit 53 for observation, and the display unit 70 for pattern analysis.
  • the display unit 51 for WD acquisition setting includes a captured image display unit 54, a WD acquisition setting unit 55, a mode selection unit 56, a capture button B1, a reference button B2, a position specification tool addition button B3, and a WD.
  • a button B12 for starting data acquisition is provided.
  • the WD acquisition setting unit 55 displays acquisition conditions such as start point coordinates, end point coordinates, magnification, and WD acquisition count. Further, the WD acquisition setting unit 55 is provided with a button B11 for determining the WD acquisition condition.
  • the mode selection unit 56 displays a check box for selecting a prescan mode or a shooting mode.
  • the electron beam EB1 is irradiated to the upper surface TS of the sample SAM from the first direction (Z direction), and the entire image including the observation surface 30 is acquired.
  • step S45 the WD acquisition setting is performed.
  • the user drags the mouse, which is, for example, the operating device 21 on the captured image display unit 43, so that the observation range 57 is designated for the entire image including the observation surface 30.
  • the comprehensive control unit C0 converts the designated observation range 57 into the position coordinates of the sample SAM, and outputs the start point coordinates and the end point coordinates to the WD acquisition setting unit 55.
  • the comprehensive control unit C0 accepts detailed settings such as the number of WD acquisitions or the WD acquisition interval, calculates the WD acquisition position, and displays the final observation range 57 on the captured image display unit 43.
  • the user can additionally specify the observation range 57 by clicking the button B3 for adding the position specification tool.
  • another observation range 57 that is offset in the Y direction with respect to the initially selected observation range 57 can be added.
  • more accurate depth information of the multilayer structure 31 can be obtained by collating them with each other.
  • the user can select the prescan mode or the shooting mode in the mode selection unit 56.
  • the prescan mode In the prescan mode, the first observation point is automatically focused, the data is saved in the recording unit C7, the stage 9 is moved to the next observation point, and the next observation point is automatically focused. Focusing is done. That is, the prescan mode is a mode in which the WD value is saved by repeating focusing without acquiring a captured image. In this case, the acquisition of the captured image is performed after the WD profile is created.
  • the shooting mode In the shooting mode, focusing and acquisition of the shot image are automatically performed for the first observation point, and the data is saved in the recording unit C7. After that, the stage 9 is moved to the next observation point, and the next observation point is automatically focused and the captured image is acquired. That is, the shooting mode is a mode in which the WD value is saved by acquiring a shot image viewed from the first direction (Z direction) together with focusing.
  • the comprehensive control unit C0 starts acquiring the WD value within the observation range 57 by the prescan mode or the shooting mode.
  • step S46 the stage control unit C2 of the comprehensive control unit C0 moves the stage control device 10 and the stage 9 to the starting point coordinates of the observation range 57.
  • step S47 the scanning signal control unit C1 of the comprehensive control unit C0 irradiates the upper surface TS of the sample SAM with the electron beam EB1 from the first direction (Z direction), and the objective lens 6 is used to irradiate the observation range 57. Focusing is performed at the start point coordinates.
  • step S48 the mode is determined. If the prescan mode is selected, the subsequent steps are step S50, and if the shooting mode is selected, the next step is step S49.
  • step S49 the shooting image is acquired together with the focusing.
  • step S50 the calculation unit C13 of the comprehensive control unit C0 acquires the x-coordinate, the y-coordinate, and the WD information which is the distance between the objective lens 6 and the focal position at the focused portion. ..
  • the acquired information is stored in the storage unit C7.
  • step S51 the stage 9 is moved to the next observation point, and the next observation point is automatically focused. After that, steps S47 to S51 are repeated until information such as WD at all the target observation points is acquired.
  • steps S52 and S53 first, as shown in FIG. 16, the user switches from the display unit 51 for WD acquisition setting to the display unit 52 for WD profile on the operation screen 40b.
  • the display unit 52 for the WD profile is provided with a captured image display unit 54, a layer information display unit 58, and a button B13 for acquiring the WD profile.
  • step S52 the information of the sample SAM is input.
  • the user displays the information of the sample SAM including the number of layers of the multilayer structure 31, the thickness of one layer of the multilayer structure 31 or the thickness of each layer, the depth at which the first layer of the multilayer structure 31 starts, and the like.
  • the calculation unit C3 of the comprehensive control unit C0 associates the information of the sample SAM input by the user with the information of the WD at all the observation points.
  • step S53 a WD profile is created.
  • the user switches from the display unit 52 for the WD profile to the display unit 53 for observation on the operation screen 40b.
  • the observation display unit 53 is provided with a captured image display unit 54, an observation position selection unit 59, an observation condition setting unit 60, a WD profile acquisition button B13, and a capture button B14.
  • the comprehensive control unit C0 creates a WD profile that graphs the distance (WD) between the objective lens 6 and the focal position at a plurality of observation points of the sample SAM. Will be created. Further, the region other than the observation surface 30 is drawn as a flat line in the WD profile. Therefore, the user can determine that the flat line corresponds to the top surface TS of the sample SAM.
  • the calculation unit C3 of the comprehensive control unit C0 is used to input sample SAM information (the number of layers of the multi-layer structure 31, the thickness of one layer of the multi-layer structure 31 or the thickness of each layer, and the multi-layer structure).
  • sample SAM information the number of layers of the multi-layer structure 31, the thickness of one layer of the multi-layer structure 31 or the thickness of each layer, and the multi-layer structure.
  • the depth information of the multilayer structure 31 includes the depth and the number of layers at a predetermined position on the WD profile from the top surface TS of the sample SAM.
  • the observation surface 30 formed by the polishing treatment may not have the target surface shape.
  • the observation surface 30 may have irregularities.
  • the user can quickly determine the success or failure of the shape of the observation surface 30.
  • the user can use another observation range 57 added by using the button B3 for adding the position designation tool.
  • step S54 the mode is determined. If the prescan mode is selected, the next step is step S55, and if the shooting mode is selected, the next step is step S56.
  • a photographed image can be created at a desired location on the sample SAM.
  • the user sets various observation conditions in the observation condition setting unit 60.
  • the user selects "select from WD profile" in the observation position selection unit 59.
  • the user specifies a predetermined position in the WD profile.
  • the user clicks the capture button B14 the electron beam EB1 is irradiated from the first direction (Z direction) to the portion of the sample SAM corresponding to the specified predetermined position. Then, the captured image of the sample SAM seen from the first direction (Z direction) is acquired.
  • the shooting here is continuous shooting, and a plurality of shot images can be acquired by continuously shooting the observation range 57, and a wide area image can be obtained by joining the plurality of shot images. can.
  • the user selects "the number of layers from the surface” or “the depth from the surface” in the observation position selection unit 59, and the user inputs to the locations input to them. It is also possible to acquire a photographed image.
  • step S49 or step S55 when observing or photographing from the first direction (Z direction), it is assumed that a foreign substance is present on the upper surface TS of the sample SAM and the pattern of the multilayer structure 31 cannot be accurately detected. To.
  • the x-coordinate of the foreign matter portion is held, moved to another y-coordinate position, and the x-coordinate is displaced by several points at a position considered to be the same depth.
  • the coordinates and the depth information of the multilayer structure 31 acquired in steps S41 to S55 are recorded as a recording table as shown in FIG. 18 and stored in the storage unit C7.
  • the comprehensive control unit C0 can acquire the depth and the number of layers of the predetermined position from the upper surface TS of the sample SAM by performing the calculation based on the predetermined position on the WD profile.
  • the three-dimensional information of the sample SAM can be acquired on the order of nanometers, and the depth information of the multilayer structure 31 can be acquired quickly and with high accuracy. be able to.
  • step S56 a plurality of patterns 32 are analyzed in the same manner as in step S16.
  • the user switches from the observation display unit 53 to the pattern analysis display unit 70 on the operation screen 40b.
  • the operation performed by the display unit 70 for pattern analysis is the same as the method described in step S16.
  • the user inputs the number of layers or the depth of the sample SAM and clicks the reading button B17, so that the comprehensive control unit C0 controls the depth of the multilayer structure 31 acquired in step S53.
  • the comprehensive control unit C0 controls the depth of the multilayer structure 31 acquired in step S53.
  • an image is taken at the observation coordinates (x3, y3, z3) 46e, which is the input position, and the photographed image is displayed on the image display unit 43.
  • the user can also click the reference button B18 to select a photographed image acquired in the past.
  • the pattern shape information of the plurality of patterns 32 can be acquired by the same method as in step S16 in the first embodiment.
  • the three-dimensional information data of the sample SAM acquired by another method different from the third embodiment is collated with the WD profile, and the WD profile is corrected.
  • the above-mentioned other method is a method performed in a device different from the charged particle beam device 1, for example, a method performed in the surface shape measuring device 101. This makes it possible to acquire the three-dimensional information of the sample SAM with higher accuracy.
  • the surface shape measuring device 101 shown in FIG. 20 is, for example, a white interference microscope, and can acquire three-dimensional information (for example, position coordinates x, y, z) of the upper surface TS of the sample SAM.
  • the surface shape measuring device 101 includes a lens barrel 102, a stage 109, a stage control device 110, and a comprehensive control unit C10.
  • the comprehensive control unit C10 is electrically connected to the display device 20 and the operation device 21 provided inside or outside the surface shape measuring device 101.
  • a white light source 103 Inside the lens barrel 102, a white light source 103, a first beam splitter 104, a second beam splitter 105, an objective lens 106, a reference surface 107, and a camera 108 are provided.
  • the stage 109 and the stage control device 110 are provided outside the lens barrel 2 and are stationary in the atmosphere.
  • the stage 109 can mount the sample SAM.
  • the stage control device 110 is connected to the stage 109 and can displace the position and orientation of the stage 109.
  • the displacement of the stage 109 displaces the position and orientation of the sample SAM.
  • the stage control device 110 has substantially the same mechanism as the stage control device 10 of the charged particle beam device 1.
  • the white light source 103 emits white light WL1.
  • the first beam splitter 104 and the second beam splitter 105 divide the emitted white light WL1 into two, irradiate the reference surface 107 with one, and irradiate the surface of the sample SAM with the other.
  • the reflected light WL2 reflected from both the reference surface 107 and the sample SAM is imaged on the measuring camera 108.
  • the objective lens 106 focuses the white light WL1 so as to focus on the sample SAM installed on the stage 109.
  • the comprehensive control unit C10 has an optical system control unit C11, a stage control unit C12, and a calculation unit C13, and controls these. Therefore, in the present application, it may be described that the control performed by the scanning signal control unit C11, the stage control unit C12, and the calculation unit C13 is performed by the comprehensive control unit C10. Further, the comprehensive control unit C10 having the scanning signal control unit C11, the stage control unit C12, and the calculation unit C13 may be regarded as one control unit, and the comprehensive control unit C10 may be simply referred to as a “control unit”.
  • the optical system control unit C11 is electrically connected to the white light source 103, the first beam splitter 104, the second beam splitter 105, the objective lens 106, and the reference surface 107, and controls their operations.
  • the stage control unit C12 is electrically connected to the stage control device 110 and controls the operation of each drive mechanism of the stage control device 110.
  • the calculation unit C13 includes a surface information acquisition unit C14, an instruction input unit C15, and a storage unit C16.
  • the surface information acquisition unit C14 is electrically connected to the camera 108 and converts the reflected light WL2 detected by the camera 108 into three-dimensional information data as a signal. That is, the three-dimensional information data is data created based on the reflected light WL2 reflected by the sample SAM when the sample SAM is irradiated with the white light WL1. The three-dimensional information data is output to the display device 20, and the user can confirm the three-dimensional information data on the display device 20.
  • the instruction input unit C15 receives the information input by the user on the display device 20 using the operation device 21.
  • the storage unit C16 can store information such as the coordinates of the stage 9 and the acquired three-dimensional information data of the sample SAM. In addition, each information is associated with each other.
  • step S61 the observation surface 30 of the sample SAM is formed by the same method as in step S41.
  • step S62 the surface shape of the sample SAM is measured.
  • the user installs the sample SAM on the stage 109 of the surface shape measuring device 101 and turns on the power of the surface shape measuring device 101.
  • the comprehensive control unit C10 receives a surface shape measurement instruction from the user and starts measuring the surface shape of the sample SAM.
  • the surface shape of the measured sample SAM is stored in the storage unit C16 as three-dimensional information data. Thereby, it is possible to judge the performance of the sample SAM before inserting the sample SAM into the charged particle beam apparatus 1.
  • the surface shape measuring device 101 is electrically connected to the charged particle beam device 1 via a network or the like. Therefore, the acquired 3D information data can be linked to the WD and WD profiles acquired in the charged particle beam apparatus 1.
  • steps S63 to S72 the same work as in steps S42 to S51 is performed.
  • the sample SAM is conveyed from the surface shape measuring device 101 to the charged particle beam device 1, and the WD information is acquired by the integrated control unit C0 via the application.
  • step S73 the charged particle beam device 1 reads data (three-dimensional information data) of another method, and in step S74, fitting conditions are set.
  • the accuracy selection unit 61 is provided on the display unit 52 for the WD profile of the operation screen 40b.
  • the accuracy selection unit 61 is provided with a check box that allows selection of fitting with another method as a method of selecting the accuracy for acquiring the depth information of the multilayer structure 31. Further, the accuracy selection unit 61 is also provided with a button B15 for reading data of another method and a button B16 for starting fitting.
  • the user selects fitting with another method (selects "Yes"), and the comprehensive control unit C0 accepts the selection.
  • the comprehensive control unit C0 reads the data (three-dimensional information data) of the other method.
  • step S75 the 3D information data and the WD information are fitted.
  • the comprehensive control unit C0 fits the read three-dimensional information data and the WD information. Examples of the fitting method include curve fitting and three-point alignment.
  • the WD at the plurality of observation points of the sample SAM is collated with the three-dimensional information data acquired by the surface shape measuring device 101. Then, as a result of the collation, the WD is corrected.
  • the surface shape measuring device 101 since the resolution of the surface shape measuring device 101 (white interference microscope) is on the order of angstrom ( ⁇ ), the surface shape measuring device 101 has sufficient analysis accuracy for the nano-order multilayer structure 31. ing. Further, while the WD at a plurality of observation points of the sample SAM is a combination of fragmentary information, the three-dimensional information data by the surface shape measuring device 101 is continuous information. Therefore, by correcting the WD so as to match the more accurate three-dimensional information data, a more accurate WD profile can be obtained.
  • steps S76 to S80 the same work as in steps S52 to S56 is performed. That is, the information of the sample SAM is input, the WD profile is created, and the captured image in the prescan mode is acquired.
  • the WD profile in the fourth embodiment is created by graphing the corrected WD.
  • the depth information of the multilayer structure 31 can be acquired with higher accuracy than in the third embodiment.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Electromagnetism (AREA)
  • Immunology (AREA)
  • Power Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Iron Core Of Rotating Electric Machines (AREA)
  • Acyclic And Carbocyclic Compounds In Medicinal Compositions (AREA)
  • Steroid Compounds (AREA)

Abstract

多層構造の深さ情報を、迅速、且つ、高精度に取得する。解析システムは、(a)多層構造を含む試料SAMに対して第1方向から電子線EB1を照射することで、第1方向から見た試料SAMの第1撮影像を取得するステップ、(b)試料SAMに対して第1方向と交差する第2方向から電子線EB1を照射することで、第2方向から見た試料SAMの第2撮影像を取得するステップ、(c)第1撮影像と、第2撮影像と、多層構造の層数、多層構造の1層の厚さまたは各層の厚さ、および、多層構造の1層目が始まる深さを含む試料SAMの情報とを用いて、多層構造の深さ情報を取得するステップ、を備える。

Description

解析システム
 本発明は、解析システムに関し、特に、試料に含まれる多層構造の深さ情報を取得できる解析システムに関する。
 近年、半導体デバイスの微細化が進んでいる。特に、立体構造を有する半導体デバイスでは、積層技術と組み合わせることで、高密度化および大容量化が飛躍的に進んでいる。半導体デバイスの製造工程において、多層構造化したパターンの寸法を管理するためには、各層におけるパターンの出来栄えを評価する必要がある。そして、半導体デバイスの品質を向上させるためには、垂直、且つ、均一なパターンの形成が不可欠であり、迅速、且つ、高精度なパターンの形状の評価が求められている。
 現状の評価手法として、集積イオンビーム(Focused Ion Beam:FIB)によって試料を少しずつ削りながら、試料の観察を行うことで、パターンの深さ情報を得る手法、または、機械研磨によって作成した試料を荷電粒子線装置にて観察し、研磨面の傾斜角を予測することで、パターンの深さ情報を得る手法などがある。
 例えば、特許文献1には、FIBを用いて、試料をテーパー形状に加工し、電子顕微鏡を用いて、形成された斜面の表面観察像を取得し、下り斜面の開始位置と、電子線の走査距離と、傾斜角とに基づいてパターンの深さを演算する技術が開示されている。
国際公開第2016/002341号
 FIBを用いた手段では、高精度なパターンの評価が可能であるが、加工領域が狭い、評価に時間が掛かる、および、データの再取得が困難であるなどの課題がある。また、研磨面の傾斜角を予測する手段では、迅速な評価が可能であるが、パターンの深さ情報を予測でしか算出できないので、パターンの評価値の精度が低いなどの課題がある。
 すなわち、FIBを用いることなく、多層構造の深さ情報を、迅速、且つ、高精度に取得できる技術が求められる。
 その他の課題および新規な特徴は、本明細書の記述および添付図面から明らかになる。
 本願において開示される実施の形態のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。
 一実施の形態における解析システムは、(a)多層構造を含む試料に対して第1方向から電子線を照射することで、前記第1方向から見た前記試料の第1撮影像を取得するステップ、(b)前記試料に対して前記第1方向と交差する第2方向から前記電子線を照射することで、前記第2方向から見た前記試料の第2撮影像を取得するステップ、(c)前記第1撮影像と、前記第2撮影像と、前記多層構造の層数、前記多層構造の1層の厚さまたは各層の厚さ、および、前記多層構造の1層目が始まる深さを含む前記試料の情報とを用いて、前記多層構造の深さ情報を取得するステップ、を備える。
 また、一実施の形態における解析システムは、(a)多層構造を含む試料に対して第1方向から電子線を照射することで、前記第1方向から見た前記試料の第1撮影像を取得するステップ、(b)前記第1撮影像において、観察範囲を指定するステップ、(c)指定された前記観察範囲内において、前記試料のうち複数の箇所に対して、対物レンズを用いて前記第1方向における前記電子線の焦点合わせを行うステップ、(d)前記ステップ(c)の前記焦点合わせの結果を基にして、前記試料の前記複数の箇所における前記対物レンズと焦点位置との間の距離を取得し、それらの距離をグラフ化したWDプロファイルを作成するステップ、(e)前記多層構造の層数、前記多層構造の1層の厚さまたは各層の厚さ、および、前記多層構造の1層目が始まる深さを含む前記試料の情報と、前記WDプロファイルとを照合することで、前記多層構造の深さ情報を取得するステップ、を備える。
 一実施の形態によれば、多層構造の深さ情報を、迅速、且つ、高精度に取得できる。
実施の形態1における荷電粒子線装置の一例を示す模式図である。 実施の形態1における試料の平面図である。 実施の形態1における試料の割断面図である。 実施の形態1における試料の平面図である。 実施の形態1における試料の割断面図である。 実施の形態1における解析システムのフローチャートである。 実施の形態1における操作画面を示す模式図である。 実施の形態1における操作画面を示す模式図である。 実施の形態1における操作画面を示す模式図である。 実施の形態1における操作画面を示す模式図である。 実施の形態1における操作画面を示す模式図である。 実施の形態1における操作画面を示す模式図である。 実施の形態1における各情報の記録例を示す記録表である。 実施の形態1における操作画面を示す模式図である。 実施の形態1におけるパターン解析の撮影像および記録表である。 実施の形態2における解析システムのフローチャートである。 実施の形態3における解析システムのフローチャートである。 実施の形態3における操作画面を示す模式図である。 実施の形態3における操作画面を示す模式図である。 実施の形態3における操作画面を示す模式図である。 実施の形態3における各情報の記録例を示す記録表である。 実施の形態1における操作画面を示す模式図である。 実施の形態4における表面形状計測装置の一例を示す模式図である。 実施の形態4における解析システムのフローチャートである。 実施の形態4における操作画面を示す模式図である。
 以下、実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一の機能を有する部材には同一の符号を付し、その繰り返しの説明は省略する。また、以下の実施の形態では、特に必要なとき以外は同一または同様な部分の説明を原則として繰り返さない。
 また、本願において説明されるX方向、Y方向およびZ方向は、互いに交差し、互いに直交している。本願では、Z方向をある構造体の上下方向、高さ方向または厚さ方向として説明する場合もある。
 (実施の形態1)
 以下に、実施の形態1における解析システムについて説明する。まず、図1を用いて、解析システムの一部を構成する荷電粒子線装置1について説明する。図1では、荷電粒子線装置1として、例えば走査型電子顕微鏡(SEM)が例示されている。
 <荷電粒子線装置の構成>
 図1に示される荷電粒子線装置1は、鏡筒2の内部に備えられた電子銃3から、試料室7に配置された試料SAMへ電子線EB1を照射することで、試料SAMを解析(観察、測定)するための装置である。
 荷電粒子線装置1は、試料室7と、試料室7に取り付けられ、且つ、電子線カラムを構成する鏡筒2とを備える。鏡筒2は、電子線EB1を照射可能な電子銃3、電子線EB1を集束するためのコンデンサレンズ4、電子線EB1を走査するための偏向コイル5、および、電子線EB1を集束するための対物レンズ6などを備える。
 試料室7の内部には、試料SAMを搭載するための試料台(ホルダ)8、試料台8を設置するためのステージ9、ステージ制御装置10および検出器11などが設けられている。図示はしないが、試料室7には、導入/導出口が設けられている。
 試料SAMの解析時において、試料SAMを搭載した試料台8は、導入/導出口を介して、試料室7の内部へ搬送され、ステージ9に設置される。また、試料SAMを取り出す際には、試料SAMを搭載した試料台8は、導入/導出口を介して、試料室7の外部へ搬送される。
 ステージ制御装置10は、ステージ9に接続され、ステージ9の位置および向きを変位させることができる。ステージ9の変位によって、試料SAMの位置および向きが変位する。
 ステージ制御装置10は、荷電粒子線装置1の載置面に対して平行な方向に駆動可能なXY軸駆動機構、上記載置面に対して垂直な方向に駆動可能なZ軸駆動機構、回転方向に駆動可能なR軸駆動機構、および、XY面に対して傾斜する方向に駆動可能なT軸駆動機構を有している。これらの各駆動機構は、ステージ9上に設置された試料SAMおよび試料台8のうち、任意の部位を解析するために使用される機構である。これらによって、試料SAMのうち解析対象となる部位が、撮影視野の中心へ移動され、任意の方向へ傾けられる。
 検出器11は、試料SAMの解析時において試料SAMに電子線EB1が照射された場合、試料SAMから放出される二次電子EM2を検出可能である。なお、検出器11は、試料室7の内部に設けられていてもよいし、鏡筒2の内部に設けられていてもよい。
 また、荷電粒子線装置1は、総合制御部C0を備え、荷電粒子線装置1の外部または内部において、総合制御部C0に電気的に接続された表示機器20および操作機器21を備える。表示機器20は、例えばディスプレイであり、操作機器21は、例えばマウスおよびキーボードである。ユーザが操作機器21を用いて表示機器20上で作業することで、各種の情報が、総合制御部C0へ入力または総合制御部C0から出力される。
 総合制御部C0は、走査信号制御部C1、ステージ制御部C2および演算部C3を有し、これらを統括する。それ故、本願では、走査信号制御部C1、ステージ制御部C2および演算部C3によって行われる制御を、総合制御部C0が行うと説明する場合もある。また、走査信号制御部C1、ステージ制御部C2および演算部C3を有する総合制御部C0を一つの制御ユニットと見做し、総合制御部C0を単に「制御部」と称する場合もある。
 走査信号制御部C1は、電子銃3、コンデンサレンズ4、偏向コイル5および対物レンズ6に電気的に接続され、これらの動作を制御する。電子銃3は、走査信号制御部C1からの制御信号を受けて電子線EB1を生成し、電子線EB1は、試料SAMへ向かって照射される。
 コンデンサレンズ4、偏向コイル5および対物レンズ6の各々は、走査信号制御部C1からの制御信号を受けて磁界を励磁する。コンデンサレンズ4の磁界によって、電子線EB1は、適切なビーム径になるように集束される。偏向コイル5の磁界によって、電子線EB1は、偏向され、試料SAM上において2次元的に走査される。対物レンズ6の磁界によって、電子線EB1は、試料SAM上に再度集束される。
 また、走査信号制御部C1によって対物レンズ6を制御し、対物レンズ6の励磁強度を調整することで、試料SAMに対して電子線EB1の焦点合わせを行うこともできる。
 ステージ制御部C2は、ステージ制御装置10に電気的に接続され、ステージ制御装置10が有する各駆動機構の動作を制御し、常に視野とステージ9の座標とをリンクさせる機能を有する。
 演算部C3は、画像取得部C4、画像結合部C5、指示入力部C6、記憶部C7およびパターン形状解析部C8を含む。
 画像取得部C4は、検出器11に電気的に接続され、この動作を制御する。また、画像取得部C4は、検出器11で検出された二次電子EM2を信号として処理し、この信号を撮影像(画像データ)へ変換できる。上記撮影像は、表示機器20へ出力され、ユーザは、上記撮影像を表示機器20上で確認できる。
 画像結合部C5は、画像取得部C4で取得された上記撮影像を繋ぎ合わせ、例えば後述の図6に示されるような広域像を作成できる。上記広域像は、表示機器20へ出力され、ユーザは、上記広域像を表示機器20上で確認できる。
 指示入力部C6は、ユーザが操作機器21を用いて表示機器20上で入力した情報を受け取る。記憶部C7は、ステージ9の座標および取得された撮影像(画像データ)などの情報を保存可能である。なお、各情報は、互いに関連付けされている。
 パターン形状解析部C8は、試料SAMに含まれる複数のパターン形状を解析する機能を有する。
 演算部C3は、指示入力部C6が受け取った情報と、記憶部C7に格納されている情報とを用いて、後述するような、ステージ座標、パターン形状の解析および多層構造の深さ情報などに関する演算を実施可能である。
 <試料SAMの構成>
 図2Aaおよび図2Abは、実施の形態1における試料SAMの平面図である。図2Baは、図2AaのA-A線に沿うように、観察面30において割断された試料SAMの割断面図である。図2Bbは、図2AbのB-B線に沿うように、観察面30において割断された試料SAMの割断面図である。
 実施の形態1における試料SAMは、例えば、様々な半導体デバイスが形成されたウェハの一部から取得された薄片である。従って、試料SAMは、半導体基板、上記半導体基板上に形成されたトランジスタなどの半導体素子、複数のトランジスタで構成される高集積化の進んだ大規模集積回路(LSI)デバイス、複数のゲート電極を含む多層配線層、および、これらの間に形成された層間絶縁膜などを含んでいる。
 試料SAMは、上面TS、および、上面TSと反対側の下面BSを有する。試料SAMの一部には、例えばイオンミリング装置、FIBまたはディンプルグラインダーのような研磨装置によって研磨処理が施されている。図2Aaおよび図2Baは、イオンミリング装置またはFIBによって研磨された試料の図を示している。図2Abおよび図2Bbは、イオンミリング装置またはディンプルグラインダーによって研磨された試料SAMの図を示している。
 図2Aa、図2Ba、図2Abおよび図2Bbに示されるように、この研磨処理によって、試料SAMの上面TSの一部には、傾斜面を成す観察面(研磨面)30が形成されている。
 また、図2Aaおよび図2Abには、観察面30を含む試料SAMの一部を拡大した拡大図も示されている。試料SAMには、複数のパターン32が含まれている。複数のパターン32の各々は、例えばZ方向に延在する円柱状の構造を持つ半導体デバイスである。この他、複数のパターン32の各々は、例えば多層構造を有するLSIの配線またはトランジスタ等の構造体である。
 図2Baおよび図2Bbには、上記多層配線層のような複数の導電体層が、多層構造31として示されている。すなわち、試料SAMは、試料SAMの上面TSから試料SAMの下面BSへ向かう方向である第1方向(Z方向)に積層された複数の導電体層を、多層構造31として含む。また、ここでは詳細に図示していないが、多層構造31は、複数のパターン32の周囲に形成されている。
 断面視において、観察面30は、試料SAMの上面TSから試料SAMの下面BSへ向かって傾斜している。より詳細には、断面視において、観察面30は、上面TSから下面BSへ向かって連続的に傾斜する傾斜面を成している。研磨装置による研磨処理は、多層構造31の全層が研磨されるように行われ、観察面30の底部は、多層構造31の最下層よりも深くに位置している。そのため、多層構造31の全層が、観察面30および割断面において露出している。
 <解析システム>
 以下に、図3のフローチャートに示される各ステップS1~S16と、図4~図10とを対比させながら、実施の形態1における解析システムについて説明する。
 また、以下に説明するように、解析システムは、試料SAMの測定方法として、研磨装置において行われるステップと、試料作製装置において行われるステップと、荷電粒子線装置1において行われるステップとを備える。従って、荷電粒子線装置1だけでなく、それらの研磨装置および試料作製装置も、解析システムの一部を構成する。
 ステップS1では、試料SAMの作製が行われる。まず、例えばダイヤモンドカッター等のような試料作製装置を用いて、ウェハの一部を切り出すことで、試料SAMを準備する。次に、切り出された試料SAMを試料作製装置から研磨装置へ搬送する。研磨装置は、例えばイオンミリング装置、FIBまたはディンプルグラインダー等である。
 次に、研磨装置を用いて、試料SAMの上面TSに対して研磨処理を施すことで、上面TSの一部に観察面30を形成する。次に、研磨処理が行われた試料SAMを研磨装置から試料作製装置へ搬送する。試料作製装置は、例えばFIBまたはイオンミリング装置である。
 次に、試料作製装置によって、観察面30において試料SAMを割断することで、図2Baまたは図2Bbに示される試料SAMが作製される。その後、割断された試料SAMを試料台8に搭載する。
 以降では、図2Aaおよび図2Baに示される試料SAMを用いた場合について説明を行うが、図2Abおよび図2Bbに示される試料SAMを用いた場合でも、同様の手法を実施できる。
 ステップS2では、試料SAMの設置が行われる。まず、試料SAMが搭載された試料台8を試料作製装置から荷電粒子線装置1へ搬送する。次に、試料SAMの上面TSが電子銃3と対向するように、試料SAMが搭載された試料台8をステージ9上に設置する。これにより、観察面30を含む上面TSが、Z方向に対して垂直に配置される。
 ステップS3では、アプリケーションの起動が行われる。アプリケーションは、操作機器21を用いて、ユーザが表示機器20上で操作を行うことで、起動される。このアプリケーションが起動されると、図4に示されるように、表示機器20に操作画面40aが表示される。操作画面40aは、主に、ユーザが総合制御部C0に対して指示を入力するため、および、ユーザが総合制御部C0から各情報を得るために用いられる。
 操作画面40aにおいて、ユーザは、広域像撮影用の表示部41、深さ情報取得用の表示部42およびパターン解析用の表示部70の切り替えを行うことができる。
 広域像撮影用の表示部41には、撮影像表示部43、条件表示部44、キャプチャ用のボタンB1、参照用のボタンB2、位置指定ツール追加用のボタンB3および広域像作成開始用のボタンB4が設けられている。
 キャプチャ用のボタンB1は、試料SAMに電子線EB1を照射し、撮影像を取得する際に使用される。参照用のボタンB2は、過去に撮影した撮影像を、撮影像表示部43に出力する際に使用される。位置指定ツール追加用のボタンB3は、後述の観察範囲45を追加する際に使用される。広域像作成開始用のボタンB4は、後述のステップS6において広域像を作成するために、連続撮影を行う際に使用される。
 条件表示部44には、始点座標、終点座標、倍率および撮影枚数などの撮影条件が表示されている。また、条件表示部44には、撮影条件の決定を行うためのボタンB5と、撮影条件の更なる詳細を設定するためのボタンB6とが設けられている。
 ステップS4では、アライメント、および、第1方向(Z方向)から見た撮影像である全体像の取得が行われる。まず、ユーザは、試料SAMに対する電子線EB1の焦点合わせ、および、倍率の変更などを含むアライメントを行う。次に、ユーザがキャプチャ用のボタンB1をクリックすることで、試料SAMに対して第1方向(Z方向)から電子線EB1が照射され、観察面30を含む全体像が取得される。
 図4に示されるように、取得された第1方向(Z方向)から見た全体像は、総合制御部C0から撮影像表示部43へ出力される。これにより、ユーザは、試料SAMの概要を把握できる。
 ステップS5では、撮影条件の設定が行われる。まず、図5に示されるように、ユーザは、撮影像表示部43において、例えば操作機器21であるマウスをドラックすることで、観察面30を含む全体像に観察範囲45が指定される。総合制御部C0は、指定された観察範囲45を試料SAMの位置座標に変換し、条件表示部44に始点座標および終点座標を出力する。
 ここで、ユーザが位置指定ツール追加用のボタンB3をクリックすることで、更に観察範囲45を追加指定することもできる。例えば、最初に選択した観察範囲45に対してY方向にずらされた、他の観察範囲45を追加することができる。
 次に、ユーザは、条件表示部44に倍率および撮影枚数などの撮影条件を入力し、広域像作成開始用のボタンB4をクリックする。総合制御部C0は、入力された撮影条件を受け付け、第1方向(Z方向)から見た試料SAMの複数の撮影像を作成するための連続撮影を開始する。
 ステップS6では、ユーザがB4ボタンをクリックすることで、第1方向(Z方向)から見た試料SAMの撮影像である広域像の取得が行われる。まず、第1方向(Z方向)において、ステージ9に設置された試料SAMの上面TS(観察面30)に対して、電子線EB1が照射される。
 次に、検出器11において、試料SAMから放出される二次電子EB2が信号として検出される。次に、総合制御部C0の画像取得部C4において、検出された上記信号に基づいて、第1方向(Z方向)から見た撮影像が取得される。これらの作業を、観察範囲45内の観察対象に対して順番に行うことで、複数の撮影像が取得される。
 次に、図6に示されるように、総合制御部C0の画像結合部C5によって、ステップS5において取得された複数の撮影像が繋ぎ合わされ、第1方向(Z方向)から見た広域像が作成される。作成された広域像は、撮影像表示部43に出力される。
 すなわち、総合制御部C0において、検出器11において検出された上記信号に基づいて、複数の撮影像および広域像の取得が行われる。
 なお、総合制御部C0は、撮影像の座標とステージ9の座標との対応付けが可能である。そのため、ユーザは、目的の観察位置の座標情報などを確認できる。なお、これらの座標は、総合制御部C0の記憶部C7に保存される。
 また、ステップS6では、広域像を作成することを前提としているが、試料によっては広域像を作成する必要がなく、1箇所または数箇所の撮影のみでよい場合もある。この場合、条件表示部44には、始点座標のみが表示され、終点座標は表示されない。以降の広域像作成に関する説明は、1箇所または数箇所の撮影である場合も含む。
 ステップS7では、基準座標の指定が行われる。まず、図6に示されるように、撮影像表示部43において、ユーザが、観察面30において露出している多層構造31の第1箇所をクリックする。第1箇所は、例えば多層構造31の1層目である。これにより、総合制御部C0は、広域像において、上記第1箇所を、第1方向(Z方向)から見た基準座標(x1,y1)46aとして指定する。指定された基準座標(x1,y1)46aは、記憶部C7に保存される。
 なお、本願における多層構造31の1層目は、試料SAMの上面TSに最も近い層であり、多層構造31の最上層に相当する。以降の説明において、「多層構造31の1層目」と表現した場合も同様である。
 また、図6のように、多層構造を明確に確認できる試料であれば、例えば多層構造の1層目のように、始点として相応しい層を基準座標に指定することが容易である。しかしながら、試料によっては、多層構造が明確に確認できないことも想定される。その場合、例えば、特定のパターンの位置、または、その他の形状を有する構造体の位置を、基準座標(x1,y1)46aとして指定することもできる。
 ステップS8では、試料SAMの傾斜が行われる。総合制御部C0のステージ制御部C2からステージ制御装置10へ制御信号を伝達し、ステージ制御装置10のT軸駆動機構を駆動させる。すなわち、試料SAMの割断面が第1方向と交差する第2方向において電子銃3と対向するように、ステージ制御装置10を制御し、試料SAMが設置されているステージ9を傾斜させる。これにより、ユーザは、第2方向(Y方向)から試料SAMの割断面を観察できる。ここでは、ステージ9は、90度傾斜し、第1方向(Z方向)は、第2方向(Y方向)と直交している。
 なお、ここでは、第1方向をZ方向とし、第2方向をY方向として説明しているが、第1方向および第2方向は、Z方向およびY方向に限られず、互いに交差する方向であればよい。
 また、荷電粒子線装置1の性能上、ステージ制御装置10のT軸駆動機構の駆動範囲が、90度に満たない場合もある。その場合、ユーザは、試料SAMが搭載された試料台8を試料室7から取り出し、試料台8から試料SAMを取り外し、試料SAMを90度傾斜させた状態で、再び試料SAMを試料台8に搭載させ、試料SAMが搭載された試料台8を試料室7へ戻す。
 ステップS9では、ステップS4と同様の方法によって、アライメント、および、第2方向(Y方向)から見た試料SAMの撮影像である断面像の取得が行われる。取得された断面像は、総合制御部C0から撮影像表示部43へ出力される。
 ステップS10では、基準座標のリンクが行われる。まず、ユーザは、操作画面40aにおいて、広域像撮影用の表示部41から深さ情報取得用の表示部42への切り替えを行う。
 図7に示されるように、深さ情報取得用の表示部42には、広域像撮影用の表示部41と同様に、撮影像表示部43、キャプチャ用のボタンB1、参照用のボタンB2および位置指定ツール追加用のボタンB3が設けられている。また、深さ情報取得用の表示部42には、移動条件表示部47および層情報表示部48が設けられている。
 移動条件表示部47には、基準位置への移動を行うためのボタンB7と、第1方向とリンクさせるためのボタンB8と、X座標へ移動するためのボタンB9とが設けられている。また、層情報表示部48には、層数、1層の厚さ、および、1層目が始まる深さなどの層情報を表示させることができる。
 図7に示されるように、撮影像表示部43には、ステップS9で取得された第2方向(Y方向)から見た試料SAMの断面像が表示されている。ユーザがボタンB7をクリックすることで、総合制御部C0のステージ制御部C2は、基準座標(x1,y1)46aのX座標x1にステージ9が位置するように、ステージ制御装置10を移動させる。撮影像表示部43には、移動後のステージ9のX座標位置49が表示される。
 次に、ユーザが、撮影像表示部43において、X座標位置49と重なる位置の多層構造31に対して、クリック操作を行うことで、第2方向(Y方向)において基準となるZ座標z1が指定される。すなわち、ユーザが、断面像において、観察面30において露出し、且つ、基準座標(x1,y1)46aの座標x1に対応する多層構造31の第2箇所に対して、クリック操作を行うことで、第2方向(Y方向)において基準となるZ座標z1が指定される。
 次に、ユーザがボタンB8をクリックすることで、総合制御部C0は、断面像において、上記第2箇所を、基準座標(x1,z1)46bとして指定し、基準座標(x1,y1)46aおよび基準座標(x1,z1)46bを対応させる。なお、基準座標(x1,z1)46bと、基準座標(x1,y1)46aおよび基準座標(x1,z1)46bの対応関係とは、記憶部C7に保存される。
 ステップS11では、観察座標(x2,y2)46cの指定、および、ステージ9の移動が行われる。まず、ユーザが、例えば参照用のボタンB2をクリックすることで、総合制御部C0は、ステップS6で取得された第1方向(Z方向)から見た広域像(図6)を、撮影像表示部43に表示させる。
 次に、撮影像表示部43において、ユーザが、観察面30において露出している多層構造31の第3箇所をクリックする。第3箇所は、上述の第1箇所と異なる箇所であり、例えば多層構造31の1層目と異なる層である。これにより、総合制御部C0は、広域像において、上記第3箇所を、第1方向(Z方向)から見た観察座標(x2,y2)46cとして指定する。
 図8に示されるように、総合制御部C0は、指定された観察座標(x2,y2)46cのX座標x2を移動条件表示部47に表示させる。次に、ユーザが移動用のボタンB9をクリックすることで、総合制御部C0のステージ制御部C2は、観察座標(x2,y2)46cのX座標x2にステージ9が位置するように、ステージ制御装置10を移動させる。
 図9は、図8でステージ9が移動した後の操作画面40aを示している。図9に示されるように、撮影像表示部43には、移動後のステージ9のX座標位置49が表示される。
 次に、ユーザが、撮影像表示部43において、X座標位置49と重なる位置の多層構造31に対して、クリック操作を行うことで、Z座標z2が指定される。すなわち、ユーザが、断面像において、観察面30において露出し、且つ、観察座標(x2,y2)46cの座標x2に対応する多層構造31の第4箇所に対して、クリック操作を行うことで、Z座標z2が指定される。
 総合制御部C0は、断面像において、上記第4箇所を、観察座標(x2,z2)46dとして指定する。なお、観察座標(x2,y2)46cと、観察座標(x2,y2)46cおよび観察座標(x2,z2)46dの対応関係とは、記憶部C7に保存される。
 次に、ユーザがボタンB9をクリックすることで、総合制御部C0は、指定された観察座標(x2,z2)46dへ向かってステージ9を移動させる。
 ステップS12では、アライメントが行われる。ユーザは、目的の観察座標(x2,z2)46dの詳細な観察を行うために、試料SAMに対する電子線EB1の焦点合わせ、および、倍率の変更などを行う。
 ステップS13では、第2方向(Y方向)から見た撮影像の取得が行われる。ステップS12の後、ユーザがキャプチャ用のボタンB1をクリックすることで、撮影が行われ、第2方向(Y方向)から見た撮影像が取得される。取得された撮影像は、記憶部C7に保存される。
 なお、ステップS12およびステップS13は、多層構造31の深さ情報を取得するという観点においては必須ではなく、省略されてもよい。
 ステップS14では、多層構造31の深さ情報の取得が行われる。ユーザが深さ情報取得用のボタンB10をクリックすることで、総合制御部C0の演算部C3は、基準座標(x1,z1)46bからの観察座標(x2,z2)46dの深さ(Z方向における距離)を演算する。
 ユーザは、多層構造31の層数、多層構造31の1層の厚さまたは各層の厚さ、および、多層構造31の1層目が始まる深さなどを含む試料SAMの情報を、層情報表示部48に入力する。
 また、入力された情報と、基準座標(x1,z1)46bからの観察座標(x2,z2)46dの深さの演算結果とを照合することで、総合制御部C0の演算部C3は、基準座標(x1,z1)46bからの観察座標(x2,z2)46dの層数を演算する。
 ここで、基準座標(x1,z1)46bが多層構造31の1層目に位置している場合、総合制御部C0の演算部C3は、試料SAMの上面TSからの観察座標(x2,z2)46dの深さおよび層数を演算する。すなわち、観察座標(x2,z2)46dが多層構造31の何層目に位置しているかが、演算される。
 このようにして、広域像および断面像を用いて、多層構造31の深さ情報が取得される。すなわち、多層構造31の深さ情報は、基準座標(x1,z1)46bからの観察座標(x2,z2)46dの深さおよび層数と、試料SAMの上面TSからの観察座標(x2,z2)46dの深さおよび層数とを含む。また、これらの情報は、記憶部C7に保存される。
 その後、ステップS15では、他の観察座標の観察を行うか否かが判定される。他の観察座標の観察を行わない場合(NO)、次のステップはステップS16となる。他の観察座標の観察を行う場合(YES)、ステップS11~ステップS14が繰り返される。総合制御部C0は、目的の観察座標の全てにおける深さ情報に対して、ナノメートルオーダで付与することができる。
 また、ステップS1~S15にて取得された各座標および多層構造31の深さ情報などは、図10のような記録表として記録され、記憶部C7に保存される。
 以上のように実施の形態1で開示した技術によれば、第1方向(Z方向)から見た広域像と、第2方向(Y方向)から見た断面像とを利用し、それぞれの座標をリンクさせ、基準座標から観察座標へステージ9を移動させることで、多層構造31の深さ情報を取得できる。そして、ユーザは、多層構造31の深さ情報をナノメートルオーダで直接的に得られる。
 多層構造31の深さ情報を得るための他の手段として、例えば、FIBを用いた手段または研磨面の傾斜角を予測する手段が存在しているが、FIBを用いた手段では、加工領域が狭い、評価に時間が掛かる、および、データの再取得が困難という課題があり、研磨面の傾斜角を予測する手段では、深さ情報の精度が低いなどの課題があった。
 実施の形態1における解析システムは、FIBを用いた手段よりも、広域、且つ、短時間で行うことができ、データの再取得も容易である。また、実施の形態1における解析システムは、研磨面の傾斜角を予測する手段よりも、高精度な深さ情報を得ることができる。すなわち、実施の形態1における解析システムでは、多層構造31の深さ情報を、迅速、且つ、高精度に取得することができる。
 ステップS16では、試料SAMに含まれる複数のパターン32の解析が行われる。まず、ユーザは、操作画面40aにおいて、深さ情報取得用の表示部42からパターン解析用の表示部70への切り替えを行う。
 図11に示されるように、パターン解析用の表示部70には、撮影像表示部43、画像読込設定部71、パターン検出用のボタンB19およびパターン解析用のボタンB20が設けられている。また、画像読込設定部71には、読込用のボタンB17および参照用のボタンB18が設けられている。
 画像読込設定部71において、ユーザが、試料SAMの層数または深さを入力し、読込用のボタンB17をクリックすることで、総合制御部C0は、ステップS14で取得された多層構造31の深さ情報を基にして、入力された位置である観察座標(x3,y3,z3)46eにおいて撮影を行い、撮影された撮影像を撮影像表示部43に表示する。なお、ユーザが参照用のボタンB18をクリックし、過去に取得された撮影像を選択することもできる。
 次に、ユーザがパターン検出用のボタンB19をクリックすることで、総合制御部C0は、画像認識技術を用いて複数のパターン32を検出し、複数のパターン32に番号を付与し、それらの番号を撮影像表示部43に表示する。
 次に、ユーザがパターン解析用のボタンB20をクリックすることで、パターン形状解析部C8は、画像認識技術を用いて、観察座標(x3,y3,z3)46eにおける複数のパターン32の各々の径を自動で計測する。そして、パターン形状解析部C8は、複数のパターン32の各々について、長軸径、短軸径、平均径および真円度などのパターン形状情報を取得する。これらのパターン形状情報は、記憶部C7に保存される。
 なお、ここで説明する観察座標(x3,y3,z3)46eは、観察している撮影像の中心位置の座標を示している。従って、演算される層数も、観察している撮影像の中心位置における層数のことを示している。
 総合制御部C0は、取得されたパターン形状情報を記録表として記録し、図12に示されるように、観察した撮影像と共に記録表を出力できる。また、このようなパターン形状情報は、他の情報との関連付けが行われ、図10の記録表に記録される。
 以上のように、実施の形態1における解析システムによれば、多層構造31の深さ情報を取得することができるだけでなく、試料SAMに含まれる複数のパターン32のパターン形状情報も取得することができる。
 (実施の形態2)
 以下に図13を用いて、実施の形態2における解析システムを説明する。なお、以下では、主に実施の形態1との相違点について説明する。
 実施の形態2では、実施の形態1と比較して、試料SAMの割断面を形成するタイミングが異なり、第1方向(Z方向)からの広域像の取得、基準座標(x1,y1)46aの指定および観察座標(x2,y2)46cの指定が行われた後に、試料SAMの割断面が形成される。
 以下に、図13のフローチャートに示される各ステップS21~S40を用いて、実施の形態2における解析システムについて説明する。
 ステップS21では、ステップS1と同様の手法によって、試料SAMの観察面30の形成が行われる。この際に、試料SAMは図2Aaまたは図2Abの状態であり、割断面は形成されていない。この状態で、試料SAMを試料台8に搭載する。
 ステップS22~S27では、ステップS2~S7と同様の作業が行われる。総合制御部C0によって、第1方向(Z方向)から見た試料SAMの広域像が取得され、広域像において基準座標(x1,y1)46aの指定が行われる。
 ステップS28では、基準座標(x1,z1)46bの指定よりも先に、観察座標(x2,y2)46cの指定が行われる。すなわち、図6に示される基準座標(x1,y1)46aの指定に続いて、図8に示される観察座標(x2,y2)46cの指定が行われる。
 ステップS29では、試料SAMの取り出しが行われる。まず、試料SAMを試料室7から取り出し、次に、試料台8から試料SAMを取り外す。その後、試料SAMを例えばFIBまたはイオンミリング装置のような試料作製装置へ搬送する。
 ステップS30では、割断面の形成が行われる。試料作製装置によって、観察面30において試料SAMを割断することで、図2Baまたは図2Bbに示される試料SAMが作製される。
 以降では、図2Aaおよび図2Baに示される試料SAMを用いた場合について説明を行うが、図2Abおよび図2Bbに示される試料SAMを用いた場合でも、同様の手法を実施できる。
 ステップS31では、割断面が電子線EBに照射されるように、試料SAMが試料台8に搭載される。まず、割断された試料SAMを試料台8に搭載する。次に、試料台8を荷電粒子線装置1へ搬送し、試料台8をステージ9上に設置する。この際、電子銃3と対向するように、試料SAMの割断面は、Z方向に対して垂直に配置されている。
 ステップS32では、ステップS3などと同様の手法によって、アプリケーションの起動が行われる。
 ステップS33では、ステップS9と同様の方法によって、アライメント、および、第2方向(Y方向)から見た試料SAMの撮影像である断面像の取得が行われる。
 ステップS34~S38では、ステップS10~S14と同様の作業が行われる。すなわち、総合制御部C0は、断面像において、基準座標(x1,y1)46aの座標x1に対応する多層構造31の第2箇所を、第2方向(Y方向)から見た基準座標(x1,z1)46bとして指定する。また、総合制御部C0は、断面像において、観察座標(x2,y2)46cの座標x2に対応する多層構造31の第4箇所を、第2方向(Y方向)から見た観察座標(x2,z2)46dとして指定する。
 その後、総合制御部C0の演算部C3は、基準座標(x1,z1)46bからの観察座標(x2,z2)46dの深さおよび層数を演算し、試料SAMの上面TSからの観察座標(x2,z2)46dの深さおよび層数を演算する。
 ステップS39では、ステップS15と同様に、全ての観察座標の観察が完了するまでステップS34~S38が繰り返される。
 このように、実施の形態2においても、多層構造31の深さ情報を、迅速、且つ、高精度に取得することができる。
 また、実施の形態1のように、最初に試料SAMを割断すると、その割断面が多層構造31のパターンを明確に観察できる面であるか否かが、分からない。これに対して、実施の形態2では、後から試料SAMを割断するので、多層構造31のパターンを明確に観察できる面を作成し易い。
 一方で、実施の形態2では、試料SAMの割断前に指定される基準座標(x1,y1)46aの位置に合わせて、試料SAMを割断する必要がある。しかし、その精度は試料作製装置の性能に依存するので、割断位置が、基準座標(x1,y1)46aの位置から若干ずれる恐れがある。このような観点においては、実施の形態1が、実施の形態2よりも適している。
 ステップS40では、ステップS16と同様に、複数のパターン32の解析が行われ、複数のパターン32のパターン形状情報が取得される。
 (実施の形態3)
 以下に図14~図18を用いて、実施の形態3における解析システムを説明する。なお、以下では、主に実施の形態1との相違点について説明する。
 実施の形態3では、試料SAMに割断面が形成されず、第1方向(Z方向)における電子線EB1の焦点合わせによって、対物レンズ6と焦点位置との間の距離であるワーキングディスタンス(以降、WDと呼ぶ)が取得され、WDを基にして、多層構造31の深さ情報が取得される。
 以下に、図14のフローチャートに示される各ステップS41~S56と、図15~図18とを対比させながら、実施の形態3における解析システムについて説明する。
 ステップS41では、ステップS1と同様の手法によって、試料SAMの観察面30の形成が行われる。この際に、試料SAMは図2Aaまたは図2Abの状態であり、割断面は形成されていない。
 ステップS42~S44では、ステップS2~S4と同様の作業が行われる。まず、試料SAMの上面TSが電子銃3と対向するように、試料SAMが搭載された試料台8がステージ9上に設置される。次に、アプリケーションの起動が行われる。次に、アライメント、および、第1方向(Z方向)から見た撮影像である全体像の取得が行われる。
 アプリケーションが起動されると、図15に示されるように、表示機器20に操作画面40bが表示される。操作画面40bは、主に、ユーザが総合制御部C0に対して指示を入力するため、および、ユーザが総合制御部C0から各情報を得るために用いられる。
 操作画面40bにおいて、ユーザは、WD取得設定用の表示部51、WDプロファイル用の表示部52、観察用の表示部53およびパターン解析用の表示部70の切り替えを行うことができる。
 WD取得設定用の表示部51には、撮影像表示部54、WD取得設定部55、モード選択部56、キャプチャ用のボタンB1、参照用のボタンB2、位置指定ツール追加用のボタンB3およびWDデータ取得開始用のボタンB12が設けられている。
 WD取得設定部55には、始点座標、終点座標、倍率およびWD取得回数などの取得条件が表示されている。また、WD取得設定部55には、WD取得条件の決定用のボタンB11が設けられている。モード選択部56には、プリスキャンモードまたは撮影モードを選択するためのチェックボックスが表示されている。
 ユーザがキャプチャ用のボタンB1をクリックすることで、試料SAMの上面TSに対して第1方向(Z方向)から電子線EB1が照射され、観察面30を含む全体像が取得される。
 ステップS45では、WD取得設定が行われる。ユーザは、撮影像表示部43において、例えば操作機器21であるマウスをドラックすることで、観察面30を含む全体像に観察範囲57が指定される。
 総合制御部C0は、指定された観察範囲57を試料SAMの位置座標に変換し、WD取得設定部55に始点座標および終点座標を出力する。総合制御部C0は、WD取得回数またはWD取得間隔などの詳細設定を受け付け、WD取得位置を算出し、最終的な観察範囲57を撮影像表示部43に表示する。
 ここで、ユーザが位置指定ツール追加用のボタンB3をクリックすることで、更に観察範囲57を追加指定することもできる。例えば、最初に選択した観察範囲57に対してY方向にずらされた、他の観察範囲57を追加することができる。この場合、後述のWDプロファイルが複数作成されるので、これらを互いに照合させることで、より正確な多層構造31の深さ情報を取得することができる。
 また、ユーザは、モード選択部56において、プリスキャンモードまたは撮影モードを選択することができる。プリスキャンモードおよび撮影モードの両方では、指定された観察範囲57内において、試料SAMのうち目的位置である複数の観察箇所に対して、対物レンズ6を用いて第1方向(Z方向)における電子線EB1の焦点合わせが行われる。
 プリスキャンモードでは、最初の観察箇所に対して自動で焦点合わせが行われ、そのデータが記録部C7に保存され、ステージ9を次の観察箇所に移動させ、次の観察箇所に対して自動で焦点合わせが行われる。すなわち、プリスキャンモードは、撮影像の取得を行わずに、焦点合わせを繰り返すことで、WDの値を保存していくモードである。この場合、撮影像の取得は、WDプロファイルの作成後に行われる。
 撮影モードでは、最初の観察箇所に対して自動で焦点合わせおよび撮影像の取得が行われ、そのデータが記録部C7に保存される。その後、ステージ9を次の観察箇所に移動させ、次の観察箇所に対して自動で焦点合わせおよび撮影像の取得が行われる。すなわち、撮影モードは、焦点合わせと共に、第1方向(Z方向)から見た撮影像を取得することで、WDの値を保存していくモードである。
 ユーザがWDデータ取得開始用のボタンB12をクリックすることで、総合制御部C0は、プリスキャンモードまたは撮影モードによって、観察範囲57内におけるWDの値の取得を開始する。
 ステップS46では、総合制御部C0のステージ制御部C2によって、観察範囲57の始点座標へステージ制御装置10およびステージ9の移動が行われる。
 ステップS47では、総合制御部C0の走査信号制御部C1によって、試料SAMの上面TSに対して第1方向(Z方向)から電子線EB1が照射され、対物レンズ6を用いて、観察範囲57の始点座標における焦点合わせが行われる。
 ステップS48では、モードの判定が行われる。プリスキャンモードが選択されている場合、以降のステップはステップS50となり、撮影モードが選択されている場合、次のステップはステップS49となる。
 ステップS49の撮影モードでは、焦点合わせと共に、撮影像の取得が行われる。
 ステップS50では、総合制御部C0の演算部C13は、焦点合わせが行われた箇所について、x座標、y座標、および、対物レンズ6と焦点位置との間の距離であるWDの情報を取得する。取得された情報は、記憶部C7に保存される。
 ステップS51では、ステージ9を次の観察箇所に移動させ、次の観察箇所に対して自動で焦点合わせが行われる。その後、目的の全ての観察箇所におけるWDなどの情報が取得されるまで、ステップS47~S51が繰り返される。
 ステップS52およびステップS53では、まず、図16に示されるように、ユーザは、操作画面40bにおいて、WD取得設定用の表示部51からWDプロファイル用の表示部52への切り替えを行う。
 WDプロファイル用の表示部52には、撮影像表示部54、層情報表示部58およびWDプロファイル取得用のボタンB13が設けられている。
 ステップS52では、試料SAMの情報の入力が行われる。ユーザは、多層構造31の層数、多層構造31の1層の厚さまたは各層の厚さ、および、多層構造31の1層目が始まる深さなどを含む試料SAMの情報を、層情報表示部58に入力する。総合制御部C0の演算部C3は、ユーザによって入力された試料SAMの情報と、全ての観察箇所におけるWDの情報とを関連付ける。
 ステップS53では、WDプロファイルの作成が行われる。まず、図17に示されるように、ユーザは、操作画面40bにおいて、WDプロファイル用の表示部52から観察用の表示部53への切り替えを行う。
 観察用の表示部53には、撮影像表示部54、観察位置選択部59、観察条件設定部60、WDプロファイル取得用のボタンB13およびキャプチャ用のボタンB14が設けられている。
 ユーザがWDプロファイル取得用のボタンB13をクリックすることで、総合制御部C0によって、試料SAMの複数の観察箇所における対物レンズ6と焦点位置との間の距離(WD)をグラフ化したWDプロファイルが作成される。また、観察面30以外の領域は、WDプロファイルにおいて平坦な線で描かれる。従って、ユーザは、その平坦な線が試料SAMの上面TSに対応していると判断できる。
 ここで、総合制御部C0の演算部C3は、ユーザによって入力されている試料SAMの情報(多層構造31の層数、多層構造31の1層の厚さまたは各層の厚さ、および、多層構造31の1層目が始まる深さなど)と、WDプロファイルとを照合することで、試料SAMに含まれる多層構造31の深さ情報を取得することができる。
 すなわち、WDプロファイル上の所定位置が、試料SAMの上面TSからどの程度の深さであるのか、および、多層構造31の何層目に相当するのかを知ることができる。言い換えれば、多層構造31の深さ情報は、試料SAMの上面TSからのWDプロファイル上の所定位置の深さおよび層数を含んでいる。
 なお、試料SAMによっては、研磨処理によって形成された観察面30が、目標とする表面形状ではない場合がある。例えば、観察面30に凹凸が存在している場合がある。この場合、WDプロファイルが作成されていることで、ユーザは、観察面30の形状の成否を迅速に判断することができる。例えば、観察面30の凹凸の差が大きい場合、ユーザは、位置指定ツール追加用のボタンB3を使用して追加した他の観察範囲57を利用できる。
 ステップS54では、モードの判定が行われる。プリスキャンモードが選択されている場合、次のステップはステップS55となり、撮影モードが選択されている場合、次のステップはステップS56となる。
 ステップS55のプリスキャンモードでは、試料SAMの所望の箇所で、撮影像の作成を行うことができる。
 例えば、図17に示されるように、まず、ユーザは、観察条件設定部60において、各種の観察条件を設定する。次に、ユーザは、観察位置選択部59において、「WDプロファイルから選択」を選択する。次に、ユーザは、WDプロファイルにおいて所定の位置を指定する。次に、ユーザがキャプチャ用のボタンB14をクリックすることで、試料SAMのうち指定された上記所定の位置に対応する箇所に対して、第1方向(Z方向)から電子線EB1を照射することで、第1方向(Z方向)から見た試料SAMの撮影像が取得される。
 なお、ここでの撮影は連続撮影であり、観察範囲57に対して連続撮影を行うことで、複数の撮影像が取得され、複数の撮影像を繋ぎ合わせることで、広域像を取得することができる。
 また、撮影像を取得する他の方法として、ユーザは、観察位置選択部59において、「表面からの層数」または「表面からの深さ」を選択することで、それらに入力された箇所に対する撮影像を取得することもできる。
 ところで、ステップS49またはステップS55において、第1方向(Z方向)から観察または撮影を行う際に、試料SAMの上面TSに異物が存在し、多層構造31のパターンを正確に検出できない状況が想定される。
 この時、図2Aaおよび図2Baに示される試料の場合、上記異物箇所のx座標を保持し、別のy座標位置に移動して、同一の深さと考えられる位置にてx座標を数点変位させながら撮影像を取得することで、異物のない別の位置において、多層構造31のパターンを観察することが可能となる。
 また、図2Abおよび図2Bbに示される試料は、観察面30がZ軸に対しておおよそ対称であるので、ある深さのWDを2か所取得することが想定される。この場合、WDプロファイル上において、同一の深さの場所を指定することで、目的のパターンの観察が可能になる。
 更に、図2Aaおよび図2Ab、または、図2Baおよび図2Bbに示される試料において、WDを1列のみではなく、観察面30の全面に対して取得する場合、3次元のWDプロファイルが取得できる。このため、撮影像表示部54に3次元のWDプロファイルを表示して、例えばユーザによって指定された同一深さ箇所に色を付けて表示することで、ユーザが別の位置を選択可能になり、別のパターン32の撮影を行うことができる。
 特に、観察面30を形成するための研磨処理に、イオンミリング装置またはFIBではなく、ディンプルグラインダーのような機械研磨装置を使用した場合、観察面30に上記異物が発生し易い。しかし、そのような場合であっても、上述のように、異物のない別の位置において多層構造31のパターンを観察することができる。
 また、WDプロファイル上において、同一の深さの場所を複数観察することで、それら複数個所におけるパターン形状の差を比較することもできる。
 また、ステップS41~S55にて取得された各座標および多層構造31の深さ情報などは、図18のような記録表として記録され、記憶部C7に保存される。総合制御部C0は、WDプロファイル上の所定位置を基に演算することによって、試料SAMの上面TSからの所定位置の深さおよび層数を取得できる。
 以上のように、実施の形態3における解析システムにおいても、試料SAMの3次元情報をナノメートルオーダで取得することができ、多層構造31の深さ情報を、迅速、且つ、高精度に取得することができる。
 ステップS56では、ステップS16と同様に、複数のパターン32の解析が行われる。まず、図19に示されるように、ユーザは、操作画面40bにおいて、観察用の表示部53からパターン解析用の表示部70への切り替えを行う。パターン解析用の表示部70で行う操作については、ステップS16で説明した手法と同様である。
 画像読込設定部71において、ユーザが、試料SAMの層数または深さを入力し、読込用のボタンB17をクリックすることで、総合制御部C0は、ステップS53で取得された多層構造31の深さ情報を基にして、入力された位置である観察座標(x3,y3,z3)46eにおいて撮影を行い、撮影された撮影像を撮影像表示部43に表示する。なお、ユーザが参照用のボタンB18をクリックし、過去に取得された撮影像を選択することもできる。
 その後、実施の形態1におけるステップS16と同様の手法によって、複数のパターン32のパターン形状情報を取得することができる。
 (実施の形態4)
 以下に図20~図22を用いて、実施の形態4における解析システムを説明する。なお、以下では、主に実施の形態3との相違点について説明する。
 実施の形態4では、実施の形態3と異なる他手法によって取得された試料SAMの3次元情報データがWDプロファイルに照合され、WDプロファイルの補正が行われる。上記他手法とは、荷電粒子線装置1と異なる装置において行われる手法であり、例えば、表面形状計測装置101において行われる手法である。これにより、より高精度に試料SAMの3次元情報を取得することができる。
 図20に示される表面形状計測装置101は、例えば白色干渉顕微鏡であり、試料SAMの上面TSの3次元情報(例えば位置座標x、y、z)を取得することができる。表面形状計測装置101は、鏡筒102と、ステージ109と、ステージ制御装置110と、総合制御部C10とを備える。総合制御部C10は、表面形状計測装置101の内部または外部に設けられた表示機器20および操作機器21に電気的に接続されている。
 鏡筒102の内部には、白色光源103、第1ビームスプリッタ104、第2ビームスプリッタ105、対物レンズ106、参照面107およびカメラ108が備えられている。
 ステージ109およびステージ制御装置110は、鏡筒2の外部に備えられ、大気中に静置されている。ステージ109は、試料SAMを搭載可能である。ステージ制御装置110は、ステージ109に接続され、ステージ109の位置および向きを変位させることができる。ステージ109の変位によって、試料SAMの位置および向きが変位する。ステージ制御装置110は、荷電粒子線装置1のステージ制御装置10とほぼ同様の機構を有している。
 白色光源103は、白色光WL1を放出する。第1ビームスプリッタ104および第2ビームスプリッタ105は、放出された白色光WL1を2つに分け、一方を参照面107に照射し、他方を試料SAMの表面に照射する。参照面107および試料SAMの両方から反射された反射光WL2は、測定用のカメラ108において結像される。対物レンズ106は、ステージ109に設置された試料SAMに焦点が合うように、白色光WL1を集束させる。
 総合制御部C10は、光学系制御部C11、ステージ制御部C12、演算部C13を有し、これらを統括する。それ故、本願では、走査信号制御部C11、ステージ制御部C12および演算部C13によって行われる制御を、総合制御部C10が行うと説明する場合もある。また、走査信号制御部C11、ステージ制御部C12および演算部C13を有する総合制御部C10を一つの制御ユニットと見做し、総合制御部C10を単に「制御部」と称する場合もある。
 光学系制御部C11は、白色光源103、第1ビームスプリッタ104、第2ビームスプリッタ105、対物レンズ106および参照面107に電気的に接続され、これらの動作を制御する。
 ステージ制御部C12は、ステージ制御装置110に電気的に接続され、ステージ制御装置110が有する各駆動機構の動作を制御する。
 演算部C13は、表面情報取得部C14、指示入力部C15および記憶部C16を含む。
 表面情報取得部C14は、カメラ108に電気的に接続され、カメラ108が検出した反射光WL2を信号として3次元情報データに変換する。すなわち、上記3次元情報データは、試料SAMに白色光WL1が照射された際に、試料SAMで反射した反射光WL2を基にして作成されたデータである。上記3次元情報データは、表示機器20へ出力され、ユーザは、上記3次元情報データを表示機器20上で確認できる。
 指示入力部C15は、ユーザが操作機器21を用いて表示機器20上で入力した情報を受け取る。記憶部C16は、ステージ9の座標および取得された試料SAMの3次元情報データなどの情報を保存可能である。なお、各情報は、互いに関連付けされている。
 以下に、図21のフローチャートに示される各ステップS61~S80と、図22とを対比させながら、実施の形態4における解析システムについて説明する。
 ステップS61では、ステップS41と同様の手法によって、試料SAMの観察面30の形成が行われる。
 ステップS62では、試料SAMの表面形状の計測が行われる。ユーザは、表面形状計測装置101のステージ109に試料SAMを設置し、表面形状計測装置101の電源を入れる。
 総合制御部C10は、ユーザからの表面形状の計測指示を受け付け、試料SAMの表面形状の計測を開始する。計測された試料SAMの表面形状は、3次元情報データとして記憶部C16に保存される。これにより、試料SAMを荷電粒子線装置1に挿入する前に、試料SAMの出来栄えについて判断することも可能である。
 なお、表面形状計測装置101は、ネットワークなどを介して荷電粒子線装置1に電気的に接続されている。従って、取得された3次元情報データは、荷電粒子線装置1において取得されたWDおよびWDプロファイルとリンクできる。
 ステップS63~ステップS72では、ステップS42~S51と同様の作業が行われる。試料SAMは、表面形状計測装置101から荷電粒子線装置1へ搬送され、総合制御部C0によって、アプリケーションを介してWDの情報が取得される。
 ステップS73では、荷電粒子線装置1において、他手法のデータ(3次元情報データ)の読み込みが行われ、ステップS74では、フィッティング条件の設定が行われる。
 図22に示されるように、操作画面40bのWDプロファイル用の表示部52には、精度選択部61が設けられている。そして、精度選択部61には、多層構造31の深さ情報を取得するための精度を選択する方法として、他手法とのフィッティングを選択できるチェックボックスが設けられている。また、精度選択部61には、他手法のデータ読込用のボタンB15およびフィッティング開始用のボタンB16も設けられている。
 精度選択部61において、ユーザが他手法とのフィッティングを選択する(「有」を選択する)ことで、総合制御部C0はその選択を受け付ける。次に、ユーザが他手法のデータ読込用のボタンB15をクリックすることで、総合制御部C0は、他手法のデータ(3次元情報データ)を読み込む。
 ステップS75では、3次元情報データとWDの情報とのフィッティングが行われる。ユーザがフィッティング開始用のボタンB16をクリックすることで、総合制御部C0は、読み込んだ3次元情報データとWDの情報とのフィッティングが行われる。なお、フィッティングの手法としては、例えばカーブフィッティングまたは3点アライメントなどが挙げられる。
 すなわち、試料SAMの複数の観察箇所におけるWDは、表面形状計測装置101において取得された3次元情報データと照合される。そして、照合の結果、WDの補正が行われる。
 ここで、表面形状計測装置101(白色干渉顕微鏡)の分解能はオングストローム(Å)オーダーであるので、表面形状計測装置101は、ナノオーダーである多層構造31に対して、十分な分析精度を有している。また、試料SAMの複数の観察箇所におけるWDが、断片的な情報の繋ぎ合わせであるのに対して、表面形状計測装置101による3次元情報データは、連続的な情報である。従って、WDを、より精度の高い3次元情報データに合わせるように補正することで、より精度の高いWDプロファイルを取得することができる。
 ステップS76~ステップS80では、ステップS52~S56と同様の作業が行われる。すなわち、試料SAMの情報の入力、WDプロファイルの作成、および、プリスキャンモードにおける撮影像を取得が行われる。
 なお、実施の形態4におけるWDプロファイルは、補正されたWDをグラフ化することで作成される
 以上のように、実施の形態4における解析システムでは、実施の形態3と比較して、多層構造31の深さ情報をより高精度に取得することができる。
 以上、上記実施の形態に基づいて本発明を具体的に説明したが、本発明は、上記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能である。
1  荷電粒子線装置
2  鏡筒
3  電子銃
4  コンデンサレンズ
5  偏向コイル
6  対物レンズ
7  試料室
8  試料台
9  ステージ
10  ステージ制御装置
11  検出器
20  表示機器
21  操作機器
30  観察面(研磨面)
31  多層構造
32  パターン
40a、40b  操作画面
41  広域像撮影用の表示部
42  深さ情報取得用の表示部
43  撮影像表示部
44  条件表示部
45  観察範囲
46a  基準座標(x1,y1)
46b  基準座標(x1,z1)
46c  観察座標(x2,y2)
46d  観察座標(x2,z2)
46e  観察座標(x3,y3,z3)
47  移動条件表示部
48  層情報表示部
49  X座標位置
51  WD取得設定用の表示部
52  WDプロファイル用の表示部
53  観察用の表示部
54  撮影像表示部
55  WD取得設定部
56  モード選択部
57  観察範囲
58  層情報表示部
59  観察位置選択部
60  観察条件設定部
61  精度選択部
70  パターン解析用の表示部
71  画像読込設定部
101  表面形状計測装置
102  鏡筒
103  白色光源
104  第1ビームスプリッタ
105  第2ビームスプリッタ
106  対物レンズ
107  参照面
108  カメラ
109  ステージ
110  ステージ制御装置
B1  キャプチャ用のボタン
B2  参照用のボタン
B3  位置指定ツール追加用のボタン
B4  広域像作成開始用のボタン
B5  撮影条件の決定用のボタン
B6  撮影条件の詳細設定用のボタン
B7  基準位置への移動用のボタン
B8  第1方向とのリンク用のボタン
B9  X座標へ移動用のボタン
B10  深さ情報取得用のボタン
B11  取得条件の決定用のボタン
B12  WDデータ取得開始用のボタン
B13  WDプロファイル取得用のボタン
B14  キャプチャ用のボタン
B15  他手法のデータ読込用のボタン
B16  フィッティング開始用のボタン
B17  読込用のボタン
B18  参照用のボタン
B19  パターン検出用のボタン
B20  パターン解析用のボタン
BS  下面
C0  総合制御部(制御部)
C1  走査信号制御部
C2  ステージ制御部
C3  演算部
C4  画像取得部
C5  画像結合部
C6  指示入力部
C7  記憶部
C8  パターン形状解析部
C10  総合制御部(制御部)
C11  光学系制御部
C12  ステージ制御部
C13  演算部
C14  表面情報取得部
C15  指示入力部
C16  記憶部
EB1  電子線
EB2  二次電子
SAM  試料
TS  上面
WL1  白色光
WL2  反射光

Claims (15)

  1. (a)多層構造を含む試料に対して第1方向から電子線を照射することで、前記第1方向から見た前記試料の第1撮影像を取得するステップ、
    (b)前記試料に対して前記第1方向と交差する第2方向から前記電子線を照射することで、前記第2方向から見た前記試料の第2撮影像を取得するステップ、
    (c)前記第1撮影像と、前記第2撮影像と、前記多層構造の層数、前記多層構造の1層の厚さまたは各層の厚さ、および、前記多層構造の1層目が始まる深さを含む前記試料の情報とを用いて、前記多層構造の深さ情報を取得するステップ、
     を備える、解析システム。
  2.  請求項1に記載の解析システムにおいて、
     前記試料は、
      上面と、
      前記上面と反対側の下面と、
      前記上面から前記下面へ向かって傾斜するように、前記上面の一部に形成された観察面と、
      前記観察面において割断された割断面と、
     を有し、
     前記多層構造の一部は、前記観察面および前記割断面において露出し、
     前記ステップ(a)では、前記上面に対して前記電子線が照射され、
     前記ステップ(b)では、前記割断面に対して前記電子線が照射される、解析システム。
  3.  請求項2に記載の解析システムにおいて、
     前記ステップ(c)は、
    (c1)前記第1撮影像において、前記観察面において露出している前記多層構造の第1箇所を、前記第1方向から見た第1基準座標(x1,y1)として指定するステップ、
    (c2)前記第2撮影像において、前記観察面において露出し、且つ、前記第1基準座標(x1,y1)の座標x1に対応する前記多層構造の第2箇所を、前記第2方向から見た第2基準座標(x1,z1)として指定するステップ、
    (c3)前記第1撮影像において、前記観察面において露出し、且つ、前記第1箇所と異なる前記多層構造の第3箇所を、前記第1方向から見た第1観察座標(x2,y2)として指定するステップ、
    (c4)前記第2撮影像において、前記観察面において露出し、且つ、前記第2基準座標(x2,y2)の座標x2に対応する前記多層構造の第4箇所を、前記第2方向から見た第2観察座標(x2,z2)として指定するステップ、
    (c5)前記第2基準座標(x1,z1)からの前記第2観察座標(x2,z2)の深さを演算するステップ、
     を有し、
     前記多層構造の深さ情報は、前記第2基準座標(x1,z1)からの前記第2観察座標(x2,z2)の深さを含む、解析システム。
  4.  請求項3に記載の解析システムにおいて、
     前記ステップ(c)は、
    (c6)前記試料の情報と、前記ステップ(c5)の演算結果とを照合することで、前記第2基準座標(x1,z1)からの前記第2観察座標(x2,z2)の層数を演算するステップ、
    (c7)前記ステップ(c6)の後、前記第2基準座標(x1,z1)が前記多層構造の1層目に位置する場合、前記試料の前記上面からの前記第2観察座標(x2,z2)の深さおよび層数を演算するステップ、
     を更に有し、
     前記多層構造の深さ情報は、前記第2基準座標(x1,z1)からの前記第2観察座標(x2,z2)の層数と、前記試料の前記上面からの前記第2観察座標(x2,z2)の深さおよび層数とを更に含む、解析システム。
  5.  請求項3に記載の解析システムにおいて、
    (d)前記上面および前記下面を有する前記試料を準備するステップ、
    (e)前記ステップ(d)の後、前記上面の一部に対して研磨処理を施すことで、前記上面の一部に、前記観察面を形成するステップ、
    (f)前記ステップ(e)の後、前記観察面において前記試料を割断することで、前記割断面を形成するステップ、
     を更に備える、解析システム。
  6.  請求項5に記載の解析システムにおいて、
     前記ステップ(d)、前記ステップ(e)および前記ステップ(f)の後、前記ステップ(a)、前記ステップ(b)および前記ステップ(c)が行われる、解析システム。
  7.  請求項5に記載の解析システムにおいて、
     前記ステップ(d)および前記ステップ(e)の後、前記ステップ(a)が行われ、
     前記ステップ(a)の後、前記ステップ(c1)および前記ステップ(c3)が行われ、
     前記ステップ(c1)および前記ステップ(c3)の後、前記ステップ(f)が行われ、
     前記ステップ(f)の後、前記ステップ(b)が行われ、
     前記ステップ(b)の後、前記ステップ(c2)および前記ステップ(c4)が行われ、
     前記ステップ(c2)および前記ステップ(c4)の後、前記ステップ(c5)が行われる、解析システム。
  8. (a)多層構造を含む試料に対して第1方向から電子線を照射することで、前記第1方向から見た前記試料の第1撮影像を取得するステップ、
    (b)前記第1撮影像において、観察範囲を指定するステップ、
    (c)指定された前記観察範囲内において、前記試料のうち複数の箇所に対して、対物レンズを用いて前記第1方向における前記電子線の焦点合わせを行うステップ、
    (d)前記ステップ(c)の前記焦点合わせの結果を基にして、前記試料の前記複数の箇所における前記対物レンズと焦点位置との間の距離を取得し、それらの距離をグラフ化したWDプロファイルを作成するステップ、
    (e)前記多層構造の層数、前記多層構造の1層の厚さまたは各層の厚さ、および、前記多層構造の1層目が始まる深さを含む前記試料の情報と、前記WDプロファイルとを照合することで、前記多層構造の深さ情報を取得するステップ、
     を備える、解析システム。
  9.  請求項8に記載の解析システムにおいて、
     前記試料は、
      上面と、
      前記上面と反対側の下面と、
      前記上面から前記下面へ向かって傾斜するように、前記上面の一部に形成された観察面と、
     を有し、
     前記多層構造の一部は、前記観察面において露出し、
     前記ステップ(a)および前記ステップ(c)では、前記上面に対して前記電子線が照射され、
     前記ステップ(b)の前記観察範囲は、前記観察面を含む、解析システム。
  10.  請求項9に記載の解析システムにおいて、
     前記多層構造の深さ情報は、前記試料の前記上面からの前記WDプロファイル上の所定位置の深さおよび層数を含む、解析システム。
  11.  請求項9に記載の解析システムにおいて、
     前記ステップ(c)では、前記焦点合わせが行われると共に、前記試料のうち前記複数の箇所に対して前記第1方向から前記電子線を照射することで、前記第1方向から見た前記試料の第2撮影像が取得される、解析システム。
  12.  請求項9に記載の解析システムにおいて、
    (f)前記ステップ(d)の後、前記WDプロファイルにおいて所定の位置を指定し、前記試料のうち指定された前記所定の位置に対応する箇所に対して、前記第1方向から前記電子線を照射することで、前記第1方向から見た前記試料の第3撮影像を取得するステップ、
     を更に備える、解析システム。
  13.  請求項8に記載の解析システムにおいて、
     前記電子線を照射可能な電子銃と、
     前記試料を設置可能なステージと、
     前記ステージに接続され、且つ、前記ステージの位置および向きを変位させることができるステージ制御装置と、
     前記電子線を前記試料上に集束させることができる前記対物レンズと、
     前記ステージに設置された前記試料に前記電子線が照射された場合、前記試料から放出される二次電子を信号として検出可能な検出器と、
     前記電子銃、前記ステージ制御装置、前記対物レンズおよび前記検出器の各々の動作を制御する制御部と、
     を有する荷電粒子線装置を更に備え、
     前記制御部は、前記検出器において検出された前記信号を基にして、前記第1撮影像を取得でき、前記対物レンズを制御することで前記焦点合わせを実行でき、前記焦点合わせの結果を基にして、前記WDプロファイルを作成でき、前記WDプロファイルを用いて、前記試料に含まれる多層構造の深さ情報を取得できる、解析システム。
  14.  請求項13に記載の解析システムにおいて、
     前記ステップ(d)において、前記試料の前記複数の箇所における前記対物レンズと焦点位置との間の距離は、前記荷電粒子線装置と異なる表面形状計測装置において取得された前記試料の3次元情報データと照合され、
     照合の結果、前記試料の前記複数の箇所における前記対物レンズと焦点位置との間の距離の補正が行われ、
     それらの補正された距離をグラフ化することで、前記WDプロファイルが作成される、解析システム。
  15.  請求項14に記載の解析システムにおいて、
     前記表面形状計測装置は、白色干渉顕微鏡であり、
     前記3次元情報データは、前記試料に白色光が照射された際に、前記試料で反射した反射光を基にして作成されたデータである、解析システム。
PCT/JP2020/036694 2020-09-28 2020-09-28 解析システム WO2022064707A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN202080105369.2A CN116157891A (zh) 2020-09-28 2020-09-28 解析系统
KR1020237009048A KR20230049740A (ko) 2020-09-28 2020-09-28 해석 시스템
JP2022551107A JP7446453B2 (ja) 2020-09-28 2020-09-28 解析システム
US18/027,501 US20230377836A1 (en) 2020-09-28 2020-09-28 Analysis System
PCT/JP2020/036694 WO2022064707A1 (ja) 2020-09-28 2020-09-28 解析システム
TW110132556A TWI809491B (zh) 2020-09-28 2021-09-02 解析系統

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/036694 WO2022064707A1 (ja) 2020-09-28 2020-09-28 解析システム

Publications (1)

Publication Number Publication Date
WO2022064707A1 true WO2022064707A1 (ja) 2022-03-31

Family

ID=80845148

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/036694 WO2022064707A1 (ja) 2020-09-28 2020-09-28 解析システム

Country Status (6)

Country Link
US (1) US20230377836A1 (ja)
JP (1) JP7446453B2 (ja)
KR (1) KR20230049740A (ja)
CN (1) CN116157891A (ja)
TW (1) TWI809491B (ja)
WO (1) WO2022064707A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH087818A (ja) * 1994-06-23 1996-01-12 Ryoden Semiconductor Syst Eng Kk 走査型電子顕微鏡
JP2001201318A (ja) * 2000-01-18 2001-07-27 Toshiba Corp 膜厚測定方法及びその装置並びにその記録媒体
WO2016002341A1 (ja) * 2014-06-30 2016-01-07 株式会社 日立ハイテクノロジーズ パターン測定方法、及びパターン測定装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI744671B (zh) * 2018-08-03 2021-11-01 日商紐富來科技股份有限公司 電子光學系統及多射束圖像取得裝置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH087818A (ja) * 1994-06-23 1996-01-12 Ryoden Semiconductor Syst Eng Kk 走査型電子顕微鏡
JP2001201318A (ja) * 2000-01-18 2001-07-27 Toshiba Corp 膜厚測定方法及びその装置並びにその記録媒体
WO2016002341A1 (ja) * 2014-06-30 2016-01-07 株式会社 日立ハイテクノロジーズ パターン測定方法、及びパターン測定装置

Also Published As

Publication number Publication date
TW202213569A (zh) 2022-04-01
JP7446453B2 (ja) 2024-03-08
US20230377836A1 (en) 2023-11-23
CN116157891A (zh) 2023-05-23
JPWO2022064707A1 (ja) 2022-03-31
TWI809491B (zh) 2023-07-21
KR20230049740A (ko) 2023-04-13

Similar Documents

Publication Publication Date Title
JP4474337B2 (ja) 試料作製・観察方法及び荷電粒子ビーム装置
JP5059297B2 (ja) 電子線式観察装置
WO2016002341A1 (ja) パターン測定方法、及びパターン測定装置
WO2016121265A1 (ja) 試料観察方法および試料観察装置
JP2003007243A (ja) レーザ欠陥検出機能を備えた走査型電子顕微鏡のオートフォーカス方式
NL1039512C2 (en) Integrated optical and charged particle inspection apparatus.
JP5309552B2 (ja) 電子線トモグラフィ法及び電子線トモグラフィ装置
CN106370680B (zh) 用于tem/stem层析成像倾斜系列采集和对准的基准形成
JP3602646B2 (ja) 試料の寸法測定装置
KR20180008577A (ko) 결함 판정 방법, 및 x선 검사 장치
JP6659290B2 (ja) 試料位置合わせ方法および荷電粒子ビーム装置
JP5075393B2 (ja) 走査電子顕微鏡
JP2010256261A (ja) 結晶方位同定システム及び透過電子顕微鏡
TWI785582B (zh) 用於在帶電粒子束檢測系統中增強檢測影像之方法、影像增強裝置及其相關非暫時性電腦可讀媒體
WO2017033591A1 (ja) 荷電粒子線装置および試料ステージのアライメント調整方法
WO2022064707A1 (ja) 解析システム
JP6088337B2 (ja) パターン検査方法及びパターン検査装置
JP6207893B2 (ja) 試料観察装置用のテンプレート作成装置
WO2021186637A1 (ja) 荷電粒子線装置
WO2023053373A1 (ja) 解析システム
CN108231513A (zh) 用于操作显微镜的方法
JP7167323B2 (ja) パターン計測装置および計測方法
JP2009110969A (ja) パターン寸法測定方法、及びパターン寸法測定装置
JP5270984B2 (ja) 観察対象物整列方法および観察対象物整列装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20955300

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022551107

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20237009048

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20955300

Country of ref document: EP

Kind code of ref document: A1