WO2011039908A1 - 荷電粒子顕微鏡装置及びこれを用いた試料の検査方法 - Google Patents

荷電粒子顕微鏡装置及びこれを用いた試料の検査方法 Download PDF

Info

Publication number
WO2011039908A1
WO2011039908A1 PCT/JP2010/004071 JP2010004071W WO2011039908A1 WO 2011039908 A1 WO2011039908 A1 WO 2011039908A1 JP 2010004071 W JP2010004071 W JP 2010004071W WO 2011039908 A1 WO2011039908 A1 WO 2011039908A1
Authority
WO
WIPO (PCT)
Prior art keywords
sample
charged particle
image
captured image
design data
Prior art date
Application number
PCT/JP2010/004071
Other languages
English (en)
French (fr)
Inventor
中平健治
宮本敦
Original Assignee
株式会社日立ハイテクノロジーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ハイテクノロジーズ filed Critical 株式会社日立ハイテクノロジーズ
Priority to US13/379,663 priority Critical patent/US9341584B2/en
Publication of WO2011039908A1 publication Critical patent/WO2011039908A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2255Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident ion beams, e.g. proton beams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/26Electron or ion microscopes; Electron or ion diffraction tubes
    • H01J37/261Details
    • H01J37/265Controlling the tube; circuit arrangements adapted to a particular application not otherwise provided, e.g. bright-field-dark-field illumination
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/26Electron or ion microscopes; Electron or ion diffraction tubes
    • H01J37/28Electron or ion microscopes; Electron or ion diffraction tubes with scanning beams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/22Treatment of data
    • H01J2237/221Image processing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/26Electron or ion microscopes
    • H01J2237/28Scanning microscopes
    • H01J2237/2813Scanning microscopes characterised by the application
    • H01J2237/2814Measurement of surface topography
    • H01J2237/2815Depth profile
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/26Electron or ion microscopes
    • H01J2237/28Scanning microscopes
    • H01J2237/2813Scanning microscopes characterised by the application
    • H01J2237/2817Pattern inspection

Definitions

  • the present invention relates to a charged particle microscope apparatus that irradiates a sample with charged particles and acquires an image, or a method for inspecting a sample using the charged particle microscope apparatus.
  • the acquired image is subjected to image quality improvement processing by image processing.
  • the present invention relates to an apparatus or method for inspecting a sample by using a captured image.
  • the charged particle microscope has a much higher resolution than the optical microscope and is widely used for observing the fine structure of the object to be observed clearly.
  • a charged particle microscope irradiates a target sample with a charged particle beam and detects particles emitted from the target sample or transmitted through the target sample (the same or different charged particles as the irradiated charged particles, or electromagnetic waves, photons). Thus, an enlarged image of the target sample is acquired.
  • scanning electron microscopes Scanning Electron Microscope
  • scanning ion microscopes Scanning Ion Microscope
  • scanning transmission and the like are used for semiconductor wafer inspection, pattern dimension measurement, and pattern shape measurement.
  • a charged particle microscope such as an electron microscope (ScanningnTransmission Electron Microscope) is used.
  • inspections such as semiconductor pattern and defect observation, defect detection and generation factor analysis, and pattern dimension measurement are performed using captured images.
  • JP 63-211142 A Japanese Patent Laid-Open No. 3-44613
  • the image quality of the entire image is deteriorated with respect to a complicated pattern region such as a lower layer pattern or a hole pattern bottom where it is difficult to obtain good image quality.
  • No image processing that improves the sharpness (contrast, S / N, sharpness, resolution) of the area is performed, and processing that focuses on the height information of the sample pattern is not performed.
  • the image quality improvement process is performed using only the captured image, or the image quality improvement process is performed using the captured image and the imaging conditions (accelerating voltage of the charged particle beam, probe current, etc.).
  • design data represents data indicating the shape information of the semiconductor pattern to be manufactured. In many cases, the shape of the pattern is described by information on the outline of the semiconductor pattern.
  • the design data may include information on sample characteristics (material characteristics, electrical characteristics, layer characteristics, etc.). For this reason, the conventional processing may not provide sufficient image quality improvement performance as listed below.
  • the present invention sufficiently improves the image quality even in the above cases, and the processed image is used to perform inspections such as sample pattern and defect observation, defect detection and generation factor analysis, and pattern dimension measurement.
  • inspections such as sample pattern and defect observation, defect detection and generation factor analysis, and pattern dimension measurement.
  • a possible inspection apparatus or inspection method is realized.
  • a method for inspecting a sample using a charged particle microscope apparatus wherein a captured image is obtained by irradiating the sample with charged particles and detecting the same or different types of particles emitted from the sample to acquire a captured image
  • a test step for inspecting the sample using the processed captured image A method for inspecting a sample using a charged particle microscope.
  • the method for inspecting a sample using the charged particle microscope according to (1) further including a design data reading step for reading design data corresponding to the captured image acquired in the captured image acquisition step, In the image processing step, the sample height information obtained from the read design data is used as the sample height information.
  • This is a sample inspection method using a charged particle microscope.
  • (3) The method for inspecting a sample using the charged particle microscope according to (2), wherein, in the image processing step, each of the plurality of local regions is clear based on height information of the sample obtained from the design data.
  • a method for inspecting a sample using a charged particle microscope characterized in that an image processing intensity is calculated and the captured image is image-processed for each of the plurality of local regions using the sharpening intensity.
  • the sharpening intensity for at least one layer other than the uppermost layer in the design data is This is a sample inspection method using a charged particle microscope, characterized in that calculation is performed using layer information above the layer.
  • the amount of particles emitted from the sample reaches the detector greatly affects how much the upper layer collides. Therefore, it is possible to appropriately determine how much the sharpness needs to be increased by using the information of the layer higher than the layer to be processed.
  • Charged particle irradiation optical system means for irradiating the sample with charged particles, and an electroparticle detection optical system for detecting the same type or different types of particles generated from the sample irradiated with charged particles by the charged particle irradiation optical system means
  • captured image acquisition means for processing the signal detected by the particle detection optical system means to obtain a captured image of the sample
  • image processing means for processing the captured image of the sample acquired by the captured image acquisition means
  • the image processing means divides the captured image into a plurality of local regions and, based on the height information of the sample, the captured image is divided into the plurality of local regions.
  • a charged particle microscope apparatus that performs image processing.
  • the above-described problems of the prior art are solved, and a sample pattern and defect observation, defect detection and generation factor analysis, pattern dimension measurement, etc. are performed using an image that has been sufficiently subjected to image quality improvement processing. It is possible to realize an inspection apparatus or an inspection method that can perform the inspection.
  • 1 is a basic configuration of a charged particle microscope according to an embodiment of the present invention. It is an Example figure which performs an image quality improvement process, without using the information of design data. It is an Example figure showing embodiment of the image quality improvement part in the case of not using design data. It is an Example figure showing the relationship between the shape of a sample, and the quantity by which the particle discharge
  • FIG. 10 is an example of a sequence for prompting the user to input information regarding a region to which the sharpening intensity is to be designated or the sharpening intensity, and calculating the sharpening intensity based on the information designated by the user.
  • FIG. 10 is an example of a sequence for prompting the user to input information regarding a region to which the sharpening intensity is to be designated or the sharpening intensity, and calculating the sharpening intensity based on the information designated by the user. It is an Example figure showing the interface for prompting a user to input the area
  • FIG. 6 is an example diagram of a method for grouping similar regions.
  • FIG. 6 is an example diagram of a method for grouping similar regions. It is an Example figure showing the method of transforming design data with respect to the captured image acquired by irradiating the sample with the charged particle beam from the non-perpendicular direction. It is an Example figure of the method of performing an image quality improvement process using the layer information of design data. It is an Example figure showing the relationship between the shape of a pattern, and a particle detection amount. It is an Example figure showing the process which deform
  • FIG. 1 is an example of a sequence for acquiring a charged particle image and performing image quality improvement processing.
  • design data including information on a sample to be imaged is read.
  • a charged particle image is acquired.
  • the acquired charged particle image is referred to as a captured image.
  • Step 102 may be performed before step 101.
  • step 103 the captured image is divided into a plurality of local regions.
  • design data information can also be used. The local area will be described later.
  • step 104 the sharpening strength is calculated for each local region using the height information of the design data, and in step 105, the image quality improvement process is performed on the captured image based on the sharpening strength.
  • the output of the image quality improved image is called an image quality improved image.
  • the image quality improvement processing is strongly applied so that the sharpness of the image quality improved image increases as the sharpening strength increases.
  • the height information may be a specific numerical value that represents the length from a certain reference point, or information that represents a relative height relationship such as whether it is higher or lower than the surroundings. Information representing the relationship between the upper layer and the lower layer in the multilayer layer is also one of the height information.
  • FIG. 2 shows an example diagram showing an embodiment different from the sequence of FIG.
  • the same processes as those in FIG. 1 are indicated by the same numbers as in FIG.
  • the same number is assigned.
  • the processing in steps 101 and 102 is the same as that in FIG.
  • step 101 design data having a field of view wider than the field of view of the captured image to be acquired is read, and even if a displacement occurs, the captured image is handled. Keep the area included.
  • step 201 the captured image and the design data are aligned.
  • step 202 the design data is transformed to match the captured image.
  • step 201 for aligning the captured image and the design data and the step 202 for modifying the design data to be performed as necessary may be performed after the step 102 of the sequence shown in FIG. I do not care.
  • step 203 the captured image is divided into a plurality of local regions.
  • design data information can also be used.
  • step 204 the current sharpness in the captured image (hereinafter, current sharpness) is calculated.
  • the sharpness is an index representing one or more of contrast, S / N, sharpness, and resolution at each local position of the image.
  • the average of the differentiation in the local region including the target local position (hereinafter referred to as the neighborhood region), the variance of the brightness value in the neighborhood region, the quartile range of the brightness value in the neighborhood region (the first quartile point and The difference from the third quartile), the intensity of the high-frequency component included in the neighborhood, the brightness change at the edge (the line segment where the brightness value changes rapidly), S / N, etc.
  • sharpness can be defined as sharpness.
  • the image quality improvement processing is performed based on the sharpening strength in step 105. , Get an image with improved image quality.
  • the sharpening strength is a degree representing how much the sharpness of the image quality improved image is enhanced with respect to the captured image.
  • FIG. 12 is a diagram illustrating an example of a basic operation for acquiring a charged particle image and performing image quality improvement processing.
  • a processing rule 1215 used for calculating the sharpening intensity is created in advance by a series of processing shown in 1201.
  • image quality improvement processing is performed on the captured image by a series of processes shown at 1202 to generate an image quality improved image 1230.
  • various assumed sample information 1211 is prepared.
  • Sample information is information representing sample height information, sample three-dimensional shape information (two-dimensional shape information and height information), electrical characteristics, material characteristics, and the like.
  • a captured image is estimated based on a physical model related to the imaging principle of the charged particle microscope.
  • the processing rule 1215 is created based on the sample information 1211 and the estimated value 1213 of the captured image.
  • the height information and the layer information of the design data can be used as the estimated value 1224 of the sample information as it is.
  • the captured image is divided into local regions.
  • the estimated value 1224 of sample information can also be used.
  • the sharpening intensity 1228 is calculated for each local region using the estimated value 1224 of the sample information.
  • image quality improvement processing is performed on the captured image based on the sharpening intensity.
  • the height information of the sample has a deep relationship with the sharpness of the captured image as will be described later.
  • whether or not a captured image is clearly displayed often greatly affects electrical characteristics and material characteristics.
  • FIG. 3 shows a basic configuration of a charged particle microscope apparatus according to an embodiment of the present invention.
  • the charged particle microscope apparatus includes, for example, an imaging device 301, an input / output unit 321, a control unit 322, a processing unit 323, a storage unit 324, an image quality improvement unit 325, and the like as appropriate.
  • a charged particle beam 303 is generated from the charged particle gun 302, and the charged particle beam 303 is focused on the surface of the sample 306 by passing through the condenser lens 304 and the objective lens 305.
  • a plurality of condenser lenses 304 and objective lenses 305 may be provided.
  • particles charged particles, electromagnetic waves, or photons generated from the sample 306 are detected by a detector 308, and a digital image is generated from a signal obtained by the image generator 309, thereby obtaining a captured image. get.
  • the captured image is stored in the storage unit 324 via the bus line 310.
  • a photomultiplier or an APD avalanche photodiode
  • one detector or a plurality of detectors may be provided.
  • a detector that detects different particles such as a detector that detects electrons and a detector that detects electromagnetic waves is appropriately combined, in the case of SEM, for example, a secondary electron detector and a backscattered electron detector.
  • a combination of detectors that detect particles of different properties may be used.
  • a plurality of detectors it is possible to acquire a plurality of captured images usually by one imaging.
  • the sample 306 is in contact with the stage 307, and by moving the stage 307, an image at an arbitrary position of the sample can be acquired.
  • the input / output unit 321 inputs an image capturing position and imaging conditions, and outputs a captured image and an image with improved image quality.
  • the control unit 322 controls the voltage applied to the charged particle gun 302, the adjustment of the focal positions of the condenser lens 304 and the objective lens 305, the movement of the stage 307, the operation timing of the image generator 309, etc. To do.
  • the control unit 322 also controls the input / output unit 321, the processing unit 323, the storage unit 324, and the image quality improvement unit 325.
  • the processing unit 323 performs processing other than the image quality improvement processing, for example, processing related to automatic focusing necessary for focusing the charged particle beam 303 on the surface of the sample 306.
  • the processing unit 323 performs length measurement of the captured pattern, defect detection, classification, and the like.
  • the storage unit 324 stores captured images, design data, sample characteristic information, image quality improved images, processing parameters for improving image quality, and the like.
  • the image quality improvement unit 325 performs a series of processes for generating an image quality improved image from the captured image shown in FIG.
  • the image quality improvement unit 325 includes a design data reading unit 331 that reads design data in step 101, an area dividing unit 332 that performs region division in step 103, and a sharpening intensity calculation unit 333 that calculates the sharpening intensity in step 104;
  • An image quality improvement processing unit 334 that performs the image quality improvement processing in step 105 is appropriately used.
  • the design data reading by the design data reading unit may be performed by storing the design data in the storage unit 324 and reading from the storage unit 324.
  • the design data may be read from another device or file server via a network. You may make it read.
  • the design data reading unit 331 is described as being included in the image quality improvement processing unit 334. However, the design data reading unit 331 may be provided separately from the image quality improvement processing unit 334.
  • an alignment unit for aligning the design data in step 201 and the captured image, a design data deforming unit for deforming the design data in step 202, and a current definition calculation for calculating the current definition in step 204. May be provided.
  • FIG. 4 is a diagram showing an example of performing image quality improvement processing without using design data information as an embodiment different from the sequence of FIG. Steps 102 and 103 are the same as those in FIG.
  • step 401 the height information of the sample is estimated from the captured image.
  • the method for estimating the height information will be described later.
  • the height information about the upper and lower layers of the pattern is extracted from the information about how the contour lines intersect with each other by extracting the contour information of the sample from the captured image. Information can be obtained.
  • the sharpening intensity is calculated based on the estimated value of the sample height information.
  • an image quality improvement process is performed based on the sharpening intensity.
  • the step 204 for calculating the above-described current sharpness is performed between the step 103 and the step 401 or between the step 401 and the step 402, and based on the estimated value of the current sharpness and the sample height information.
  • the sharpening intensity may be calculated.
  • the height of the sample is increased.
  • the height information it is possible to automatically recognize a region with poor visibility. Therefore, it is possible to improve the definition of these areas and obtain an image that does not impair the image quality of the other areas.
  • by combining the information of the design data it is possible to perform higher performance image quality improvement processing.
  • FIG. 5 shows an embodiment of the image quality improvement unit when design data is not used in the basic configuration of FIG.
  • the basic configuration of the imaging device 301 and the like is the same as that in FIG. 3, and only the image quality improvement unit will be described here.
  • the image quality improvement unit 325b has another configuration in place of the image quality improvement unit 325 of FIG. 3, and instead of the design data reading unit 331, the sample height information estimation unit 531 that estimates the sample height information in step 401. Is provided.
  • the image quality improvement unit 325 b includes a sharpening strength calculation unit 532 that calculates the sharpening strength in Step 402.
  • the image quality improvement unit 325b may include a design data reading unit 331 so as to cope with a case where the design data information is used in combination. According to the present embodiment, it is possible to automatically recognize areas that require improved visibility using the information of the captured image, and to set a sufficiently high sharpening intensity for these areas to improve image quality. It is possible to obtain an image that does not impair the image quality of other areas
  • FIG. 6 shows an example of the relationship between the shape of the sample and the amount of particles detected from the sample.
  • the charged particle beam 303 is irradiated to the samples 602, 612, 622, 632, 642, 652 from the charged particle gun 302, the trajectories of particles emitted from the sample are indicated by arrows.
  • each sample has the same electrical and material properties.
  • six arrows are described from the position irradiated with the charged particle beam, and as the number of arrows colliding with the sample increases, the particle cannot be detected by the detector.
  • the trajectory of the particles can be bent in this way to detect more particles.
  • the surrounding sample 624 is located at a position higher than the irradiation position 623 of the charged particle beam.
  • the difference in height between 614 and 613 is the same as the difference in height between 624 and 623, but in the case of the sample 622, the sample 624 is located at a certain distance along the x direction from the position 623. Therefore, as indicated by an arrow 625, the number of particles colliding with the sample is smaller than in the case of the sample 612.
  • the sharpness of the captured image corresponding to the position 623 is higher than that of the position 613.
  • the surrounding sample 634 is located higher than the irradiation position 633 of the charged particle beam, and the height difference between 634 and 633 is larger than that of the sample 612.
  • the number of particles colliding with the sample is larger than that in the case of the sample 612. Therefore, the sharpness of the captured image corresponding to the position 633 is higher than that in the position 613. And lower.
  • the surrounding samples 644 and 645 are located higher than the charged particle beam irradiation position 643, but the heights of the samples 644 and 645 are different from each other.
  • the height of the sample 644 is the same as the height of the sample 634
  • the height of the sample 645 is the same as the height of the sample 614.
  • the number of particles that collide with the sample is greater than in the case of sample 612 and less than in the case of sample 632.
  • the sharpness of the captured image corresponding to the position 643 is lower than that in the position 613 and higher than that in the position 633.
  • the charged particle beam is irradiated to the position 654 near the edge 651.
  • the inside of the rectangle represents the high position of the sample, and the outside is low.
  • many particles are emitted in a direction in which the distance between the irradiation position 654 and the edge is short as indicated by an arrow 653.
  • FIG. 7 is a diagram showing an example of the image quality improvement processing in step 105.
  • an image quality improvement parameter is calculated using the calculated sharpening intensity 702 (step 711), and a predetermined image quality parameter 705 is calculated.
  • the image quality improvement in step 712 is performed on the captured image 703 using the calculated image quality improvement parameter 705, and a processing result 706 is obtained.
  • contrast correction processing 721, signal enhancement processing 722, gamma correction processing 723, noise removal processing 724, image restoration processing 725, super-resolution processing 726, or any combination thereof is performed.
  • the image quality improvement parameter 705 in the case of performing the contrast correction process 721, for example, the brightness value dispersion or the quartile range target value itself, which is one of the sharpness values, or the brightness value. Another value calculated from the sharpening intensity, such as the average value of, or a combination of these values.
  • the sharpness is calculated for the processing result 706.
  • the processing result 706 is set as an image quality improved image 704.
  • the processing of steps 713, 715, 716 may not be performed if not necessary.
  • the image quality improvement processing in step 105 shown here may be used in any of the sequences shown in FIG. 1, FIG. 2, and FIG. According to the present embodiment, it is possible to perform an image quality improvement process on a captured image and obtain an image quality improved image having a desired sharpness.
  • FIG. 8 is a diagram showing an embodiment representing the process of aligning the captured image and design data in step 201 and the process of deforming the design data in step 202 to match the captured image.
  • the design data 802 is design data (before alignment) corresponding to the captured image 801.
  • the captured image 801 and the design data 802 are aligned to obtain design data 803 after alignment.
  • the visual field of the design data 802 before alignment is set larger than the visual field of the captured image.
  • the design data 803 after alignment may differ greatly from the captured image 801 in the shape of the reflected pattern. Therefore, using the captured image 801, the design data 803 after alignment is transformed in step 202.
  • a simulator such as a lithography simulator can be used to transform the design data.
  • As the design data 810 after alignment / deformation a structure such as a white band appearing at the edge of the hole, which originally did not exist in the design data, may be expressed.
  • FIG. 13 shows an embodiment diagram showing a process of transforming the design data in step 202 so as to match the captured image.
  • Outlines of patterns and defects calculated from captured images (hereinafter referred to as image outlines) are indicated by solid lines, and outlines of design data are indicated by dotted lines.
  • an image contour line can be calculated by performing an edge extraction process such as a differential filter on a captured image.
  • the image contour 1302 is rounded compared to the design data contour 1301.
  • the contour line 1301 of the design data can be deformed into a shape similar to the image contour line, like a contour line 1303 after deformation.
  • the image contour line 1312 is correctly the same as 1302, but is broken like a part 1313 due to a calculation error in image processing.
  • the line is often disconnected depending on the calculation method.
  • the contour line 1311 of the design data is brought close to the image contour line 1312 so as not to be disconnected and to be a complicated curve, so that a contour line 1314 after deformation is obtained. Can be transformed into a shape.
  • the image contour line is cut into a first image contour line 1322 and a second image contour line 1323 because the actual pattern is disconnected.
  • the contour line 1331 of the design data is represented by two closed curves (contour line 1332 and contour line 1335), but the corresponding pattern is short-circuited, and the image contour line 1333 is one.
  • This is an example represented by a closed curve.
  • a contour line 1334 after deformation is obtained. It can be transformed into the same shape as the image outline.
  • the design data is transformed, and the contour line of the design data is brought close to the image contour line when it is correctly calculated by the image processing, so that the area division process in step 203, which is the subsequent process, or step 205 is performed.
  • the processing for calculating the sharpening intensity of the image can be performed with high accuracy.
  • FIG. 27 is a diagram illustrating an example showing a process of deforming the design data so as to match the captured image in the example 1321 of FIG.
  • the image contour calculated from the captured image is indicated by a solid line
  • the contour of the design data is indicated by a dotted line.
  • the shape 2705 represented by one closed curve is obtained by gradually changing the contour line of the design data.
  • several points 2711 on the outline of the design data are moved to the image outline near the point. In this example, the movement of each point is indicated by an arrow 2712.
  • the contour line of the design data is deformed into the shape 2705, the difference between the deformed design data and the image contour line is calculated.
  • parts 2701 and 2702 of the image outline and parts 2703 and 2704 of the outline of the design data are obtained.
  • analysis is performed such as examining the number of closed curves of the contour line of the design data and the number of closed curves of the image contour line.
  • there is one closed contour curve for the design data but there are two closed contours for the image contour. Therefore, it can be seen that the number of closed contours for the image contour has increased for reasons such as disconnection. Therefore, after increasing the number of closed contour lines of the design data, the contour lines of the design data are gradually changed to obtain a first contour line 1324 after deformation and a second contour line 1325 after deformation. Can be obtained.
  • the design data can be appropriately deformed according to the image outline.
  • FIG. 14 is a diagram illustrating an example showing the process of aligning the captured image and the design data in step 201.
  • Design data 1401 is design data corresponding to the captured image 1402.
  • the design data 1401 has an upper layer pattern 1411 and a lower layer pattern.
  • a signal component having a high definition is indicated by a solid line
  • a signal component having a low definition is indicated by a dotted line.
  • the lower layer pattern 1414 has low definition and is difficult to recognize by image processing.
  • the upper layer pattern 1411 has very little change in the vertical direction, Cannot be combined.
  • the vertical alignment can be performed by aligning with the lower layer pattern 1412 of the design data.
  • the design data and the captured image are recognized. Is difficult to align in the vertical direction.
  • the design data 1403 after alignment in the case of this example is shown.
  • the dotted line indicates the pattern that could not be aligned.
  • looking at the design data 1403 after alignment it is understood that the vertical alignment could not be performed and the accurate position of the lower layer pattern could not be recognized, but on the other hand, the lower layer pattern could not be recognized. Since it is possible to read the presence of, a process that can be applied without specifying the position of the lower layer pattern, which will be described later, is performed. Thereby, the sharpness can be improved appropriately.
  • FIG. 26 is a diagram showing an embodiment representing a process of transforming the design data in step 202 so as to match the captured image.
  • the design data 2601 is an example of design data corresponding to the captured image 2602.
  • the image outline is indicated by a solid line.
  • the outline 2611 of the design data corresponds to the image outline 2612.
  • the shape of the image outline 2612 can be approximated.
  • the captured image 2602 of this example includes an image contour line of the foreign material 2613 that is not included in the design data.
  • the image contour line of the foreign matter 2613 can be extracted by comparing the deformed design data contour line with the image contour line. it can. For this reason, it is also possible to add contour line information of the foreign matter 2605 that is not included in the design data but is included in the captured image to the design data after the deformation.
  • FIG. 9 is a diagram showing an embodiment showing a region dividing method and a sharpening intensity calculation method.
  • Design data 901 is design data corresponding to the captured image 902.
  • an upper layer pattern 911 and a lower layer pattern 912 are shown.
  • a dotted line in the captured image 902 indicates that the visibility is poor.
  • it is difficult to detect a sufficient amount of particles emitted from the lower layer pattern for reasons such as collision with the upper layer pattern, resulting in poor visibility of the lower layer pattern. is there.
  • An example of a local area obtained by area division is shown at 903.
  • a local region a 913, a local region b 914, a local region c 915, a local region d 916, and a local region e 917 are divided into five local regions.
  • the region division can be performed in this way.
  • An example of the sharpening intensity calculated for each local region at 903 is shown at 904.
  • the region where the sharpening strength is zero is represented by white, and the region having a sufficiently high value is painted by hatching.
  • the region 918 corresponding to the upper layer pattern has a sharpening strength of zero, and a sufficiently high sharpening strength is set for the region 919 other than the upper layer pattern.
  • the sharpening intensity can be calculated without specifying the position of the lower layer pattern, the present invention is applied even in the case where the accurate position of the lower layer pattern cannot be recognized as in the example of FIG. be able to.
  • Reference numeral 905 denotes an example different from 903 as a local area obtained by area division. In this example, the entire image is divided into small-sized local areas. As in this example, region division can be performed regardless of design data and captured image information.
  • An example of the sharpening intensity calculated for each local area in 905 is shown at 906. This is expressed by the same filling method as in the example 904.
  • the sharpening strength is set high at the edge portion 920 of the lower layer pattern. The visibility of the lower layer pattern can be improved by such sharpening strength.
  • the sharpening intensity can take a negative value.
  • the sharpening strength is a positive value
  • the image quality improvement processing is performed so that the sharpness of the image with improved image quality is higher than the current sharpness.
  • the sharpening strength is negative, the current sharpness is The image quality improvement processing is performed so that the sharpness of the image with improved image quality is higher than that of the above. *
  • FIG. 10 is a diagram showing an embodiment in which the sharpening intensity is calculated using the sample height information included in the design data.
  • the figure which plotted the corresponding height information 1002 with respect to the design data 1001 is shown.
  • the z axis represents the height direction.
  • the design data includes height information 1002 in addition to 1001 two-dimensional information.
  • the pattern 1011a and the pattern 1012a appear to be the same upper layer pattern only by the design data 1001 information, but the pattern heights are different, and the pattern 1012a is higher than the pattern 1011a as shown by 1015a and 1016a. .
  • the pattern 1011b is even the same height as the pattern 1011a
  • the pattern 1012b is the same height as the pattern 1012a.
  • 1015a, 1015b, 1016a, and 1016b correspond to the patterns 1011a, 1011b, 1012a, and 1012b in the two-dimensional information 1001, respectively.
  • the height of the lower layer pattern is uniform. Since both the pattern 1012a and the pattern 1012b are high patterns, it is particularly difficult to detect particles emitted from the sample from the region 1030 surrounded by these patterns.
  • a graph 1003 shows the detected amount of particles released from the sample (hereinafter, the detected particle amount).
  • Both 1021, 1022, and 1023 correspond to the lower layer pattern.
  • the amount of detected particles is smaller than that in 1021. The reason for this can be explained by the fact that the heights of the upper layer patterns on both sides are different at the corresponding positions. Since the upper layer patterns 1016a and 1016b on both sides in 1023 are higher than the upper layer patterns 1015a and 1015b on both sides in 1021, the particles emitted from the sample easily collide with the adjacent samples, and the amount of detected particles is small. In 1022, the particle detection amount is smaller than that in 1021, and the particle detection amount is larger than that in 1023. This is the same as the phenomenon described with reference to FIG. 6 and can be easily understood since the adjacent patterns are 1015b and 1016a.
  • the 1004 shows an example of the sharpening strength. Since the detection amount of the particle shown in the graph 1003 can be predicted using the height information of the design data, a region with relatively poor visibility can be obtained by increasing the sharpening intensity at a portion where the particle detection amount is small. In contrast, the visibility can be greatly improved.
  • FIG. 11 shows an example diagram for calculating the sharpening intensity for images having different aspect ratios.
  • Design data 1101 and design data 1102 are examples of design data corresponding to samples having different positions in the same process.
  • height information 1111 and height information 1112 the height information of the design data corresponding to the design data 1101 and the design data 1102 is shown, respectively.
  • the upper layer pattern and the lower layer pattern have the same height, but the design data 1102 is densely wired with the upper layer pattern with respect to the design data 1101. In this way, even when the pattern height information is the same, the particles emitted from the lower layer are more likely to collide with the upper layer pattern when the upper layer pattern is densely wired, so that the detection becomes difficult.
  • the captured image corresponding to the design data 1102 generally has poor visibility of the lower layer pattern. If the information of the design data is used, it can be easily understood that the pattern is more densely wired in the design data 1102 than in the design data 1101. Therefore, it can be expected that the definition of the lower layer pattern is low.
  • the sharpening strength is calculated using not only the difference in height between the upper layer pattern and the lower layer pattern but also information on the coarse density of the pattern or how close the upper layer pattern is. Examples of the sharpening strength corresponding to the design data 1101 and the design data 1102 are shown as the sharpening strength 1121 and the sharpening strength 1122, respectively. By such processing, the sharpening strength can be set stronger with respect to the case where the sharpness becomes lower as in 1102.
  • FIG. 15 shows an example diagram for estimating the height information of the sample from the captured image.
  • a region 1511 having a high brightness value is represented by white
  • a region 1512 having a low brightness value is painted by hatching.
  • the height information of the sample can be estimated by regarding a region having a low brightness value as a region having a low height and a region having a high brightness value as a region having a high height.
  • the height information of the sample may be a specific value such as 200 nm (the height from a certain reference position), or represents a relative height relationship such as “high” or “low”. Only information is acceptable. Information representing the relationship between the upper layer and the lower layer in the multilayer layer is also one of the height information.
  • the edge of the pattern is represented by a black line segment.
  • the captured image 1502 has upper layer patterns 1513 and 1514 and a lower layer pattern 1516. In a region 1515 between them, the visibility of the lower layer pattern is poor and it is difficult to detect an edge.
  • the captured image 1503 and the captured image 1504 are different examples. Two images obtained by irradiating charged particles to the same portion of the sample and detecting with two sets of backscattered particle detectors are shown. In the captured image 1503 and the captured image 1504, a region 1521 with a high lightness value is white, a region 1522 with a low lightness value is black, and a region 1523 with an intermediate lightness value is painted with hatching. In these captured images, two vertical patterns are shown. A backscattered particle detector is arranged so as to detect many backscattered particles emitted on the left and right sides as viewed from the captured image.
  • the height information can be estimated, for example, it can be determined that it is not necessary to perform sharpening because it is easy to detect emitted particles in a local region where the height is higher than the surroundings. In this way, the sharpening intensity can be calculated more appropriately by using the height information.
  • the image used for estimating the height information and the image for which the sharpening intensity calculation and the image quality improvement processing are performed may be different images. For example, in the example of the captured image 1503 and the captured image 1504, after height information is estimated using these images, an image quality improvement process is performed on an image obtained by another detector using the height information. It can be performed.
  • FIG. 16 is a diagram illustrating an example of a method for setting the restriction condition of the sharpening strength using the current sharpness calculated from the captured image.
  • a graph 1601 showing the relationship between the current sharpness and the constraint condition in each layer of the captured image is illustrated.
  • a black circle 1611 represents the current sharpness.
  • a white rectangle 1612 represents a constraint condition, and the upper line segment indicates the upper limit of the sharpness required for the image quality improved image (hereinafter referred to as target sharpness), and the lower line segment indicates the lower limit of the target sharpness.
  • target sharpness the upper line segment indicates the upper limit of the sharpness required for the image quality improved image
  • the lower line segment indicates the lower limit of the target sharpness.
  • the lower the layer the lower the definition.
  • the sharpness of the second layer from the upper layer and the third layer from the upper layer are low, it is necessary to set a high sharpening strength for these layers. However, the higher the sharpening strength, the better. In order not to deteriorate the overall image quality, it is generally necessary to set the lower layer sharpness of the image with improved quality lower than the upper layer sharpness. is there. In addition, even when the sharpness is excessively high, the image quality of a region with low sharpness may be impaired due to the fact that the region is too conspicuous. Furthermore, if the relative sharpness level is lost before and after the image quality improvement processing, the entire image may become unnatural. If it is too high, side effects such as noise amplification and artificial patterns appear.
  • a restriction condition for the sharpness is set as necessary.
  • these constraints should not exceed the upper layer sharpness and should not be excessively high, and should not be too high compared to the current sharpness. Etc. can be determined.
  • a graph 1602 shows a constraint condition for the sharpening intensity.
  • This restriction condition can be obtained, for example, by subtracting the current definition from the restriction condition for the definition of the image quality improved image.
  • the description has been given taking the pattern of the three-layer layer as an example, but it is needless to say that the constraint condition can be set similarly in the pattern of other plural layers.
  • FIG. 17 shows an example of a sequence for prompting the user to input information relating to a region for which the sharpening strength is to be specified or the sharpening strength, and calculating the sharpening strength based on the information designated by the user.
  • FIG. 17 (1) is an example of a sequence in the case of using design data. The processing in steps 101 and 102 is the same as that in FIG. Next, after segmentation is performed on the captured image in step 1701, the sharpening intensity is calculated for each local region of the captured image obtained by region segmentation using the height information of the design data in 1702. Next, in 1703, image quality improvement processing is performed based on the sharpening intensity to obtain an image quality improved image.
  • step 1704 if there is a request from the user by inputting a request for specifying the sharpening strength from the user or a request for sharpening strength, the processing in steps 1701 to 1703 is performed again based on the request. Thereafter, steps 1701 to 1704 are repeated until there is no request from the user in step 1704.
  • (2) of FIG. 17 is an example of a sequence in the case of calculating the sharpening intensity using the information of the captured image.
  • the processing in step 102 is the same as in FIG.
  • the height information of the sample is estimated from the captured image in 1712.
  • the height information of the sample is estimated from the captured image.
  • the sharpening intensity is calculated for each local region of the captured image obtained by region division using the estimated value of the height information of the sample.
  • an image quality improvement process is performed based on the sharpening intensity to obtain an image quality improved image.
  • the user inputs a request for specifying the sharpening strength or the sharpening strength request. If there is a request, the processing in steps 1711 to 1714 is repeated based on the request. Thereafter, steps 1711 to 1715 are repeated until there is no request from the user in step 1715.
  • FIG. 18 shows another sequence different from that shown in FIG. 17 in which the user is prompted to input information relating to the region for which the sharpening strength is to be specified or the sharpening strength, and the sharpening strength is calculated based on the information designated by the user.
  • An example diagram is shown. In this sequence, a plurality of locations of the sample are imaged. The processing from step 102 to step 1715 is the same as that in FIG. 17, and an output image in the first captured image is generated by these processing. Next, the output image in the remaining captured images is obtained by looping the processing of steps 1801 to 1807. In step 1802, a captured image is acquired, and in step 1803, area division is performed.
  • step 1804 the height information of the sample is estimated from the captured image, and in step 1805, the sharpening intensity is calculated based on the estimated value of the height information of the sample.
  • step 1806 image quality improvement processing is performed based on the sharpening intensity.
  • FIG. 19 is a diagram showing an example showing an interface for prompting the user to input information relating to a region where the sharpening strength is to be specified or the sharpening strength.
  • Design data 1901, captured image 1902, and the like are displayed as appropriate on the screen. In this example, an image of a place where there is an upper layer pattern 1911 and a lower layer pattern 1912 is captured. When design data is not used, design data 1901 is not displayed.
  • a signal component having a high definition is represented by a solid line and a signal component having a low definition is represented by a dotted line.
  • the present invention is not limited to this, and the signal component may be displayed by changing the color.
  • the lower layer pattern 1913 has low definition, and the defect 1914 is also imaged.
  • a default value of the target definition is displayed.
  • an area filled with black represents an area with high sharpness
  • an area painted with hatching represents an area with lower sharpness than an area painted with black.
  • An image quality improved image obtained by performing image quality improvement processing based on the sharpening intensity calculated from the target sharpness of 1903 is displayed in 1904.
  • the image quality improved image 1904 as with the captured image 1902, a portion with high sharpness is represented by a solid line, and a portion with low sharpness is represented by a dotted line.
  • Reference numeral 1905 denotes an interface for designating the target definition.
  • the local area where the target definition is desired to be specified can be specified on an image representing the target definition of 1903, for example.
  • the target sharpness can be designated by dividing the area into an area representing the upper layer pattern and other areas.
  • a target sharpness of an area representing a defect such as “area A” 1916 can be designated.
  • the interface 1905 for designating the target definition can be realized by a scroll bar, for example.
  • 1921 is a target sharpness specified by the user
  • 1922 is a default value of the target sharpness.
  • a “default” button 1923 is pressed, the target sharpness designated by the user 1921 is returned to the default value 1922.
  • the “OK” button and the “Clear” button 1908 for returning the input from the user to the initial state are provided.
  • the interface for inputting the target definition is shown as the information regarding the sharpening intensity. However, the interface for designating the information regarding the sharpening intensity itself or another sharpening intensity may be used.
  • FIG. 20 shows an example of a sequence in which similar regions are grouped and the same sharpening strength or a sharpening strength having a similar value is set for the same group.
  • the processing in steps 101 to 103 is the same as that in FIG.
  • similar regions are grouped in step 2001, and the sharpening strength is calculated for each group using the height information of the design data in step 2002.
  • step 105 an image quality improvement process is performed based on the sharpening intensity.
  • an example in the case of using design data has been shown. However, even when the estimated value of height information is used without using design data, the same sharpening strength is applied to the same group by grouping in the same way. Alternatively, a sharpening intensity close to the value can be set.
  • FIG. 21 shows an example of a method for grouping similar regions in step 2001 of FIG.
  • An example of design data 2101 and an example of a captured image corresponding to 2102 are shown.
  • an upper layer pattern 2111 and a lower layer pattern 2112 are imaged.
  • a signal component having a high definition is indicated by a solid line
  • a signal component having a low definition is indicated by a dotted line.
  • the lower layer pattern 2113 has low definition.
  • Two examples 2103 to 2105 showing the result of grouping similar regions in step 2001 of FIG. In the example of the group 1a of 2103, it is grouped into a group B of 2122 representing the upper layer pattern and a group A of 2121 representing the other area.
  • the region A groups three regions 2141, 2142, and 2143 that are separated in spatial position, and is similar to each other in the sense that it is a region that includes a lower layer pattern.
  • the sharpness of this group in the output image can be kept uniform by performing image quality improvement processing by setting a higher sharpening strength uniformly for group A.
  • the group 1b of 2104 it is grouped into a group B of 2124 representing an upper layer pattern, a group C of 2125 representing a lower layer pattern, and a group A of 2123 representing other regions.
  • a positive sharpening strength only for the group C it is possible to perform a process for increasing only the sharpness of the surface of the lower layer pattern.
  • the group B is grouped into the group B of 2127 representing the upper layer pattern, the group C of 2128 representing the white band region of the upper layer pattern, and the group A of 2126 representing the other region. You can also By grouping in this way, for example, it is possible to maintain the sharpness of the white band and increase the sharpness of the region other than the white band of the upper layer pattern and the lower layer pattern.
  • 2106 shows an example of another captured image corresponding to the design data 2101.
  • the upper layer pattern 2131 is disconnected as indicated by 2132, and 2133 defects are displayed.
  • An example of grouping the captured image 2106 is shown in 2107.
  • 2135 group B representing the upper layer pattern
  • 2136 group C representing the defect area
  • 2134 group A representing the other area are grouped. If the design data 2101 and the captured image 2 of 2106 are used, it can be recognized that the pattern is disconnected, and therefore, grouping as in 2107 can be easily performed.
  • design data is used in the present embodiment, the same grouping can be performed by a method of recognizing each region using a captured image.
  • FIG. 22 shows an embodiment diagram different from FIG. 21 of the method of grouping similar regions in step 2001 of FIG.
  • the group 1a of the captured images 1 and 2103 2102 is the same as that in FIG. Similarly to FIG. 21, in FIG. 22, a signal component having a high definition is indicated by a solid line, and a signal component having a low definition is indicated by a dotted line.
  • 2202 is an image obtained by imaging another position of the sample in the same process as the captured image of 2102. Large defects such as an upper layer pattern 2221 in the horizontal direction and lower layer patterns 2223 and 2226 in the vertical direction are shown.
  • Reference numeral 2203 denotes an example of a result of grouping the captured image 2202.
  • Group 3 of 2203 is grouped into 2224 group A representing the upper layer pattern, 2227 group C representing the defect area, and 2225 group B representing the other area. Since the captured images 2102 and 2202 are images obtained by capturing samples of the same process, it is often desirable that the output images have similar sharpness in similar regions. In this case, it is desirable to set the sharpening intensity so that the sharpness values close to each other in the groups A and B in the group 1a 2103 and the group 3 2203. In this embodiment, the upper layer pattern and the lower layer pattern can be recognized by using the captured images 2102 and 2202.
  • the same grouping is performed on similar regions between a plurality of captured images, such as 2102 and 2202, and the sharpening strength is set so that the sharpness is close to the value. can do.
  • the grouping method using only the information of the captured image has been described. However, the same grouping can be performed using the design data.
  • FIG. 23 is a diagram illustrating an example of a method for transforming the design data in step 204 of FIG. 2 with respect to a captured image (hereinafter referred to as a tilt image) acquired by irradiating a specimen with a charged particle beam from a non-vertical direction.
  • Indicates. 2301 is an example of design data.
  • An upper layer pattern 2311 and a lower layer pattern 2312 are shown.
  • 2302 is an example of a tilt image corresponding to the design data 2301. In the tilt image, the side wall of the upper layer pattern such as 2313 and the side wall of the lower layer pattern such as 2314 are often reflected.
  • the shape becomes complicated compared to the design data, and for example, the side of the pattern and the boundary between the grounds are displayed as indicated by 2315.
  • a signal component having a high definition is indicated by a solid line
  • a signal component having a low definition is indicated by a dotted line.
  • the tilt image has the property that the diameter of the charged particle beam cannot be reduced and the resolution is degraded. For this reason, sufficient sharpness may not be obtained.
  • the sharpening intensity is calculated using the design data for the tilt image, the shapes of the structures displayed on 2301 and 2302 are greatly different, and it is difficult to directly compare them.
  • the design data 2301 is deformed so as to approach the captured image 2302. If information such as the angle between the sample and the charged particle beam irradiated and the height information of the design data is used, an image like 2303 can be obtained. Therefore, if the tilt image of 2302 and the design data after deformation of 2303 are used, The sharpening intensity can be calculated by the same method as in the case where the image is not a tilt image.
  • FIG. 24 shows an example of a method for performing image quality improvement processing using layer information of design data.
  • 2401 is a cross section of the sample, and the z-axis represents the height direction.
  • Reference numerals 2421, 2422, and 2423 represent the first, second, and third layers from the upper layer, respectively.
  • Reference numerals 2411 and 2412 denote contact holes.
  • the hole 2411 connects the uppermost layer 2421 and the second layer 2422 from the upper layer.
  • the hole 2412 connects the uppermost layer 2421 and the third layer 2423 from the upper layer.
  • Reference numeral 2414 denotes a contact hole that connects the uppermost layer 2421 and the second layer 2422 from the upper layer, but the holes are short-circuited as in 2413.
  • 2402 and 2403 are examples of a captured image and an image quality improved image corresponding to the sample 2401 respectively.
  • a hole filled in black has a low average brightness value
  • a hole painted in white has a low average brightness value
  • a hole filled in hatching expresses that the average brightness value has an intermediate value.
  • the average brightness value of the hole 2432 connected to the third layer from the upper layer is displayed high and can be easily distinguished from other holes, but the shorted hole 2433 is other shorted. Difficult to distinguish with no hole. However, depending on the application, there are many cases where it is desirable to observe a shorted hole with high definition.
  • the hole connecting the uppermost layer and the second layer from the upper layer has a uniform high contrast difference (that is, high sharpness can be obtained).
  • the sharpening intensity is set high, and the hole connecting the uppermost layer such as the hole 2432 and the third layer from the upper layer has a contrast similar to the hole 2431 (that is, the sharpness is suppressed).
  • the sharpening intensity low, a shorted hole like the image quality improved image 2403 can be clearly displayed. From the captured image, the second layer from the upper layer and the third layer from the upper layer cannot be seen, but using the information of the layer that is not displayed in such a captured image, the observation object of interest The sharpness of the image can be increased.
  • FIG. 25 shows an example of the relationship between the pattern shape and the detected particle amount.
  • 2501, 2503, 2505 show examples of design data.
  • Reference numeral 2502 denotes the particle detection amount at each position along the line segment AB in 2501.
  • the upper layer pattern generally has a larger amount of particle detection than the lower layer pattern. Further, compared with the vicinity of the upper layer pattern such as 2522, the particle detection amount is larger at a position away from the upper layer pattern such as 2523.
  • the further away from the upper layer pattern the less the particles emitted from the sample collide with the upper layer pattern.
  • the amount increases.
  • the upper layer pattern exists at positions near the left side, the right side, and the upper side at the position 2535, whereas the distance from the upper layer pattern at the position 2536 is relative to the upper layer pattern. Is getting longer. For this reason, compared with the position 2536, the particle 2535 is more likely to collide with the upper layer pattern at the position 2535, and the amount of detected particles is reduced.
  • there are vertical upper layer patterns 2541, 2542, and 2543 there are a vertical lower layer pattern 2544 and a horizontal lower layer pattern 2545 between these patterns.
  • Reference numeral 2506 denotes a particle detection amount at each position along the line segments GH and IJ in 2505.
  • the distance from the upper layer pattern changes according to the position, and the shorter the distance, the smaller the particle detection amount.
  • the distance from the upper layer pattern is constant at the position along the line segment IJ.
  • the amount of emitted particles generally increases near the edge of the pattern, and therefore the amount of detected particles also increases.
  • the amount of particles released from the sample that reaches the detector greatly affects whether or not it is likely to collide with the sample again after being released.
  • the ease with which this charged particle collides with the sample depends on the height of the pattern in the vicinity of the position irradiated with the charged particle, how close the pattern with the height is, It depends on whether it is dense.
  • the detection amount of the emitted particles can be estimated by using the height information, design data at a nearby position, or information of the captured image. In the present invention, using this property, for example, the sharpening intensity is set higher for a portion where the detected amount of particles is smaller. By such processing, it is possible to improve the visibility of a region with low definition.

Landscapes

  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Abstract

多層レイヤにおける下層パターンやホールパターンの穴底などの鮮明度の低い領域に対して高画質化が行える,高性能な画質改善処理を行う。 設計データの高さ情報または画像から求めた試料の高さ情報の推定値を用いて鮮明化強度を計算し,該鮮明化強度を用いて撮像画像の画質改善処理を行う。

Description

荷電粒子顕微鏡装置及びこれを用いた試料の検査方法
 本発明は,荷電粒子を試料に照射して画像を取得する荷電粒子顕微鏡装置又はこれを用いた試料の検査方法に係り,特に取得した画像に対して画像処理による画質改善処理を施し、処理された画像を用いて試料を検査する装置又は方法に関する。
 荷電粒子顕微鏡は,光学顕微鏡に比べて分解能が非常に高く,被観察対象の微細な構造を鮮明に観察するために広く利用されている。荷電粒子顕微鏡では,荷電粒子ビームを対象試料に照射し,対象試料から放出される,または対象試料を透過する粒子(照射した荷電粒子と同種または別種の荷電粒子,または電磁波,光子)を検出することで,対象試料の拡大画像を取得する。
 特に,半導体製造プロセスにおいては,半導体ウェハの検査,パターン寸法の計測,パターン形状の計測などの用途として,走査型電子顕微鏡(Scanning Electron Microscope)や走査型イオン顕微鏡(Scanning Ion Microscope),走査型透過電子顕微鏡(Scanning Transmission Electron Microscope)などの荷電粒子顕微鏡が用いられている。これらの用途においては,撮像した画像を用いて,半導体パターンや欠陥の観察,欠陥の検出および発生要因解析,パターンの寸法計測などの検査が行われる。
 荷電粒子顕微鏡において,高画質な画像を提供する機能は,最も重要な機能の一つである。画質改善処理としては,例えば、特許文献1、特許文献2又は非特許文献1のように、エッジ強調処理,画像復元処理,ノイズ除去処理,コントラスト補正処理が提案されている。
特開昭63-211472号公報 特開平3-44613号公報
Y.I.Gold and A.Goldenshtein: Proc. SPIE, 3332, pp.620-624 (1998)
 近年,半導体パターンの微細化,高密度化が進むにつれて,多層レイヤの対象試料において下層パターンから放出される粒子を十分な量だけ検出することが困難になってきており,下層パターンのS/Nやコントラストが低くなるなど視認性が非常に低下するという問題がある。ホールパターンにおいても,同様に穴底からの荷電粒子を検出しにくいために,穴底の領域において良好な画質が得られない。荷電粒子光学系や検出系等のハードウェアを改良することにより,下層パターンや穴底等からの荷電粒子をより多く検出することも可能であるが,検出量を増やすには限界があり,大幅な改善は困難である。また,ソフトウェアの改良として,撮像画像に対して画像処理による高画質化を行うことにより,良好な視認性を得る方法もある。
 特許文献1,2や非特許文献1で提案されている手法では,下層パターンやホールパターンの穴底などの良好な画質が得られにくい複雑なパターンの領域に対して,画像全体の画質を損なうことなく,その領域の鮮明度(コントラスト,S/N,シャープネス,分解能)が向上するような画像処理がなされておらず、試料パターンの高さ情報に着目した処理は行われていない。また,前記の従来手法では,撮像画像のみを用いて画質改善処理が行われるか,もしくは,撮像画像および撮像条件(荷電粒子ビームの加速電圧,プローブ電流等)を用いた画質改善処理が行われているのみであり,設計データを用いた処理は行われていなかった。ここで,設計データとは,製造する半導体パターンの形状情報を示すデータのことを表し,多くの場合,半導体パターンの輪郭に関する情報等によりパターンの形状が記述されている。また,設計データには,試料特性(材質特性・電気特性・レイヤ特性等)に関する情報が含まれていても良い。このため,従来の処理では,以下に列挙するように十分な画質改善性能が得られない場合がある。
 例えば、従来の処理では、画像全体の画質を低下することなく,多層レイヤにおける下層パターンやホールパターンの穴底などの試料から放出される粒子を検出しにくい領域に対して十分な視認性を得るような処理ができなかった。また、局所コントラスト補正のような画像の局所位置毎にコントラストを調整するような処理も提案されているが,各々の領域において試料から放出される粒子をどの程度多く検出できるかについては考慮しないため,下層パターンや穴底を精度良く認識して適切な鮮明化処理を行うことはできなかった。
  また、画像内に特性が類似した下層パターンやホールパターンが複数個表示されているような場合に,それらの複数個のパターンに対して大きく異なる鮮明度となるような処理を行うと,不自然な画像になってしまう場合もある。従来の処理では,これらの領域に対して自然な画像が得られるように同一または値の近い鮮明化強度を用いることができなかった。
  また、画像によっては,特に視認性を向上したい領域をユーザが指定したい場合も多い。従来の処理ではユーザがこのような指定を行えるようなインターフェイスを備えておらず,またこのようなインターフェイスにより入力された情報に基づいて処理を行うこともできなかった。
 本発明は,上記のような場合においても十分な画質改善を行い、処理された画像を用いて、試料のパターンや欠陥の観察、欠陥の検出および発生要因解析、パターンの寸法計測などの検査が可能な検査装置又は検査方法を実現するものである。
 本願において開示される発明のうち代表的なもの概要を簡単に説明すれば次の通りである。
(1)荷電粒子顕微鏡装置を用いた試料の検査方法であって、前記試料に荷電粒子を照射し、前記試料から放出される同種または異種の粒子を検出して撮像画像を取得する撮像画像取得ステップと、前記撮像画像を複数の局所領域に分割する領域分割ステップと、前記試料の高さ情報に基づいて、前記撮像画像を前記複数の局所領域ごとに画像処理する画像処理ステップと、前記画像処理された撮像画像を用いて試料を検査する検査ステップと、を有することを特徴とする荷電粒子顕微鏡を用いた試料の検査方法である。
(2)(1)記載の荷電粒子顕微鏡を用いた試料の検査方法であって、さらに、前記撮像画像取得ステップで取得した前記撮像画像に対応する設計データを読み込む設計データ読込ステップを有し、前記画像処理ステップでは、前記試料の高さ情報として、前記読み込んだ設計データから得た試料の高さ情報を用いることを特徴とする荷電粒子顕微鏡を用いた試料の検査方法である。
(3)(2)記載の荷電粒子顕微鏡を用いた試料の検査方法であって、前記画像処理ステップでは、前記設計データから得た試料の高さ情報に基づいて前記複数の局所領域各々について鮮明化強度を算出し、前記鮮明化強度を用いて、前記撮像画像を前記複数の局所領域ごとに画像処理することを特徴とする荷電粒子顕微鏡を用いた試料の検査方法である。(4)(3)記載の荷電粒子顕微鏡を用いた試料の検査方法であって、前記鮮明化強度の算出において、前記設計データにおける最上層レイヤ以外の少なくとも一つのレイヤに対する鮮明化強度を、前記レイヤよりも上層にあるレイヤ情報を用いて計算することを特徴とする荷電粒子顕微鏡を用いた試料の検査方法である。それぞれのレイヤに荷電粒子を照射した際,試料から放出された粒子の一部はそのレイヤよりも上層にあるレイヤに衝突し,吸収される。このため,試料から放出された粒子が検出器に届く量は,上層のレイヤにどの程度衝突するかに大きく影響する。そこで,処理の対象とするレイヤに対して,そのレイヤよりも上層のレイヤの情報を用いることによって,鮮明度をどの程度高める必要があるかを適切に判断することができる。
(5)(1)記載の荷電粒子顕微鏡を用いた試料の検査方法であって、前記画像処理ステップでは、前記試料の高さ情報として、前記撮像画像から推定した試料の高さ情報を用いることを特徴とする荷電粒子顕微鏡を用いた試料の検査方法である。設計データを組み合わせて用いることで、より高性能な画質改善処理を行うことが可能となる。
(6)試料に荷電粒子を照射する荷電粒子照射光学系手段と,前記荷電粒子照射光学系手段により荷電粒子が照射された前記試料から発生した同種または別種の粒子を検出する電粒子検出光学系手段と,前記粒子検出光学系手段で検出した信号を処理して前記試料の撮像画像を得る撮像画像取得手段と,前記撮像画像取得手段で取得した前記試料の撮像画像を処理する画像処理手段とを備えた荷電粒子顕微鏡装置であって,前記画像処理手段は,前記撮像画像を複数の局所領域に分割し,前記試料の高さ情報に基づいて、前記撮像画像を前記複数の局所領域ごとに画像処理することを特徴とする荷電粒子顕微鏡装置である。
 本発明によれば,上記した従来技術の課題を解決し、十分に画質改善処理がなされた画像を用いて、試料のパターンや欠陥の観察、欠陥の検出および発生要因解析、パターンの寸法計測などの検査が可能な検査装置又は検査方法を実現することができる。
本発明における画質改善処理のシーケンスを表す一実施例図である。 本発明における画質改善処理のシーケンスを表す一実施例図である。 本発明の一実施形態である荷電粒子顕微鏡の基本構成である。 設計データの情報を利用せずに画質改善処理を行う一実施例図である。 設計データを利用しない場合における画質改善部の実施形態を表す一実施例図である。 試料の形状と試料から放出される粒子が検出される量との関係を表す一実施例図である。 画質改善処理を表す一実施例図である。 撮像画像と設計データの位置合わせを行う処理および設計データを撮像画像に合わせるように変形する処理を表す一実施例図である。 領域分割方法および鮮明化強度の計算方法を表す一実施例図である。 設計データに含まれる試料の高さ情報を用いて鮮明化強度を計算する一実施例図である。 アスペクト比の異なる画像に対して,鮮明化強度を計算する一実施例図である。 荷電粒子画像を取得して画質改善処理を行う基本動作を表す一実施例図である。 設計データを撮像画像に合わせるように変形する処理を表す一実施例図である。 ステップ201の撮像画像と設計データの位置合わせを行う処理を表す一実施例図である。 撮像画像から試料の高さ情報を推定する一実施例図である。 撮像画像から計算される現状の鮮明度を用いて鮮明化強度の制約条件を設定する方法の一実施例図である。 鮮明化強度を指定したい領域または鮮明化強度に関する情報の入力をユーザに促し,ユーザから指定された情報に基づいて鮮明化強度を計算するシーケンスの一実施例図である。 鮮明化強度を指定したい領域または鮮明化強度に関する情報の入力をユーザに促し,ユーザから指定された情報に基づいて鮮明化強度を計算するシーケンスの一実施例図である。 鮮明化強度を指定したい領域または鮮明化強度に関する情報の入力をユーザに促すためのインターフェイスを表す一実施例図である。 類似した領域をグループ化して,同一のグループに対して同一の鮮明化強度または値の近い鮮明化強度を設定するシーケンスの一実施例図である。 類似した領域をグループ化する方法の一実施例図である。 類似した領域をグループ化する方法の一実施例図である。 試料に対して荷電粒子ビームを垂直でない方向から照射して取得した撮像画像に対して設計データを変形させる方法を表す一実施例図である。 設計データのレイヤ情報を利用して画質改善処理を行う方法の一実施例図である。 パターンの形状と粒子検出量との関係を表す一実施例図である。 設計データを撮像画像に合わせるように変形する処理を表す一実施例図である。 設計データを撮像画像に合わせるように変形する処理を表す一実施例図である。
 図1は,荷電粒子画像を取得して画質改善処理を行うシーケンスの一実施例図である。まず,ステップ101で撮像したい試料の情報を含む設計データを読み込む。また,ステップ102で荷電粒子画像を取得する。以下,取得した荷電粒子画像を撮像画像と呼ぶ。ステップ102はステップ101の前に実施しても良い。次に,ステップ103で撮像画像を複数の局所領域に分割する。ステップ103では設計データの情報を用いることもできる。局所領域の説明は後述する。次に,ステップ104で設計データの高さ情報を用いて各局所領域について鮮明化強度を計算し,ステップ105で鮮明化強度に基づいて撮像画像に対して画質改善処理を実施する。画質改善画像の出力を画質改善画像と呼ぶ。鮮明化強度が強いほど画質改善画像の鮮明度が高くなるように,画質改善処理を強く施す。
 設計データの高さ情報を用いることで,試料から放出される粒子が検出器に到達する量を推定することができる。このため,視認性が悪い領域(多層レイヤの下層パターンやホールパターンの穴底等)を自動で認識して,これらの領域の鮮明度を向上すると共に,それ以外の領域の画質も損なわないような画像を得ることができる。高さ情報とは,ある基準点からの長さを表す具体的な数値でも良いし,周囲と比べて高いか低いかを表すだけのような相対的な高さ関係を表す情報でも良い。多層レイヤにおける上層,下層の関係を表す情報も高さ情報の一つである。
 図2に,図1のシーケンスとは別の実施形態を表す一実施例図を示す。図1と同一の処理については,図1と同じ番号で示してある。以下,同一の処理やデータ等を表す場合には,同一の番号を振って示すものとする。ステップ101,102の処理は,図1と同じであり、これらは前後しても構わない。一般に設計データと撮像画像の間には位置ずれが発生するため,ステップ101では,少なくとも取得する撮像画像の視野よりも広い視野の設計データを読み込み,位置ずれが発生した場合でも撮像画像に対応する領域が含まれるようにしておく。次に,ステップ201において,撮像画像と設計データの位置合わせを行う。次に,必要に応じて、ステップ202において,設計データを撮像画像に合わせるように変形する。ここで、設計データの変形については後に詳説するが、設計データと撮像画像とのパターン形状の差が許容範囲であれば、本ステップは省略しても構わない。なお、撮像画像と設計データの位置合わせを行うステップ201と、必要に応じて実施する設計データを変形するステップ202とは、図1に示すシーケンスのステップ102の後で、同様に実施しても構わない。次に,ステップ203において,撮像画像を複数の局所領域に分割する。ステップ203では,設計データの情報を用いることもできる。次に,ステップ204にて,撮像画像における現状の鮮明度(以下,現状鮮明度)を計算する。ここで,鮮明度とは,画像の局所位置毎におけるコントラスト,S/N,シャープネス,分解能のうち一つ以上を表す指標のことである。例えば,対象とする局所位置を含む局所的な領域(以下,近傍領域)における微分の平均,近傍領域における明度値の分散,近傍領域における明度値の四分位範囲(第一四分位点と第三四分位点との差),近傍領域に含まれる高周波成分の強度,エッジ(明度値が急激に変化する線分)における明度変化,S/N,等を鮮明度として定義できるが,これに限らない。次に,ステップ205の処理で現状鮮明度および設計データの高さ情報を用いて各局所領域について鮮明化強度を計算した後,ステップ105で鮮明化強度に基づき,画質改善処理を実施することにより,画質改善画像を得る。ここで、鮮明化強度とは、撮像画像に対して画質改善画像の鮮明度をどれくらい強めるかを表す度合いのことである。
 図12は,荷電粒子画像を取得して画質改善処理を行う基本動作を表す一実施例図である。まず,画質改善処理を行う前に,あらかじめ1201に示す一連の処理により,鮮明化強度を計算する際に用いる処理ルール1215を作成しておく。次に,1202に示す一連の処理により,撮像画像に対して画質改善処理を施し,画質改善画像1230を生成する。1201に示す一連の処理では,まず各種の想定される試料情報1211を準備しておく。試料情報とは,試料の高さ情報、試料の3次元形状情報(2次元形状情報および高さ情報),電気特性,材質特性等を表す情報である。各試料情報1211に対して,ステップ1212により荷電粒子顕微鏡の撮像原理に関する物理モデルに基づいて撮像画像を推定する。試料情報1211と撮像画像の推定値1213を用いれば,画像内のどの箇所において鮮明度が低くなるかを推測できるため,どのように鮮明化強度を計算すべきかに関する処理ルールを適切に設計することができる。このように,ステップ1214で,試料情報1211と撮像画像の推定値1213に基づいて処理ルール1215を作成する。次に1202に示す一連の処理について説明する。まず,ステップ1223により,試料情報を推定する。この推定では,撮像画像1221を用いても良いし,設計データ1222を用いても良い。例えば,設計データの高さ情報やレイヤ情報を,そのまま試料情報の推定値1224とすることもできる。また,ステップ1225により,撮像画像を局所領域に分割する。ステップ1225では,試料情報の推定値1224を用いることもできる。次に,ステップ1227で,ステップ1201で求めた処理ルール1215に基づき,試料情報の推定値1224を用いて各局所領域について鮮明化強度1228を計算する。最後に,ステップ1229で鮮明化強度に基づいて撮像画像に対して画質改善処理を実施する。
 試料情報として,試料の高さ情報は,後述するように撮像画像の鮮明度と深い関係にある。また,撮像画像が鮮明に表示されるか否かは,電気特性や材質特性にも大きく影響することも多い。このように試料情報を用いることにより,どの領域をどの程度の強度で鮮明化する必要があるかを推定することができるため,適切な画質改善処理を行うことができる。
 図3は,本発明の一実施形態である荷電粒子顕微鏡装置の基本構成である。荷電粒子顕微鏡装置は,例えば,撮像装置301,入出力部321,制御部322,処理部323,記憶部324,および画質改善部325等を適宜用いて構成される。撮像装置301では,荷電粒子銃302から荷電粒子ビーム303を発生し,前記荷電粒子ビーム303をコンデンサレンズ304や対物レンズ305に通すことにより試料306の表面に集束する。ここで、コンデンサレンズ304や対物レンズ305は複数個設けていても構わない。次に,試料306から発生する粒子(荷電粒子または電磁波または光子)を検出器308で検出し,画像生成器309により前記検出して得られた信号からディジタル画像を生成することにより,撮像画像を取得する。撮像画像は,バス線310を介して記憶部324に保存される。検出器308としては、ホトマルやAPD(avalanche photodiode)などを用いればよく、1個であっても複数個備わっていても構わない。さらに,電子を検出する検出器と電磁波を検出する検出器のように異なる粒子を検出する検出器を適宜組み合わせても,例えばSEMの場合,二次電子検出器と後方散乱電子検出器のように異なる性質の粒子を検出する検出器の組み合わせであっても良い。検出器が複数個備わっている場合には,通常1回の撮像で,撮像画像を複数枚取得することができる。試料306はステージ307に接しており,ステージ307を移動することにより,試料の任意の位置における画像の取得が可能である。本実施例により,設計データの情報を用いて視認性向上が求められる領域を自動で認識することができ,これらの領域に対して十分高い鮮明化強度を設定して画質を向上すると共に,それ以外の領域の画質も損なわないような画像を得ることができる。
 入出力部321では,画像撮像位置や撮像条件の入力,撮像画像や画質改善画像の出力などを行う。制御部322では,撮像装置の制御として,荷電粒子銃302等に印加する電圧や,コンデンサレンズ304および対物レンズ305の焦点位置の調整,ステージ307の移動,画像生成器309の動作タイミング等を制御する。また,制御部322は,入出力部321,処理部323,記憶部324,画質改善部325の制御も行う。処理部323では,画質改善処理以外の処理である,例えば,荷電粒子ビーム303の焦点を試料306の表面に合わせるために必要な自動焦点合わせに関する処理などを行う。また、処理部323では、撮像したパターンの測長や欠陥の検出、分類などを行う。記憶部324では,撮像画像,設計データ,試料特性情報,画質改善画像,画質改善のための処理パラメータ等が保存される。画質改善部325では,図1に示した,撮像画像から画質改善画像を生成するための一連の処理を行う。画質改善部325は,ステップ101の設計データ読込を行う設計データ読込部331,ステップ103の領域分割を行う領域分割部332,ステップ104の鮮明化強度の計算を行う鮮明化強度計算部333,およびステップ105の画質改善処理を行う画質改善処理部334を適宜用いて構成される。ここで、設計データ読込部による設計データの読み込みは、設計データを記憶部324に記憶させ、ここから読み込むようにしてもよく、また、図示しないが、ネットワークを介して他の装置やファイルサーバから読み込むようにしてもよい。なお、本例では、設計データ読込部331は画質改善処理部334に含まれるものとして記載したが、画質改善処理部334とは別個に設ける構成としても構わない。また,図示しないが、ステップ201の設計データと撮像画像の位置合わせを行う位置合わせ部や,ステップ202の設計データを変形する設計データ変形部,ステップ204の現状鮮明度を計算する現状鮮明度計算部などを備えていても良い。
 図4に,図1のシーケンスとは別の実施形態として,設計データの情報を利用せずに画質改善処理を行う一実施例図を示す。ステップ102,103の処理は,図1と同じである。次に,ステップ401で撮像画像から試料の高さ情報を推定する。高さ情報の推定方法については後述するが、例えば、撮像画像からの試料の輪郭線情報を抽出し、輪郭線同士がどのように交差しているかといった情報から、パターンの上層、下層に関する高さ情報を得ることができる。次に,ステップ402で,試料の高さ情報の推定値に基づき,鮮明化強度を計算する。最後に,ステップ105で,鮮明化強度に基づき画質改善処理を実施する。ここで、ステップ103とステップ401の間、若しくは、ステップ401とステップ402の間で前述の現状鮮明度を計算するステップ204を実施し、現状鮮明度と試料の高さ情報の推定値に基づいて鮮明化強度を計算するようにしてもよい。
 本実施例により,設計データの情報が入力されていないような荷電粒子顕微鏡装置である場合や,設計データには記載されていない欠陥などに対して鮮明度を向上したい場合においても,試料の高さ情報を推定することにより,視認性が悪い領域を自動で認識することができる。このため,これらの領域の鮮明度を向上すると共に,それ以外の領域の画質も損なわないような画像を得ることができる。更に,設計データの情報を組み合わせて用いることにより,より高性能な画質改善処理を行うこともできる。
 図5は,図3の基本構成において設計データを利用しない場合における画質改善部の一実施形態である。撮像装置301等の基本構成は図3と同様であり、ここでは画質改善部のみ説明する。画質改善部325bは,図3の画質改善部325に代わる別の構成からなり,331の設計データ読込部の代わりに,ステップ401の試料の高さ情報を推定する試料の高さ情報推定部531を備える。また,画質改善部325bは,ステップ402の鮮明化強度を計算する鮮明化強度計算部532を備える。さらに,画質改善部325bは,設計データの情報を組み合わせて用いる場合に対応すべく、設計データ読込部331を備えていても良い。本実施例により,撮像画像の情報を用いて視認性向上が求められる領域を自動で認識することができ,これらの領域に対して十分高い鮮明化強度を設定して画質を向上すると共に,それ以外の領域の画質も損なわないような画像を得ることができる。
 図6に,試料の形状と試料から放出される粒子が検出される量との関係を表す一実施例図を示す。荷電粒子銃302から試料602,612,622,632,642,652に対して,それぞれ,荷電粒子ビーム303を照射したときに,試料から放出される粒子の軌跡を矢印で示している。説明を簡単にするために,それぞれの試料は同一の電気特性,材質特性を持っているものとする。それぞれの例において,荷電粒子ビームの照射した位置から6本の矢印を記述しており,矢印が試料に衝突している矢印の数が多いほど粒子を検出器で検出できないことを表す。試料602の例では,試料の高い位置603に荷電粒子ビームを照射しているため,試料から放出される粒子は矢印604のように再び試料に衝突することはほとんどない。このため,多くの粒子を検出することができる。試料612の例では,荷電粒子ビームの照射位置613よりも周囲の試料614が高い位置にあるため,矢印616のように,放出された粒子の一部は試料に衝突して吸収される。このため,613の位置に対応する撮像画像の鮮明度は低い。なお,矢印615のように曲がった矢印は,粒子の軌跡がその矢印で示すような曲線を描くことを示している。例えば粒子が電荷を持っている場合には,試料の上方に適切な電磁場を設定することによって,このように粒子の軌跡を曲げ,より多くの粒子を検出できる。試料622の例では,荷電粒子ビームの照射位置623よりも周囲の試料624が高い位置にある。この例では,614と613の高さの差と,624と623の高さの差は同じであるが,試料622の場合では,位置623からx方向に沿ってある程度離れた距離に試料624があるため,矢印625で示すように、試料612の場合に比べると試料に衝突する粒子の数は少ない。このため,位置623に対応する撮像画像の鮮明度は,位置613の場合と比べると高くなる。試料632の例では,荷電粒子ビームの照射位置633よりも周囲の試料634が高い位置にあり,試料612の例と比べると634と633の高さの差が大きい。この場合には,矢印635で示すように、試料612の場合に比べて試料に衝突する粒子の数は多くなり,従って,位置633に対応する撮像画像の鮮明度は,位置613の場合と比べると低くなる。試料642の例では,荷電粒子ビームの照射位置643よりも周囲の試料644,645が高い位置にあるが,試料644と645の高さはそれぞれ異なっている。試料644の高さは試料634の高さと同じ,試料645の高さは試料614の高さと同じである。この場合,矢印646のように、試料645に衝突する粒子の数と,試料644に衝突する粒子の数には差ができる。その結果,試料に衝突する粒子の数は,試料612の場合よりも多く,試料632の場合よりも少なくなる。従って,位置643に対応する撮像画像の鮮明度は,位置613の場合と比べると低くなり,位置633の場合と比べると高くなる。試料652の例では,エッジ651の付近の位置654に荷電粒子ビームを照射している。長方形の内部は試料の高い位置を表しており,その外部では高さが低い。このように試料の高い位置でかつエッジの付近に照射した場合には,矢印653が示すように照射位置654とエッジとの距離が近い方向に多くの粒子が放出される。図6に示したような,試料の形状と,試料から放出される粒子が検出される量との関係を用いることによって,試料の形状に関する情報から,撮像画像の各領域における鮮明度を推定することができる。
 図7に,ステップ105の画質改善処理を表す一実施例図を示す。まず,算出された鮮明化強度702を用いて,画質改善パラメタを計算し(ステップ711)、所定の画質パラメタ705を算出する。次に,撮像画像703に対して,算出された画質改善パラメタ705を用いてステップ712の画質改善を施し,処理結果706を求める。ステップ712の画質改善では,コントラスト補正処理721,信号強調処理722,ガンマ補正処理723,ノイズ除去処理724,画像復元処理725,超解像処理726,あるいはこれらの処理を任意に組合せて行う。画質改善パラメタ705の例としては,721のコントラスト補正処理を行う場合では,例えば,鮮明度の一つである,明度値の分散や明度値の四分位範囲の目標値そのものや,または明度値の平均値などの鮮明化強度から計算される別の値や,またはそれらの値の組合せである。処理結果706に対して,ステップ713で鮮明度を計算する。次に,計算した鮮明度を用いて,ステップ715で画質改善をやり直すか否かを判断する。例えば,ステップ713で計算した鮮明度が一定値を下回っていればやり直しとする。やり直しの場合には,ステップ716で画質改善パラメタを再計算し,ステップ712の画質改善を再び施す。やり直しでない場合には,処理結果706を画質改善画像704とする。ステップ713,715,716の処理は,必要でなければ施さなくても良い。なお、ここで示したステップ105の画質改善処理は、図1、図2、図4で示したいずれのシーケンスにおいて用いても構わない。本実施例により,撮像画像に対して画質改善処理を施し,希望した鮮明度を持つ画質改善画像を得ることができる。
 図8に,ステップ201の撮像画像と設計データの位置合わせを行う処理およびステップ202の設計データを撮像画像に合わせるように変形する処理を表す一実施例図を示す。ここでは、ホールパターンに対する撮像画像801を用いて場合を例にとって説明する。設計データ802は,撮像画像801に対応する設計データ(位置合わせ前)である。撮像画像801と設計データ802に対してステップ201で位置合わせを行い,位置合わせ後の設計データ803を得る。位置合わせを行っても撮像画像に対応する設計データの情報に欠落が生じないようにするために,位置合わせ前の設計データ802の視野は,撮像画像の視野よりも大きめにとっておく。この例のように,位置合わせ後の設計データ803は,撮像画像801と映っているパターンの形状が大きく異なることもある。そこで,撮像画像801を用いて,ステップ202により位置合わせ後の設計データ803を変形する。設計データの変形には,リソシミュレータ等のシミュレータを用いることもできる。位置合わせ・変形後の設計データ810としては,本来設計データには存在しなかった,ホールのエッジ部分に現れるホワイトバンドのような構造を表現しても良い。
 図13に,ステップ202の設計データを撮像画像に合わせるように変形する処理を表す実施例図を示す。撮像画像から算出したパターンや欠陥等の輪郭線(以下,画像輪郭線)を実線で,設計データの輪郭線を点線で示している。例えば撮像画像に対して微分フィルタなどのエッジを抽出する処理を行うことによって,画像輪郭線を算出できる。(1)の例では,設計データの輪郭線1301と比べて,画像輪郭線1302が丸まっている。この例では設計データの輪郭線を徐々に変化させることによって,設計データの輪郭線1301を変形後の輪郭線1303のように画像輪郭線と同様の形状に変形することができる。(2)の例では,画像輪郭線1312は,正しくは1302と同一であるが,画像処理の算出ミスにより一部1313のように断線している。このように,撮像画像から画像処理により画像輪郭線を算出すると,算出方法によっては断線することも多い。しかし,画像輪郭線がある程度断線している場合でも,設計データの輪郭線1311を断線せずかつ複雑な曲線にならないように画像輪郭線1312に近づけることによって,変形後の輪郭線1314のような形に変形することができる。(3)の例では,実際のパターンが断線したことにより,画像輪郭線が,第一の画像輪郭線1322と第二の画像輪郭線1323とに切れている例である。この場合は,(2)の画像輪郭線の算出ミスとは異なり,実際にパターンが断線しており,画像輪郭線1322,1323からもその間の位置1326で断線していることが明瞭にわかる。従って,設計データの輪郭線1321は,パターン1322,1323と同様の形状に変形させることが望ましい。画像輪郭線1322,1323から,画像輪郭線が2個の閉曲線からなることが容易に判断できるため,設計データの輪郭線1321も2個の閉曲線で表されるように変化させることによって,変形後の第一の輪郭線1324と変形後の第二の輪郭線1325のような形状に変形することが可能である。(4)の例では,設計データの輪郭線1331は2個の閉曲線(輪郭線1332、輪郭線1335)で表されているが,対応するパターンがショートしており画像輪郭線1333は1個の閉曲線で表されるような例である。この場合も,画像輪郭線が1個の閉曲線からなることが判断できるため,設計データの輪郭線を1個の閉曲線で表されるように変化させることによって,変形後の輪郭線1334のような画像輪郭線と同様の形状に変形することができる。これらのように,設計データを変形し,設計データの輪郭線を,画像処理により正しく算出されたときの画像輪郭線に近づけることによって,後段の処理であるステップ203の領域分割処理や,ステップ205の鮮明化強度を計算する処理を高精度に行うことができる。
 図27に,図13の1321の例において,設計データを撮像画像に合わせるように変形する処理を表す一実施例図を示す。図13と同様に,撮像画像から算出した画像輪郭線を実線で,設計データの輪郭線を点線で示している。まず,設計データの輪郭線を徐々に変化させることで,1個の閉曲線で表される形状2705を得る。具体的な処理としては,例えば設計データの輪郭線上にある幾つかの点2711について,その点の近傍の画像輪郭線に移動させる。本例において,各点の移動を矢印2712で示す。設計データの輪郭線を形状2705に変形させた後,変形後の設計データと画像輪郭線との差分を計算する。この例では,差分を求めると,画像輪郭線の一部2701,2702と,設計データの輪郭線の一部2703,2704が得られる。この差分がある場合には,例えば設計データの輪郭線の閉曲線の数と画像輪郭線の閉曲線の数を調べる等の解析を行う。この例では,設計データの輪郭線の閉曲線が1個なのに対して,画像輪郭線の閉曲線は2個あるため,断線等の理由により画像輪郭線の閉曲線の数が増えたことがわかる。そこで,設計データの輪郭線の閉曲線の数を増やした後,設計データの輪郭線を徐々に変化させることで,変形後の第一の輪郭線1324と変形後の第二の輪郭線1325のような形状を得ることができる。このような処理により,画像輪郭線に合わせて設計データを適切に変形することが可能である。
 図14に,ステップ201の撮像画像と設計データの位置合わせを行う処理を表す一実施例図を示す。設計データ1401は,撮像画像1402に対応する設計データである。設計データ1401は、上層パターン1411、下層パターンを有する。撮像画像1402では,鮮明度が高い信号成分を実線で示し,鮮明度が低い信号成分を点線で示している。この例では,下層パターン1414は鮮明度が低く,画像処理では認識が困難であるとする。この場合,設計データと撮像画像の位置合わせを行う際,上層パターン1411を用いることにより横方向の位置合わせは可能であるが,上層パターン1411は縦方向の変化は非常に少ないので縦方向の位置合わせを行うことはできない。また,撮像画像において下層パターン1414が認識できれば設計データの下層パターン1412と位置合わせを行うことで縦方向の位置合わせができるが,この例では下層パターン1414が認識困難なため,設計データと撮像画像の縦方向の位置合わせが困難である。本例のような場合での位置合わせ後の設計データ1403を示す。点線は,位置合わせができなかったパターンを示す。ここで、位置合わせ後の設計データ1403をみると、縦方向の位置合わせができず,下層パターンの正確な位置を認識できなかったことがわかるものの、一方で認識できなかったという事実から下層パターンが存在することは読み取ることができるため,後述するような下層パターンの位置を特定しなくても適用できるような処理を行う。これにより,適切に鮮明度を向上することができる。
 図26に,ステップ202の設計データを撮像画像に合わせるように変形する処理を表す一実施例図を示す。設計データ2601は,撮像画像2602に対応する設計データの例である。撮像画像には,画像輪郭線を実線で示している。設計データと撮像画像の画像輪郭線を比較することにより,設計データの輪郭線2611は画像輪郭線2612に対応していることがわかる。設計データの輪郭線2611を徐々に変化させることにより,画像輪郭線2612の形状に近づけることができる。また,本例の撮像画像2602では,設計データには含まれていない,異物2613の画像輪郭線が含まれている。例えば,設計データの輪郭線2611を変化させて画像輪郭線に近づけた後で,変形後の設計データの輪郭線と画像輪郭線を比較することで,異物2613の画像輪郭線を抽出することができる。このため,変形後の設計データには,設計データには含まれていないが撮像画像に含まれているような異物2605の輪郭線の情報を付加することもできる。
 図9に,領域分割方法および鮮明化強度の計算方法を表す一実施例図を示す。設計データ901は、撮像画像902に対応する設計データである。撮像画像902には,上層パターン911と,下層パターン912が映っている。撮像画像902における点線は,視認性が悪いことを表している。多層パターンにおいては,下層パターンから放出される粒子は,上層のパターンに衝突するなどの理由により十分な量だけ検出することが困難であるため,下層パターンの視認性が悪くなってしまうという問題がある。903に,領域分割により得られた局所領域の例を示す。上層パターンとそれ以外の領域として,局所領域a913,局所領域b914,局所領域c915,局所領域d916,局所領域e917の五つの局所領域に分割した例を示している。設計データ901の情報,または撮像画像902の情報を用いることによって,このように領域分割を行うことができる。904に,903における各局所領域について計算した鮮明化強度の例を示す。904の鮮明化強度の例では,鮮明化強度がゼロの領域を白色,十分高い値を持つ領域をハッチングで塗り潰して表現している。この例では,下層パターンの視認性向上を図るため,上層パターンに対応する領域918は鮮明化強度をゼロとし,上層パターン以外の領域919に対して,十分高い鮮明化強度を設定している。この例では,下層パターンの位置を特定しなくても鮮明化強度を計算することができるため,例えば図14の例のような下層パターンの正確な位置を認識できないような場合においても,適用することができる。905に,領域分割により得られた局所領域として,903とは別の例を示す。この例では,画像全体を小さなサイズの局所領域に分割している。この例のように,設計データや撮像画像の情報とは無関係に領域分割を行うこともできる。906に,905における各局所領域について計算した鮮明化強度の例を示す。904の例と同様の塗り潰し方法で表現している。本例では,下層パターンのエッジの箇所920において鮮明化強度を高く設定している。このような鮮明化強度により,下層パターンの視認性を向上することができる。なお、鮮明化強度は,負の値をとることもできる。鮮明化強度が正の値のときは,現状鮮明度と比べて画質改善画像の鮮明度が高くなるように画質改善処理を行い,逆に鮮明化強度が負の値のときは,現状鮮明度と比べて画質改善画像の鮮明度が高くなるように画質改善処理を行う。 
 図10に,設計データに含まれる試料の高さ情報を用いて鮮明化強度を計算する一実施例図を示す。設計データ1001に対して,対応する高さ情報1002をプロットした図を示す。z軸が高さ方向を表している。この例では,設計データに,1001の2次元情報の他に,1002に示す高さ情報も含まれている。設計データ1001の情報のみでは,パターン1011aとパターン1012aはどちらも同様の上層パターンに見えるが,パターンの高さは異なっており,1015aおよび1016aに示すように,パターン1012aのほうがパターン1011aよりも高い。また,高さ情報を用いれば、パターン1011bはパターン1011aと同じ高さえあり,パターン1012bはパターン1012aと同じ高さであることが分かる。高さ情報1002において1015a,1015b,1016a,1016bは,それぞれ2次元情報1001におけるパターン1011a,1011b,1012a,1012bに対応している。この例では,下層パターンの高さは一様である。パターン1012aとパターン1012bはともに高いパターンであるため,これらのパターンで囲まれた領域1030からは,試料から放出される粒子の検出が特に困難となる。グラフ1003に,試料から放出される粒子の検出量(以下,粒子検出量)を示す。1021,1022,1023は,共に下層パターンに対応している。1023は,1021と比べて,粒子検出量が少なくなっている。この理由は,それぞれに対応する位置において,両隣の上層パターンの高さが異なることから説明できる。1023における両隣の上層パターン1016a,1016bの高さは,1021における両隣の上層パターン1015a,1015bよりも高いため,試料から放出される粒子は両隣の試料に衝突しやすくなり,粒子検出量は少ない。1022では,1021よりも粒子検出量が少なく,1023よりも粒子検出量が多くなっている。これは,図6で説明した現象と同様で,両隣のパターンが,1015bと1016aであることから容易に理解することができる。1004に,鮮明化強度の例を示す。設計データの高さ情報を用いて,グラフ1003で示した粒子検出量を予測することができるため,粒子検出量が少ない箇所ほど鮮明化強度を強くすることによって,相対的に視認性が悪い領域に対して大幅な視認性向上を行うことができる。
 図11に,アスペクト比の異なる画像に対して,鮮明化強度を計算する一実施例図を示す。設計データ1101および設計データ1102は,同一工程内の位置の異なる試料に対応する設計データの例である。高さ情報1111および高さ情報1112として,それぞれ,設計データ1101,設計データ1102に対応する設計データの高さ情報を示す。どちらの設計データにおいても,上層パターンと下層パターンの高さは同一であるが,設計データ1102のほうが設計データ1101に対して上層パターンが密に配線されている。このように,パターンの高さ情報は同じ場合でも,上層パターンが密に配線されているほうが下層から放出される粒子は上層パターンに衝突しやすくなるため,検出が困難となる。すなわち,設計データ1102に対応する撮像画像のほうが,一般的に下層パターンの視認性が悪い。設計データの情報を用いれば,設計データ1101と比べて設計データ1102のほうがパターンが密に配線されていることが容易にわかるため,下層パターンの鮮明度が低いことが予想できる。本実施例では,上層パターンと下層パターンの高さの差のみでなく,パターンの粗密度合い,または上層パターンがどれほど近傍にあるかに関する情報を用いて,鮮明化強度を計算する。鮮明化強度1121,鮮明化強度1122として,それぞれ設計データ1101,設計データ1102に対応する鮮明化強度の例を示す。このような処理により,1102のようなより鮮明度が低くなる場合に対して鮮明化強度を強く設定することができる。
 図15に,撮像画像から試料の高さ情報を推定する一実施例図を示す。撮像画像1501の例では,明度値の高い領域1511を白色,明度値の低い領域1512をハッチングで塗り潰して表現している。一般に高さの低い領域からは,試料から放出される粒子を検出しにくいため,明度値が低くなる傾向にある。そこで,明度値の低い領域を高さの低い領域,明度値の高い領域を高さの高い領域とみなすことにより,試料の高さ情報を推定することができる。試料の高さ情報は,例えば(ある基準位置からの高さが)200nmのような,具体的な値でも良いし,「高い」または「低い」のような,相対的な高さ関係を表すだけの情報でも良い。多層レイヤにおける上層,下層の関係を表す情報も高さ情報の一つである。撮像画像1502の例では,パターンのエッジを黒い線分で表している。撮像画像1502は、上層パターン1513,1514と,下層パターン1516とを有する。その間にある領域1515では,下層パターンの視認性が悪く,エッジを検出しにくい。しかし,パターンのエッジを表す線分の位置関係に着目すると,撮像画像1502のみから,縦方向の上層パターン1513,1514があり,その下に横方向の下層パターン1516があることが予測できる。このため,領域1515は,上層パターン1513,1514と比べると高さが低いことを画像処理により推定することができる。このように,パターンのエッジを表す線分の位置関係を用いて,相対的な高さ関係を推定することができる。
 また、撮像画像1503および撮像画像1504は別の例である。試料の同一の箇所に対して荷電粒子を照射して,2組の後方散乱粒子検出器で検出して得られた2枚の画像を表している。撮像画像1503及び撮像画像1504では,明度値が高い領域1521を白色,明度値の低い領域1522を黒色,中間的な明度値を持つ領域1523をハッチングで塗り潰して表現している。これらの撮像画像には,縦方向のパターンが2本映っている。撮像画像から見てそれぞれ左側と右側に放出される後方散乱粒子を多く検出するように後方散乱粒子検出器を配置している。このように得られた撮像画像1503と撮像画像1504の減算を行うと,試料の凹凸に関する情報が得られることが知られている。これら差画像1505では,値がほぼゼロの領域を白色,それ以外の領域で値が正および負の領域をそれぞれハッチングおよび黒で塗り潰して表現している。ハッチングで塗り潰した領域1526では,その領域の左側よりも右側のほうが試料の高さが高いことを表しており,また黒色で塗り潰した領域1527では,その領域の左側よりも右側のほうが試料の高さが低いことを表している。この情報を用いることで,画像処理により相対的な高さ関係を得ることができる。
 高さ情報を推定することができれば,例えば周囲と比べて高さが高い局所領域では放出される粒子の検出が容易であるため鮮明化を行う必要がないといった判断を行うことができる。このように,高さ情報を用いることにより,鮮明化強度の計算をより適切に行うことができる。なお,高さ情報の推定に用いる画像と,鮮明化強度の計算や画質改善処理を行う画像は,別の画像であっても良い。例えば,撮像画像1503および撮像画像1504の例において,これらの画像を用いて高さ情報を推定した後,この高さ情報を用いて,別の検出器で得られた画像に対して画質改善処理を行うことができる。
 図16に,撮像画像から計算される現状の鮮明度を用いて鮮明化強度の制約条件を設定する方法の一実施例図を示す。
3層レイヤのパターンを撮像した画像の例に対して,撮像画像の各レイヤにおける現状鮮明度と制約条件の関係を示すグラフ1601を例示する。黒丸1611が現状鮮明度を表す。白い長方形1612が制約条件を表し,上側の線分が画質改善画像に要求する鮮明度(以下,目標鮮明度)の上限,下側の線分が目標鮮明度の下限を示している。この例では,下層のレイヤほど鮮明度が低くなっている。上層から2番目のレイヤや,上層から3番目のレイヤの鮮明度が低いため,これらのレイヤに対して高い鮮明化強度を設定することが必要となる。ただし,鮮明化強度は高いほど良いという訳ではなく,画像全体の画質を低下しないためには,一般的には画質改善画像における下層レイヤの鮮明度を上層レイヤの鮮明度より低く設定する必要がある。また,鮮明度が過度に高すぎる場合にも,その領域が目立ち過ぎることにより鮮明度が低い領域の画質を損なう場合がある。さらに,画質改善処理の前後において、相対的な鮮明度の高低関係が崩れてしまうと、画像全体として不自然になることもあり、現状鮮明度と比べて相対的に画質改善画像の鮮明度が高すぎる場合では,ノイズが増幅されたり,人工的な模様が現れたりするなど副作用が生じるようになる。そこで,本実施例では,これらの副作用を抑えるべく、必要に応じて、鮮明度に対する制約条件を設定する。これらの制約条件は,例えば,前述したように,上層レイヤの鮮明度を超えず,かつ過度に高い値にすることなく,かつ現状鮮明度と比べて相対的に高すぎる値にしないようにする等で決定することができる。このように,鮮明度に対して制約条件を設定することにより,これらの副作用を抑えることができる。グラフ1602に,鮮明化強度に対する制約条件を示す。この制約条件は,例えば,画質改善画像の鮮明度に対する制約条件から現状鮮明度を減算することで求めることができる。ここでは、3層レイヤのパターンを例にとって説明したが、他の複数層レイヤのパターンでも同様に制約条件を設定できることは言うまでもない。
 図17に,鮮明化強度を指定したい領域または鮮明化強度に関する情報の入力をユーザに促し,ユーザから指定された情報に基づいて鮮明化強度を計算するシーケンスの一実施例図を示す。図17の(1)は,設計データを用いる場合のシーケンスの一実施例図である。ステップ101,102の処理は,図1と同じである。次に,ステップ1701において撮像画像に対して領域分割を行った後,1702で設計データの高さ情報を用いて領域分割により得られた撮像画像の局所領域の各々について鮮明化強度を計算する。次に,1703で鮮明化強度に基づき画質改善処理を実施して画質改善画像を得る。その後,ステップ1704でユーザからの鮮明化強度を指定したい領域または鮮明化強度に関する要求を入力してユーザからの要求があれば,その要求に基づいてステップ1701~1703の処理をやり直す。以下,ステップ1704でユーザからの要求がなくなるまで,ステップ1701~1704を繰り返す。図17の(2)は,撮像画像の情報を用いて鮮明化強度を計算する場合のシーケンスの一実施例図である。ステップ102の処理は,図1と同じである。ここで、図4の場合と同様、設計データの利用と併用する場合に備えて、設計データを読み込むステップがあっても構わない。次に,ステップ1711において撮像画像に対して領域分割を行った後,1712で撮像画像から試料の高さ情報を推定する。次に,1712で撮像画像から試料の高さ情報を推定する。1713で試料の高さ情報の推定値を用いて領域分割により得られた撮像画像の局所領域の各々について鮮明化強度を計算する。次に,1714で鮮明化強度に基づき画質改善処理を実施して画質改善画像を得る。その後,ステップ1715でユーザからの鮮明化強度を指定したい領域または鮮明化強度に関する要求を入力し,要求があれば,その要求に基づいてステップ1711~1714の処理をやり直す。以下,ステップ1715でユーザからの要求がなくなるまで,ステップ1711~1715を繰り返す。
 図18に,鮮明化強度を指定したい領域または鮮明化強度に関する情報の入力をユーザに促し,ユーザから指定された情報に基づいて鮮明化強度を計算するシーケンスの,図17とは別の一実施例図を示す。このシーケンスでは,試料の複数箇所を撮像する。ステップ102からステップ1715の処理は,図17と同じであり,これらの処理により最初に取得した撮像画像における出力画像を生成する。次に,ステップ1801~1807の処理をループさせることで,残りの撮像画像における出力画像を得る。ステップ1802で撮像画像を取得し,ステップ1803で領域分割を行う。次にステップ1804では,撮像画像から試料の高さ情報を推定し,ステップ1805で試料の高さ情報の推定値に基づき鮮明化強度を計算する。ステップ1806でこの鮮明化強度に基づき画質改善処理を実施する。同一の工程の試料を複数箇所撮像する場合には,各箇所における撮像画像の性質は類似しているため,それぞれの箇所についてユーザからの要求を読み込む必要はなく,このシーケンスのように最初に1回だけ入力を促せば良い。このシーケンスにより,試料の複数箇所を撮像する場合において,撮像を行う毎にユーザからの鮮明化強度を指定したい領域または鮮明化強度に関する要求を入力する必要がなく,最初の1回だけ入力すれば良いような処理を行うことができ,ユーザが出力画像の画質について調整するために必要な手間を大幅に低減することができる。なお、ステップ1801~1807の処理のループの途中で,必要に応じてユーザからの要求を再入力するステップがあっても良い。
 図19に,鮮明化強度を指定したい領域または鮮明化強度に関する情報の入力をユーザに促すためのインターフェイスを表す一実施例図を示す。画面上には設計データ1901,撮像画像1902などが適宜表示されている。この例では,上層パターン1911と下層パターン1912がある箇所を撮像している。設計データを用いない場合には,設計データ1901は表示しない。ここで、撮像画像1902では,鮮明度が高い信号成分を実線,鮮明度が低い信号成分を点線で表現しているが、これに限られず、色を変えるなどして表示しても構わない。この例では,下層パターン1913は鮮明度が低く,また欠陥1914も撮像されている。1903には,目標鮮明度のデフォルト値が表示されている。目標鮮明度1903において,黒で塗り潰した領域は鮮明度が高い領域,ハッチングで塗り潰した領域は黒で塗り潰した領域よりも鮮明度が低い領域を表現している。また,1903の目標鮮明度から計算した鮮明化強度に基づいて画質改善処理を行って得られた画質改善画像が1904に表示されている。画質改善画像1904では,撮像画像1902と同様に,鮮明度が高い箇所を実線,鮮明度が低い箇所を点線で表現している。画質改善画像1904の例では,下層パターン1917は鮮明に表示されているが,欠陥1918の鮮明度は十分でない。1905は,目標鮮明度を指定するためのインターフェイスである。目標鮮明度を指定したい局所領域は,例えば1903の目標鮮明度を表す画像の上で指定することができる。例えば,1915の「領域a」「領域b」のように,上層パターンを表す領域と,それ以外の領域に分けて,それぞれの目標鮮明度を指定することができる。また,例えば,1916の「領域A」のように欠陥を表す領域の目標鮮明度を指定することができる。目標鮮明度を指定するためのインターフェイス1905は,例えばスクロールバーにより実現することができる。この例において,1921はユーザが指定した目標鮮明度,1922は目標鮮明度のデフォルト値である。1923の「デフォルト」ボタンを押すと,1921のユーザが指定した目標鮮明度を1922のデフォルト値に戻す。さらに,ユーザが指定した目標鮮明度を用いて画質改善処理を行う1906の「適用」ボタンや,ユーザが指定した現在の目標鮮明度を最終的な目標鮮明度としてユーザからの入力を終了する1907の「決定」ボタンや,ユーザからの入力を初期状態に戻す1908の「クリア」ボタンが付いている。本実施例では,鮮明化強度に関する情報として,目標鮮明度を入力するためのインターフェイスについて示したが,鮮明化強度そのものや別の鮮明化強度に関する情報を指定するためのインターフェイスであっても良い。このように,画像毎,または工程毎にユーザが鮮明化強度を指定したい領域または鮮明化強度に関する情報を入力できるインターフェイスを持ち,その入力に基づいて鮮明化強度を計算することにより,ユーザの希望に合わせてより適切な鮮明度を持つ画像を出力することができる。
 図20に,類似した領域をグループ化して,同一のグループに対して同一の鮮明化強度または値の近い鮮明化強度を設定するシーケンスの一実施例図を示す。ステップ101~103の処理は,図1と同じである。次に,ステップ2001で類似した領域をグループ化し,ステップ2002で設計データの高さ情報を用いてグループ毎に鮮明化強度を計算する。最後に,ステップ105で鮮明化強度に基づき画質改善処理を実施する。本実施例では,設計データを用いる場合における例について示したが,設計データを用いず、高さ情報の推定値を用いる場合でも同様にグループ化して,同一のグループに対して同一の鮮明化強度または値の近い鮮明化強度を設定することができる。
 図21に,図20のステップ2001における類似した領域をグループ化する方法の一実施例図を示す。2101に設計データの例と,2102に対応する撮像画像の例を示す。この例では,2111の上層パターンと2112の下層パターンを撮像している。図21では,鮮明度が高い信号成分を実線で示し,鮮明度が低い信号成分を点線で示している。2113の下層パターンは鮮明度が低い。2102の撮像画像に対して,図20のステップ2001で類似した領域をグループ化した結果を示す三つの例を,2103~2105に示す。2103のグループ1aの例では,上層パターンを表す2122のグループBと,それ以外の領域を表す2121のグループAにグループ化している。領域Aは,空間的位置が離れた三つの領域2141,2142,2143をグループ化しており,下層パターンを含む領域であるという意味で互いに類似している。このようにグループ化すれば,グループAに対して一様に高めの鮮明化強度を設定して画質改善処理を行うことにより,出力画像におけるこのグループの鮮明度を一様に保つことができる。2104のグループ1bの例では,上層パターンを表す2124のグループBと,下層パターンを表す2125のグループCと,それ以外の領域を表す2123のグループAにグループ化している。例えば,グループCに対してのみ正の鮮明化強度を設定することにより,下層パターンの表面の鮮明度のみを高くするような処理ができる。また,2105のグループ1cの例のように,上層パターンを表す2127のグループBと,上層パターンのホワイトバンドの領域を表す2128のグループCと,それ以外の領域を表す2126のグループAにグループ化することもできる。このようにグループ化すれば,例えばホワイトバンドの鮮明度を維持した上で,上層パターンのホワイトバンド以外の領域と下層パターンの鮮明度を高くするといった処理ができる。
 2106に,設計データ2101に対応する別の撮像画像の例を示す。この例では,上層パターン2131が2132のように断線しており,また2133の欠陥が表示されている。撮像画像2106に対してグループ化を行った例を2107に示す。この例では,上層パターンを表す2135のグループBと,欠陥領域を表す2136のグループCと,それ以外の領域を表す2134のグループAにグループ化している。設計データ2101と,2106の撮像画像2を用いれば,パターンが断線していることを認識できるため,2107のようにグループ化することは容易にできる。本実施例では設計データを用いたが,撮像画像を用いて各領域を認識する方法でも,同様のグループ化を行うことができる。
 図22に,図20のステップ2001における類似した領域をグループ化する方法の,図21とは別の一実施例図を示す。2102の撮像画像1,2103のグループ1aは,図21と同じである。また,図21と同様に,図22でも,鮮明度が高い信号成分を実線で示し,鮮明度が低い信号成分を点線で示している。2202は,2102の撮像画像と同一の工程における試料の別の位置を撮像した画像である。横方向の上層パターン2221と,縦方向の下層パターン2223,および2226のような大きな欠陥が映っている。2203は,2202の撮像画像に対してグループ化を行った結果の例である。2203のグループ3では,上層パターンを表す2224のグループAと,欠陥領域を表す2227のグループCと,それ以外の領域を表す2225のグループBにグループ化している。撮像画像2102と2202が同一工程の試料を撮像した画像であるため,類似した領域における鮮明度が類似した出力画像となることが望ましい場合も多い。この場合,2103のグループ1aと2203のグループ3において,グループA同士,およびグループB同士で,それぞれ値の近い鮮明度となるように鮮明化強度を設定することが望ましい。本実施例では,2102と2202の撮像画像を用いれば上層パターンや下層パターンを認識することができる。また,同一工程という事前情報も得られるため,2102と2202のように複数の撮像画像の間で類似した領域に同一のグループ化を行い,値の近い鮮明度となるように鮮明化強度を設定することができる。本実施例では撮像画像の情報のみを用いてグループ化を行う方法について述べたが,設計データを用いても,同様のグループ化を行うことができる。
 図23に,試料に対して荷電粒子ビームを垂直でない方向から照射して取得した撮像画像(以下,チルト像)に対して図2のステップ204の設計データを変形させる方法を表す一実施例図を示す。2301は設計データの例である。2311の上層パターンと,2312の下層パターンが映っている。2302は,2301の設計データに対応するチルト像の例である。チルト像では,2313のように上層パターンの側壁や,2314のように下層パターンの側壁が映る場合が多い。この場合,設計データと比べると複雑な形状となり,例えば,2315のようにパターンの側面と下地の境界なども表示されるようになる。2302のチルト像では,鮮明度が高い信号成分を実線で示し,鮮明度が低い信号成分を点線で示している。チルト像では,試料に対して荷電粒子ビームを垂直な方向から照射して得られる画像と比べると,照射する荷電粒子ビームの径を絞ることができず,分解能が悪くなるなどの性質があり,このため十分な鮮明度が得られない場合もある。チルト像に対して設計データを用いて鮮明化強度を計算する場合,2301と2302に表示されている構造の形状は大きく異なっているため,これらを直接比較することは困難である。そこで,設計データ2301を撮像画像2302に近づけるように変形させる。試料と照射した荷電粒子ビームとの角度や設計データの高さ情報などの情報を用いれば,2303のような画像を求められるため,2302のチルト像と2303の変形後の設計データを用いれば,チルト像ではない場合と同様の方法によって,鮮明化強度を計算することができる。
 図24に,設計データのレイヤ情報を利用して画質改善処理を行う方法の一実施例図を示す。2401は試料の断面であり,z軸が高さ方向を表している。2421,2422,2423は,それぞれ,上層から1番目,2番目,3番目のレイヤを表す。2411,2412はコンタクトホールであり,ホール2411は最上層のレイヤ2421と上層から2番目のレイヤ2422を繋いでいる。また,ホール2412は最上層のレイヤ2421と上層から3番目のレイヤ2423を繋いでいる。2414も最上層のレイヤ2421と上層から2番目のレイヤ2422を繋いでいるコンタクトホールであるが,2413のようにホール間がショートしている。2402および2403は,それぞれ,2401の試料に対応する撮像画像および画質改善画像の例である。黒く塗り潰したホールは平均明度値が低く,白く塗り潰したホールは平均明度値が低く,ハッチングで塗り潰したホールは平均明度値が中間的な値を持つことを表現している。撮像画像2402の例では,上層から3番目のレイヤに繋がっているホール2432の平均明度値が高く表示されており他のホールと識別しやすいが,ショートしているホール2433は他のショートしていないホールと識別し辛い。しかし,用途によっては,ショートしているホールを高い鮮明度で観察したい場合も多い。これに対し,設計データのレイヤ情報を用いれば,例えば,最上層のレイヤと上層から2番目のレイヤを繋ぐホールは,一様に高いコントラスト差が付くように(すなわち高い鮮明度が得られるように)鮮明化強度を高く設定し,ホール2432のような最上層のレイヤと上層から3番目のレイヤを繋ぐホールは,ホール2431に似たコントラストとなるように(すなわち鮮明度を抑えるように)鮮明化強度を低く設定することによって,画質改善画像2403のようにショートしているホールを明瞭に表示することができる。撮像画像からは,上層から2番目のレイヤや上層から3番目のレイヤは見ることができないが,このような撮像画像には表示されていないレイヤの情報を用いることで,注目している観察対象の鮮明度を高くすることができる。
 図25に,パターンの形状と粒子検出量との関係を表す一実施例図を示す。図25では,説明を簡単にするために,それぞれの試料は同一の電気特性,材質特性を持っているものとする。2501,2503,2505に,設計データの例を示す。2501の例では,縦方向の上層パターン2511,2512,2513の下に,横方向の下層パターン2514がある。2502に,2501内の線分ABに沿った各位置における粒子検出量を示す。上層パターンでは,一般に下層パターンと比べて粒子検出量は多い。また,2522のような上層パターンの近傍と比べると,2523のような上層パターンから離れた位置のほうが粒子検出量が多い。2523では上層パターンから十分な距離だけ離れているため,試料から放出された粒子が上層パターンに衝突することは少なく,上層パターンの粒子検出量とほぼ同じ値になっている。251のような近傍に上層パターンが多く存在する位置では,2522のような近傍に上層パターンが相対的に少ない位置と比べて粒子検出量が少ない。2503の例では,上層パターン2531の下に,横方向の下層パターン2532,2533がある。2504に,2503内の線分CD,EFに沿った各位置における粒子検出量を示す。2534のように,下層パターンでは上層パターンと比べて粒子検出量は少ないが,上層パターンから離れた位置にあるほど,試料から放出された粒子が上層パターンに衝突することは少なくなるため,粒子検出量は多くなる。また,2503の設計データを見ると,2535の位置では,左側,右側,上側の近傍の位置に上層パターンが存在しているのに対し,2536の位置では上側の上層パターンとの距離は相対的に長くなっている。このため,2536の位置と比べて2535の位置のほうが試料から放出された粒子が上層パターンに衝突しやすくなり,粒子検出量は少なくなる。2505の例では,縦方向の上層パターン2541,2542,2543があり,またそれらのパターンの間に,縦方向の下層パターン2544と,横方向の下層パターン2545がある。2506に,2505内の線分GH,IJに沿った各位置における粒子検出量を示す。線分GHに沿った位置では,位置に応じて上層パターンからの距離が変化しており,その距離が短いほど粒子検出量は少なくなる。一方,線分IJに沿った位置では,上層パターンからの距離は一定である。ただし,パターンのエッジ付近では,一般に,放出される粒子の量が多くなることが知られており,そのため粒子検出量も多くなる。
 試料から放出された粒子が検出器に届く量は,放出された後でその試料に再び衝突しやすいか否かに大きく影響する。この荷電粒子の試料への衝突のしやすさは,荷電粒子を照射した位置に対して,その近傍のパターンがどの程度高さがあるか,高さのあるパターンがどの程度近くにあり,どの程度密集しているか,等によって決まる。従って,高さ情報や近傍の位置における設計データまたは撮像画像の情報を用いれば,放出される粒子の検出量を推定できる。本発明では,この性質を利用して,例えば,粒子の検出量が少ない箇所ほど鮮明化強度を高く設定する。このような処理により,鮮明度が低い領域の視認性向上を行うことができる。
 以上、本発明者によってなされた発明を実施形態に基づき具体的に説明したが、本発明は上記実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
101…設計データ読込処理,102…撮像画像取得処理,103…領域分割処理,104…鮮明化強度計算処理,105…画質改善処理,201…設計データと撮像画像との位置合わせ処理,202…設計データ変形処理,203…領域分割処理,204…現状鮮明度計算処理,205…鮮明化強度計算処理,301…撮像装置,302…荷電粒子銃,303…荷電粒子ビーム,304…コンデンサレンズ,305…対物レンズ,306…試料,307…ステージ,308…検出器,309…画像生成器,321…入出力部,322…制御部,323…処理部,324…記憶部,325…画質改善部,331…設計データ読込部,332…領域分割部,333…鮮明化強度計算部,334…画質改善処理部

Claims (16)

  1. 荷電粒子顕微鏡装置を用いた試料の検査方法であって、
    前記試料に荷電粒子を照射し、前記試料から放出される同種または異種の粒子を検出して撮像画像を取得する撮像画像取得ステップと、
    前記撮像画像を複数の局所領域に分割する領域分割ステップと、
    前記試料の高さ情報に基づいて、前記撮像画像を前記複数の局所領域ごとに画像処理する画像処理ステップと、
    前記画像処理された撮像画像を用いて試料を検査する検査ステップと、
    を有することを特徴とする荷電粒子顕微鏡を用いた試料の検査方法。
  2. 請求項1記載の荷電粒子顕微鏡を用いた試料の検査方法であって、
    さらに、前記撮像画像取得ステップで取得した前記撮像画像に対応する設計データを読み込む設計データ読込ステップを有し、
    前記画像処理ステップでは、前記試料の高さ情報として、前記読み込んだ設計データから得た試料の高さ情報を用いることを特徴とする荷電粒子顕微鏡を用いた試料の検査方法。
  3. 請求項2記載の荷電粒子顕微鏡を用いた試料の検査方法であって、
    前記画像処理ステップでは、前記設計データから得た試料の高さ情報に基づいて前記複数の局所領域各々について鮮明化強度を算出し、前記鮮明化強度を用いて、前記撮像画像を前記複数の局所領域ごとに画像処理することを特徴とする荷電粒子顕微鏡を用いた試料の検査方法。
  4. 請求項3記載の荷電粒子顕微鏡を用いた試料の検査方法であって、
    前記鮮明化強度の算出において、
    前記設計データにおける最上層レイヤ以外の少なくとも一つのレイヤに対する鮮明化強度を、前記レイヤよりも上層にあるレイヤ情報を用いて計算することを特徴とする荷電粒子顕微鏡を用いた試料の検査方法。
  5. 請求項3記載の荷電粒子顕微鏡を用いた試料の検査方法であって、
    前記画像処理ステップでは、前記撮像画像から現状鮮明度を算出し、前記鮮明化強度と前記現状鮮明度を用いて、前記撮像画像を前記複数の局所領域ごとに画像処理することを特徴とする荷電粒子顕微鏡を用いた試料の検査方法。
  6. 請求項5記載の荷電粒子顕微鏡を用いた試料の検査方法であって、
    前記画像処理ステップでは、前記現状鮮明度を用いて鮮明化強度の制約条件を設定し、前記制約条件の設定に基づいて画像処理することを特徴とする荷電粒子顕微鏡を用いた試料の検査方法。
  7. 請求項1記載の荷電粒子顕微鏡を用いた試料の検査方法であって、
    前記画像処理ステップでは、前記試料の高さ情報として、前記撮像画像から推定した試料の高さ情報を用いることを特徴とする荷電粒子顕微鏡を用いた試料の検査方法。
  8. 請求項7記載の荷電粒子顕微鏡を用いた試料の検査方法であって、
    前記画像処理ステップでは、前記撮像画像から計算した前記試料の輪郭線情報を用いて試料の高さ情報を推定することを特徴とする荷電粒子顕微鏡を用いた試料の検査方法。
  9. 請求項7記載の荷電粒子顕微鏡を用いた試料の検査方法であって、
    前記画像処理ステップでは、前記撮像画像から現状鮮明度を算出し、前記鮮明化強度と前記現状鮮明度を用いて、前記撮像画像を前記複数の局所領域ごとに画像処理することを特徴とする荷電粒子顕微鏡を用いた試料の検査方法。
  10. 請求項9記載の荷電粒子顕微鏡を用いた試料の検査方法であって、
    前記画像処理ステップでは、前記現状鮮明度を用いて鮮明化強度の制約条件を設定し、前記制約条件の設定に基づいて画像処理することを特徴とする荷電粒子顕微鏡を用いた試料の検査方法。
  11. 試料に荷電粒子を照射する荷電粒子照射光学系手段と,
    前記荷電粒子照射光学系手段により荷電粒子が照射された前記試料から発生した同種または別種の粒子を検出する電粒子検出光学系手段と,
    前記粒子検出光学系手段で検出した信号を処理して前記試料の撮像画像を得る撮像画像取得手段と,
    前記撮像画像取得手段で取得した前記試料の撮像画像を処理する画像処理手段とを備えた荷電粒子顕微鏡装置であって,
    前記画像処理手段は,前記撮像画像を複数の局所領域に分割し,前記試料の高さ情報に基づいて、前記撮像画像を前記複数の局所領域ごとに画像処理する
    ことを特徴とする荷電粒子顕微鏡装置。
  12. 請求項11記載の荷電粒子顕微鏡装置であって、
    さらに、前記撮像画像に対応する設計データを読み込む設計データ読込手段を有し、
    前記画像処理手段では、前記試料の高さ情報として、前記設計データ読込手段により読み込んだ設計データから得た資料の高さ情報を用いる
    ことを特徴とする荷電粒子顕微鏡装置。
  13. 請求項12記載の荷電粒子顕微鏡装置であって、
    前記画像処理手段では、前記設計データから得た試料の高さ情報に基づいて前記複数の局所領域各々について鮮明化強度を算出し、前記鮮明化強度を用いて、前記撮像画像を前記複数の局所領域ごとに画像処理する
    ことを特徴とする荷電粒子顕微鏡装置。
  14. 請求項13記載の荷電粒子顕微鏡装置であって、
    前記画像処理手段では、前記鮮明化強度の算出において、
    前記設計データにおける最上層レイヤ以外の少なくとも一つのレイヤに対する鮮明化強度を、前記レイヤよりも上層にあるレイヤ情報を用いて計算する
    ことを特徴とする荷電粒子顕微鏡装置。
  15. 請求項11記載の荷電粒子顕微鏡装置であって、
    前記画像処理手段では、前記試料の高さ情報として、前記撮像画像から推定した試料の高さ情報を用いる
    ことを特徴とする荷電粒子顕微鏡装置。
  16. 請求項15記載の荷電粒子顕微鏡装置であって、
    前記画像処理手段では、前記撮像画像から計算した前記試料の輪郭線情報を用いて試料の高さ情報を推定する
    ことを特徴とする荷電粒子顕微鏡装置。
PCT/JP2010/004071 2009-09-30 2010-06-18 荷電粒子顕微鏡装置及びこれを用いた試料の検査方法 WO2011039908A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/379,663 US9341584B2 (en) 2009-09-30 2010-06-18 Charged-particle microscope device and method for inspecting sample using same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-225855 2009-09-30
JP2009225855A JP5380230B2 (ja) 2009-09-30 2009-09-30 荷電粒子顕微鏡装置及びこれを用いた試料の検査方法

Publications (1)

Publication Number Publication Date
WO2011039908A1 true WO2011039908A1 (ja) 2011-04-07

Family

ID=43825762

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/004071 WO2011039908A1 (ja) 2009-09-30 2010-06-18 荷電粒子顕微鏡装置及びこれを用いた試料の検査方法

Country Status (3)

Country Link
US (1) US9341584B2 (ja)
JP (1) JP5380230B2 (ja)
WO (1) WO2011039908A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013168487A1 (ja) * 2012-05-11 2013-11-14 株式会社 日立ハイテクノロジーズ 欠陥解析支援装置、欠陥解析支援装置で実行されるプログラム、および欠陥解析システム
CN105981129A (zh) * 2014-02-12 2016-09-28 株式会社日立高新技术 扫描带电粒子显微镜图像的高画质化方法和扫描带电粒子显微镜装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5727322B2 (ja) * 2011-07-27 2015-06-03 株式会社日立ハイテクノロジーズ 半導体検査システム
WO2015182224A1 (ja) * 2014-05-27 2015-12-03 株式会社日立ハイテクノロジーズ 荷電粒子線を用いたパターン寸法計測方法及びそのシステム
JP6179551B2 (ja) * 2015-05-12 2017-08-16 コニカミノルタ株式会社 画像検査装置及び画像形成装置
JP2017134596A (ja) * 2016-01-27 2017-08-03 株式会社東芝 画像処理方法及びプロセスシミュレーション装置
US10991542B2 (en) * 2017-01-27 2021-04-27 Hitachi High-Tech Corporation Charged particle beam device
JP7171010B2 (ja) * 2018-03-07 2022-11-15 株式会社日立ハイテクサイエンス 断面加工観察装置、断面加工観察方法及びプログラム
CN113016052A (zh) * 2018-11-01 2021-06-22 东京毅力科创株式会社 图像处理方法以及图像处理装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004219343A (ja) * 2003-01-17 2004-08-05 Hitachi High-Technologies Corp 微細パターンの3次元形状測定方法
JP2006351888A (ja) * 2005-06-17 2006-12-28 Hitachi High-Technologies Corp パターン検査装置およびそれを用いた半導体検査システム
JP2006351746A (ja) * 2005-06-15 2006-12-28 Hitachi High-Technologies Corp 走査型電子顕微鏡用撮像レシピ作成装置及びその方法並びに半導体パターンの形状評価装置
JP2007214009A (ja) * 2006-02-10 2007-08-23 Topcon Corp 荷電粒子ビーム装置の画像鮮鋭度評価方法、非点収差評価方法、それらの方法を用いた荷電粒子ビーム装置、コンピュータプログラム
JP2008177064A (ja) * 2007-01-19 2008-07-31 Hitachi High-Technologies Corp 走査型荷電粒子顕微鏡装置および走査型荷電粒子顕微鏡装置で取得した画像の処理方法
JP2009198338A (ja) * 2008-02-22 2009-09-03 Hitachi High-Technologies Corp 電子顕微鏡システム及びそれを用いたパターン寸法計測方法
JP2009245674A (ja) * 2008-03-31 2009-10-22 Hitachi High-Technologies Corp 荷電粒子顕微鏡装置及びそれを用いた画像処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2549647B2 (ja) 1987-02-27 1996-10-30 株式会社東芝 Sem画像の復元処理方法
JP2946466B2 (ja) 1989-07-13 1999-09-06 アンリツ株式会社 顕微方法及び装置
JPH0536128A (ja) * 1990-12-20 1993-02-12 Hitachi Ltd 高密度情報記録媒体及びそれを用いた記録装置
US20060160037A1 (en) * 2005-01-18 2006-07-20 International Business Machines Corporation Automated sub-field blading for leveling optimization in lithography exposure tool
JP2008034458A (ja) * 2006-07-26 2008-02-14 Fujitsu Ltd 欠陥検査方法及び欠陥検査装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004219343A (ja) * 2003-01-17 2004-08-05 Hitachi High-Technologies Corp 微細パターンの3次元形状測定方法
JP2006351746A (ja) * 2005-06-15 2006-12-28 Hitachi High-Technologies Corp 走査型電子顕微鏡用撮像レシピ作成装置及びその方法並びに半導体パターンの形状評価装置
JP2006351888A (ja) * 2005-06-17 2006-12-28 Hitachi High-Technologies Corp パターン検査装置およびそれを用いた半導体検査システム
JP2007214009A (ja) * 2006-02-10 2007-08-23 Topcon Corp 荷電粒子ビーム装置の画像鮮鋭度評価方法、非点収差評価方法、それらの方法を用いた荷電粒子ビーム装置、コンピュータプログラム
JP2008177064A (ja) * 2007-01-19 2008-07-31 Hitachi High-Technologies Corp 走査型荷電粒子顕微鏡装置および走査型荷電粒子顕微鏡装置で取得した画像の処理方法
JP2009198338A (ja) * 2008-02-22 2009-09-03 Hitachi High-Technologies Corp 電子顕微鏡システム及びそれを用いたパターン寸法計測方法
JP2009245674A (ja) * 2008-03-31 2009-10-22 Hitachi High-Technologies Corp 荷電粒子顕微鏡装置及びそれを用いた画像処理方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013168487A1 (ja) * 2012-05-11 2013-11-14 株式会社 日立ハイテクノロジーズ 欠陥解析支援装置、欠陥解析支援装置で実行されるプログラム、および欠陥解析システム
JP2013236032A (ja) * 2012-05-11 2013-11-21 Hitachi High-Technologies Corp 欠陥解析支援装置、欠陥解析支援装置で実行されるプログラム、および欠陥解析システム
TWI512787B (zh) * 2012-05-11 2015-12-11 Hitachi High Tech Corp A defect analysis support means, a program executed by the defect analysis support means, and a defect analysis system
US9582875B2 (en) 2012-05-11 2017-02-28 Hitachi High-Technologies Corporation Defect analysis assistance device, program executed by defect analysis assistance device, and defect analysis system
CN105981129A (zh) * 2014-02-12 2016-09-28 株式会社日立高新技术 扫描带电粒子显微镜图像的高画质化方法和扫描带电粒子显微镜装置
CN105981129B (zh) * 2014-02-12 2017-09-26 株式会社日立高新技术 扫描带电粒子显微镜图像的高画质化方法和扫描带电粒子显微镜装置

Also Published As

Publication number Publication date
JP5380230B2 (ja) 2014-01-08
US20120098952A1 (en) 2012-04-26
US9341584B2 (en) 2016-05-17
JP2011076810A (ja) 2011-04-14

Similar Documents

Publication Publication Date Title
JP5380230B2 (ja) 荷電粒子顕微鏡装置及びこれを用いた試料の検査方法
JP5202071B2 (ja) 荷電粒子顕微鏡装置及びそれを用いた画像処理方法
US6538249B1 (en) Image-formation apparatus using charged particle beams under various focus conditions
US7932493B2 (en) Method and system for observing a specimen using a scanning electron microscope
JP5537488B2 (ja) 荷電粒子顕微鏡装置および画像撮像方法
JP5118872B2 (ja) 半導体デバイスの欠陥観察方法及びその装置
JP2014207110A (ja) 観察装置および観察方法
JP6255448B2 (ja) 荷電粒子線装置の装置条件設定方法、および荷電粒子線装置
JP4261743B2 (ja) 荷電粒子線装置
WO2016121265A1 (ja) 試料観察方法および試料観察装置
JP2008177064A (ja) 走査型荷電粒子顕微鏡装置および走査型荷電粒子顕微鏡装置で取得した画像の処理方法
JP2010062106A (ja) 走査型荷電粒子顕微鏡装置及び走査型荷電粒子顕微鏡装置で取得した画像の処理方法
KR101987726B1 (ko) 전자선식 패턴 검사 장치
US8263935B2 (en) Charged particle beam apparatus
JP5775948B2 (ja) 荷電粒子顕微鏡装置および画像撮像方法
JP2007141866A (ja) 電子顕微方法及びそれを用いた電子顕微鏡並び生体試料検査方法及び生体検査装置
KR102001715B1 (ko) 상대적 임계 치수의 측정을 위한 방법 및 장치
WO2013180043A1 (ja) 計測方法、画像処理装置、及び荷電粒子線装置
JP2012142299A (ja) 走査型荷電粒子顕微鏡装置および走査型荷電粒子顕微鏡装置で取得した画像の処理方法
CN116964721A (zh) 学习器的学习方法以及图像生成系统
US8675948B2 (en) Mask inspection apparatus and mask inspection method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10820035

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13379663

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10820035

Country of ref document: EP

Kind code of ref document: A1