WO2021044532A1 - 荷電粒子線装置 - Google Patents

荷電粒子線装置 Download PDF

Info

Publication number
WO2021044532A1
WO2021044532A1 PCT/JP2019/034683 JP2019034683W WO2021044532A1 WO 2021044532 A1 WO2021044532 A1 WO 2021044532A1 JP 2019034683 W JP2019034683 W JP 2019034683W WO 2021044532 A1 WO2021044532 A1 WO 2021044532A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
region
sample
charged particle
particle beam
Prior art date
Application number
PCT/JP2019/034683
Other languages
English (en)
French (fr)
Inventor
千葉 寛幸
偉健 陳
諒 小松崎
佐藤 博文
Original Assignee
株式会社日立ハイテク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ハイテク filed Critical 株式会社日立ハイテク
Priority to KR1020227007034A priority Critical patent/KR102608709B1/ko
Priority to PCT/JP2019/034683 priority patent/WO2021044532A1/ja
Priority to US17/640,279 priority patent/US20220344124A1/en
Priority to JP2021543851A priority patent/JP7198360B2/ja
Priority to CN201980099996.7A priority patent/CN114341631A/zh
Publication of WO2021044532A1 publication Critical patent/WO2021044532A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/22Optical or photographic arrangements associated with the tube
    • H01J37/222Image processing arrangements associated with the tube
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/22Optical or photographic arrangements associated with the tube
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/24Circuit arrangements not adapted to a particular application of the tube and not otherwise provided for
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/244Detectors; Associated components or circuits therefor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/252Tubes for spot-analysing by electron or ion beams; Microanalysers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/26Electron or ion microscopes; Electron or ion diffraction tubes
    • H01J37/28Electron or ion microscopes; Electron or ion diffraction tubes with scanning beams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/07Investigating materials by wave or particle radiation secondary emission
    • G01N2223/079Investigating materials by wave or particle radiation secondary emission incident electron beam and measuring excited X-rays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/401Imaging image processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/403Imaging mapping with false colours
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/408Imaging display on monitor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/22Treatment of data
    • H01J2237/221Image processing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/245Detection characterised by the variable being measured
    • H01J2237/24571Measurements of non-electric or non-magnetic variables
    • H01J2237/24578Spatial variables, e.g. position, distance
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/26Electron or ion microscopes
    • H01J2237/28Scanning microscopes
    • H01J2237/2813Scanning microscopes characterised by the application
    • H01J2237/2814Measurement of surface topography

Definitions

  • the present invention relates to a charged particle beam device.
  • a charged particle beam device is used to detect and / or evaluate the object of interest in the sample.
  • the charged particle beam device irradiates a sample with a charged particle beam, and detects and / or evaluates an object of interest by using a signal generated by the irradiation.
  • An example of such a charged particle beam device is disclosed in Patent Document 1.
  • the present invention has been made to solve such a problem, and an object of the present invention is to provide a charged particle beam device capable of appropriately detecting different types of structures.
  • An example of the charged particle beam device is An irradiation part that irradiates a sample with a charged particle beam, A particle detection unit that detects particles caused by irradiation of the sample with the charged particle beam, and An image generation unit that generates an image of the sample based on the output from the particle detection unit, and an image generation unit.
  • Has a structure detector and The structure detection unit An image of the sample is input to the first trained model for detecting the first structure.
  • An image of the sample is input to the second trained model for detecting the second structure.
  • the first detection result related to the first structure is acquired from the first trained model, and the first detection result is obtained.
  • the second detection result related to the second structure is acquired from the second trained model, and the second detection result is obtained.
  • the position or region of the first structure is determined based on the first detection result.
  • the position or region of the second structure is determined based on the second detection result.
  • the charged particle beam apparatus can detect a plurality of types of structures corresponding to each other by using a plurality of trained models.
  • FIG. 5 is a diagram showing a state in which an example of duplication correction processing is executed in the integrated result image of FIG. 8 and a new structure is displayed.
  • FIG. 5 is a diagram showing a state in which an example of duplication correction processing is executed in the integrated result image of FIG. 8 and one structure is prioritized.
  • FIG. 5 is a diagram showing a state in which an example of duplication correction processing is executed in the integration result image of FIG. 8 and processing for accepting an operation of selecting any one of the structures is being performed.
  • FIG. 1 is a front view schematically showing the charged particle beam apparatus 100 according to the first embodiment.
  • the charged particle beam device 100 is a scanning electron microscope.
  • the charged particle beam device may be another charged particle beam device such as a transmission electron microscope or an ion beam device.
  • the configuration of the charged particle beam device 100 is only an example. In other words, the specific configuration of each part of the charged particle beam device 100 may change depending on the type and structure of the charged particle beam device 100.
  • the charged particle beam device 100 has an irradiation unit 110 that irradiates the sample S with a charged particle beam.
  • the irradiation unit 110 of this example has an electron source 111 and a lens barrel 112.
  • the electron source 111 emits an electron that is a source of a charged particle beam (electron beam in this example).
  • the lens barrel 112 has a focusing lens, a scanning coil, an objective lens, and the like, and guides a charged particle beam toward the sample S.
  • the irradiation unit 110 is connected to the sample chamber 120.
  • the sample chamber 120 is evacuated by a vacuum pump or the like (not shown).
  • the sample chamber 120 is provided with a detection unit 130 that outputs a signal caused by irradiation of the sample S with a charged particle beam.
  • the target detected by the detection unit 130 may be secondary electrons, backscattered electrons, X-rays, Auger electrons, or the like. Further, a plurality of detection units 130 may be provided.
  • the detection unit 130 includes a particle detection unit that detects particles caused by irradiation of the sample S with a charged particle beam.
  • the particle detection unit is, for example, a first detection unit 130A that detects secondary electrons.
  • the detection unit 130 may include an electromagnetic wave detection unit that detects an electromagnetic wave caused by irradiation of the sample S with a charged particle beam.
  • the electromagnetic wave detection unit is, for example, a second detection unit 130B that detects X-rays.
  • the detection unit 130 is not always provided in the sample chamber 120.
  • the detection unit 130 is provided inside the lens barrel 112.
  • the detection unit 130 is provided downstream of the flow of the electron beam from the sample S so as to detect the electron beam transmitted through the sample S.
  • the charged particle beam device 100 includes a stage 140.
  • the stage 140 may be a movable stage.
  • the stage 140 may be movable in the X and / or Y directions (one direction in a plane perpendicular to the optical axis of the charged particle beam: the direction of the arrow in FIG. 1).
  • the stage 140 may be movable in the Z direction (direction perpendicular to the optical axis of the charged particle beam).
  • the stage 140 may be rotatable (rotation about the Z-axis direction as a rotation axis).
  • the stage 140 may be tiltable (rotation about the X direction or the Y direction as the rotation axis).
  • the stage 140 may be configured to support the sample holder 141. In this example, the sample S is placed on the sample holder 141.
  • the charged particle beam device 100 may be connected to the control unit 151, the input unit 152, the storage unit 153, and the display unit 154.
  • the control unit 151, the input unit 152, the storage unit 153, and the display unit 154 may be a part of the charged particle beam device 100, or may be independent of the charged particle beam device 100.
  • the connection between the parts may be a wired connection or a wireless connection. Therefore, the connecting lines shown in FIG. 1 are merely examples.
  • a connection via a communication line such as the Internet can also be adopted.
  • the storage unit 153 may be a storage unit 153 on an intranet, the Internet, or a cloud service.
  • the control unit 151 or the storage unit 153 in the upper layer may be referred to as an upper device.
  • the control unit 151 that receives the signal from the detection unit 130 can generate an image or a spectrum.
  • the control unit 151 can analyze or evaluate the place or region where the charged particle beam of the sample S is irradiated (hereinafter, both are collectively referred to as "region" in the present specification).
  • the control unit 151 can generate an SEM image (here, a secondary electron image) based on the signal output by the first detection unit 130A.
  • the control unit 151 can generate an X-ray analysis image or spectrum based on the signal output by the second detection unit 130B. Therefore, the control unit 151 functions as an image generation unit that generates an image of the sample S based on the output from the detection unit 130.
  • the control unit 151 can analyze or evaluate, for example, the surface shape or surface element of the sample S based on these images or signals.
  • the input of information to the charged particle beam device 100 or the output of information from the charged particle beam device 100 may be performed via a UI (user interface).
  • the UI is a GUI (graphic user interface) and is displayed on the display unit 154.
  • the control of the charged particle beam device 100 by the control unit 151, the generation of an image or spectrum, or the analysis or evaluation of the sample S may be executed based on the trained model stored in the storage unit 153.
  • the storage unit 153 stores a plurality of trained models. In the present embodiment, the storage unit 153 stores the model M1 (first trained model), the model M2 (second trained model), and the model M3 (third trained model), but the stored trained model. The number of may be two or four or more.
  • Each trained model is configured to detect different structures by performing machine learning using different teacher data. More specifically, the model M1 is a model for detecting the first structure, the model M2 is a model for detecting the second structure, and the model M3 is a model for detecting the third structure. ..
  • the structure refers to, for example, the shape of particles (spherical shape, specific crystal shape, etc.), the shape of foreign matter, and the shape on sample S (scratch, etc.). Further, the shape is not limited to the appearance, and the structure of a portion having a specific composition may be included.
  • each structure does not have to be specialized for a different type of substance or the like, and may be configured so that the corresponding model detects a plurality of structures that the same type of substance or the like can have. For example, when a substance appears as round particles or angular particles on sample S, one model is trained for a round structure and another model is trained for an angular structure. Then, the same type of particles can be detected by a plurality of models.
  • the control unit 151 may control the operation of the entire charged particle beam device 100.
  • the control unit 151 may realize this control by executing a program.
  • This program may be stored in the storage unit 153, or may be stored in the storage means in the control unit 151 independent of the storage unit 153.
  • the charged particle beam device 100 may further include a navigation image capturing device 160.
  • the navigation image camera 160 captures the navigation image 206 (described later).
  • the navigation image capturing machine 160 is provided in the sample chamber 120.
  • the navigation image capturing machine 160 can capture at least a part of the portion where the sample holder 141 is expected to exist.
  • the navigation image capturing machine 160 is an optical camera, and can capture the entire portion where the sample holder 141 is expected to exist.
  • a light source for the navigation image capturing machine 160 may be provided in the sample chamber 120.
  • an image acquisition means other than the optical camera may be used as the navigation image capturing machine 160.
  • a navigation image capturing device 160 that is independent from the charged particle beam device 100 may be used.
  • an optical microscope that is independent of the charged particle beam device 100 and that can fix the sample holder 141 at a fixed position and in a fixed direction may be used. ..
  • the navigation image capturing machine 160 may also be connected to the control unit 151, the input unit 152, the storage unit 153, and the display unit 154.
  • the control unit 151 also functions as a structure detection unit for detecting a specific structure.
  • the control unit 151 detects the structure using the trained model based on the image of the sample S. More specifically, the control unit 151 inputs an image of the sample S to the model M1, acquires a detection result (first detection result) related to the first structure from the model M1, and based on the first detection result. Determine the location or region of the first structure.
  • control unit 151 inputs the image of the sample S to the model M2, acquires the detection result (second detection result) related to the second structure from the model M2, and based on the second detection result, the second structure. Determine the location or area of. Further, the control unit 151 inputs an image of the sample S to the model M3, acquires a detection result (third detection result) related to the third structure from the model M3, and based on the third detection result, of the third structure. Determine the location or area.
  • control unit 151 integrates information representing the position or region of each structure (for example, the first structure, the second structure, and the third structure) as a structure detection unit, and integrates result information representing these positions or regions. Generate and output.
  • FIG. 2 is an example of a GUI displayed on the display unit 154.
  • a GUI can be realized as a screen 200 displayed on the display unit 154.
  • the integration result information can be configured as an image displayed in such a GUI.
  • the output mode of the integrated result information is not limited to the image, and may be represented in a table or other format.
  • the screen 200 includes a tabular section 201 and a superimposing section 202.
  • the evaluation result of the sample S is displayed in a tabular form.
  • the image number corresponding to the area including the structure (“Image”), the number specifying the structure among the structures included in the area (“No”), The evaluation result (“Score”) regarding the structure, the position of the structure (“X” and “Y”), and the area of the structure (“Area”) are displayed.
  • the evaluation result is superposed on the image of the sample S and displayed.
  • a plurality of integration result images 203 are displayed on the superimposing unit 202.
  • the position of the first structure is indicated by a black circle and the position of the second structure is indicated by a gray pentagon superimposing on the image of the sample S.
  • the third structure is not detected, but when the third structure is detected, the position of the third structure may be indicated by the corresponding figure.
  • each structure is a region having a shape, that region may be superimposed and displayed on the integration result image 203.
  • the color of the pixels constituting each structure may be changed to a specific color (for example, red or green).
  • the pixels (areas consisting of) that make up each structure may be changed to a specific brightness, to have a specific hatch, and / or to blink in a specific pattern. Good.
  • the screen 200 may include the map unit 204.
  • Symbol 205 corresponding to each integration result image 203 is displayed on the map unit 204.
  • the display mode of the symbol 205 changes according to the information related to the corresponding integration result image 203.
  • Changes in display mode include changes in shape, color, color tone, shading, size, position, and the like.
  • the change in the display mode includes a change in which two or more display modes can be visually discriminated, such as the above-mentioned change in brightness, hatching, blinking pattern, and the like.
  • the shape of the symbol 205 may be determined according to the shape of the integration result image 203, or may be the same as the shape of the integration result image 203, for example.
  • the color or shading of the symbol 205 may be determined according to the evaluation result regarding the structure of interest included in the integration result image 203.
  • the size of the symbol 205 may be determined according to the size of the integration result image 203 in the sample S, for example, the relative size between the symbols 205 according to the relative size between the integration result images 203. Size may be determined.
  • the position of the symbol 205 in the map unit 204 may correspond to the position of the integration result image 203 in the sample S.
  • the screen 200 may include the navigation image 206.
  • the navigation image 206 is an image for visually designating the search range in the sample S placed on the sample holder 141 by the user, and is typically taken by the navigation image camera 160. However, if the observation magnification of the charged particle beam device 100 can be set sufficiently low, an image such as an SEM image may be used as the navigation image 206.
  • the navigation image 206 can be used, for example, to set or display a search region to be searched by the charged particle beam apparatus 100 with respect to the sample S.
  • FIG. 3 is another example of the GUI displayed on the display unit 154. This GUI is used to select a trained model.
  • information for identifying three models for example, models M1, M2, M3 is input.
  • the control unit 151 inputs an image of the sample S to each model specified here.
  • a macro is specified for the model M1, and no macro is specified for the models M2 and M3.
  • a macro is, for example, a program for performing image processing, receives information output by a trained model as an image, and is used to perform specific image processing on this image.
  • FIG. 4A is an image of sample S.
  • the control unit 151 can generate such an image based on the signal from the detection unit 130.
  • FIG. 4B represents the position or region of the first structure 401 determined based on the detection result by the model M1.
  • FIG. 4C represents the position or region of the second structure 402 determined based on the detection result by the model M2.
  • each model does not have to be in the format directly shown in FIG. 4 (b) or FIG. 4 (c) (the format indicating the area in the image).
  • some models may output heatmaps based on images.
  • a heat map represents, for example, the possibility that a structure exists for each pixel (for example, reliability, probability, or likelihood).
  • the control unit 151 performs an operation including a binarization process based on the heat map, for example, to perform a position or region of each structure as shown in FIG. 4 (b) or FIG. 4 (c). Can be determined.
  • FIG. 5 shows an example of the integration result image 203 as an output example of the integration result information.
  • the integration result image 203 represents the position or region of the structures (eg, first structure 401 and second structure 402) detected by each trained model in the image of sample S.
  • Each structure can be represented using different expressions.
  • the control unit 151 displays the first expression in the position or region of the first structure 401 and the second expression in the position or region of the second structure 402 in the image of the sample S.
  • the integration result image 203 is generated and output.
  • the integration result image 203 can be generated by displaying the first representation in the position or region of the first structure 401 and displaying the second representation in the position or region of the second structure 402.
  • the first expression and the second expression may be displayed overlaid on the image of the sample S, or may be displayed by replacing a part of the image of the sample S.
  • the first representation for the first structure 401 is represented by the first color (ie gray) and the second representation for the second structure 402 is the second color (ie white).
  • the first structure 401 may be represented by, for example, red
  • the second structure 402 may be represented by, for example, green.
  • the charged particle beam apparatus 100 can detect the corresponding types of structures by using a plurality of trained models. Further, by using different expressions for different structures, the user of the charged particle beam apparatus 100 can easily identify each structure.
  • FIG. 6 shows another example of the integration result image 203. It is not necessary to use different expressions for the structures detected by all trained models, and the same expression may be used for multiple or all trained models.
  • the first structure 401 detected via the model M1 and the third structure 403 detected via the model M3 are shown by the same representation (gray).
  • the integrated result image 203 may be generated by further displaying the first representation or the second representation in the position or region of the third structure 403 in the image of the sample S.
  • the structure of a certain object is not limited to one, it is useful to use the same expression for a plurality of structures detected by a plurality of trained models in this way. For example, if a certain type of particle can have various shapes, it is possible to train each assumed shape in a different model and use the same expression for all the structures detected by those models. Particles can be easily identified.
  • FIG. 7 shows yet another example of the integration result image 203.
  • image processing may be performed on the detection result.
  • image processing is performed on the detection result related to the first structure 401 using the macro specified as shown in FIG. 3, and as a result, the range of the first structure 401 is as shown in FIG. It's getting narrower.
  • the specific content of the image processing can be appropriately designed by those skilled in the art, but for example, it can be a process for specifying the range (or region) of the structure based on the image of the sample S and the position of each structure. ..
  • the range of the structure can be ranged by performing appropriate image processing on the range including the position of the sample S (or a nearby area). (Or area) can be specified.
  • the range (or area) of the structure is specified by the image processing, but the image processing does not need to specify the range (or area) of the structure, and may be used to specify only the position.
  • the process of detecting the position or region of each structure and the process of detecting the range of the structure can be separated, and the optimum process can be used for each, so that the process is appropriate as a whole. You can get the result. For example, if the model M1 can properly detect the presence of the first structure 401, but tends to detect the range (or region) larger than it actually is, then the detection of the range (or region) is an image. By performing the process, it is possible to obtain appropriate results in terms of both position and size.
  • the specific content of the image processing may differ for each structure (that is, for each trained model).
  • the result image extracted by machine learning may be the target, or the image of the sample S before being extracted may be used.
  • control unit 151 determines the position or region of the first structure 401 by image processing based on the image of the sample S and the first detection result as the structure detection unit. Similarly, the control unit 151 may determine the position or region of the second structure 402 by image processing based on the image of the sample S and the second detection result. When the third structure is detected, the control unit 151 may determine the position or region of the third structure by image processing based on the image of the sample S and the third detection result.
  • the charged particle beam apparatus 100 may further process the sample S.
  • the sample S may be analyzed for the position or region corresponding to the position or region of each structure (first structure, second structure or third structure).
  • the analysis of sample S may include shape analysis or composition analysis.
  • the position or region where the first structure 401 is detected (for example, the position or region corresponding to the image of FIG. 4A) is further irradiated with a charged particle beam via the irradiation unit 110, and the detection unit is detected.
  • the signal caused by the irradiation may be detected via the 130.
  • the signal related to this analysis may be, for example, a signal based on electrons generated when the sample S is irradiated with a charged particle beam, or based on an X-ray generated when the sample S is irradiated with a charged particle beam. It may be a signal.
  • the search can be efficiently executed and the analysis can be executed with high accuracy.
  • high-magnification imaging using energy dispersive X-ray spectroscopy (EDS) or electron backscatter diffraction (EBSD) can be used.
  • a charged particle beam having high acceleration or a large current may be used for photographing.
  • FIG. 8 shows yet another example of the integration result image 203.
  • the position or region of the first structure 401 and the position or region of the second structure 402 overlap.
  • the meaning of "overlapping positions or regions” can be appropriately interpreted by those skilled in the art. For example, when the positions of the structures in the image of the sample S match, the regions of the structures in the image of the sample S are one. Including cases where parts or all overlap.
  • the control unit 151 may execute a duplication correction process based on each structure when the positions or regions of the structures overlap.
  • the example of FIG. 8 shows a case where the position or region of the first structure 401 and the position or region of the second structure 402 overlap, and the overlap correction process is performed based on the first structure 401 and the second structure 402. Is done.
  • a more appropriate integration result image 203 can be obtained when a plurality of models detect the same object.
  • the duplication correction process may include a process of outputting information indicating that the positions or areas overlap for each structure in which the positions or areas overlap.
  • a rectangular frame 801 indicating the overlap is displayed so as to surround the overlapping portion of the positions or regions of the first structure 401 and the second structure 402.
  • the rectangular frame 801 is superimposed on the image of the sample S, for example.
  • Information indicating duplication may be expressed in a format other than the rectangular frame 801. For example, it may be a circle or a format other than a figure (message, etc.). Further, in the example of FIG. 8, the information indicating the duplication is displayed in relation to the position or area of the first structure 401 and the second structure 402, but the display position of the information indicating the duplication is Not limited to this.
  • FIG. 9 shows a state in which an example of the duplication correction process is executed in the integrated result image 203 of FIG.
  • the overlap correction process includes a process of determining the position or region of a new structure (fourth structure 404) based on the first structure 401 and the second structure 402 in which the positions or regions overlap.
  • the integration result image 203 represents the position or region of the fourth structure 404.
  • the fourth structure 404 can be obtained, for example, as a logical sum or a logical product of the regions of the overlapping structures. Further, for example, in the image of the sample S, the fourth expression is displayed at the position or region of the fourth structure 404.
  • the fourth structure 404 is detected as, for example, a structure having two features. That is, when a certain structure is detected as both the first structure 401 and the second structure 402, it can be said that the structure is a specific structure having these two kinds of characteristics.
  • the overlap correction process may be a process of detecting the fourth structure 404 as a new type of structure different from the first structure 401 and the second structure 402.
  • FIG. 10 shows a state in which another example of the duplication correction process is executed in the integrated result image 203 of FIG.
  • the duplication correction process is executed using the priority rules between the structures.
  • the representation of the first structure 401 (gray) is displayed in the image of the sample S
  • the representation of the second structure 402 (white) is displayed in the image of the sample S. Not displayed (or subtracted from the integration result image 203 in the state of FIG. 8).
  • the position or region of the first structure 401 or the position or region of the second structure 402 is used as the integration result information. It can be said that it is a process that does not include it.
  • Priority rules can be defined between three or more types of structures. For example, consider a case where the first structure is the first position, the second structure is the second position, and the third structure is the third position. When all three types of structures overlap, only the representation of the first structure is displayed in the image of sample S. When the first structure and the second structure overlap, and when the first structure and the third structure overlap, only the representation of the first structure is displayed in the image of the sample S. When the second structure and the third structure overlap, only the representation of the second structure is displayed in the image of the sample S.
  • the specific content of the priority rule (for example, the priority of each structure, etc.) can be input to the charged particle beam device 100 in the GUI shown in FIG. 3, for example, or in another GUI. Further, the priority rule is not limited to the order, and can be realized by the process of calculating the priority score of each structure.
  • FIG. 11 shows a state in which yet another example of the duplication correction process is executed in the integrated result image 203 of FIG.
  • the duplication correction process includes a process of accepting an operation of selecting any one of the structures for which the positions or regions overlap. For example, with respect to the first structure 401 and the second structure 402 having overlapping positions or regions, an operation of selecting either the first structure 401 or the second structure 402 is accepted.
  • the user of the charged particle beam device 100 can select the first structure 401 by operating the radio button of "A” and the “OK” button in the selection window 1101.
  • the second structure 402 can be selected by operating the "B" radio button and the "OK” button.
  • an appropriate detection process can be performed by human judgment.
  • a person skilled in the art can appropriately design the process after accepting the selection operation, but for example, as shown in FIG. 10, only the representation of the selected structure may be displayed on the image of the sample S.
  • teacher data for the training model may be generated based on the selected structure. That is, the duplication correction process may include a process of generating teacher data used for machine learning.
  • the teacher data generated when the first structure 401 is selected is the teacher data indicating that the unselected second structure 402 does not appear in the image of the sample S.
  • the teacher data generated when the second structure 402 is selected is the teacher data indicating that the unselected first structure 401 does not appear in the image of the sample S.
  • FIG. 12 schematically shows an example of such teacher data.
  • the format is shown as the integrated result image 203, but the format of the teacher data can be appropriately designed according to the learning model.
  • the example of FIG. 12 corresponds to the case where the first structure 401 is selected in the integration result image 203 of FIG.
  • the second structure 402 that was not selected does not appear in the image of the sample S.
  • the generated teacher data may be used for a new learning model, or may be fed back to retrain the model in use (for example, models M1, M2, M3).
  • any of the structures having overlapping positions or regions may be classified by a classifier.
  • the control unit 151 may function as this classifier. That is, the overlap correction process is performed on the first structure 401 and the second structure 402 whose positions or regions overlap, based on the position or region of the first structure 401 and the position or region of the second structure 402. A process of selecting either the first structure 401 or the second structure 402 may be included.
  • the specific processing content of the classifier can be appropriately designed by those skilled in the art, but for example, selection may be made based on the area of each structure, and more specifically, a structure having a larger area may be selected. You may. Alternatively, when the charged particle beam apparatus 100 performs some analysis or evaluation on each structure, selection may be made based on the analysis result or the evaluation result.
  • the classifier may be configured using image processing techniques or may be configured using a trained model prepared for the classifier.
  • the processing after selection by the classifier can be appropriately designed by those skilled in the art, but for example, only the selected structure may be displayed on the image of sample S as shown in FIG.

Abstract

荷電粒子線装置(100)は、荷電粒子線を試料(S)に対して照射する照射部(110)と、荷電粒子線の試料(S)への照射に起因する粒子を検出する粒子検出部(130)と、粒子検出部(130)からの出力に基づいて試料(S)の画像を生成する制御部(151)とを有し、制御部(151)は、第1構造(401)および第2構造(402)を検出するためのモデル(M1)および(M2)に、試料(S)の画像を入力し、モデル(M1)および(M2)から、第1構造(401)に係る第1検出結果および第2構造(402)に係る第2検出結果を取得し、第1検出結果および第2検出結果に基づいて第1構造(401)および第2構造(402)の位置または領域を決定し、第1構造(401)の位置または領域および第2構造(402)の位置または領域を表す統合結果画像(203)を出力する。

Description

荷電粒子線装置
 本発明は、荷電粒子線装置に関する。
 試料における着目対象物の検出および/または評価を行うために、荷電粒子線装置が用いられる。荷電粒子線装置は、試料に荷電粒子線を照射し、照射に起因する信号を利用して着目対象物の検出および/または評価を行う。このような荷電粒子線装置の例は、特許文献1に開示される。
特開2019-60741号公報
 しかしながら、従来の技術では、ある特定の構造を検出するには有効であるが、異なる種類の構造が混在している場合の処理が困難であるという課題があった。たとえば、ある形状の粒子を検出するために学習された学習済みモデルは、混在している他の形状の粒子や、粒子ではない異物等を検出するには適さない場合がある。
 この発明はこのような課題を解決するためになされたものであり、異なる種類の構造を適切に検出できる荷電粒子線装置を提供することを目的とする。
 この発明に係る荷電粒子線装置の一例は、
 荷電粒子線を試料に対して照射する照射部と、
 前記荷電粒子線の前記試料への照射に起因する粒子を検出する粒子検出部と、
 前記粒子検出部からの出力に基づいて前記試料の画像を生成する画像生成部と、
 構造検出部と、を有し、
 前記構造検出部は、
 第1構造を検出するための第1学習済みモデルに、前記試料の画像を入力し、
 第2構造を検出するための第2学習済みモデルに、前記試料の画像を入力し、
 前記第1学習済みモデルから、前記第1構造に係る第1検出結果を取得し、
 前記第2学習済みモデルから、前記第2構造に係る第2検出結果を取得し、
 前記第1検出結果に基づいて前記第1構造の位置または領域を決定し、
 前記第2検出結果に基づいて前記第2構造の位置または領域を決定し、
 前記第1構造の位置または領域と、前記第2構造の位置または領域とを表す統合結果情報を出力する。
 この発明に係る荷電粒子線装置は、複数の学習済みモデルを利用することにより、それぞれ対応する複数種類の構造を検出することができる。
この発明の実施形態1にかかる荷電粒子線装置を概略的に表した正面図。 表示部に表示される、統合結果画像の例を示すGUIの例。 表示部に表示される、学習済みモデルを選択するためのGUIの例。 各学習済みモデルの処理を説明する図。 各構造に異なる色を用いた統合結果画像の例。 複数の構造について同一の表現を用いた統合結果画像の例。 画像処理を用いた統合結果画像の例。 重複する構造について矩形枠を表示した統合結果画像の例。 図8の統合結果画像において重複時補正処理の一例が実行され、新たな構造が表示された状態を示す図。 図8の統合結果画像において重複時補正処理の一例が実行され、一方の構造が優先された状態を示す図。 図8の統合結果画像において重複時補正処理の一例が実行され、各構造のうちいずれか1つを選択する操作を受け付ける処理を行っている状態を示す図。 選択された構造に基づいて生成される教師データの例を模式的に示す図。
 以下、この発明の実施の形態を添付図面に基づいて説明する。
実施形態1.
 <荷電粒子線装置100の構成について>
 図1は実施形態1にかかる荷電粒子線装置100を概略的に表した正面図である。この荷電粒子線装置100は走査型電子顕微鏡である。ただし、荷電粒子線装置は透過型電子顕微鏡、イオンビーム装置等の他の荷電粒子線装置であってもよい。荷電粒子線装置100の構成は一例にすぎないことに留意されたい。換言すれば、荷電粒子線装置100の各部の具体的な構成は荷電粒子線装置100の種類や構造に応じて変わり得る。
 荷電粒子線装置100は、荷電粒子線を試料Sに対して照射する照射部110を有する。この例の照射部110は、電子源111と、鏡筒112を有する。電子源111は荷電粒子線(この例では電子線)の源となる電子を放出する。鏡筒112は集束レンズ、走査コイル、対物レンズ等を有し、荷電粒子線を試料Sに向かって導く。
 照射部110は試料室120に接続されている。典型的には、試料室120は図示しない真空ポンプなどによって真空引きされている。
 この例では、荷電粒子線の試料Sへの照射に起因する信号を出力する検出部130が試料室120に設けられている。検出部130が検出する対象は、二次電子、反射電子、X線、オージェ電子などであってよい。また、検出部130は複数設けられていてよい。
 検出部130は、荷電粒子線の試料Sへの照射に起因する粒子を検出する粒子検出部を含む。粒子検出部は、たとえば二次電子を検出する第一の検出部130Aである。また、検出部130は、荷電粒子線の試料Sへの照射に起因する電磁波を検出する電磁波検出部を含んでもよい。電磁波検出部は、たとえばX線を検出する第二の検出部130Bである。検出部130は試料室120に設けられているとは限らない。一例として、一種の走査型電子顕微鏡では、検出部130が鏡筒112の内部に設けられている。他の例として、一種の透過型電子顕微鏡では、検出部130は試料Sを透過した電子線を検出するように試料Sより電子線の流れの下流に設けられている。
 荷電粒子線装置100はステージ140を備える。ステージ140は可動ステージであってよい。典型的には、ステージ140はX方向および/またはY方向(荷電粒子線の光軸と垂直な平面内における一方向:図1の矢印方向)に可動であってよい。さらに、ステージ140はZ方向(荷電粒子線の光軸と垂直な方向)に可動であってよい。さらに、ステージ140は回転(Z軸方向を回転軸とした回転)可能であってよい。さらに、ステージ140は傾斜(X方向またはY方向を回転軸とした回転)可能であってよい。ステージ140は試料ホルダ141を支持するように構成されていてよい。この例では、試料Sは試料ホルダ141に載せられる。
 荷電粒子線装置100は制御部151と、入力部152と、記憶部153と、表示部154に接続されていてよい。制御部151、入力部152、記憶部153、表示部154は荷電粒子線装置100の一部であってもよく、荷電粒子線装置100と独立していてもよい。各部の間の接続は有線接続であっても無線接続であってもよい。したがって、図1に図示される接続線は例示に過ぎない。追加または代替として、インターネットなどの通信回線を介した接続も採用可能である。たとえば、記憶部153は、イントラネット、インターネットまたはクラウドサービス上の記憶部153であってもよい。荷電粒子線装置100が複数階層の制御部151または記憶部153に接続されている場合、上位の階層にある制御部151または記憶部153を上位装置と呼ぶ場合がある。
 典型的な荷電粒子線装置100においては、検出部130からの信号を受け取った制御部151は画像もしくはスペクトルの生成が可能である。または、制御部151は、試料Sの荷電粒子線が照射されている場所または領域(本明細書では以後両者を「領域」と総称する。)の分析または評価が可能である。この例では、制御部151は、第一の検出部130Aが出力した信号に基づいたSEM像(ここでは二次電子像)を生成することができる。同様に、制御部151は、第二の検出部130Bが出力した信号に基づいたX線分析画像またはスペクトルを生成することができる。したがって、制御部151は、検出部130からの出力に基づいて試料Sの画像を生成する画像生成部として機能する。さらに、制御部151は、これらの画像または信号に基づいて、たとえば試料Sの表面形状または表面元素の分析または評価をすることができる。
 荷電粒子線装置100への情報の入力または荷電粒子線装置100からの情報の出力は、UI(ユーザインタフェース)を介して行われてよい。この例では、UIはGUI(グラフィックユーザインタフェース)であり、表示部154に表示される。
 制御部151による荷電粒子線装置100の制御、画像もしくはスペクトルの生成または試料Sの分析もしくは評価は、記憶部153に記憶された学習済みモデルに基づいて実行されてよい。記憶部153は複数の学習済みモデルを格納する。本実施形態では、記憶部153は、モデルM1(第1学習済みモデル)、モデルM2(第2学習済みモデル)およびモデルM3(第3学習済みモデル)を格納するが、格納される学習済みモデルの数は2個であってもよく、4個以上であってもよい。
 各学習済みモデルは、それぞれ異なる教師データを用いて機械学習を行うことにより、それぞれ異なる構造を検出するために構成されている。より具体的には、モデルM1は第1構造を検出するためのモデルであり、モデルM2は第2構造を検出するためのモデルであり、モデルM3は第3構造を検出するためのモデルである。構造とは、たとえば、粒子の形状(球状、特定の結晶形状、等)、異物の形状、試料S上の形状(スクラッチ等)をいう。また、外観上の形状に限らず、特定の組成を有する部分の構造を含んでもよい。
 なお、各構造がそれぞれ異なる種類の物質等に特化されている必要はなく、同一種類の物質等が持ちうる複数の構造をそれぞれ対応するモデルが検出するように構成されていてもよい。たとえば、試料S上に、ある物質が丸い粒子として出現したり角張った粒子として出現したりする場合には、あるモデルを丸い構造に対して学習させ、別のモデルを角張った構造に対して学習させれば、複数のモデルによって同一種類の粒子を検出することができる。
 制御部151は、荷電粒子線装置100全体の動作を制御してもよい。制御部151は、プログラムを実行することによりこの制御を実現してもよい。このプログラムは、記憶部153に格納されてもよく、記憶部153から独立した制御部151内の記憶手段に格納されてもよい。
 荷電粒子線装置100はさらに、ナビゲーション画像撮影機160を備えてよい。ナビゲーション画像撮影機160はナビゲーション画像206(後述)を撮影する。図1の例ではナビゲーション画像撮影機160は試料室120に設けられている。図1では、ステージ140が図1の矢印の右端に位置する場合に、ナビゲーション画像撮影機160は試料ホルダ141が存在すると見込まれる部分の少なくとも一部を撮影することができる。図1の例ではナビゲーション画像撮影機160は光学カメラであり、試料ホルダ141が存在すると見込まれる部分全てを撮影可能である。なお、ナビゲーション画像撮影機160のための光源が試料室120に設けられていてもよい。
 図1の例とは異なり、ナビゲーション画像撮影機160として光学カメラ以外の画像取得手段が用いられてもよい。また、図1の例とは異なり、荷電粒子線装置100とは別個独立したナビゲーション画像撮影機160が用いられてもよい。たとえば、ナビゲーション画像撮影機160として、荷電粒子線装置100とは別個独立した光学顕微鏡であって、試料ホルダ141を一定の位置かつ一定の方向に固定することができる光学顕微鏡が用いられてもよい。また、ナビゲーション画像撮影機160も、制御部151と、入力部152と、記憶部153と、表示部154に接続されていてよい。
 制御部151は、特定の構造を検出するための構造検出部としても機能する。制御部151は、構造検出部として、試料Sの画像に基づき、学習済みモデルを利用して構造を検出する。より具体的には、制御部151は、モデルM1に試料Sの画像を入力し、モデルM1から第1構造に係る検出結果(第1検出結果)を取得し、この第1検出結果に基づいて第1構造の位置または領域を決定する。
 同様に、制御部151は、モデルM2に試料Sの画像を入力し、モデルM2から第2構造に係る検出結果(第2検出結果)を取得し、この第2検出結果に基づいて第2構造の位置または領域を決定する。さらに、制御部151は、モデルM3に試料Sの画像を入力し、モデルM3から第3構造に係る検出結果(第3検出結果)を取得し、この第3検出結果に基づいて第3構造の位置または領域を決定する。
 また、制御部151は、構造検出部として、各構造(たとえば第1構造、第2構造および第3構造)の位置または領域を表す情報を統合し、これらの位置または領域を表す統合結果情報を生成して出力する。
 <荷電粒子線装置100が出力する情報について>
 図2は、表示部154に表示されるGUIの例である。このようなGUIは、表示部154において表示される画面200として実現することができる。統合結果情報は、このようなGUIにおいて表示される画像として構成することができる。ただし、統合結果情報の出力態様は画像に限らず、表またはその他の形式で表されてもよい。
 画面200は、表形式部201と、重畳部202とを含む。表形式部201では、試料Sの評価結果が表形式で表示される。図2の例では、検出された各構造について、その構造が含まれる領域に対応する画像番号(「Image」)、その領域に含まれる構造のうち当該構造を特定する番号(「No」)、その構造に関する評価結果(「Score」)、その構造の位置(「X」および「Y」)、その構造の面積(「Area」)が表示されている。
 重畳部202では、評価結果が試料Sの画像に重畳して表示される。この例では、重畳部202には統合結果画像203が複数表示されている。各統合結果画像203において、試料Sの画像に重畳して、第1構造の位置が黒い丸で示され、第2構造の位置がグレーの五角形で示されている。この例では第3構造は検出されていないが、第3構造が検出された場合には第3構造の位置が対応する図形により示されてもよい。
 各統合結果画像203について、その画像に含まれる各構造に関する評価結果が数値として表示されている。
 この例では各構造の位置のみを示しているが、各構造が形状を有する領域である場合には、その領域が統合結果画像203に重畳して表示されてもよい。たとえば、各構造を構成する画素の色を特定の色(たとえば赤または緑)に変更してもよい。追加または代替として、各構造を構成する画素(からなる領域)を特定の輝度に変更したり、特定のハッチングを有するように変更したり、および/または特定のパターンで明滅するよう変更してもよい。
 画面200は、マップ部204を含んでもよい。マップ部204には、各統合結果画像203に対応するシンボル205が表示される。シンボル205は、それぞれ対応する統合結果画像203に関連する情報に応じて表示態様が変化する。表示態様の変化は、形状、色、色調、濃淡、大きさ、位置、等の変化を含む。その他、表示態様の変化には、前述の輝度、ハッチング、明滅パターン等の変化といった、目視により2つ以上の表示態様を弁別可能な変化を含む。
 たとえば、シンボル205の形状(この例では矩形)は、統合結果画像203の形状に応じて決定されてもよく、たとえば統合結果画像203の形状と同一であってもよい。また、シンボル205の色または濃淡は、統合結果画像203に含まれる注目構造に関する評価結果に応じて決定されてもよい。また、シンボル205の大きさは、試料Sにおける統合結果画像203の大きさに応じて決定されてもよく、たとえば各統合結果画像203間の相対的な大きさに応じて各シンボル205間の相対的な大きさが決定されてもよい。また、マップ部204におけるシンボル205の位置は、試料Sにおける統合結果画像203の位置に対応してもよい。
 また、画面200は、ナビゲーション画像206を含んでもよい。ナビゲーション画像206はユーザによって試料ホルダ141上に載置された試料Sにおける探索範囲を視覚的に指定するための画像であり、典型的にはナビゲーション画像撮影機160により撮影される。ただし、荷電粒子線装置100の観察倍率が十分低く設定できるのであれば、SEM像などの画像がナビゲーション画像206として用いられてもよい。ナビゲーション画像206は、たとえば試料Sに関して荷電粒子線装置100が探索すべき探索領域を設定または表示するために用いることができる。
 <学習済みモデルに係る具体的処理について>
 図3は、表示部154に表示されるGUIの別の例である。このGUIは、学習済みモデルを選択するために用いられる。図3の例では、3つのモデル(たとえばモデルM1,M2,M3)を特定する情報が入力されている。制御部151は、ここで特定された各モデルに試料Sの画像を入力する。
 また、各モデルについて用いるマクロを特定する情報を入力することができる。図3の例では、モデルM1についてマクロが指定されており、モデルM2およびM3についてはマクロは指定されていない。マクロはたとえば画像処理を行うためのプログラムであり、学習済みモデルが出力した情報を画像として受け取り、この画像について特定の画像処理を行うために用いられる。
 図4を用いて、各学習済みモデルの処理を説明する。図4(a)は試料Sの画像である。制御部151は、検出部130からの信号に基づいてこのような画像を生成することができる。図4(b)は、モデルM1による検出結果に基づいて決定された第1構造401の位置または領域を表す。図4(c)は、モデルM2による検出結果に基づいて決定された第2構造402の位置または領域を表す。第3構造については図示を省略するが、処理は同様に行われる。
 各モデルの出力は、直接的に図4(b)または図4(c)に示すような形式(画像中の領域を示す形式)になっている必要はない。たとえば、あるモデルは画像に基づいてヒートマップを出力してもよい。ヒートマップとは、たとえば画素ごとに構造が存在する可能性(たとえば信頼度、確率または尤度)を表したものである。その場合には、制御部151は、ヒートマップに基づいて、たとえば2値化処理を含む演算を行うことにより、図4(b)または図4(c)に示すように各構造の位置または領域を決定することができる。
 <統合結果画像の表示例について>
 図5は、統合結果情報の出力例としての統合結果画像203の例を示す。統合結果画像203は、試料Sの画像において、各学習済みモデルが検出した構造(たとえば第1構造401および第2構造402)の位置または領域を表す。
 各構造はそれぞれ異なる表現を用いて表すことができる。たとえば、制御部151は、構造検出部として、試料Sの画像において、第1構造401の位置または領域に第1表現を表示し、第2構造402の位置または領域に第2表現を表示することにより、統合結果画像203を生成して出力する。たとえば、第1構造401の位置または領域に第1表現を表示し、第2構造402の位置または領域に第2表現を表示することにより、統合結果画像203を生成することができる。第1表現および第2表現は、試料Sの画像に重ねて表示されてもよいし、試料Sの画像の一部を置き換えて表示されてもよい。
 異なる表現は、異なる色、異なる色調、異なる濃淡、異なる塗りつぶしパターン(縦縞、横縞、斜め縞、ドットパターン、グラデーション、等)、異なる点滅状態、等を用いて実現することができる。より具体的な例として、図5の例では、第1構造401に対する第1表現は第1の色(すなわちグレー)によって表され、第2構造402に対する第2表現は第2の色(すなわち白)によって表される。カラー表示が可能な場合には、第1構造401をたとえば赤色で表し、第2構造402をたとえば緑色で表してもよい。
 このように、荷電粒子線装置100は、複数の学習済みモデルを利用することにより、それぞれ対応する種類の構造を検出することができる。また、異なる構造について異なる表現を用いることにより、荷電粒子線装置100の使用者は容易に各構造を識別することができる。
 図6は、統合結果画像203の別の例を示す。すべての学習済みモデルが検出した構造についてそれぞれ異なる表現を用いる必要はなく、複数またはすべての学習済みモデルについて同一の表現を用いてもよい。図6の例では、モデルM1を介して検出された第1構造401と、モデルM3を介して検出された第3構造403とが、同一の表現(グレー)によって示されている。このように、統合結果画像203は、試料Sの画像において、さらに第3構造403の位置または領域に第1表現または第2表現を表示することにより生成されてもよい。
 ある対象物の構造が一つに限定されない場合には、このように、複数の学習済みモデルがそれぞれ検出する複数の構造について同一の表現を用いることが有用である。たとえば、ある種類の粒子が様々な形状を有し得る場合には、想定される各形状をそれぞれ異なるモデルに学習させておき、それらのモデルが検出した構造すべてについて同一の表現を用いれば、その粒子の識別が容易になる。
 図7は、統合結果画像203のさらに別の例を示す。いずれかの構造の検出結果を試料Sの画像に表示する前に、その検出結果について画像処理を行ってもよい。図7の例では、第1構造401に係る検出結果について、図3のように指定されたマクロを用いて画像処理が行われ、結果として、第1構造401の範囲が図5に示すものより狭くなっている。
 画像処理の具体的内容は当業者が適宜設計可能であるが、たとえば、試料Sの画像と、各構造の位置とに基づき、当該構造の範囲(または領域)を特定する処理とすることができる。たとえば、試料Sの画像において、ある構造が存在する位置が示されていれば、試料Sのその位置を含む範囲(または近傍の領域)に適切な画像処理を実行することにより、当該構造の範囲(または領域)を特定することができる。なお、この例では画像処理によって構造の範囲(または領域)が特定されたが、画像処理は構造の範囲(または領域)まで特定する必要はなく、位置のみの特定に用いられてもよい。
 このような画像処理によれば、各構造の位置または領域を検出する処理と、当該構造の範囲を検出する処理とを分離し、それぞれ最適な処理を用いることができるので、全体として適切な処理結果を得ることができる。たとえばモデルM1が、第1構造401が存在することは適切に検出できるが、その範囲(または領域)については実際より大きく検出する傾向があるという場合には、範囲(または領域)の検出を画像処理で行うことにより、位置・大きさ共に適切な結果を得ることができる。なお、画像処理の具体的内容は、構造ごとに(すなわち学習済みモデルごとに)異なっていてもよい。なお、画像処理を行う画像は、機械学習によって抽出された結果画像を対象としてもよいし、抽出される前の試料Sの画像を用いても良い。
 このように、制御部151は、構造検出部として、試料Sの画像および第1検出結果に基づき、画像処理によって第1構造401の位置または領域を決定する。同様に、制御部151は、試料Sの画像および第2検出結果に基づき、画像処理によって第2構造402の位置または領域を決定してもよい。また、第3構造が検出されている場合には、制御部151は、試料Sの画像および第3検出結果に基づき、画像処理によって第3構造の位置または領域を決定してもよい。
 各構造の検出結果に応じ、荷電粒子線装置100は、試料Sに対するさらなる処理を行ってもよい。たとえば、各構造(第1構造、第2構造または第3構造)の位置または領域に応じた位置または領域について、試料Sの解析を行ってもよい。試料Sの解析は、形状解析を含んでもよく、組成解析を含んでもよい。たとえば、第1構造401が検出された位置または領域(例として図4(a)の画像に対応する位置または領域)に対して、さらに照射部110を介して荷電粒子線を照射し、検出部130を介して当該照射に起因する信号を検出してもよい。
 この解析に係る信号は、たとえば、試料Sに荷電粒子線が照射された際に生じる電子に基づく信号であってもよいし、試料Sに荷電粒子線が照射された際に生じるX線に基づく信号であってもよい。とくに、各構造の検出を電子に基づく信号により実行し、各構造の解析をX線に基づく信号により実行すると、探索を効率的に実行し、解析を高精度で実行することができる。解析には、たとえばエネルギー分散型X線分光(EDS)または電子線後方散乱回折(EBSD)を利用した高倍率の撮影を利用することができる。また、撮影には、高加速または大電流の荷電粒子線を用いてもよい。
 <X線に基づく信号取得の具体例について>
 各モデルに基づく各構造の検出結果に応じ、X線分析の実行有無を選択しても良い。たとえばモデルM1が元素特定を行いたい異物を検出するためのモデルであり、モデルM2が異物以外を検出するモデルであった場合、モデルM1のみX線分析を実行することで、不要なX線分析の実行を排除し、効率よく分析を実施することが出来る。
 図8は、統合結果画像203のさらに別の例を示す。矩形枠801の内部において、第1構造401の位置または領域と、第2構造402の位置または領域とが重複している。ここで「位置または領域が重複する」の意味は当業者が適宜解釈可能であるが、たとえば、試料Sの画像における各構造の位置が一致する場合、試料Sの画像における各構造の領域が一部または全部重複する場合、等を含む。
 制御部151は、構造検出部として、各構造の位置または領域が重複する場合に、当該各構造に基づいて重複時補正処理を実行してもよい。図8の例は、第1構造401の位置または領域と、第2構造402の位置または領域とが重複する場合を表し、当該第1構造401および当該第2構造402に基づいて重複時補正処理が行われる。
 重複時補正処理を適切に実行することにより、同一の対象物を複数のモデルが検出した場合に、より適切な統合結果画像203を得ることができる。
 <重複時処理の具体例について>
 重複時補正処理は、位置または領域が重複する各構造について、それらの位置または領域が重複していることを示す情報を出力する処理を含んでもよい。図8の例では、第1構造401および第2構造402の位置または領域が重複している部分を囲むように、重複を示す矩形枠801が表示されている。矩形枠801は、たとえば試料Sの画像に重ねられる。
 重複していることを示す情報は、矩形枠801以外の形式で表されてもよい。たとえば円であってもよいし、図形以外の形式(メッセージ等)であってもよい。また、図8の例では重複していることを示す情報は第1構造401および第2構造402の位置または領域に関連して表示されるが、重複していることを示す情報の表示位置はこれに限らない。
 図9は、図8の統合結果画像203において重複時補正処理の一例が実行された状態を示す。この例では、重複時補正処理は、位置または領域が重複する第1構造401および第2構造402に基づいて、新たな構造(第4構造404)の位置または領域を決定する処理を含む。統合結果画像203は、第4構造404の位置または領域を表す。第4構造404は、たとえば、重複する各構造の領域の論理和または論理積として取得することができる。また、たとえば試料Sの画像において、第4構造404の位置または領域に第4表現が表示される。
 第4構造404は、たとえば2つの特徴を併せ持つ構造として検出されるものである。すなわち、ある構造が第1構造401としても第2構造402としても検出された場合に、その構造はこれら2種類の特徴を有する特定の構造であるということができる。重複時補正処理は、第4構造404を、第1構造401とも第2構造402とも異なる新たな種類の構造として検出する処理であってもよい。
 このように重複に対応して新たな構造を検出することにより、より詳細な条件での検出処理が可能となる。
 図10は、図8の統合結果画像203において重複時補正処理の別の例が実行された状態を示す。この例では、重複時補正処理は、各構造間の優先規則を用いて実行される。図10の例では、第1構造401が優先された結果、試料Sの画像に第1構造401の表現(グレー)が表示され、第2構造402の表現(白)は試料Sの画像には表示されない(または図8の状態の統合結果画像203から差し引かれている)。
 このような重複時補正処理は、位置または領域が重複する第1構造401および第2構造402について、当該第1構造401の位置または領域または当該第2構造402の位置または領域を統合結果情報に含めないようにする処理であるということができる。
 優先規則は3種類以上の構造間でも定義可能である。たとえば、第1構造を第1位とし、第2構造を第2位とし、第3構造を第3位とする場合を考える。これら3種類の構造がすべて重複した場合には、第1構造の表現のみが試料Sの画像に表示される。第1構造および第2構造が重複した場合と、第1構造および第3構造が重複した場合には、第1構造の表現のみが試料Sの画像に表示される。第2構造および第3構造が重複した場合には、第2構造の表現のみが試料Sの画像に表示される。
 優先規則の具体的内容(たとえば各構造の優先順位等)は、たとえば図3に示すGUIにおいて、または他のGUIにおいて、荷電粒子線装置100に入力することができる。また、優先規則は順位に限らず、各構造の優先スコアを算出する処理によって実現することも可能である。
 このように優先規則を用いることにより、より適切な検出処理が可能となる。
 図11は、図8の統合結果画像203において重複時補正処理のさらに別の例が実行された状態を示す。この例では、重複時補正処理は、位置または領域が重複する各構造について、当該各構造のうちいずれか1つを選択する操作を受け付ける処理を含む。たとえば、位置または領域が重複する第1構造401および第2構造402について、当該第1構造401および当該第2構造402のうちいずれか一方を選択する操作が受け付けられる。
 図11の例では、荷電粒子線装置100の使用者は、選択ウィンドウ1101において、「A」のラジオボタンおよび「OK」ボタンを操作することにより、第1構造401を選択することができ、「B」のラジオボタンおよび「OK」ボタンを操作することにより、第2構造402を選択することができる。
 このように、適切な構造を使用者に選択させることにより、人間の判断によって適切な検出処理が可能となる。
 選択する操作を受け付けた後の処理は当業者が適宜設計可能であるが、たとえば図10に示すように選択された構造の表現のみを試料Sの画像に表示してもよい。
 また、選択された構造に基づき、学習用モデルに対する教師データを生成してもよい。すなわち、重複時補正処理は、機械学習に用いる教師データを生成する処理を含んでもよい。たとえば、図11の状態において、第1構造401が選択された場合に生成される教師データは、選択されなかった第2構造402が試料Sの画像に表れないことを表す教師データとなる。一方、第2構造402が選択された場合に生成される教師データは、選択されなかった第1構造401が試料Sの画像に表れないことを表す教師データとなる。
 図12は、このような教師データの例を模式的に示す。この例では統合結果画像203のような形式で示しているが、教師データの形式は学習用モデルに応じて適宜設計することができる。図12の例は、図8の統合結果画像203において第1構造401が選択された場合に対応する。第2構造402のうち選択されなかったもの(矩形枠801内のもの)は、試料Sの画像に表れない。
 生成された教師データは、新たな学習用モデルに対して用いられてもよいし、使用中のモデル(たとえばモデルM1,M2,M3)を再学習させるためにフィードバックしてもよい。
 このように、使用者の選択に応じて教師データを生成することにより、より適切な学習済みモデルを生成することができる。とくに、2種類の粒子の構造が互いに類似している場合には、学習済みモデルによるこれらの識別が困難な場合があるが、そのような場合には、これら2種類の粒子をより的確に識別させるための教師データを生成することができる。
 また、位置または領域が重複する構造のうちいずれかを、分類器によって分類させてもよい。たとえば制御部151がこの分類器として機能してもよい。すなわち、重複時補正処理は、位置または領域が重複する第1構造401および第2構造402について、当該第1構造401の位置または領域と、当該第2構造402の位置または領域とに基づき、当該第1構造401および当該第2構造402のいずれか一方を選択する処理を含んでもよい。
 分類器の具体的な処理内容は当業者が適宜設計することができるが、たとえば各構造の領域の面積に基づいて選択を行ってもよく、より具体的にはより大きい面積を有する構造を選択してもよい。または、荷電粒子線装置100が各構造についてなんらかの分析または評価を行う場合には、分析結果または評価結果に基づいて選択を行ってもよい。分類器は、画像処理技術を用いて構成されてもよいし、分類器用に準備される学習済みモデルを用いて構成されてもよい。
 分類器による選択の後の処理は当業者が適宜設計可能であるが、たとえば図10に示すように選択された構造のみを試料Sの画像に表示してもよい。
 このように分類器によって選択させることにより、適切な構造を効率的に選択することができる。
 100…荷電粒子線装置
 110…照射部
 111…電子源
 112…鏡筒
 120…試料室
 130…検出部
 140…ステージ
 141…試料ホルダ
 151…制御部(画像生成部、構造検出部)
 152…入力部
 153…記憶部
 154…表示部
 160…ナビゲーション画像撮像機
 200…画面
 201…表形式部
 202…重畳部
 203…統合結果画像
 204…マップ部
 205…シンボル
 206…ナビゲーション画像
 401…第1構造
 402…第2構造
 403…第3構造
 404…第4構造
 801…矩形枠
 1101…選択ウィンドウ
 S…試料
 M1…モデル(第1学習済みモデル)
 M2…モデル(第2学習済みモデル)
 M3…モデル(第3学習済みモデル)

Claims (13)

  1.  荷電粒子線装置であって、
     荷電粒子線を試料に対して照射する照射部と、
     前記荷電粒子線の前記試料への照射に起因する粒子を検出する粒子検出部と、
     前記粒子検出部からの出力に基づいて前記試料の画像を生成する画像生成部と、
     構造検出部と、を有し、
     前記構造検出部は、
     第1構造を検出するための第1学習済みモデルに、前記試料の画像を入力し、
     第2構造を検出するための第2学習済みモデルに、前記試料の画像を入力し、
     前記第1学習済みモデルから、前記第1構造に係る第1検出結果を取得し、
     前記第2学習済みモデルから、前記第2構造に係る第2検出結果を取得し、
     前記第1検出結果に基づいて前記第1構造の位置または領域を決定し、
     前記第2検出結果に基づいて前記第2構造の位置または領域を決定し、
     前記第1構造の位置または領域と、前記第2構造の位置または領域とを表す統合結果情報を出力する、
     荷電粒子線装置。
  2.  前記統合結果情報は、前記試料の画像において、前記第1構造の位置または領域と、前記第2構造の位置または領域とを表す統合結果画像によって表され、
     前記構造検出部は、前記試料の画像において、前記第1構造の位置または領域に第1表現を表示し、前記第2構造の位置または領域に第2表現を表示することにより、前記統合結果画像を生成する、
    請求項1に記載の荷電粒子線装置。
  3.  前記第1表現は第1の色によって実現され、
     前記第2表現は第2の色によって実現される、
    請求項2に記載の荷電粒子線装置。
  4.  前記構造検出部は、
     第3構造を検出するための第3学習済みモデルに、前記試料の画像を入力し、
     前記第3学習済みモデルから、前記第3構造に係る第3検出結果を取得し、
     前記第3検出結果に基づいて前記第3構造の位置または領域を決定し、
     前記統合結果画像は、前記試料の画像において、さらに前記第3構造の位置または領域に前記第1表現または前記第2表現を表示することにより生成される、
    請求項2に記載の荷電粒子線装置。
  5.  前記構造検出部は、
     前記試料の画像および前記第1検出結果に基づき、画像処理によって前記第1構造の位置または領域を決定し、
     前記試料の画像および前記第2検出結果に基づき、画像処理によって前記第2構造の位置または領域を決定する、
    請求項1に記載の荷電粒子線装置。
  6.  前記荷電粒子線装置は、前記第1構造の位置または領域あるいは前記第2構造の位置または領域に応じた領域について前記試料の解析を行う、請求項1に記載の荷電粒子線装置。
  7.  前記構造検出部は、前記第1構造の位置または領域と前記第2構造の位置または領域とが重複する場合に、当該第1構造および当該第2構造に基づいて重複時補正処理を実行する、請求項1に記載の荷電粒子線装置。
  8.  前記重複時補正処理は、位置または領域が重複する前記第1構造および前記第2構造に基づいて第4構造の位置または領域を決定する処理を含み、
     前記統合結果情報は、さらに前記第4構造の位置または領域を表す、
    請求項7に記載の荷電粒子線装置。
  9.  前記重複時補正処理は、位置または領域が重複する前記第1構造および前記第2構造について、当該第1構造の位置または領域または当該第2構造の位置または領域を前記統合結果情報に含めないようにする処理を含む、
    請求項7に記載の荷電粒子線装置。
  10.  前記重複時補正処理は、位置または領域が重複する前記第1構造および前記第2構造について、それらの位置または領域が重複していることを示す情報を出力する処理を含む、
    請求項7に記載の荷電粒子線装置。
  11.  前記重複時補正処理は、さらに、位置または領域が重複する前記第1構造および前記第2構造について、当該第1構造および当該第2構造のうちいずれか一方を選択する操作を受け付ける処理を含む、
    請求項10に記載の荷電粒子線装置。
  12.  前記重複時補正処理は、さらに、機械学習に用いる教師データを生成する処理を含み、
     前記第1構造が選択された場合には、前記教師データは、選択されなかった前記第2構造が前記試料の画像に表れないことを表す教師データであり、
     前記第2構造が選択された場合には、前記教師データは、選択されなかった前記第1構造が前記試料の画像に表れないことを表す教師データである、
    請求項11に記載の荷電粒子線装置。
  13.  前記重複時補正処理は、さらに、位置または領域が重複する前記第1構造および前記第2構造について、当該第1構造の位置または領域および当該第2構造の位置または領域に基づき、当該第1構造および当該第2構造のいずれか一方を選択する処理を含む、
    請求項7に記載の荷電粒子線装置。
PCT/JP2019/034683 2019-09-04 2019-09-04 荷電粒子線装置 WO2021044532A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020227007034A KR102608709B1 (ko) 2019-09-04 2019-09-04 하전 입자선 장치
PCT/JP2019/034683 WO2021044532A1 (ja) 2019-09-04 2019-09-04 荷電粒子線装置
US17/640,279 US20220344124A1 (en) 2019-09-04 2019-09-04 Charged Particle Beam Device
JP2021543851A JP7198360B2 (ja) 2019-09-04 2019-09-04 荷電粒子線装置
CN201980099996.7A CN114341631A (zh) 2019-09-04 2019-09-04 带电粒子束装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/034683 WO2021044532A1 (ja) 2019-09-04 2019-09-04 荷電粒子線装置

Publications (1)

Publication Number Publication Date
WO2021044532A1 true WO2021044532A1 (ja) 2021-03-11

Family

ID=74852199

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/034683 WO2021044532A1 (ja) 2019-09-04 2019-09-04 荷電粒子線装置

Country Status (5)

Country Link
US (1) US20220344124A1 (ja)
JP (1) JP7198360B2 (ja)
KR (1) KR102608709B1 (ja)
CN (1) CN114341631A (ja)
WO (1) WO2021044532A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11742172B2 (en) * 2019-01-11 2023-08-29 Hitachi High-Tech Corporation Charged particle beam device and control method thereof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003107022A (ja) * 2001-09-28 2003-04-09 Hitachi Ltd 欠陥検査装置及び検査方法
WO2014104191A1 (ja) * 2012-12-28 2014-07-03 株式会社日立ハイテクノロジーズ 荷電粒子線装置及びその欠陥分析方法
JP2014207110A (ja) * 2013-04-12 2014-10-30 株式会社日立ハイテクノロジーズ 観察装置および観察方法
WO2017014194A1 (ja) * 2015-07-17 2017-01-26 株式会社イシダ 光検査システム及び画像処理アルゴリズム設定方法
US20170200290A1 (en) * 2016-01-11 2017-07-13 Carl Zeiss X-Ray Microscopy Inc. Multimodality Mineralogy Segmentation System and Method
WO2019065607A1 (ja) * 2017-09-27 2019-04-04 株式会社日立ハイテクノロジーズ 特定検査向け支援システム、特定検査向け支援方法およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003007244A (ja) * 2001-06-25 2003-01-10 Jeol Ltd 荷電粒子線装置における像の表示方法および荷電粒子線装置、並びに分析装置における像の表示方法及び分析装置
JP5118872B2 (ja) 2007-03-30 2013-01-16 株式会社日立ハイテクノロジーズ 半導体デバイスの欠陥観察方法及びその装置
JP6669453B2 (ja) * 2015-09-08 2020-03-18 株式会社Screenホールディングス 画像分類装置および画像分類方法
JP6698867B2 (ja) * 2016-11-22 2020-05-27 株式会社日立ハイテク 荷電粒子線装置および試料観察方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003107022A (ja) * 2001-09-28 2003-04-09 Hitachi Ltd 欠陥検査装置及び検査方法
WO2014104191A1 (ja) * 2012-12-28 2014-07-03 株式会社日立ハイテクノロジーズ 荷電粒子線装置及びその欠陥分析方法
JP2014207110A (ja) * 2013-04-12 2014-10-30 株式会社日立ハイテクノロジーズ 観察装置および観察方法
WO2017014194A1 (ja) * 2015-07-17 2017-01-26 株式会社イシダ 光検査システム及び画像処理アルゴリズム設定方法
US20170200290A1 (en) * 2016-01-11 2017-07-13 Carl Zeiss X-Ray Microscopy Inc. Multimodality Mineralogy Segmentation System and Method
WO2019065607A1 (ja) * 2017-09-27 2019-04-04 株式会社日立ハイテクノロジーズ 特定検査向け支援システム、特定検査向け支援方法およびプログラム

Also Published As

Publication number Publication date
CN114341631A (zh) 2022-04-12
JP7198360B2 (ja) 2022-12-28
JPWO2021044532A1 (ja) 2021-03-11
KR102608709B1 (ko) 2023-12-04
KR20220040490A (ko) 2022-03-30
US20220344124A1 (en) 2022-10-27

Similar Documents

Publication Publication Date Title
TWI647442B (zh) Defect classification device and defect classification method
JP5715873B2 (ja) 欠陥分類方法及び欠陥分類システム
JP4644613B2 (ja) 欠陥観察方法及びその装置
WO2016121265A1 (ja) 試料観察方法および試料観察装置
US20080317330A1 (en) Circuit-pattern inspecting apparatus and method
US8994815B2 (en) Method of extracting contour lines of image data obtained by means of charged particle beam device, and contour line extraction device
JP5833631B2 (ja) 光学検査システム中の1つ以上の検査パラメータの1つ以上の範囲を設定する方法
JP2007225351A (ja) 欠陥表示方法およびその装置
US6553323B1 (en) Method and its apparatus for inspecting a specimen
US20120290990A1 (en) Pattern Measuring Condition Setting Device
EP3772085A1 (en) A method of examining a sample using a charged particle microscope
EP3736849A1 (en) Method of examining a sample using a charged particle microscope
US10964510B2 (en) Scanning electron microscope and image processing method
WO2021044532A1 (ja) 荷電粒子線装置
WO2016121009A1 (ja) 荷電粒子線装置
WO2021044553A1 (ja) 荷電粒子線装置
JP6716026B2 (ja) 荷電粒子線装置および荷電粒子線装置における条件設定方法
CN111146062B (zh) 电子显微镜和图像处理方法
JP7239717B2 (ja) 試料画像表示システムおよび荷電粒子線装置
WO2023053727A1 (ja) 画像処理装置、処理システム、画像表示方法及びプログラム
JP6033556B2 (ja) X線検査装置及びx線検査方法
WO2022181746A1 (ja) 画像表示装置、画像表示方法及びプログラム
JP2010113972A (ja) 走査透過電子顕微鏡

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19943855

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021543851

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20227007034

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19943855

Country of ref document: EP

Kind code of ref document: A1