WO2023242954A1 - 荷電粒子線装置および注目画像データを出力する方法 - Google Patents

荷電粒子線装置および注目画像データを出力する方法 Download PDF

Info

Publication number
WO2023242954A1
WO2023242954A1 PCT/JP2022/023817 JP2022023817W WO2023242954A1 WO 2023242954 A1 WO2023242954 A1 WO 2023242954A1 JP 2022023817 W JP2022023817 W JP 2022023817W WO 2023242954 A1 WO2023242954 A1 WO 2023242954A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
charged particle
particle beam
image
beam device
Prior art date
Application number
PCT/JP2022/023817
Other languages
English (en)
French (fr)
Inventor
浩之 山本
健史 大森
駿也 田中
博文 佐藤
Original Assignee
株式会社日立ハイテク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ハイテク filed Critical 株式会社日立ハイテク
Priority to PCT/JP2022/023817 priority Critical patent/WO2023242954A1/ja
Publication of WO2023242954A1 publication Critical patent/WO2023242954A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/22Optical or photographic arrangements associated with the tube

Definitions

  • the present invention relates to a charged particle beam device and a method for outputting image data of interest.
  • the processing patterns of advanced semiconductor devices have nanometer-level microstructures, so a transmission electron microscope (TEM) or a high-resolution scanning electron microscope (SEM) is used to observe the cross-sectional pattern processing shape.
  • TEM transmission electron microscope
  • SEM high-resolution scanning electron microscope
  • a charged particle beam device such as an electron microscope is used.
  • the teacher image data is an image that includes the object that the operator has focused on, and it is possible to acquire a new image through observation work, or search for a usable image from a past image database and reuse it. It is possible.
  • Patent Document 1 discloses a method in which an SEM device searches for images estimated to be important to the operator from among images stored in a database. A technique for doing so has been disclosed.
  • an "importance" score is created from data recording various operation commands performed during observation, such as automatic focus, brightness adjustment, and stage movement, and this score is added to the acquired image data. Techniques have been proposed for narrowing down image data that match the importance level during image searches.
  • Patent Document 1 when collecting new training image data corresponding to a new experiment series, there are no suitable images in the saved database, so in the end, the data must be manually collected one by one. It is necessary to obtain teacher image data. Therefore, the method disclosed in Patent Document 1 cannot meet the problem of reducing the burden on the operator related to collecting new teacher image data.
  • the present disclosure semi-automatically generates teacher image data in sample observation using a charged particle beam device, uses it to construct a feature classifier that automatically recognizes the observation field, and executes automatic imaging based on the data. It is an object of the present invention to provide a charged particle beam device with functions and a method for outputting image data of interest.
  • An example of the charged particle beam device is a sample stage for moving the sample; an imaging unit that acquires observation image data of the sample; an output unit that digitizes the operating state of the charged particle beam device and outputs time-series data of the operating state; a display unit on which the observation image data is displayed and a graphical user interface for inputting observation setting parameters; a computer system that stores time-series image data in which the observed image data is arranged in chronological order, and executes arithmetic processing regarding the time-series data of the operating state and the observed image data; Equipped with automatically determining a time that matches a preset specific fluctuation pattern based on the time-series data of the operating state; From the time-series image data, observation image data corresponding to the time is acquired as image data of interest and output.
  • An example of the method according to the present invention is A method for outputting image data of interest using a charged particle beam device, the method comprising:
  • the charged particle beam device includes: a sample stage for moving the sample; an imaging unit that acquires observation image data of the sample; an output unit that digitizes the operating state of the charged particle beam device and outputs time-series data of the operating state; a display unit on which the observation image data is displayed and a graphical user interface for inputting observation setting parameters;
  • a computer system that stores time-series image data in which the observation image data is arranged in chronological order, and executes arithmetic processing regarding the time-series data of the operating state and the observation image data; Equipped with The method includes: automatically determining a time that matches a preset specific fluctuation pattern based on the time-series data of the operating state; acquiring and outputting observed image data corresponding to the time from the time-series image data as image data of interest; Equipped with
  • the charged particle beam device and the method of outputting image data of interest it is possible to semi-automatically generate teacher image data necessary for learning a feature classifier for visual field recognition, and as a result, sample observation This greatly reduces the time and effort required to search the field of view, and also enables automatic capture of cross-sectional images.
  • FIG. 1 is a configuration diagram of a charged particle beam device according to a first embodiment.
  • FIG. 3 is a schematic diagram showing the relative positional relationship between the sample 20 and the tilt axis of the first embodiment.
  • FIG. 3 is a schematic diagram showing a sample stage 17 according to the first embodiment.
  • 4 is a diagram showing a learning procedure of a feature classifier 45.
  • FIG. 3 is a diagram showing a procedure for generating teacher image data. It is a schematic diagram showing the main GUI with which a charged particle beam device is provided.
  • FIG. 3 is a diagram showing a GUI used when generating teacher image data. It is a figure which shows the GUI used at the time of ROI25 selection.
  • 5 is a diagram showing a GUI used to set acquisition conditions for an ROI-containing image 440.
  • FIG. 3 is a schematic diagram showing the relative positional relationship between the sample 20 and the tilt axis of the first embodiment.
  • FIG. 3 is a schematic diagram showing a sample stage 17 according to the first embodiment. 4
  • FIG. 5 is a schematic diagram showing a method of extracting an image of interest 523.
  • FIG. 4 is a flowchart showing an automatic imaging sequence for obtaining an ROI-containing image 440.
  • 4 is a schematic diagram showing the relationship between an ROI-containing image 440, a correct image 429, and an incorrect image 430.
  • FIG. 3 is a diagram showing a GUI used during learning of the feature classifier 45.
  • FIG. 3 is a flowchart showing an automatic imaging sequence.
  • 9A is a flowchart showing details of step S502 in FIG. 9A.
  • 9A is a flowchart showing details of step S505 of FIG. 9A.
  • 9A is a flowchart showing details of step S508 in FIG. 9A.
  • FIG. 3 is a diagram showing a GUI used for setting automatic imaging conditions.
  • FIG. 7 is a diagram showing a main GUI that is simultaneously displayed when setting automatic imaging conditions.
  • FIG. 3 is a diagram illustrating a GUI that instructs execution of an automatic imaging sequence.
  • FIG. 2 is a schematic diagram showing the results of cross-sectional observation of a sample at high magnification.
  • FIG. 7 is a schematic diagram showing the operation of the sample stage 17 of the charged particle beam apparatus according to the second embodiment.
  • FIG. 13A is a schematic diagram showing the sample stage 17 of FIG. 13A rotated 90 degrees around the Z-axis. It is a flowchart showing details of step S508 of the third embodiment.
  • FIG. 7 is a schematic diagram of a metal structure to be observed in a fourth embodiment.
  • the exemplary charged particle beam device of the present disclosure records the screen being observed during preliminary observation etc. as “time-series image data” such as a video, and at the same time records the “time-series image data of the operating state” of the device such as sample stage coordinates and observation magnification.
  • time-series image data such as a video
  • time-series image data of the operating state such as sample stage coordinates and observation magnification.
  • the exemplary charged particle beam device of the present disclosure includes an imaging unit that acquires image data of a sample at a predetermined magnification by irradiating the sample with a charged particle beam;
  • the present invention includes a computer system that executes calculation processing for searching the visual field using the image data, and a display unit that displays a graphical user interface (GUI) for inputting setting parameters for searching the visual field.
  • the imaging unit is configured to be able to move the sample using at least two drive axes, and includes a sample stage that can move the imaging field of view in accordance with positional information of the sample determined by the computer system. .
  • the computer system records the observation images displayed on the display unit as video data or "time series image data” which is a set of images continuously captured at fixed time intervals, and simultaneously records the "time series data of the operating state” of the device. ” is recorded. Further, the computer system calculates an event time that is estimated to have been noticed by the operator from a specific fluctuation pattern set in advance in the time-series data of the operating state, and A plurality of image data matching the event time are extracted as images of interest. Furthermore, the computer system records information such as the position coordinates and observation magnification of the ROI selected by the operator from the image of interest.
  • the sample stage is moved to the position coordinates of the ROI, and a plurality of images of the ROI are acquired under a plurality of conditions with different observation magnifications, inclination angles of the sample stage, and the like.
  • the computer system cuts out a predetermined range from the image of the ROI to generate training image data for learning, and uses the training image data to generate a feature classifier.
  • the feature discriminator performs processing for input new image data to output position information of one or more ROIs existing on the image.
  • the first embodiment is constructed by realizing a function of semi-automatically generating teacher image data including an ROI to be observed in a charged particle beam device whose imaging device is a scanning electron microscope (SEM).
  • SEM scanning electron microscope
  • FIG. 1 shows a configuration diagram of a scanning electron microscope according to the first embodiment.
  • the scanning electron microscope 10 of the first embodiment is an example of a charged particle beam device, such as a field emission scanning electron microscope (FE-SEM).
  • FE-SEM field emission scanning electron microscope
  • the scanning electron microscope 10 can execute the method of outputting image data of interest, which is described in this embodiment.
  • the scanning electron microscope 10 includes an electron gun 11, a focusing lens 13, a deflection lens 14, an objective lens 15, a secondary electron detector 16, a sample stage 17, an image forming section 31, a control section 33, a display unit 35, an input 36, and further includes a computer system 32 that executes arithmetic processing necessary for the visual field search function of this embodiment.
  • a computer system 32 that executes arithmetic processing necessary for the visual field search function of this embodiment.
  • the electron gun 11 irradiates the sample with an electron beam (charged particle beam).
  • the electron gun 11 includes a radiation source that emits an electron beam 12 accelerated by a predetermined acceleration voltage.
  • the emitted electron beam 12 is focused by a focusing lens 13 and an objective lens 15, and is irradiated onto a sample 20.
  • the deflection lens 14 deflects the electron beam 12 using a magnetic field or an electric field, so that the surface of the sample 20 is scanned with the electron beam 12.
  • the sample stage 17 has a function of moving the sample 20 in parallel along a predetermined drive axis, or a function of tilting and/or rotationally moving the sample 20 around a predetermined drive axis in order to move the imaging field of the scanning electron microscope 10. It is equipped with actuators such as motors and piezo elements for this purpose.
  • the secondary electron detector 16 is an ET detector, a semiconductor detector, etc. equipped with a scintillator, a light guide, and a photomultiplier tube, and the secondary electron detector 16 is an ET detector or a semiconductor detector equipped with a scintillator, a light guide, and a photomultiplier tube. Detect. A detection signal output from the secondary electron detector 16 is transmitted to the image forming section 31. In addition to the secondary electron detector 16, a backscattered electron detector that detects backscattered electrons and a transmission electron detector that detects transmitted electrons may be provided.
  • the image forming unit 31 includes an AD converter that converts a detection signal transmitted from the secondary electron detector 16 into a digital signal, and a calculation unit that forms an observation image of the sample 20 based on the digital signal output from the AD converter. It is composed of containers, etc. (none of which are shown).
  • As the arithmetic unit for example, an MPU (Micro Processing Unit) or a GPU (Graphic Processing Unit) is used.
  • the observed image formed by the image forming section 31 is transmitted to the display unit 35 and displayed, or transmitted to the computer system 32 and subjected to various processing.
  • the scanning electron microscope 10 includes the electron gun 11, the secondary electron detector 16, and the image forming section 31.
  • the electron gun 11, the secondary electron detector 16, and the image forming section 31 constitute an imaging unit in this embodiment.
  • an imaging unit an imaging unit is used, an image using an electron beam (charged particle beam) can be acquired.
  • the computer system 32 includes an interface unit 900 that inputs and outputs data and commands to and from the outside, a processor 901 (for example, a CPU (Central Processing Unit)) that executes various arithmetic processing on given information, and a storage unit. It is configured to include a memory 902 and a storage 903.
  • a processor 901 for example, a CPU (Central Processing Unit)
  • CPU Central Processing Unit
  • the storage 903 is configured by, for example, an HDD (Hard Disk Drive) or an SSD (Solid State Drive), and stores the software 904 and the teacher data DB (database) 44 that constitute the visual field search tool of this embodiment.
  • Software 904 in this embodiment is a visual field search tool.
  • the processor 901 executes the software 904
  • the feature identifier 45 and the image processing unit 34 are configured as functional blocks in cooperation with the memory 902.
  • the feature discriminator 45 extracts a landmark pattern 23 (described later with reference to FIG. 2A etc.) for visual field search from the input image data. For example, the feature classifier 45 determines whether or not the landmark pattern 23 exists at each position in the image data, and determines whether or not the landmark pattern 23 exists at each position in the image data. The position determined to have the highest probability) is output. The image processing unit 34 calculates the position coordinates of the mark pattern 23 from the position of the detected mark pattern on the image with reference to the position information of the sample stage 17.
  • the memory 902 shown in FIG. 1 represents a state in which each functional block configuring the software 904 is expanded on the memory space.
  • the processor 901 executes the functions of each functional block developed in the memory space.
  • the feature discriminator 45 is a learned model generated by machine learning, and is trained using the image data of the landmark pattern 23 stored in the teacher data DB 44 as teacher data.
  • the position of the landmark pattern learned on the image data is determined, and the position of the landmark pattern (in the example below, the center coordinates of the landmark pattern) in the new image data is determined.
  • the output center coordinates are used to identify a ROI (Region Of Interest) during visual field search. Further, various positional information calculated from the center coordinates is transmitted to the control unit 33 and used for drive control of the sample stage 17.
  • ROI Region Of Interest
  • the image processing unit 34 adjusts the image sharpness when automatically performing edge line detection, focus adjustment, astigmatism correction, etc. on the wafer surface based on image processing in a cross-sectional image with the sample cross-section facing the field of view. Perform processing such as calculation and/or evaluation.
  • the control unit 33 is a computing unit that controls each component in FIG. 1 and processes and transmits data formed by each component, and includes, for example, a CPU, an MPU, and the like.
  • the input unit 36 is a device that accepts input of observation conditions for observing the sample 20 and input of commands such as execution and stop of observation, and is, for example, a keyboard, a mouse, a touch panel, a liquid crystal display, or a combination thereof. It can be configured by
  • the display unit 35 displays a GUI (Graphical User Interface) constituting an operation screen for the operator and captured images (observation image data).
  • GUI Graphic User Interface
  • FIG. 2A is a perspective view of a wafer sample, which is an example of an object to be observed by the charged particle beam apparatus of this embodiment.
  • a sample 20 is a coupon sample obtained by cutting a wafer, and has a cut surface 21 and an upper surface 22 on which a processing pattern is formed.
  • the sample 20 is manufactured through a semiconductor device manufacturing process or a process development process, and a fine structure is formed on the cut surface 21. In many cases, the imaging location intended by the operator of the charged particle beam device exists on the fractured surface 21.
  • a mark pattern 23 is formed on the upper surface 22.
  • the landmark pattern 23 is a shape or structure that is larger in size than the above-mentioned fine structure, that is, it is a pattern that can be used as a landmark during visual field search.
  • the XYZ orthogonal axes shown in FIG. 2A are coordinate axes that indicate the relative positional relationship of the sample 20 with respect to the electron beam 12, and the traveling direction of the electron beam 12 is the Z axis, which is a direction parallel to the first tilt axis 61 of the sample stage 17. is the X-axis, and the direction parallel to the second tilt axis 62 is the Y-axis.
  • the sample 20 is placed on the sample stage 17 so that its longitudinal direction is parallel to the X-axis.
  • the electron beam 12 When observing the fine shape of the cut surface 21, the electron beam 12 is irradiated from a direction generally perpendicular to the cut surface 21, and the area of the cross-sectional observation field 24 is observed.
  • the manually cut cut surface 21 is often not completely orthogonal to the upper surface 22, and even when the operator sets the sample 20 on the sample stage 17, the mounting angle is not always the same every time.
  • a first tilt axis 61 and a second tilt axis 62 are provided on the sample stage 17 as angle adjustment axes for making the cut surface 21 perpendicular to the electron beam 12.
  • the first tilt shaft 61 is a drive shaft for rotating the sample 20 within the YZ plane. Since the longitudinal direction of the cut surface 21 is the X-axis direction, when adjusting the tilt angle of a so-called tilt image obtained by tilting the sample 20 from an oblique direction, the rotation angle of the first tilt shaft 61 is adjusted.
  • the second tilt shaft 62 is a drive shaft for rotating the sample 20 within the XZ plane.
  • the image can be rotated about an axis in the vertical direction (Y-axis direction) passing through the center of the field of view. Can be done.
  • the configuration of the sample stage 17 will be explained using FIG. 2B.
  • the sample 20 is held and fixed on the sample stage 17.
  • the sample stage 17 is equipped with a mechanism for rotating the mounting surface of the sample 20 around the first tilt axis 61 or the second tilt axis 62, and the rotation angle is controlled by the control unit 33.
  • the sample stage 17 shown in FIG. 2B has an X drive axis, a Y drive axis, and a Z drive axis for independently moving the sample placement surface in the XYZ directions, as well as an X drive axis, a Y drive axis, and a Z drive axis for moving the sample placement surface independently.
  • It is also equipped with a rotation axis that rotates around the Z drive axis, and can move the scanning area (ie, field of view) of the electron beam 12 in the longitudinal direction, lateral direction, and height direction of the sample 20, and further rotate it.
  • the moving distances of the X drive axis, Y drive axis, and Z drive axis are also controlled by the control unit 33.
  • a feature discriminator 45 is constructed that automatically recognizes the landmark pattern 23 in a tilted image obtained by tilting the sample 20 from an oblique direction, and detects a feature discriminator 45 that automatically recognizes the landmark pattern 23 at a position a predetermined distance away from the landmark pattern 23 as a reference point. , perform high magnification observation.
  • a feature discriminator 45 that detects the landmark pattern 23 is constructed.
  • the flowchart in FIG. 3A shows the workflow performed by the operator when constructing the feature classifier 45.
  • step S300 After the process in FIG. 3A is started (step S300), the sample 20 is placed on the sample stage 17 in the charged particle beam apparatus shown in FIG. 1 (step S301). Next, optical conditions such as accelerating voltage and magnification for capturing an image to be used as teacher data are set (step S302).
  • step S303 the tilt angle of the sample stage 17 is set (step S303), and the first observation is performed (step S304).
  • This first observation refers to the initial observation work in which the operator confirms the landmark pattern and the machining pattern that he/she wants to finally observe, and may be carried out by the operator alone, or by the SEM operator In some cases, areas requiring attention are communicated to the engineer while viewing the observation screen.
  • step S304 information necessary for generating teacher image data is acquired.
  • teacher image data is generated by executing step S305, and the generated teacher image data is stored in the storage 903 (step S306).
  • step S305 A workflow showing step S305 in detail is shown in FIG. 3B.
  • extraction of an image of interest 523 (described later with reference to FIG. 5, etc.) is executed by automatic processing (step S305-1).
  • an ROI is selected and registered by the operator based on the image of interest 523 (step S305-2), and additional acquisition of ROI images is performed automatically based on the information (step S305-3). ).
  • image post-processing is performed to obtain appropriate teacher image data based on the obtained ROI image (step S305-4).
  • the generated teacher image data is checked by the operator (step S305-5), and the teacher image data that passed the check is stored in the storage 903 (step S306). Details of each step will be described later.
  • FIG. 4A shows the main GUI 400 displayed on the display unit 35 of the charged particle beam device of this embodiment.
  • the main GUI of FIG. 4A and similar GUIs in other figures are graphical user interfaces for entering viewing configuration parameters.
  • the main GUI shown in FIG. 4A includes, as an example, a main screen 401, an operation start/stop button 402 for instructing to start/stop the operation of the charged particle beam device, a magnification adjustment field 403 for displaying and adjusting the observation magnification, and a field for setting the imaging conditions.
  • a selection panel 404 that displays item buttons for selecting setting items, an operation panel 405 that adjusts image quality and stage, a menu button 406 ("Menu") that calls up other operation functions, and a main screen 401. It includes a sub-screen 407 that displays wide-field images, and an image list area 408 that displays captured images as thumbnails.
  • the GUI described above is just one configuration example, and a GUI in which items other than those described above are added or replaced with other items may also be adopted.
  • step S304 the operator presses the record button 451 ("Record") in the operation panel 405, and records the time-series image data 50 being observed (described later in connection with FIG. 5, etc.) and the operating state of the device. Recording of time series data 51 (described later in relation to FIG. 5 etc.) is started.
  • the time-series image data 50 is data in which observation image data is arranged in chronological order, and is stored in the computer system 32. Note that the computer system 32 can perform arithmetic processing regarding the operating state time series data 51 and observation image data, as will be described later.
  • FIG. 4A shows a state in which a tilted image is displayed on the main screen 401 during observation, and the tilted image includes the fractured surface 21, the upper surface 22, and the landmark pattern 23.
  • the operator confirms the landmark pattern 23 that is the starting point of the observation location while viewing the tilt image, moves the sample stage 17 based on the landmark pattern 23, or moves the sample stage 17 based on the landmark pattern 23 to make sure that the cut surface 21 of the sample 20 is aligned with the observation surface.
  • the sample stage 17 is tilted so as to face the sample, and the processing pattern desired to be obtained is observed.
  • the operator presses the record button 451 again to complete data recording. While data is being recorded, a recording mark 450 is displayed at the left corner of the main screen 401, and when data recording is completed, the recording mark 450 disappears.
  • step S305 generation of teacher image data
  • FIG. 4B shows a configuration example of a GUI screen used by the operator in step S305. If you want to display the GUI in FIG. 4B from a state where the GUI in FIG. 4B is not displayed, press the menu button 406 in FIG. When you select "Search"), the teacher data generation tool screen shown in FIG. 4B pops up. In the operation in step S305, the tab 510 of "Training Data Generate" is selected.
  • the operator presses the input button 511 ("Input") in the data selection area ("Data Select") to select the time series image data 50 stored in the storage 903 in step S304. and the operating state time series data 51.
  • the selected file is displayed in the time series image data name display field 516 and the time series data name display field 517 in the operating state. If you want to select another file, press the clear button 512 ("Clear”) to clear the registered file, and then select the appropriate file again.
  • step S305-1 extracting images of interest
  • the operator presses the image extraction button 513 (“Image Extract”), and the time-series image data 50 and the time-series data 51 of the operating state are extracted.
  • An image of interest 523 that is automatically acquired and is presumed to have been noticed by the operator is displayed, and time-series data 51 of the operating state is output.
  • the processor 901 functions as an output unit that digitizes the operating state of the scanning electron microscope 10 and outputs time-series data 51 of the operating state.
  • a message "Done” is displayed in the status display field 518 indicating the operating state.
  • FIG. 5 schematically shows the data analysis processing operation executed by the computer system 32 in step S305-1 of extracting the image of interest.
  • time-series image data 50 is shown, and a large number of observed images are stored along the time axis.
  • the time-series image data 50 is in a moving image format, it becomes a data set of image data, and for example, at 30 fps (frames per second), 30 images are included per second.
  • time-series image data 50 is video data
  • the time-series image data 50 can be efficiently processed using a known video processing program or the like. Furthermore, when the time-series image data 50 is a collective data set of still image data, moving image processing is not necessary, and the processing is simplified.
  • time series data 51 of the operating state is shown, and here, as an example, time series data 51-1 of the stage X coordinate, time series data 51-2 of the stage Y coordinate, and time series data 51-2 of the observation magnification are shown. Time series data 51-3 is shown.
  • the operating state time series data 51 is not limited to what is shown in the figure, but can be configured as data including at least one of the following.
  • the evaluation value can be configured to include at least one of the following. -Sharpness calculated by high-frequency component analysis of the image -Brightness feature calculated based on the brightness distribution of the image
  • a specific variation pattern (event of interest) is set in advance for the time-series data 51 of the operating state.
  • the computer system 32 automatically determines the time that matches the event of interest based on the operating state time series data 51.
  • two conditions are set for the event of interest: (1) gazing for a certain period of time or more, and (2) increasing magnification at the same position.
  • a fixation event for a certain period of time or more was defined as a condition in which the operator holds the stage for a certain period of time without changing its position or observation magnification at all. This event corresponds to a pattern in which the sample stage is stopped for a predetermined time (first time) and the magnification is fixed during the predetermined time (first time).
  • (2) magnification increase event at the same position was defined as a condition in which the operator increases only the observation magnification without changing the X and Y coordinates of the stage at all. This event corresponds to a pattern in which the sample stage 17 is stopped for a predetermined time (second time) and the magnification changes during the predetermined time (second time). Note that the first time and the second time may be the same time or may be different times.
  • Time T11 and time T13 correspond to (1) a gaze event for a certain period of time or more
  • time T12 and time T14 correspond to (2) a magnification increase event at the same position.
  • FIG. 5 shows an outline, and the times indicated by times T11, T12, T13, and T14 are not exact.
  • the computer system 32 acquires and outputs observation image data corresponding to times T11, T12, T13, and T14 from the time-series image data 50 as image data of interest.
  • the image data of interest is stored in the storage 903 as an image of interest 523, for example.
  • image of interest information 541 which records event time, stage coordinates, tilt angle information, observation magnification, etc., is saved in the storage 903 in a CSV format file. Ru.
  • an appropriate image of interest 523 can be acquired. Note that in this embodiment, both (1) a time that matches a gaze event for a certain period of time or more and (2) a time that matches a magnification increase event at the same position are extracted, but only one of them is extracted. Good too.
  • step S305-2 ROI selection is performed using the image of interest 523 extracted in step S305-1.
  • ROI selection button 514 (“ROI Select”)
  • the ROI selection GUI shown in FIG. 4C is displayed.
  • an image name list 522 of the image of interest 523 is displayed on the left side of the screen.
  • any image name of interest in the image name list 522 is selected with the mouse, that image name is displayed in reverse video, and the selected image of interest is displayed on the main screen 532.
  • the operator selects an area that the operator recognizes as the ROI from the image of interest 523 displayed on the main screen 532 by operating the mouse (for example, selects an area including the landmark pattern 23 (i.e., ROI) with the pointer 531). selection tool 530).
  • the scanning electron microscope 10 receives the designation of the ROI in the image of interest via the ROI selection GUI.
  • the registered ROI is displayed in a thick frame like the registered ROI 529.
  • the image data of the registered ROI 529 is saved in the storage 903, and the ROI supplementary information is saved in the storage 903 as information attached to the ROI.
  • the ROI supplementary information includes stage coordinates of the ROI in real space, stage inclination angle, ROI size, observation magnification, etc., and is saved as a CSV format file.
  • the ROI supplementary information can be, for example, the same as the image-of-interest supplementary information 541 of the image of interest that includes the ROI, but may be the image-of-interest supplementary information 541 that has been corrected according to the position of the ROI within the image of interest. It's okay.
  • the ROI supplementary information may include at least one of the following. -Inclination angle information of the sample stage 17 -Rotation angle information of the sample stage 17 -Observation magnification information In this way, the conditions under which the ROI was imaged can be stored along with each ROI, and the conditions for imaging the ROI or its surroundings can be stored. re-imaging becomes easier.
  • the scanning electron microscope 10 stores the image data of the ROI 529 and the ROI supplementary information.
  • the operator can automatically store supplementary information by specifying an arbitrary ROI, which improves work efficiency.
  • the ROI supplementary information includes position information of the sample stage 17 corresponding to the ROI
  • the position information of the sample stage 17 is automatically stored in accordance with the designation of the ROI, making the work even more efficient.
  • the registration can be deleted by selecting the ROI with the pointer 531 and clicking the clear button 527 ("Clear").
  • a processed mark 524 is displayed in the image name list 522 for the image of interest for which ROI selection and registration processing has been performed. Furthermore, if there are a large number of images 523 of interest and they cannot all be displayed at once in the image name list 522 on the GUI, the list can be advanced and displayed using the scroll button 525.
  • step S305-3 an additional ROI image is automatically acquired using the ROI information registered in step S305-2 and the automatic imaging function.
  • the setting button 521 (“Setting”) in the GUI of FIG. 4B is pressed, the setting GUI of FIG. 4D is displayed.
  • a setting panel 533 for the imaging magnification a setting panel 534 for the first tilt angle of the sample stage (rotation angle around the first tilt axis 61 in FIG. 2B), and a second tilt angle of the sample stage (the rotation angle around the first tilt axis 61 in FIG. 2B) are displayed.
  • a setting panel 535 for the rotation angle around the second tilt axis 62 is provided.
  • the operator inputs a start value, an end value, and a step value between them on each setting panel. For example, if you set the start value of the imaging magnification as "x0.1k”, the end value as “x1.0k”, and the step value as "0.1k”, you can set the imaging magnification from *0.1k to *1.0k. A total of 10 imaging magnification conditions can be set in 0.1 increments. Note that the unit "k” represents kilo, or 1000.
  • the value of the first tilt angle (rotation angle around the first tilt axis 61 in FIG. 2B) from 1° to 5° in 1° increments, it is possible to set the angle conditions for 5 conditions.
  • the second tilt angle (rotation angle around the second tilt axis 62 in FIG. 2B) is to be fixed at 0°, both the start value and the end value are set to 0°.
  • This imaging condition is stored in the storage 903 as an additional imaging condition. That is, the additional imaging conditions of this embodiment include one or more combinations of imaging magnification, first tilt angle, and second tilt angle. Also, if you check the automatic radio button ("Auto") for each setting panel 533, 534, 535, the default conditions set in advance for the corresponding setting panel will be applied, and if you do not need to change the settings each time, can reduce the workload of the operator.
  • Auto automatic radio button
  • FIG. 6 shows a flowchart for additional acquisition of ROI images.
  • step S305-3A additional imaging conditions are saved using the settings GUI as described in FIG. 4D.
  • step S305-3B the center of the next ROI (when this step is executed for the first time, the first ROI, for example, the ROI described first among the plurality of ROIs described in the ROI supplementary information) Move the sample stage 17 to the coordinates.
  • the scanning electron microscope 10 uses the ROI supplementary information to move the sample stage 17 to a position where the ROI can be imaged.
  • step S305-3C the next set angle described in the additional imaging conditions (when this step is executed for the first time, it is the first set angle, for example, among the set angles described in the additional imaging conditions) Tilt the stage to the set angle listed at the top.
  • step S305-3D the observation magnification is set to the lowest magnification of the scanning electron microscope 10.
  • step S305-3E field center correction is performed based on the observed image at the lowest magnification.
  • the upper surface 22 (wafer surface) of the sample and the fractured surface 21 are observed, and the boundary line between the two can be visually recognized as an edge line.
  • the field of view center correction method involves detecting the edge line through image processing, calculating the actual positional coordinates of the edge line from the position information of the edge line on the image and the position information of the sample stage 17, and determining the center of the field of view. Move the sample stage 17 as follows.
  • an image processing algorithm for detecting edge lines straight line detection using Hough transformation or the like can be used. Further, in order to further improve the detection accuracy, a preprocessing process such as a Sobel filter may be performed to emphasize edge lines.
  • step S305-3F the magnification condition is changed to the next magnification condition described in the additional imaging condition. Thereafter, in step S305-3G, an ROI-containing image 440 capturing the ROI at the center of the field of view is acquired.
  • step S305-3H the imaging magnification is determined. It is determined whether the final magnification (for example, the highest magnification among the magnifications listed in the additional imaging conditions) has been reached, and if the final magnification has not been reached, the process returns to step S305-3F and sets the next magnification. The process of acquiring the ROI-containing image 440 is repeated.
  • step S305-3H When the final magnification is reached in step S305-3H, the process proceeds to step S305-3I.
  • step S305-3I it is determined whether the set angle is the last angle (for example, the larger angle among the tilt angles listed in the additional imaging conditions), and if it is not the last angle, the process returns to step S305-3C and the next The process of acquiring the ROI-containing image 440 while changing the magnification is repeated through the visual field center correction at the lowest magnification at the set angle.
  • the angle loop (loop from step S305-3I to step S305-3C) is shown as a single angle loop in FIG. 6, but in reality, the first tilt angle and the second A loop is executed for each tilt angle, resulting in a double loop.
  • step S305-3I When the final angle condition is reached in step S305-3I, the process advances to step S305-3J.
  • step S305-3J it is determined whether the ROI is the last ROI among the ROIs listed in the additional imaging conditions, and if it is not the last ROI, the process returns to step S305-3B, and the stage is moved to The process of acquiring the ROI-containing image 440 under a plurality of conditions is repeated while changing the tilt and magnification conditions.
  • the scanning electron microscope 10 acquires additional image data of the ROI under a plurality of imaging conditions.
  • the plurality of imaging conditions may include conditions in which at least one of the magnification, the tilt angle of the sample stage, and the rotation angle of the sample stage is different. Using such a plurality of imaging conditions increases the possibility that an image in which the landmark pattern 23 appears appropriately can be obtained.
  • step S305-3J When the last ROI is reached in step S305-3J, the additional ROI image acquisition process ends (step S305-3K).
  • step S305-3K When the above steps are completed, the display in the status display field 520 becomes "Done" on the teacher data generation tool screen in FIG. 4B, and the process of additionally acquiring the ROI image in step S305-3 (FIG. 3B) is completed. do.
  • step S305-3 When step S305-3 is completed, the process proceeds to step S305-4, an image post-processing step (FIG. 3B). The process of step S305-4 will be explained using FIG. 7 and FIG. 4B.
  • FIG. 7 is a schematic diagram showing the relationship between the ROI-containing image 440 acquired in step S305-3 and the correct image 429 and incorrect image 430 of the teacher data used to construct the feature classifier 45.
  • the feature classifier 45 is constructed using a cascade classifier.
  • the cascade classifier uses two types of image datasets as training image data: a correct image and an incorrect image including the target ROI.
  • step S305-4 in the ROI-containing image 440, an area that includes the landmark pattern 23 or a part thereof is saved as a correct image 429, and an area that does not include the landmark pattern 23 or a part thereof is saved as an incorrect image 430.
  • step S305-4 the operation in step S305-4 will be explained.
  • the image folder display field 545 when step S305-3 is completed, a folder in which image data consisting of a large number of acquired ROI-containing images 440 is saved is displayed.
  • the areas of the correct image 429 and incorrect image 430 are automatically cropped and saved in a new teacher image data folder, as explained in FIG. .
  • the automatic clipping process at this time can be appropriately designed based on known technology. For example, each region may be identified using an algorithm that is not based on machine learning, or if a general feature discriminator 45 based on machine learning is available, it may be used. If incorrect identification is performed, it can be corrected in the subsequent step S305-5, so it is not essential to increase the identification accuracy in step S305-4.
  • the correct image 429 and incorrect image 430 are stored in different subfolders. Similar processing is performed on all the ROI-containing images 440 acquired in step S305-4, and when the processing is completed, the image post-processing step of step S305-4 is completed, and the GUI status display in FIG. 4B is performed. Column 546 becomes "Done”.
  • FIG. 8 shows an example of the configuration of a GUI screen used in step S305-5.
  • the learning tool screen shown in FIG. 8 will be displayed. A pop-up will appear.
  • step S305-5 the learning tab 411 ("Train") is selected.
  • the operator presses the input button 412 ("Input") for data selection ("Data Select") and selects the folder in which the teacher image dataset generated in step S305-4 is stored.
  • Data Select data selection
  • the selected folder name is displayed in the image folder display field 413.
  • the user presses the clear button 414 ("Clear") and redoes the selection operation.
  • a training image data tab 417 (“Folder: Training_data") is displayed at the bottom of the GUI, a correct answer image 429 is displayed on the image display screen 418, and an incorrect answer image is displayed on the image display screen 428.
  • Image 430 is displayed. Images that cannot be displayed on the image display screens 418 and 428 can be advanced and displayed using the scroll button 419.
  • a checkmark input field 420 is provided for each teacher image data, and checkmarks 421 are added to all images in the initial setting. The operator checks the displayed teacher image data, and if there is an inappropriate image, deletes the check mark 421 by operating the mouse.
  • the operator presses the update button 422 ("Update") to update the teacher image data.
  • the update display button 427 (“Data Update”) at the top of the GUI flashes to indicate to the operator that the data has been updated.
  • you want to redo the selection process for multiple teacher image data press the reset button 423 (“Reset") to initialize the checkmark input field 420 and return to the state where checkmarks 421 are added to all images. be able to.
  • step S305-5 the step of checking the teacher image data in step S305-5 is completed, and accordingly, the step of storing the teacher data in the storage in step S306 is also completed (FIG. 3B). Note that if there is no particular need to update the teacher image data displayed by pressing the data selection input button 412, the steps S305-5 and S306 are completed as is.
  • step S307 learning of the feature classifier
  • the operator presses the learning button 415 ("Train") at the top of the GUI or the learning button 424 ("Train") at the bottom of the GUI in FIG. 8 to start learning.
  • a status display column cell 416 and a status display column cell 425 indicating the status, respectively are displayed.
  • "" is displayed in the status display column cells 416 and 425.
  • ⁇ Done'' is displayed. In this way, the process in FIG. 3A ends (step S308).
  • Model Name click the model name input field 426 (“Model Name”) and select a trained model in storage to select the feature discriminator 45 used for visual field search. can be selected.
  • DNN deep neural network
  • FIG. 9A is a flowchart showing the entire automatic imaging sequence. After the process in FIG. 9A is started (step S500), first, a new sample 20 is placed on the sample stage 17 (step S501), and then conditions for visual field search are set (step S502).
  • the step of setting conditions during visual field search in step S502 includes a step of setting optical conditions during visual field searching (step S502-1) and a step of setting stage conditions during visual field searching (step S502-2). Consists of. In step S502, operations are performed using the GUI 600 shown in FIG. 10A and the main GUI 400 shown in FIG. 10B, details of which will be described later.
  • a test run for the visual field search is performed (FIG. 9A).
  • the test run is a step in which a tilted image of the sample 20 is acquired at a preset magnification, and the center coordinates of the landmark pattern are output from the feature identifier 45.
  • the tilt image of the cross section of the sample may fit into one image, or may require capturing multiple images.
  • the computer system 32 When capturing multiple images, after acquiring the images, the computer system 32 automatically moves the sample stage 17 by a certain distance in the X-axis direction, then acquires the next image, and moves the sample stage 17 by a certain distance again. Image acquisition is repeated by moving the sample stage 17 and acquiring the next image.
  • the feature discriminator 45 is operated on the plurality of tilt images acquired in this way, and the landmark pattern 23 is detected.
  • the detection results are displayed on the main GUI 400 in the form of a marker indicating the ROI (for example, a rectangular frame) superimposed on the acquired image. The operator checks whether the ROI of the landmark pattern included in the image has been correctly extracted from the obtained output result.
  • step S503 is re-executed or restarted.
  • Possible problems include, for example, when the feature discriminator 45 is operated but the landmark pattern 23 is not found within the field of view and the center coordinates of the landmark pattern 23 are not output, or when an area other than the landmark pattern 23 is identified as the landmark pattern 23. There may be cases where incorrect recognition occurs and incorrect center coordinates are output. Furthermore, if a problem occurs in the imaging device or the entire device, such as an abnormality in the optical system, the test run execution process may be temporarily interrupted.
  • step S505 conditions for image auto-capture (that is, image acquisition at a high magnification) are set. Note that step S503 of the test run and step S504 of checking malfunction can be omitted, and after setting the conditions for visual field search (step S502), proceed to the step of setting conditions for automatic image capture (step S505). You can start production immediately.
  • step S505 includes a step of setting optical conditions for high-magnification imaging (step S505-1), a step of setting stage conditions for the facing condition (step S505-2), and a step of setting the final observation position (step S505). -3).
  • FIG. 10A shows a GUI 600 used by the operator when setting conditions for visual field search (step S502)
  • FIG. 10B shows an example of the main GUI 400, which is the main screen.
  • the main GUI 400 is the same GUI described in FIG. 4A. As described above, when the operator presses the menu button 406 and selects the field of view search button from the displayed selection buttons, the screen shown in FIG. 10A pops up. If the GUI shown in FIG. 10A is not displayed, select the automatic recipe tab 601 ("Auto Recipe") and the screen will switch to the GUI shown in FIG. 10A.
  • the automatic recipe tab 601 Auto Recipe
  • imaging conditions can be set for both the field of view search (steps S502 and S506) and the automatic high-magnification image capturing (step S508). ) or the high magnification imaging column 603 (“High magnification capture”), it is possible to switch between the setting screens for both.
  • the upper part of the GUI 600 includes a stage status setting panel 604, a magnification setting panel 605, a final observation position setting panel 607, etc. is displayed.
  • the position number selection field 621 is a field for selecting the registration number of the position where the visual field search is performed.
  • two registration numbers, P1 and P2 can be set. If there is only one position to search the field of view, you only need to set P1.On the other hand, if you want to search the field of view while scanning the stage within a certain range, you can set both P1 and P2. , the field of view can be searched by scanning between two points.
  • the imaging number column 630 is a column for selecting a condition set for automatically capturing a high-magnification image. If a condition set is registered, one of the registered condition sets can be referenced by operating the imaging number field 630.
  • the stage state setting panel 604 displays XYZ coordinate information of the sample stage 17, a first tilt angle (rotation angle around the first tilt axis 61 in FIG. 2B), and a second tilt angle (the second tilt axis 62 in FIG. 2B). This is a setting field for registering the surrounding rotation angle) in the computer system 32.
  • the tilt image of the sample cross section is displayed on the main screen 401 of the main GUI 400, the X coordinate information, Y coordinate information, Z coordinate information, and first tilt angle (the first tilt axis 61 in FIG. 2B ) and the second tilt angle (second tilt axis 62 in FIG. 2B), stage information about the state of the image displayed on the main screen 401 is displayed.
  • the registration button 612 (“Register”) is pressed while P1 or P2 is selected in the position number selection field 621, the current stage state (drive shaft state) is changed to the selected position number (P1 or P2). is registered in the computer system 32 as stage information.
  • FIG. 10A shows an example of the configuration of the setting panel that is displayed on the screen both during visual field search (steps S502 and S506) and when automatically capturing a high-magnification image (step S508). Only the necessary setting panels according to the selection made using the radio buttons are displayed on the screen. For example, when the radio button in the field of view search field 602 is selected, the position number selection field 621 and the stage state setting panel 604 are displayed, and when the radio button in the high magnification imaging field 603 is selected, An imaging number field 630, a magnification setting panel 605, and a final observation position setting panel 607 are displayed.
  • Registration can be canceled by pressing the clear button 613 (“Clear”).
  • the operations of the register button 612 and the clear button 613 are common in the following explanation.
  • the execution button 614 (“Run”) is a button for instructing the computer system 32 to start visual field search, and by pressing this button, step S503 (test run) in FIG. 9A can be started. .
  • the resume button 615 (“Resume”) is a button for restarting the process when the process is automatically stopped due to a malfunction or the like in step S504 of FIG. 9A. If this button is pressed after the cause of the failure has been resolved after the process in step S504-2, the test run process can be restarted from the step where the process was automatically stopped. By pressing the stop button 616 (“Stop”), the visual field search in progress can be stopped midway.
  • step S505-2 in FIG. 9C can be executed.
  • the setting and/or registration of the stage facing condition may be automatically adjusted based on a predetermined algorithm.
  • a predetermined algorithm As an algorithm for adjusting the tilt angle of the sample 20, an algorithm that acquires tilt images at various tilt angles and calculates the tilt angle by numerical calculation based on the edge line of the wafer extracted from the image can be adopted.
  • the magnification setting panel 605 sets the intermediate magnification when increasing the magnification from the imaging magnification during visual field search (that is, the starting magnification during high-magnification imaging) to the final magnification (the final magnification during high-magnification imaging).
  • This is a setting field for The imaging magnification of the tilt image currently displayed on the main screen 401 is displayed in the column to the right of the area where "Current" is displayed.
  • To the right of "Final" in the middle row is a setting column for setting the final magnification, and the final magnification is selected using the same adjustment button as in the stage state setting panel 604.
  • Step* in the lower row is a setting field for setting the step of the intermediate magnification from the imaging magnification of the tilted image, and when you operate the adjustment button on the right side of the setting field, the field marked with "*" A number is displayed. For example, “Step1", “Step2", etc. are displayed. Further to the right of the adjustment button on the right side of the setting field, a magnification setting field for setting the imaging magnification in each step is displayed, and the intermediate magnification is set by similarly operating the adjustment button. According to such a GUI, when increasing the magnification over a plurality of steps during high-magnification imaging, it is possible to individually set which step is what magnification. After the setting is completed, by pressing the registration button 612, the set final magnification and intermediate magnification are registered in the computer system 32.
  • the final observation position setting panel 607 is a setting field for setting the center position of the visual field when imaging is performed at the final magnification, based on the relative position from the landmark pattern 23.
  • the main screen 401 shows a tilted image of the sample cross section together with the ROI 25 for setting a landmark pattern, but the operator operates the pointer 409 to move the selection tool 410 to the desired final observation position 436 (see FIG. 10B). By dragging and dropping up to , the relative position information of the final observation position with respect to the landmark pattern 23 can be set.
  • the distance in the X direction from the center coordinates of the ROI 25 is displayed in either the left display column (“Left”) or the right display column (“Right”), and the distance in the Z direction is displayed. Displayed in either the upper display column (“Above”) or the lower display column (“Below”).
  • GUI 400 which is the main GUI.
  • a button related to optical conditions is pressed on the selection panel 404 or the operation panel 405 of the GUI 400, an optical condition setting screen is displayed.
  • the scan button 437 (“Scan") is pressed in the GUI of FIG. It can be set to any value. After setting, when the registration button 612 is pressed, the set scanning speed is registered in the computer system 32.
  • optical conditions such as acceleration voltage and beam current value are set while switching the radio buttons in the field of view search field 602 and high magnification imaging field 603, and are registered in the computer system 32, thereby achieving step S502 in FIG. 9B. -1 and the conditions used in step S505-1 of FIG. 9C can be determined.
  • the scanning speed when capturing the tilted image can be set higher than the scanning speed of the image at the final magnification. Further, the scanning electron microscope 10 can switch the scanning speed according to a set speed.
  • the adjustment button 609 is used to input numerical values into the display fields provided on each setting panel (stage state setting panel 604, magnification setting panel 605, and final observation position setting panel 607).
  • stage state setting panel 604, magnification setting panel 605, and final observation position setting panel 607 it is also possible to directly input numerical values using a keyboard, numeric keypad, etc. provided in the input unit 36.
  • Model Name the model name input field 624 (“Model Name”) on the GUI 600 in FIG. 10A and select a trained model in storage to perform visual field search.
  • the feature classifier 45 used can be selected.
  • the field of view search mode setting panel 622 by selecting "Fix" on the field of view search mode setting panel 622 and setting the stage coordinates and tilt angle in the P1 row of the search position setting table 625, the field of view search can be set at a fixed position. (At this time, the P2 row of the search position setting table 625 is in an input disabled state).
  • the high-magnification imaging recipe setting table 626 multiple imaging locations and imaging conditions can be directly input. For each capture number (“Capture No”), you can set the relative position from the landmark pattern 23, observation magnification, tilt angle, etc., and set high magnification imaging continuously under many conditions. It is convenient in some cases. If there are too many imaging numbers to display the high-magnification imaging recipe setting table 626 on the screen, scroll buttons 627 can be used to advance the display.
  • the detection signal it is possible to select whether to use a secondary electron image (SE image) or a backscattered electron image (BSE image), and it is also possible to capture a shape image and a Z contrast image in the same field of view. If this high-magnification imaging recipe is written in advance in a CSV file, etc., it can be read by pressing the import button 628 ("Import") after entering the recipe name in the automatic recipe name input field 629 ("Auto Recipe Data"). It is possible and reflected in GUI600.
  • SE image secondary electron image
  • BSE image backscattered electron image
  • FIG. 11 shows a configuration example of a GUI used by the operator when executing the actual visual field search shown in steps S506 and subsequent steps in FIG. 9A.
  • the screen changes to the GUI of FIG. 11. Switch to .
  • the start button 617 When the operator presses the start button 617, the procedure starting from step S506 in FIG. 9A is started.
  • step S506 a tilt image of the sample cross section within the range specified as the imaging condition is captured.
  • Image data obtained from the captured images are sequentially input to the feature discriminator 45, and central coordinate data of the landmark pattern is output.
  • the output center coordinate data is given a serial number such as ROI1, ROI2, etc., and is stored in the storage 903 together with the above-mentioned supplementary information.
  • control unit 33 calculates the amount of movement of the sample stage 17 from the current stage position information and the center coordinate data of each ROI, and moves the field of view to the position of the landmark pattern 23 (step S507). After the field of view is moved, a high-magnification image at the final observation position is acquired according to the high-magnification image auto-capture conditions set in step S506 (step S508).
  • step S508 details of step S508 will be explained using FIG. 9D.
  • the control unit 33 After the visual field is moved to the position of the landmark pattern 23 in step S507 of FIG. 9A, the control unit 33 causes the visual field to be moved to the final observation position according to the relative position information set on the final observation position setting panel 607 of FIG. 10A. It is executed (step S508-1).
  • step S508-2 the stage condition is adjusted to a facing condition.
  • the control unit 33 calculates the amount of stage movement based on the difference from the stage condition set in the pressed state, and operates the sample stage 17.
  • step S508-3 the observation field moves to the final observation position and becomes directly facing the sample cross section, so the magnification is increased in that field (step S508-3).
  • the magnification is enlarged one step at a time according to the intermediate magnification set on the magnification setting panel 605 in FIG. 10A.
  • step S508-4 the computer system 32 performs focus adjustment and astigmatism correction processing.
  • the correction processing algorithm involves acquiring an image while sweeping the current value of the objective lens and aberration correction coil within a predetermined range, and performing fast Fourier transform (FFT) or Wavelet transformation on the acquired image to determine the image sharpness.
  • FFT fast Fourier transform
  • a method can be used that evaluates the setting conditions and derives the setting conditions with a high score.
  • Other aberration correction processing may be included as necessary.
  • step S508-5 the computer system 32 performs imaging at the magnification after enlargement and obtains image data in the current field of view.
  • step S508-6 the computer system 32 performs a first visual field shift correction.
  • the first visual field deviation correction in this embodiment includes correction processing for the horizontal line of the image and correction processing for positional deviation at the center of the visual field, but other necessary visual field deviation correction processing may be performed depending on the magnification.
  • the observation sample in this embodiment is a coupon sample, and there is an upper surface 22 (wafer surface) of the coupon sample on which a mark pattern 23 is formed and a cut surface 21.
  • the upper surface 22 of the coupon sample is visually recognized as an edge line. Therefore, in this step, the edge line is automatically detected from the image data acquired in step S508-5, and the edge line is aligned with the horizontal line (virtual horizontal reference line passing through the center of the field of view) in the image. Correct the field of view shift in the XZ plane of the acquired image.
  • the processor 901 derives the actual position coordinates of the edge line from the position information on the image of the edge line and the position information of the sample stage 17, and the control unit 33 adjusts the rotation angle of the first tilt axis. , move the field of view so that the edge line is located in the center of the field of view.
  • an image processing algorithm for detecting edge lines straight line detection using Hough transformation can be used.
  • a preprocessing process such as a Sobel filter may be performed to emphasize edge lines.
  • step S508-1 the position set on the final observation position setting panel 607 in FIG. 10A is located at the center of the field of view, but if the observation magnification is increased in step S508-3, the center of the field of view may shift be. Therefore, the computer system 32 extracts image data for an appropriate number of pixels around the center of the visual field from the image before magnification magnification, and uses this image data as a template to perform pattern matching on the image data acquired in step S508-5. do.
  • the center coordinates of the area detected by matching are the original center of the visual field, and the computer system 32 calculates the difference between the center coordinates of the detection area and the coordinates of the center of the visual field of the image data acquired in step S508-5, It is transmitted to the control unit 33 as a control amount of the sample stage 17.
  • the control unit 33 drives the X drive axis or the Y drive axis according to the received control amount, and further drives the second tilt axis depending on the magnification to correct the deviation of the center of the visual field.
  • the image data obtained in step S508-5 can be used without using template matching.
  • coordinate data of the center of the visual field can be obtained.
  • the field of view shift correction in this step may be performed by image shifting instead of adjusting the sample stage 17.
  • the amount of adjustment of the field of view shift is converted by the computer system 32 into control information regarding the scanning range of the electron beam in the X and Y directions, and sent to the control unit 33.
  • the control unit 33 controls the deflection lens 14 based on the received control information, and performs visual field shift adjustment by image shift.
  • step S508-7 it is determined whether the adjustment amount of the first visual field shift correction performed in step S508-6 is appropriate.
  • the distance R between the rotation center of the second tilting shaft 62 and the cut surface 21 is also known. be.
  • the product R ⁇ of the 62 rotation angle ⁇ of the second tilt axis and the distance R is the amount of visual field shift on the image. Adjust ⁇ so that they are equal.
  • the rotation angle ⁇ calculated in the first visual field shift correction step may be insufficient or excessive due to the accuracy of R.
  • the original visual field center may not be located at the visual field center in the image after the visual field deviation has been corrected. If it is not valid, the process advances to step S508-8, and if it is valid, the process advances to step S508-9.
  • step S508-8 a second visual field shift correction is performed.
  • the amount of adjustment of the rotation angle ⁇ or the amount of adjustment of the X drive axis and the Y drive axis for the insufficient or excessive amount is determined by image processing, and the sample stage 17 is readjusted. If the original center of the visual field is not located at the center of the visual field, in step S508-8, the image before executing the specified distance movement and the image after executing the movement are compared, the actual distance moved is measured, and the shortfall is corrected. . If there is no object to be processed in the field of view, the magnification is changed to a lower magnification side, and the above processing is performed after the object whose image can be identified is brought into the field of view.
  • the second field of view shift correction in this step may be performed using image shift instead of adjusting the sample stage 17.
  • the first visual field deviation correction process and the second visual field deviation correction process described above may be collectively referred to as "fine adjustment.”
  • step S508-9 it is determined whether the current imaging magnification matches the final observation magnification set on the magnification setting panel 605 in FIG. 10A, and if so, the process advances to the next step S508-10. If they do not match, the process returns to step S508-3 and the processes from step S508-3 to step S508-8 are repeated.
  • step S508-10 the optical conditions are changed to those set on the GUI 400 in FIG. 10A during high-magnification image capturing, and in step S508-11, imaging is performed according to the optical conditions. This completes step S508, and the process advances to step S509 in FIG. 9A.
  • step S509 it is determined from the serial numbers of the ROIs imaged in step S508 whether or not imaging at the final observation position has been completed for all ROIs extracted in the visual field search. If not, the process proceeds to step S507. Go back and move the field of view to the next ROI. If it has been completed, the automatic imaging process of this embodiment is ended (step S510).
  • the status bar 618 displays the ratio of imaged ROIs to the total number of ROIs.
  • the captured image details column 620 displays the serial number and coordinates (stage conditions) of the image that has been captured or is currently being captured, and the serial number of the ROI corresponding to the landmark pattern of each captured location.
  • the scanning electron microscope 10 uses the feature discriminator 45 to perform automatic imaging processing, which eliminates the need for manual field-of-view search work and improves work efficiency. Furthermore, since the feature discriminator 45 is generated based on the image-of-interest supplementary information 541, the scanning electron microscope 10 can be said to execute automatic imaging processing based on the image-of-interest supplementary information 541. According to such a configuration, since the automatic imaging operation (stage conditions, magnification, etc.) is determined based on the actual sample, it is possible to realize an imaging operation suitable for the sample.
  • FIG. 12 shows the state of the main GUI 400 after the sequence of automatic imaging processing is completed.
  • a captured high-magnification image is displayed on the main screen 401, and a tilted image of the cut surface 21 is displayed on the sub-screen 407 with a wider field of view than the main screen 401.
  • high-magnification images 439 of each imaging location are displayed as thumbnails.
  • the high-magnification image displayed on the main screen 401 is a high-magnification cross-sectional image that allows the shape of the processing pattern 26 formed on the wafer to be confirmed. ⁇ 200k.
  • a landmark pattern and a marker 438 indicating the final imaged position are displayed on the sub-screen 407.
  • the feature discriminator 45 of the landmark pattern 23 was constructed using a set of 200 training data and a cascade classifier, and the flow of FIGS. 9A to 9D was implemented as an automatic imaging sequence. , good automatic cross-sectional observation operation was confirmed.
  • the manual work time required to prepare the teacher image data was 640 minutes in the conventional fully manual method, whereas it was only 5 minutes in the semi-automated method in this embodiment. The effect of reducing the work load to 1/128 was obtained.
  • the teacher image data necessary for learning the feature discriminator 45 can be semi-automatically generated, and as a result, the sample observation This greatly reduces the time and effort required to search the field of view, and also enables automatic capture of cross-sectional images.
  • a configuration is shown in which the generation of the teacher image data in step S305 is semi-automated, but depending on the case, the operator may manually generate additional teacher image data.
  • the main GUI of FIG. 4A can be used.
  • the operator uses the pointer 409 and the selection tool 410 to select an area on the tilted image displayed on the main screen 401 that includes the landmark pattern 23 that the feature classifier 45 wants to automatically detect.
  • an edit button (“Edit”) on the operation panel 405 on the GUI shown in FIG. 4A.
  • image data editing tools such as "Cut”, "Copy”, or “Save” are displayed on the screen, and the pointer also appears on the main screen 401. 409 and a selection tool 410 are displayed.
  • FIG. 4A shows a state in which one ROI is selected, and a marker indicating ROI 25 is displayed on the main screen 401.
  • the operator cuts out a selected area from the image data of the tilted image and stores it in the storage 903 as image data (step S306 in FIG. 3A).
  • the saved image data becomes teacher image data used for machine learning.
  • Only one ROI is selected in FIG. 4A, multiple ROIs may be selected in one image. Note that when saving, not only image data but also incidental information such as optical conditions during imaging such as magnification and scanning conditions and stage conditions (conditions related to the settings of the sample stage 17) can be saved in the storage 903. It is possible.
  • step S305-3 of FIG. 3B ROI images are additionally acquired to increase the amount of teacher image data. If a sufficient amount of teacher image data is obtained for constructing 45, step S305-3 is not necessarily necessary. Furthermore, when additional ROI images are acquired, it is possible to use only the image data related to the additional acquisition as the teacher image data (that is, there is no need to use the image data acquired in step S305-2. ). In this way, the feature classifier 45 can be generated by machine learning using an image set including at least one of the image data of the ROI and the additional image data of the ROI as training data.
  • the time-series image data 50 is video data
  • the time-series image data 50 is a data set of a plurality of images obtained by continuously capturing observed images at regular time intervals. There may be.
  • the stage The angle, the second tilt angle of the stage, current information of the objective lens, stigma current information, evaluation value of the image being observed, etc. may be collected.
  • evaluation value of the image being observed for example, sharpness calculated by high frequency component analysis of the image, brightness feature amount such as brightness average or brightness variance calculated from the brightness distribution of the image, etc. can be used.
  • the second embodiment proposes a scanning electron microscope equipped with a sample stage 17 having a structure different from that of the first embodiment.
  • the target sample, the flow of automatic imaging, and the method of constructing the visual field recognition function are the same as in the first embodiment, but the configuration of the sample stage 17 is different.
  • FIG. 13A shows a schematic diagram of the sample stage 17.
  • the second tilt axis 62 is provided along the Z-axis direction in the figure.
  • the first tilting shaft 61 is installed on the base 17X below the sample stage 17 provided with the second tilting shaft 62.
  • a fixing jig fixes the upper surface 22 of the sample 20 so as to be perpendicular to the upper surface of the sample stage 17.
  • FIG. 13B shows the state after rotating the second tilting shaft 62 by 90 degrees from the state of FIG. 13A (XZ plane is parallel to the paper surface) (YZ plane is parallel to the paper surface).
  • XZ plane is parallel to the paper surface
  • YZ plane is parallel to the paper surface
  • the sample stage of this embodiment is equipped with an X drive axis and a Y drive axis for independently moving the sample mounting surface in the X and Y directions. It can be translated in the longitudinal direction.
  • the construction flow of the feature discriminator 45 is similar to the first embodiment shown in FIGS. 3A and 3B, except that there are two objects to be automatically recognized.
  • the first feature discriminator that automatically detects the landmark pattern 23 at low magnification is constructed using the same method as the first embodiment, and furthermore, the processed pattern 26 (FIG. 12) is detected at the final observation magnification.
  • the second feature classifier for automatic detection is also constructed in the same manner as in the first embodiment.
  • step S506 of FIG. 9A a visual field search is performed using the constructed first feature classifier with the landmark pattern 23 as a target object.
  • the processing executed during high-magnification imaging at the final observation position in step S508 is partially different from the first embodiment.
  • FIG. 14 shows a flowchart of the main part of the automatic imaging sequence in this embodiment.
  • the processing from step S508-1 to step S508-10 is the same as the flowchart of the first embodiment (FIG. 9D).
  • a second visual field search is performed using the second feature discriminator, using the processing pattern 26 as the target object (ROI). If the processed pattern 26 cannot be found in the observed field of view due to dust attached to the processed pattern or the position of the processed pattern deviated from the expected position (step S508-10B: NO), the sample The stage 17 is moved in the X or Y direction by one field of view or a preset distance (step S508-10C). Therefore, the second visual field search is performed again (step S508-10A). This process is repeated until the machining pattern 26 of the target object is confirmed. If the ROI is detected in step S508-10A (step S508-10B: YES), high-magnification cross-sectional image acquisition is executed in step S508-11.
  • the setting of the second field of view search can be performed using the GUI shown in FIG. 10A.
  • the high-magnification imaging recipe setting table 626 in the lower part of FIG. 10A is provided with a feature discriminator setting column 623 (“Model”) for setting a second feature discriminator used for high-magnification observation. If the operator sets the second feature discriminator constructed in advance in the feature discriminator setting field 623, when the automatic imaging sequence is executed, the second visual field search ( Step S508-10A) is executed.
  • the scanner does not set anything in the feature discriminator setting column 623 for high magnification observation, and The feature discriminator is set only in the model name input field 624 of the upper field of view search setting panel (“FOV search”).
  • This embodiment is effective, for example, in preventing a situation where unexpected dust is attached to a cross section of a processing pattern and the shape of the processing pattern becomes invisible in an automatically captured image.
  • it is also effective when automatically observing at high magnification not only a cross-sectional image directly facing the cut surface 21 but also a tilted image in which the sample is slightly tilted.
  • the observation location is often out of the field of view due to the tilting of the specimen from a directly facing state, so a function that automatically searches the observation field after tilting is a burden on the operator. Effective for mitigation.
  • the operator observes various locations within the observation sample (initial observation), first grasps the overall picture of what kind of tissue is formed, and then identifies the tissue characteristics of interest. Obtain an observation image with a field of view that includes the area in which it appears. It is often necessary to return to the position where the tissue feature of interest was observed for detailed observation, and it takes time to find that field of view.
  • FIG. 15 shows a schematic cross-sectional view of a polycrystalline structure 71 of a metal material having a polycrystalline structure.
  • a plurality of different phases coexist in addition to the main phase.
  • the operator can control the area of the first main phase 81, the area of the first different phase 91, the area of the third different phase 93 surrounded by the second different phase 92, and the fourth area surrounded by the second different phase 92.
  • the operator presses the record button 451 on the main GUI in FIG. 4A to record the time-series image data 50 being observed and the time-series data 51 of the operating state of the device. Start.
  • the operator presses the image extraction button 513 on the GUI of FIG. 4B.
  • the image of interest 523 that is estimated to have been noticed by the operator is output according to the algorithm described in FIG. 5.
  • the ROI selection button 514 in the GUI of FIG. 4B is pressed to start the ROI selection GUI of FIG. 4C.
  • the user presses the setting button 521 on the GUI shown in FIG. 4B to start the GUI for setting additional imaging shown in FIG. 4D.
  • the user presses the automatic collection button 515 in FIG. 4B to automatically obtain an observation image of the region including the tissue of interest.
  • this embodiment is not to semi-automatically generate teacher image data as in the first embodiment, by outputting image data of interest using a scanning electron microscope, it can also be used for observing areas of interest in metal material structures. Additional observations can be automated, reducing the operator's workload. That is, even when the feature classifier 45 is not generated, the workload can be reduced.
  • the present invention is not limited to the above embodiments, and includes various modifications.
  • each of the embodiments described above has been described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described.
  • it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment and it is also possible to add the configuration of another embodiment to the configuration of one embodiment.
  • each of the above-mentioned configurations, functions, processing units, processing means, etc. may be partially or entirely realized in hardware by designing, for example, an integrated circuit.

Landscapes

  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

荷電粒子線装置は、試料を移動させる試料ステージと、前記試料の観察画像データを取得する撮像ユニットと、前記荷電粒子線装置の稼働状態を数値化して、稼働状態の時系列データを出力する出力ユニットと、前記観察画像データが表示され、かつ、観察用設定パラメータを入力するためのグラフィカルユーザーインターフェースが表示される表示ユニットと、前記観察画像データを時系列に並べた時系列画像データを保存し、かつ、前記稼働状態の時系列データおよび前記観察画像データに関する演算処理を実行する、コンピュータシステムと、を備える。荷電粒子線装置は、前記稼働状態の時系列データに基づき、予め設定した特定の変動パターンに合致する時刻を自動的に決定し、前記時系列画像データから、前記時刻に対応する観察画像データを、注目画像データとして取得して出力する。

Description

荷電粒子線装置および注目画像データを出力する方法
 本発明は、荷電粒子線装置および注目画像データを出力する方法に関する。
 近年の半導体デバイスの進化に伴い、そのデバイス構造が複雑化している。先端デバイスを製造する半導体メーカーにおいては、そのようなデバイスのプロセスをいかに迅速かつ効率的に開発するかが重要な課題である。半導体プロセス開発では,シリコン(Si)ウェハ上に成膜し積層した材料を設計通りの形状に加工するための条件最適化が必須であり,そのために断面のパターン加工形状観察が必要となる。
 先端半導体デバイスの加工パターンはナノメートルレベルの微細構造であるため、断面のパターン加工形状観察には、透過型電子顕微鏡(TEM:Transmission Electron Microscope)や、高分解能の走査型電子顕微鏡(SEM:Scanning Electron Microscope)といった荷電粒子線装置が用いられる。
 荷電粒子線装置を用いたウェハ断面の加工形状観察は、現状、人による作業に委ねられており、観察視野の探索と撮像作業に多くの手間と時間を要している。したがって、半導体プロセス開発の迅速化、高効率化に向けては、この観察作業をできるだけ自動化し、大量の観察データを高速かつ省人的に取得することができる装置が求められている。
 また、金属材料や生体試料といった半導体以外の観察対象物に対しても、マテリアルズインフォマティクス技術の進展等の理由により、大量の観察データを高速かつ省人的に取得できる装置の需要が増大している。
 画像処理の機械学習やAI技術を活用すれば、観察中に特徴的な対象物を自動で検出することが可能であり、操作者が観察対象位置に視野を合わせる際の作業負担が軽減される。例えば半導体プロセス開発では、一連の実験シリーズにおいて加工された複数枚のウェハ試料を観察することがあるが、一度、機械学習で対象物の特徴識別器を構築すれば、同様のウェハ試料では視野探索からパターン観察までを自動化することも可能である。しかしながら、別の実験シリーズにおいてはパターンのレイアウトも変わるため、一定のサイクルで対象の識別モデルを新たに構築する必要がある。機械学習による識別モデル(特徴識別器)の構築には多量の教師画像データが不可欠なため、操作者が自ら教師画像データを収集するには、依然として大きな作業負担が発生するという課題がある。
 教師画像データは、操作者が着目した対象物を含む画像であり、観察作業によって新たに画像を取得するか、あるいは、過去の画像データベースから使用できそうな画像を検索して再利用することも可能である。計測装置で取得した画像データを操作者の負荷なく容易に検索する手段として、例えば特許文献1では、SEM装置において、データベースに保存済の画像の中から操作者にとって重要と推定される画像を検索する技術が開示されている。その開示においては、自動フォーカスや明るさ調整、ステージ移動など、観察時に実施した各種の操作コマンドを記録したデータから「重要度」スコアを作り、そのスコアを取得した画像データに付与することで、画像検索時には重要度に適合する画像データを絞り込む技術が提案されている。しかしながら、特許文献1に開示の方法では、新たな実験シリーズに対応する新しい教師画像データを収集する場合には、保存済のデータベース内に適切な画像が存在しないため、結局は1枚ずつ手動で教師画像データを取得する必要がある。従って、新たな教師画像データの収集に係る操作者の負担を軽減する課題に対しては、特許文献1に開示の方法では対応することができない。
特開2012-74187号公報
 本開示は、荷電粒子線装置を用いた試料観察において、教師画像データを半自動的に生成し、それを用いて観察視野を自動認識する特徴識別器を構築し、それらに基づき自動撮像を実行する機能を備えた、荷電粒子線装置、および、注目画像データを出力する方法を提供することを目的とする。
 本発明に係る荷電粒子線装置の一例は、
 試料を移動させる試料ステージと、
 前記試料の観察画像データを取得する撮像ユニットと、
 前記荷電粒子線装置の稼働状態を数値化して、稼働状態の時系列データを出力する出力ユニットと、
 前記観察画像データが表示され、かつ、観察用設定パラメータを入力するためのグラフィカルユーザーインターフェースが表示される表示ユニットと、
 前記観察画像データを時系列に並べた時系列画像データを保存し、かつ、前記稼働状態の時系列データおよび前記観察画像データに関する演算処理を実行する、コンピュータシステムと、
を備え、
 前記稼働状態の時系列データに基づき、予め設定した特定の変動パターンに合致する時刻を自動的に決定し、
 前記時系列画像データから、前記時刻に対応する観察画像データを、注目画像データとして取得して出力する。
 本発明に係る方法の一例は、
 荷電粒子線装置によって注目画像データを出力する方法であって、
 前記荷電粒子線装置は、
 試料を移動させる試料ステージと、
 前記試料の観察画像データを取得する撮像ユニットと、
 前記荷電粒子線装置の稼働状態を数値化して、稼働状態の時系列データを出力する出力ユニットと、
 前記観察画像データが表示され、かつ、観察用設定パラメータを入力するためのグラフィカルユーザーインターフェースが表示される表示ユニットと、
 前記観察画像データを時系列に並べた時系列画像データを保存し、かつ、前記稼働状態の時系列データ、および前記観察画像データに関する演算処理を実行する、コンピュータシステムと、
を備え、
 前記方法は、
 前記稼働状態の時系列データに基づき、予め設定した特定の変動パターンに合致する時刻を自動的に決定するステップと、
 前記時系列画像データから、前記時刻に対応する観察画像データを、注目画像データとして取得して出力するステップと、
を備える。
 本開示の実施の形態に係る荷電粒子線装置および注目画像データを出力する方法によれば、視野認識の特徴識別器の学習に必要な教師画像データを半自動的に生成でき、その結果、試料観察時における視野探索の時間と労力を大幅に削減でき、また断面画像の自動撮像が可能となる。
第1の実施の形態の荷電粒子線装置の構成図である。 第1の実施の形態の試料20の傾斜軸との相対位置関係を示す模式図である。 第1の実施の形態の試料ステージ17を示す模式図である。 特徴識別器45の学習手順を示す図である。 教師画像データの生成手順を示す図である。 荷電粒子線装置が備える主GUIを示す模式図である。 教師画像データの生成時に使用されるGUIを示す図である。 ROI25選定時に使用されるGUIを示す図である。 ROI含有画像440の取得条件の設定に使用されるGUIを示す図である。 注目画像523の抽出方法を示す模式図である。 ROI含有画像440の取得のための自動撮像シーケンスを示すフローチャートである。 ROI含有画像440と正解画像429および不正解画像430の関係を示す模式図である。 特徴識別器45の学習時に使用されるGUIを示す図である。 自動撮像シーケンスを示すフローチャートである。 図9AのステップS502の詳細を示すフローチャートである。 図9AのステップS505の詳細を示すフローチャートである。 図9AのステップS508の詳細を示すフローチャートである。 自動撮像条件の設定に使用するGUIを示す図である。 自動撮像条件の設定時に同時表示される主GUIを示す図である。 自動撮像シーケンスの実行を指示するGUIを示す図である。 高倍での試料断面観察結果を示す模式図である。 第2の実施の形態の荷電粒子線装置の試料ステージ17の動作を示す模式図である。 Z軸周りに90度回転した状態の図13Aの試料ステージ17を示す模式図である。 第3の実施の形態のステップS508の詳細を示すフローチャートである。 第4の実施の形態における観察対象の金属組織の模式図である。
 例えば半導体デバイス開発においては、一連の実験シリーズで加工パターンの断面観察を行う場合、プロセスエンジニアとSEM操作者が初回のテスト観察を一緒に行い、実際の試料を観察しながら観察すべき加工パターン形状や、その観察場所を見つけるための目印パターンの認識を合わせる工程が想定される(事前観察)。その際の情報をデータ化すれば,そこにはプロセスエンジニアが着目しているROI(Region Of Interest;関心領域)に関する情報が含まれる。
 本開示の例示的な荷電粒子線装置は、事前観察等における観察中の画面を動画などの「時系列画像データ」として記録し、同時に試料ステージ座標や観察倍率など装置の「稼働状態の時系列データ」を記録し、両者を連携して解析することで、視野認識のための特徴識別器の学習に必要な教師画像データを半自動的に生成する。
 具体的には、本開示の例示的な荷電粒子線装置は、試料に荷電粒子線を照射することにより、当該試料の画像データを所定倍率で取得する撮像ユニットと、前記画像データを取得する際の視野探しの演算処理を、前記画像データを用いて実行するコンピュータシステムと、前記視野探しのための設定パラメータを入力するためのグラフィカルユーザーインターフェース(GUI)が表示される表示ユニットと、を備える。前記撮像ユニットは、前記試料を少なくとも2つの駆動軸で移動させることが可能に構成され、かつ前記コンピュータシステムが求める前記試料の位置情報に対応させて撮像視野を移動させることができる試料ステージを備える。前記コンピュータシステムは、前記表示ユニットに表示される観察画像を動画データあるいは一定時間間隔で連続撮像した画像セットである「時系列画像データ」として記録し、同時に、装置の「稼働状態の時系列データ」を記録する。さらに、前記コンピュータシステムは、前記稼働状態の時系列データにおいて事前に設定された特定の変動パターンから操作者が着目したと推定されるイベント時刻を計算し、前記時系列画像データの中から、前記イベント時刻に合致する複数の画像データを注目画像として抽出する。さらに前記コンピュータシステムは、前記注目画像の中から操作者が選定したROIの位置座標や観察倍率などの情報を記録する。その情報に基づいて、前記試料ステージが前記ROIの位置座標に移動され、観察倍率や前記試料ステージの傾斜角度などが異なる複数の条件で前記ROIの画像が複数取得される。前記コンピュータシステムは、前記ROIの画像から所定の範囲を切り抜き学習用の教師画像データを生成し、それを用いて特徴識別器を生成する。特徴識別器は、入力された新規な画像データに対し、当該画像上に一つまたは複数存在するROIの位置情報を出力する処理を実行する。
 以下、本開示の実施の形態をより詳細に説明するが、各実施の形態の開示内容は以下の記載のみに限定されるものではなく、各実施の形態の開示または教唆する要素技術を当業者の知見の範囲内で適宜組み合わせた構成も、本実施の形態の範疇に含まれる。
[第1の実施の形態]
 第1の実施の形態は、走査電子顕微鏡(SEM)が撮像装置である荷電粒子線装置において、観察対象のROIを含む教師画像データを半自動的に生成する機能を実現し、それにより構築される視野の自動認識機能を用いた、試料の自動観察方法を提案する。
 図1に、第1の実施の形態の走査電子顕微鏡の構成図を示す。第1の実施の形態の走査電子顕微鏡10は、荷電粒子線装置の例であり、たとえば電界放出型走査電子顕微鏡(FE-SEM)である。走査電子顕微鏡10は、本実施の形態に記載される、注目画像データを出力する方法を実行することができる。
 一例として、走査電子顕微鏡10は、電子銃11、集束レンズ13、偏向レンズ14、対物レンズ15、二次電子検出器16、試料ステージ17、像形成部31、制御部33、表示ユニット35、入力部36を備え、更には本実施の形態の視野探索機能に必要な演算処理を実行するコンピュータシステム32を備える。以下、各構成要素について説明する。
 電子銃11は、試料に電子線(荷電粒子線)を照射する。電子銃11は、所定の加速電圧によって加速された電子線12を放出する線源を備える。放出された電子線12は、集束レンズ13および対物レンズ15によって集束され、試料20上に照射される。偏向レンズ14は、磁場や電場によって電子線12を偏向し、これにより試料20の表面が電子線12で走査される。
 試料ステージ17は、走査電子顕微鏡10の撮像視野を移動させるために、試料20を所定の駆動軸に沿って平行移動させる機能、或いは、所定の駆動軸周りに傾斜移動および/または回転移動させる機能を有し、このためのモーターやピエゾ素子等のアクチュエータを備える。
 二次電子検出器16は、シンチレータ、ライトガイド、および光電子増倍管を備えるE-T検出器や半導体検出器等であり、電子線12が照射される試料20から放出される二次電子100を検出する。二次電子検出器16から出力される検出信号は像形成部31へ送信される。なお二次電子検出器16とともに、反射電子を検出する反射電子検出器や透過電子を検出する透過電子検出器が備えられても良い。
 像形成部31は、二次電子検出器16から送信される検出信号をデジタル信号に変換するAD変換器と、当該AD変換器が出力するデジタル信号に基づいて試料20の観察像を形成する演算器等(いずれも図示せず)によって構成される。演算器としては、例えば、MPU(Micro Processing Unit)やGPU(Graphic Processing Unit)等が使用される。像形成部31によって形成された観察像は、表示ユニット35に送信されて表示されたり、コンピュータシステム32に送信されて様々な処理が施されたりする。
 このように、走査電子顕微鏡10は、電子銃11と、二次電子検出器16と、像形成部31とを備える。電子銃11と、二次電子検出器16と、像形成部31(画像構成器)とは、本実施の形態における撮像ユニットを構成する。このような撮像ユニットを用いると、電子線(荷電粒子線)を用いた像を取得することができる。
 コンピュータシステム32は、外部とデータやコマンドの入出力を行うインターフェース部900と、与えられた情報に対して各種の演算処理を実行するプロセッサ901(たとえばCPU(Central Processing Unit))と、記憶手段を構成するメモリ902およびストレージ903とを含んで構成される。
 ストレージ903は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等により構成され、本実施の形態の視野探索ツールを構成するソフトウェア904、教師データDB(データベース)44が格納される。本実施の形態のソフトウェア904は視野探索ツールである。一例では、プロセッサ901がソフトウェア904を実行すると、メモリ902との協同により、機能ブロックとして特徴識別器45および画像処理部34が構成される。
 特徴識別器45は、入力された画像データから視野探索のための目印パターン23(図2A等を参照して後述)の抽出を行う。たとえば、特徴識別器45は、画像データの各位置において目印パターン23が存在するか否かを判定し、目印パターン23が存在すると判定された位置(または、画像データ内で目印パターン23が存在する確率が最も高いと判定された位置)を出力する。画像処理部34は、検出した目印パターンの画像上の位置から、試料ステージ17の位置情報を参照して目印パターン23の位置座標を計算する。
 図1に示すメモリ902は、ソフトウェア904を構成する各機能ブロックがメモリ空間上に展開された状態を表している。ソフトウェア904の実行時には、プロセッサ901がメモリ空間内に展開された各機能ブロックの機能を実行する。
 特徴識別器45は、機械学習によって生成される学習済みモデルであり、教師データDB44に格納された目印パターン23の画像データを教師データとして学習が行われる。特徴識別器45に新規な画像データを入力すると、画像データ上で学習した目印パターンの位置を決定して、当該新規な画像データにおける目印パターンの位置(以下の例では目印パターンの中心座標)を出力する。出力された中心座標は、視野探索時のROI(Region Of Interest;関心領域)の特定に用いられる。また、中心座標から計算される各種の位置情報が制御部33に送信され、試料ステージ17の駆動制御に用いられる。
 画像処理部34は、試料断面を視野に正対させた断面像において、画像処理に基づくウェハ表面のエッジライン検出、フォーカス調整、非点収差補正、等を自動実行する際に、画像鮮鋭度の算出および/または評価などの処理を行う。
 制御部33は、図1の各構成要素を制御するとともに、各構成要素で形成されるデータを処理したり送信したりする演算器であり、例えばCPUやMPU等を含む。入力部36は、試料20を観察するための観察条件の入力を受け付けたり、観察の実行や停止などの命令の入力を受け付ける装置であり、例えばキーボード、マウス、タッチパネル、液晶ディスプレイ、又はそれらの組合せにより構成され得る。表示ユニット35には、操作者のための操作画面を構成するGUI(Graphical User Interface)や、撮像された画像(観察画像データ)が表示される。
 次に図2Aを用いて、観察対象の試料20と試料ステージ17の駆動軸の相対位置関係について説明する。図2Aは、本実施の形態の荷電粒子線装置の観察対象物の一例であるウェハ試料の斜視図である。
 図2Aにおいて、試料20はウェハを割断したクーポン試料であり、割断面21と加工パターンが形成された上面22を有する。試料20は半導体デバイスの製造工程やプロセス開発工程を経て作製されたものであり、割断面21には微細構造が形成されている。多くの場合、荷電粒子線装置の操作者が意図する撮像箇所は割断面21に存在する。
 上面22には、目印パターン23が形成される。目印パターン23は、上述の微細構造と比べてサイズの大きい形状や構造であり、即ち視野探索時の目印として利用できるパターンである。目印パターン23としては、例えばウェハ上のチップ加工領域を識別するための特徴的な形状マーカや、ラベル情報を含む加工パターンなどが利用できる。
 図2Aに示されるXYZの直交軸は、試料20の電子線12に対する相対位置関係を示す座標軸であり、電子線12の進行方向がZ軸、試料ステージ17の第一傾斜軸61に平行な方向がX軸、第二傾斜軸62に平行な方向がY軸である。本実施の形態においては、試料20は長手方向がX軸と平行になるように試料ステージ17上に載置されている。
 割断面21の微細形状を観察する際には、電子線12は割断面21に対して概ね垂直方向から照射され、断面観察視野24の領域が観察される。しかし、手動で割断された割断面21は、上面22と完全には直交しない場合が多く、操作者が試料ステージ17へ試料20を設置する際にも取り付け角度が毎回同じになるとは限らない。
 そのため、割断面21を電子線12に直交させるための角度調整軸として、第一傾斜軸61、第二傾斜軸62が試料ステージ17に設けられる。第一傾斜軸61は試料20をYZ面内で回転させるための駆動軸である。割断面21の長手方向がX軸方向であるため、試料20を斜め方向から傾けて観察するいわゆるチルト像の傾斜角を調整する場合には第一傾斜軸61の回転角を調整する。同様に、第二傾斜軸62は、試料20をXZ面内で回転させるための駆動軸である。視野が割断面21に対して正対位置にある場合、第二傾斜軸62の回転角を調整することにより、視野中心を通る上下方向(Y軸方向)の軸を中心として画像を回転させることができる。
 図2Bを用いて、試料ステージ17の構成を説明する。図示したように、試料20は試料ステージ17に保持され固定される。試料ステージ17には、試料20の載置面を第一傾斜軸61または第二傾斜軸62周りに回転させる機構が備わっており、回転角度は制御部33によって制御される。なお図示は省略したが、図2Bに示される試料ステージ17は、試料載置面をXYZ方向にそれぞれ独立に移動させるためのX駆動軸、Y駆動軸およびZ駆動軸、更に試料載置面をZ駆動軸周りに回転させる回転軸も備えており、電子線12の走査領域(即ち視野)を試料20の長手方向、短手方向および高さ方向に移動し、更に回転させることができる。X駆動軸、Y駆動軸およびZ駆動軸の移動距離も制御部33によって制御される。
 本実施の形態では、試料20を斜め方向から傾けて観察したチルト像にて、目印パターン23を自動認識する特徴識別器45を構築し、当該目印パターン23を基点として所定の距離離れた位置で、高倍率観察を実行する。次に、図3A、図3B、図4A、図4B、図4C、図4D、図5、図6、図7、および図8を用いて、本実施の形態の特徴識別器45における学習の手順を説明する。
 本実施の形態の自動視野探索とそれを用いた自動撮像を実行するために、目印パターン23を検出する特徴識別器45を構築する。図3Aのフローチャートは、特徴識別器45を構築する際に操作者が実施するワークフローを示している。
 図3Aの処理が開始された(ステップS300)後、試料20を図1に示した荷電粒子線装置内の試料ステージ17に載置する(ステップS301)。次に、加速電圧や倍率等、教師データとなる画像を撮像するための光学条件を設定する(ステップS302)。
 その後、試料ステージ17のチルト角を設定し(ステップS303)、第一の観察を行う(ステップS304)。この第一の観察は、目印パターンや最終的に観察したい加工パターンなどを操作者が確認する最初の観察作業を指し、操作者が単独で実施する場合もあるし、あるいは、SEM操作者がプロセスエンジニアの立会いの下、注目すべき領域などを観察画面を見ながら伝達される場合もある。このステップS304により、教師画像データの生成に必要な情報が取得される。続いて、ステップS305の実行により、教師画像データが生成され、生成された教師画像データはストレージ903に格納される(ステップS306)。
 ステップS305を詳細に示したワークフローを図3Bに示す。ステップS304の第一の観察により得られたデータから、注目画像523(図5等に関連して後述)の抽出が自動処理により実行される(ステップS305-1)。次に、注目画像523を基に、操作者によるROIの選定と登録が実行され(ステップS305-2)、その情報に基づき、ROI画像の追加取得が自動処理により実行される(ステップS305-3)。その後、取得されたROI画像に基づいて適切な教師画像データを取得するために、画像の後処理が実行される(ステップS305-4)。最後に、生成された教師画像データの確認が操作者により実行され(ステップS305-5)、確認を通過した教師画像データがストレージ903に格納される(ステップS306)。各工程の詳細は後述する。
 以上に述べた特徴識別器45の学習の手順を、GUIの図面も用いながら、より詳細に説明する。
 図4Aは、本実施の形態の荷電粒子線装置の表示ユニット35に表示される主GUI400を示す。図4Aの主GUIおよび他の図における同様のGUIは、観察用設定パラメータを入力するためのグラフィカルユーザーインターフェースである。
 主GUI上にはチルト画像の一例が表示されている。図4Aに示される主GUIは、一例として、主画面401、荷電粒子線装置の稼働開始・停止を指示する稼働開始・停止ボタン402、観察倍率を表示させ調整する倍率調整欄403、撮像条件の設定項目を選択するための項目ボタンが表示されるセレクトパネル404、画質やステージの調整を行うオペレーションパネル405、その他の操作機能を呼び出すためのメニューボタン406(「Menu」)、主画面401よりも広視野の画像を表示するサブ画面407、撮像した画像をサムネイル表示するイメージリスト領域408を含む。以上説明したGUIはあくまで一構成例であり、上記以外の項目を追加したり、他の項目に置き換えたりしたGUIも採用可能である。
 操作者は、ステップS304の開始時に、オペレーションパネル405内の記録ボタン451(「Record」)を押し、観察中の時系列画像データ50(図5等に関連して後述)と、装置の稼働状態の時系列データ51(図5等に関連して後述)の記録を開始する。時系列画像データ50は、観察画像データを時系列に並べたデータであり、コンピュータシステム32に保存される。なお、コンピュータシステム32は、後述するように、稼働状態の時系列データ51と、観察画像データとに関する演算処理を実行することができる。
 一例として、図4Aには観察中の主画面401上にチルト像が表示された状態を示しており、チルト像には割断面21、上面22、及び目印パターン23が含まれる。操作者は、ステップS304において、チルト画像を見ながら観察場所の起点となる目印パターン23を確認したり、そこを基点に試料ステージ17を移動したり、試料20の割断面21が観察面に正対するように試料ステージ17を傾斜し、取得したい加工パターンを観察する。ステップS304の第一の観察が完了したら、操作者は再び記録ボタン451を押し、データの記録を完了する。データの記録中は、主画面401に左隅には記録中マーク450が表示され、データの記録が完了したら記録中マーク450の表示が消える。
 ステップS304(第一の観察)の完了後、ステップS305(教師画像データの生成)を実施する。図4Bは、ステップS305において、操作者が使用するGUI画面の構成例を示す。図4BのGUIが表示されていない状態から図4BのGUIを表示させる場合、図4Aのメニューボタン406を押して表示されるセレクトボタンから、選択肢の一つである「自動視野探索」(「Auto FOV search」)を選択すると、図4Bに示す教師データ生成ツール画面がポップアップ表示される。ステップS305の操作では、「教師データ生成」(「Training Data Generate」)のタブ510を選択する。
 図4Bに示す教師データ生成ツール画面において、操作者はデータ選択領域(「Data Select」)の入力ボタン511(「Input」)を押し、ステップS304にてストレージ903に格納された時系列画像データ50と、稼働状態の時系列データ51とを選択する。選択されたファイルは、時系列画像データ名表示欄516と、稼働状態の時系列データ名表示欄517とに表示される。もし別のファイルを選択したい場合は、クリアボタン512(「Clear」)を押して登録ファイルをクリアした後、再度適切なファイルを選択し直す。
 続いて、ステップS305-1(注目画像の抽出)の工程において、操作者が画像抽出ボタン513(「Image Extract」)を押すことで、時系列画像データ50と、稼働状態の時系列データ51が自動的に取得され、その結果、操作者が注目したと推定される注目画像523が表示され、また、稼働状態の時系列データ51が出力される。このように、ステップS305-1において、プロセッサ901は、走査電子顕微鏡10の稼働状態を数値化して、稼働状態の時系列データ51を出力する、出力ユニットとして機能する。
 ステップS305-1の注目画像の抽出の工程が終了すると、動作状態を示す状態表示欄518に「完了」(「Done」)のメッセージが表示される。
 図5には、注目画像を抽出するステップS305-1において、コンピュータシステム32で実行されるデータ解析処理動作を模式的に示した。図5の上部には、時系列画像データ50が示されており、時間軸に沿って多数の観察像が保存されている様子が示されている。時系列画像データ50が動画フォーマットの場合には、画像データの集合したデータセットとなり、例えば30fps(frames per second)であれば1秒間あたりに30枚の画像が含まれる。
 時系列画像データ50が動画データである場合には、公知の動画処理プログラム等を用いて効率的に時系列画像データ50を処理することができる。また、時系列画像データ50が静止画像データの集合データセットである場合には、動画処理が不要となり、処理が簡素化される。
 図5の下部には、稼働状態の時系列データ51が示されており、ここでは一例として、ステージX座標の時系列データ51-1、ステージY座標の時系列データ51-2、観察倍率の時系列データ51-3、が示されている。稼働状態の時系列データ51は、図示のものに限らず、以下のうち少なくとも一つを含むデータとして構成することができる。
 ‐試料ステージ17の位置情報
 ‐試料ステージ17の傾斜角度情報
 ‐試料ステージ17の回転角度情報
 ‐観察倍率情報
 ‐対物レンズ15の電流情報
 ‐スティグマ電流情報
 ‐荷電粒子線の加速電圧情報
 ‐観察中画像の評価値
このような稼働状態の時系列データ51を用いることにより、注目画像を抽出するための様々なパターンを定義することができる。
 とくに、稼働状態の時系列データ51が観察中画像の評価値を含む場合には、評価値は以下の少なくとも一つを含むように構成することができる。
 ‐画像の高周波成分解析により算出された鮮鋭度
 ‐画像の輝度分布に基づいて算出された輝度特徴量
このような稼働状態の時系列データ51を用いることにより、鮮鋭度が高い画像または輝度分布が適切な画像を抽出することができ、後続の画像処理がより高精度に行える。
 コンピュータシステム32には、稼働状態の時系列データ51を対象に、あらかじめ特定の変動パターン(着目イベント)が設定されている。コンピュータシステム32は、稼働状態の時系列データ51に基づき、着目イベントに合致した時刻を自動的に決定する。
 本実施の形態では、着目イベントの条件として、(1)一定時間以上注視すること、(2)同位置で倍率が増加すること、の2つを設定した。(1)一定時間以上注視イベントは、操作者がステージの位置および観察倍率を一切変えずに一定時間保持することを条件として定義した。このイベントは、試料ステージが所定時間(第1時間)停止しており、かつ当該所定時間(第1時間)中の倍率が固定しているパターンに対応する。一方、(2)同位置での倍率増加イベントでは、操作者がステージのX、Y座標を一切変えない状態で観察倍率だけを増加させることを条件として定義した。このイベントは、試料ステージ17が所定時間(第2時間)停止しており、かつ当該所定時間(第2時間)中に倍率が変化したパターンに対応する。なお、第1時間および第2時間は同一の時間であってもよく、異なる時間であってもよい。
 (1)(2)のインベント条件に合致する変動パターンを稼働状態の時系列データ51から検索し、そのときの時刻を決定した一例が、図5に示した時刻T11、T12,T13、T14である。時刻T11および時刻T13は(1)一定時間以上注視イベントに対応し、時刻T12および時刻T14は(2)同位置での倍率増加イベントに対応する。なお図5は概要を示すものであり、時刻T11、T12、T13、T14が示す時刻は厳密なものではない。
 コンピュータシステム32は、時系列画像データ50から、時刻T11、T12、T13、T14に対応する観察画像データを、注目画像データとして取得して出力する。注目画像データは、たとえば注目画像523としてストレージ903に保存される。また、各注目画像523に付帯する装置状態データとして、イベントの時刻、ステージの座標、チルト角度情報、観察倍率などが記録された注目画像付帯情報541が、CSV形式ファイルにてストレージ903に保存される。
 このようなイベントを定義することにより、適切な注目画像523を取得することができる。なお、本実施の形態では、(1)一定時間以上注視イベントに合致する時刻および(2)同位置での倍率増加イベントに合致する時刻の双方を抽出したが、いずれか一方のみを抽出してもよい。
 図4Bに戻り、ステップS305-2(ROIの選定と登録)の工程を説明する。ステップS305-2では、ステップS305-1で抽出した注目画像523を使用してROIの選定を実行する。操作者がROI選択ボタン514(「ROI Select」)を押すと、図4Cに示すROI選定GUIが表示される。ROI選定GUIでは、画面左側に注目画像523の画像名リスト522が表示される。
 画像名リスト522のいずれかの注目画像名をマウスで選択すると、その画像名が反転表示され、選択された注目画像が主画面532に表示される。操作者は主画面532に表示された注目画像523に対して、ROIであると操作者が認識した領域をマウス操作により選択する(たとえば目印パターン23を含む領域(すなわちROI)を、ポインタ531と選択ツール530とを用いて選択する)。
 その後、登録ボタン526(「Register」)を押し、当該ROIの情報を登録する。このようにして、走査電子顕微鏡10は、ROI選定GUIを介して、注目画像内のROIの指定を受け付ける。登録されたROIは、登録済ROI529のように太枠で表示される。ここで登録が実行されると、登録済ROI529の画像データがストレージ903に保存され、またROIに付帯する情報として、ROI付帯情報がストレージ903に保存される。
 ROI付帯情報は、ROIの実空間上でのステージ座標とステージの傾斜角度、ROIのサイズ、観察倍率、等を含み、CSV形式ファイルとして保存される。ROI付帯情報は、たとえば当該ROIが含まれる注目画像の注目画像付帯情報541と同一とすることができるが、注目画像内におけるROIの位置等に応じて注目画像付帯情報541を補正したものであってもよい。
 ROI付帯情報は、以下の少なくとも一つを含むものであってもよい。
 ‐試料ステージ17の傾斜角度情報
 ‐試料ステージ17の回転角度情報
 ‐観察倍率情報
このようにすると、各ROIに付帯して、当該ROIを撮像した条件を記憶することができ、当該ROIまたはその周辺の再撮像が容易になる。
 このようにして、走査電子顕微鏡10は、ROI529の画像データおよびROI付帯情報を記憶する。このような構成によれば、操作者は任意のROIを指定することにより自動的に付帯情報を記憶させることができ、作業が効率化される。とくに、ROI付帯情報が、ROIに対応する試料ステージ17の位置情報を含む場合には、ROIの指定に応じて試料ステージ17の位置情報が自動的に記憶され、作業がさらに効率化される。
 誤った場所を登録した場合、そのROIをポインタ531で選択し、クリアボタン527(「Clear」)によって登録を削除することができる。ROIの選定と登録処理が実施された注目画像に対しては、画像名リスト522において、処理済みマーク524が表示される。また、注目画像523が多数あり、GUI上の画像名リスト522に一度に表示しきれない場合は、スクロールボタン525によってリストを送り表示することができる。
 操作者が所望のROIを全て選択し登録した後に、終了ボタン528(「Exit」)を押すと、図4CのGUIが閉じられる。それと連動して、図4Bの状態表示欄519に「完了」(「Done」)と表示され、ステップS305-2のROI選定と登録の工程は終了する。
 図4Bに戻り、ステップS305-3(ROI画像の追加取得)の工程を説明する。ステップS305-3では、ステップS305-2で登録されたROI情報と、自動撮像機能を使用して、追加のROI画像を自動取得する。図4BのGUIにある設定ボタン521(「Setting」)を押すと、図4Dの設定GUIが表示される。
 精度の高い特徴識別器45を構築するには、多様な条件で取得した教師画像データを用意するのが望ましい。図4Dの設定GUIでは、撮像倍率の設定パネル533、試料ステージの第一チルト角(図2Bの第一傾斜軸61周りの回転角)の設定パネル534、試料ステージの第二チルト角(図2Bの第二傾斜軸62周りの回転角)の設定パネル535が備わる。
 操作者は、各設定パネルにおいて、開始値と終了値、およびその間のステップ値を入力する。たとえば、撮像倍率の開始値を「×0.1k」、終了値を「×1.0k」、ステップ値を「0.1k」、と設定すれば、×0.1kから×1.0kまでを0.1刻みにした、合計10個の撮像倍率条件を設定できる。なお単位「k」はキロすなわち1000を表す。
 同様にして、第一チルト角(図2Bの第一傾斜軸61周りの回転角)の設定値を1°から5°まで1°刻みで設定すれば、5個の条件の角度条件を設定できる。また、第二チルト角(図2Bの第二傾斜軸62周りの回転角)は0°で固定としたければ、開始値と終了値をいずれも0°と設定する。
 以上の設定を行うと、撮像倍率とチルト角度を組み合わせた条件が生成され、本例では、合計10×5=50の撮像条件が設定される。この撮像条件は、追加撮像条件としてストレージ903に保存される。すなわち、本実施の形態の追加撮像条件は、撮像倍率、第一チルト角、第二チルト角からなる組み合わせを1以上含む。また、各設定パネル533、534、535の自動ラジオボタン(「Auto」)にチェックを入れると、対応する設定パネルについて予め設定されたデフォルトの条件が適用され、毎回設定を変える必要が無い場合には、操作者の作業負荷を減らすことができる。
 以上の撮像条件の設定を完了した後、再び図4BのGUIに戻り、操作者は自動収集ボタン515(「Auto Collect」)を押すことで、ステップS305-3におけるROIの追加撮像が自動で実行される。
 図6に、ROI画像の追加取得のフローチャートを示す。ステップS305-3Aでは、図4Dで説明したとおり設定GUIを用いて追加撮像条件が保存される。ステップS305-3Bでは、次のROI(当該ステップが最初に実行される際には、最初のROIであり、たとえばROI付帯情報に記載された複数のROIのうち先頭に記載されたROI)の中心座標へ試料ステージ17を移動する。このようにして、走査電子顕微鏡10は、ROI付帯情報を用いて、当該ROIが撮像可能な位置に試料ステージ17を移動する。
 ステップS305-3Cでは、追加撮像条件に記載されている次の設定角度(当該ステップが最初に実行される際には、最初の設定角度であり、たとえば追加撮像条件に記載された設定角度のうち先頭に記載された設定角度)へ、ステージを傾斜させる。ステップS305-3Dでは、観察倍率を走査電子顕微鏡10の最低倍率に設定する。
 ステップS305-3Eでは、最低倍率の観察像を基に、視野中心補正を行う。図4Aで示したように視野観察時のチルト像では、試料の上面22(ウェハ表面)と割断面21が観察され、両者の境界線がエッジラインとして視認できる。視野中心補正方法としては、当該エッジラインを画像処理で検出し、エッジラインの画像上の位置情報と試料ステージ17の位置情報から、エッジラインの実際の位置座標を算出し、視野の中心になるように試料ステージ17を移動する。エッジラインを検出するための画像処理アルゴリズムとしては、Hough変換による直線検出などを使用することができる。また、より検出精度を高めるために、Sobelフィルタなどの処理を施し、エッジラインを強調させる前処理を行ってもよい。
 ステップS305-3Fでは、追加撮像条件に記載された次の倍率条件に変更する。その後、ステップS305-3Gで、ROIを視野中心に捉えたROI含有画像440を取得する。ステップS305-3Hでは、撮像倍率の判定を行う。最後の倍率(たとえば追加撮像条件に記載された倍率のうち最高の倍率)に到達したかを判定し、最後の倍率に到達していなければステップS305-3Fにもどり、次の倍率に設定し、ROI含有画像440を取得する処理を繰り返す。
 ステップS305-3Hで最後の倍率に到達したら、ステップS305-3Iに進む。ステップS305-3Iでは、その設定角度が最後の角度(たとえば追加撮像条件に記載されたチルト角度のうち大の角度)かどうかを判定し、最後の角度でなければステップS305-3Cに戻り、次の設定角度における最低倍率での視野中心補正を経て、倍率を変えながらROI含有画像440を取得する処理を繰り返す。
 なお、図6では説明を簡略化するため、角度のループ(ステップS305-3IからステップS305-3Cへのループ)は単一のものとして示しているが、実際には第一チルト角度および第二チルト角度それぞれについてループが実行され、二重ループとなる。
 ステップS305-3Iで最後の角度条件に到達したら、ステップS305-3Jに進む。ステップS305-3Jでは、そのROIが追加撮像条件に記載されたROIのうち最後のROIかどうかを判定し、最後のROIでなければステップS305-3Bに戻り、次のROIの中心座標でステージの傾斜と倍率条件を変えながら、複数条件でROI含有画像440を取得する処理を繰り返す。
 このようにして、走査電子顕微鏡10は、複数の撮像条件において、ROIの追加画像データを取得する。なお、この複数の撮像条件は、倍率、試料ステージの傾斜角度、試料ステージの回転角度、のうち少なくとも一つが異なる条件を含むものとすることができる。このような複数の撮像条件を用いると、目印パターン23が適切に現れる画像を取得できる可能性が高まる。
 ステップS305-3Jで最後のROIに到達したら、ROI画像の追加取得処理が終了する(ステップS305-3K)。以上が完了すると、図4Bの教師データ生成ツール画面において、状態表示欄520の表示が「完了」(「Done」)となり、ステップS305-3(図3B)のROI画像の追加取得の工程が完了する。
 ステップS305-3が完了すると、次にステップS305-4の画像の後処理工程に進む(図3B)。ステップS305-4の工程を図7、図4Bを用いて説明する。
 図7は、ステップS305-3によって取得されるROI含有画像440と、特徴識別器45の構築に用いる教師データの正解画像429および不正解画像430の関係性を示す模式図である。本実施の形態では、特徴識別器45をカスケード分類器により構築する。カスケード分類器では教師画像データとして、対象ROIを含む正解画像と不正解画像の2種類の画像データセットを用いる。ステップS305-4では、ROI含有画像440において、目印パターン23またはその一部を含む領域を正解画像429とし、目印パターン23またはその一部を含まない領域を不正解画像430として保存する。
 図4BのGUIに戻り、ステップS305-4における操作を説明する。画像フォルダ表示欄545には、ステップS305-3が終了すると、取得された多数のROI含有画像440からなる画像データが保存されたフォルダが表示される。
 もし直前のステップS305-3において追加取得された画像セット以外の画像セットを用いたい時は、画像フォルダ表示欄545をクリックし、適切な画像フォルダを選択する。
 その後、後処理ボタン544(「Post Process」)を押すと、図7で説明したように正解画像429と不正解画像430の領域が自動で切り抜き処理されて、新たな教師画像データフォルダに保存される。この際の自動切り抜き処理は、公知技術に基づいて適宜設計することができる。たとえば機械学習によらないアルゴリズムを用いて各領域を特定してもよいし、機械学習による一般的な特徴識別器45が利用可能である場合にはそれを用いてもよい。誤った特定が行われた場合には後のステップS305-5で修正することができるため、このステップS305-4における特定精度を高くすることは必須ではない。
 正解画像429と不正解画像430はそれぞれ異なるサブフォルダに格納される。ステップS305-4で取得した全てのROI含有画像440に対して、同様の処理が実行され、処理が完了すると、ステップS305-4の画像の後処理工程が完了し、図4BのGUIの状態表示欄546が「完了」(「Done」)となる。
 続いて、ステップS305-5の教師画像データの確認工程に進む(図3B)。図8は、ステップS305-5の工程で用いられるGUI画面の構成例を示す。画面が表示されていない状態から図8のGUIを表示させるためには、図4Aのメニューボタン406を押して表示されるセレクトボタンから「自動視野探索」を選択すると、図8に示す学習ツール画面がポップアップ表示される。
 ステップS305-5の操作では、学習タブ411(「Train」)を選択する。操作者はデータ選択(「Data Select」)の入力ボタン412(「Input」)を押し、ステップS305-4で生成した教師画像データセットが格納されたフォルダを選択する。選択されたフォルダ名は画像フォルダ表示欄413に表示される。画像フォルダの指定を変更するためにクリアボタン414(「Clear」)を押し、選択操作をやり直す。
 教師画像データのフォルダが選択されると、GUIの下段に教師画像データタブ417(「Folder: Training_data」)が表示され、画像表示画面418に正解画像429が表示され、画像表示画面428に不正解画像430が表示される。画像表示画面418、428に表示しきれない画像は、スクロールボタン419により送り表示できる。
 各教師画像データには、チェックマーク入力欄420が設けられており、初期設定では全画像にチェックマーク421が付与されている。操作者は表示された教師画像データを確認し、もし不適当な画像があればチェックマーク421をマウス操作により削除する。
 確認が終了したら、操作者は更新ボタン422(「Update」)を押し、教師画像データを更新する。この際にGUI上段の更新表示ボタン427(「Data Update」)が点滅し、データ更新が行われたことを操作者に表示する。またもし、教師画像データの選択処理を複数やり直したい場合、リセットボタン423(「Reset」)を押すことでチェックマーク入力欄420が初期化されて全画像にチェックマーク421が付与された状態に戻すことができる。
 更新ボタン422が押されると、その時点でチェックマーク421が付与されている全画像が教師画像データとして複製され、一時的に教師データDB44に保存される。この際、オリジナルの教師画像データセットの中身は入力ボタン412を押した直後の状態から変更なく維持されるため、後で再利用する際にデータの破損は生じない。一方、更新した教師画像データセットを新たなデータセットとして保存したいときは、保存ボタン431(「Save」)を押し、新たな名称のデータセットとして保存することも可能である。
 以上の工程によって、ステップS305-5の教師画像データの確認工程が完了し、それに伴って、ステップS306の教師データのストレージへの格納工程も完了する(図3B)。なお、もしデータ選択の入力ボタン412を押して表示される教師画像データについて特に更新が必要なければ、そのままステップS305-5とステップS306の工程は完了する。
 続いて、ステップS307(特徴識別器の学習)の工程について説明する(図3A)。教師画像データの設定が終了すると、操作者は図8のGUI上段の学習ボタン415(「Train」)か、GUI下段の学習ボタン424(「Train」)を押して学習を開始させる。学習ボタン415および学習ボタン424の横には、それぞれ状態を示す状態表示欄セル416および状態表示欄セル425が表示されており、ステップS307の学習が終了すると、状態表示欄セル416および425に「完了」(「Done」)が表示される。このようにして図3Aの処理が終了する(ステップS308)。
 複数の特徴識別器45が使用可能である場合には、モデル名入力欄426(「Model Name」)をクリックし、ストレージ内の学習済みモデルを選択することにより、視野探索に用いる特徴識別器45を選択することができる。
 機械学習の方法として、本実施の形態ではカスケード分類器を使用したが、ディープニューラルネットワーク(DNN)を用いた物体検出アルゴリズムも使用することができる。
 次に、特徴識別器45の学習完了後、それを活用した視野探索と自動撮像シーケンスについて、図9A~図12を用いて説明する。図9Aは、自動撮像シーケンス全体を示すフローチャートである。図9Aの処理が開始された(ステップS500)後、初めに、新規な試料20を試料ステージ17に載置し(ステップS501)、次に、視野探索時の条件設定を行う(ステップS502)。
 ステップS502の視野探索時の条件設定ステップは、図9Bに示すように、視野探索時の光学条件設定ステップ(ステップS502-1)、視野探索時のステージ条件設定ステップ(ステップS502-2)を含んで構成される。ステップS502では、図10Aに示すGUI600と、図10Bに示す主GUI400を用いて操作を行うが、詳細は後述する。
 視野探索の条件設定が終わると、視野探索のテストラン(ステップS503)を実行する(図9A)。テストランは、予め設定した倍率で試料20のチルト画像を取得し、特徴識別器45からの目印パターンの中心座標を出力させるステップである。試料断面のチルト画像は、目的とする撮像箇所の数や設定倍率により、1枚の画像に収まる場合もあれば複数枚の画像を撮像しなければならない場合もある。
 複数枚の画像を撮像する場合には、画像を取得した後、コンピュータシステム32が自動で試料ステージ17をX軸方向に一定距離だけ移動させ、その後、次の画像を取得し、さらに一定距離だけ試料ステージ17を移動させ、さらに次の画像を取得し、というように画像取得を繰り返す。このように取得した複数のチルト画像に対して、特徴識別器45を動作させ、目印パターン23を検出する。検出結果は、ROIを示すマーカ(たとえば矩形枠)を取得画像に重畳させて表示する形で、主GUI400に表示される。操作者は得られた出力結果から、画像内に含まれる目印パターンのROIを正しく抽出できたかどうかを確認する。
 テストランの結果、不具合が発生したと操作者が判断した場合には、ステップS504-2で作動不良の解消処理を行った後に、ステップS503を再実行または再開させる。起こり得る不具合としては、例えば、特徴識別器45を動作させても視野内の目印パターン23が見つからずに目印パターン23の中心座標が出力されない場合や、目印パターン23以外の領域を目印パターン23と誤認識して、誤った中心座標が出力された場合などがある。また、光学系の異常のように、撮像装置や装置全体に関わる不具合が発生した場合にはテストランの実行処理を一時中断してもよい。
 不具合が発生せずテストランが上手く行った場合には、画像オートキャプチャ(即ち高倍画像での画像取得)の条件の設定が行われる(ステップS505)。なお、テストランのステップS503および作動不良を確認するステップS504は省略することも可能であり、視野探索時の条件設定(ステップS502)後、画像オートキャプチャの条件設定ステップ(ステップS505)に進み、直ちに本番を始めてもよい。
 ステップS505は、図9Cに示すように、高倍撮像時の光学条件設定ステップ(ステップS505-1)、正対条件のステージ条件設定ステップ(ステップS505-2)および最終観察位置の設定ステップ(ステップS505-3)を含んで構成される。
 ここで、図9Bおよび図9Cのフローチャート実行時に使用されるGUIについて説明する。図10Aは、視野探索の条件設定時(ステップS502)に操作者が使用するGUI600を示し、図10Bは主画面である主GUI400の一例を示している。
 主GUI400は、図4Aで説明したGUIと同じものである。前述の通り、操作者がメニューボタン406を押して表示されるセレクトボタンから視野探索ボタンを選択すると、図10Aに示す画面がポップアップ表示される。もし図10Aに示すGUIが表示されない場合は、自動レシピタブ601(「Auto Recipe」)を選択すれば、画面が図10Aに示すGUIに切り替わる。
 図10Aに示すGUI600の上段は、視野探索時(ステップS502およびS506)と高倍画像の自動撮像時(ステップS508)の撮像条件の両者を設定することができ、視野探索欄602(「FOV search」)または高倍率撮像欄603(「High magnification capture」)いずれかのラジオボタンを押すことにより双方の設定画面を切り替えることが可能である。
 ラジオボタン下部には撮像条件の各種の設定項目の設定パネルが表示され、例えば図10Aの場合、GUI600の上段には、ステージ状態設定パネル604、倍率設定パネル605、および最終観察位置設定パネル607等が表示されている。
 位置番号選択欄621は、視野探索を行う位置の登録番号を選択する欄である。本実施の形態では、P1とP2の2つの登録番号を設定することができる。視野探索を行う位置が一つの場合は、P1のみを設定すればよく、それに対して、一定範囲内でステージをスキャンしながら視野探索を行う場合は、P1とP2の二つを設定することで、2点間の間をスキャンして視野を探索することができる。
 撮像番号欄630は、高倍画像の自動撮像を行う条件セットを選択する欄である。条件セットが登録されている場合には、撮像番号欄630を操作して、登録された条件セットのいずれかを参照することができる。
 ステージ状態設定パネル604は、試料ステージ17のXYZの各座標情報、第一チルト角(図2Bの第一傾斜軸61周りの回転角)、および第二チルト角(図2Bの第二傾斜軸62周りの回転角)をコンピュータシステム32に登録するための設定欄である。主GUI400の主画面401に試料断面のチルト画像が表示されているが、ステージ状態設定パネル604のX座標情報、Y座標情報、Z座標情報、第一チルト角(図2Bの第一傾斜軸61)および第二チルト角(図2Bの第二傾斜軸62)の各表示欄には、主画面401に表示された画像の状態のステージ情報が表示される。
 位置番号選択欄621でP1またはP2を選択した状態で、登録ボタン612(「Register」)が押されると、現在のステージ状態(駆動軸の状態)が、選択された位置番号(P1あるいはP2)のステージ情報として、コンピュータシステム32に登録される。
 説明の便宜上、図10Aには視野探索時(ステップS502およびS506)と高倍画像の自動撮像時(ステップS508)双方の画面に表示される設定パネルの構成例を示しているが、実際には各画面には、ラジオボタンによる選択に応じた必要な設定パネルのみしか表示されない。たとえば、視野探索欄602のラジオボタンが選択されている場合には、位置番号選択欄621およびステージ状態設定パネル604が表示され、高倍率撮像欄603のラジオボタンが選択されている場合には、撮像番号欄630、倍率設定パネル605および最終観察位置設定パネル607が表示される。
 登録はクリアボタン613(「Clear」)を押せばキャンセルすることができる。登録ボタン612およびクリアボタン613の動作は以下の説明で共通である。
 実行ボタン614(「Run」)は、コンピュータシステム32に対して視野探索開始を指示するためのボタンであって、このボタンを押すことにより図9AのステップS503(テストラン)を開始させることができる。
 レジュームボタン615(「Resume」)は、図9AのステップS504で作動不良等のため処理が自動停止した場合に、処理を再開させるためのボタンである。ステップS504-2の処理後、不良原因が解消した後にこのボタンを押すと、処理が自動停止したステップからテストランの処理を再開することができる。ストップボタン616(「Stop」)を押せば、実行中の視野探索を途中で止めることができる。
 チルト画像の視野を微調整したい場合には、調整ボタン609を押すと、試料ステージ17のXYZの各座標或いはチルト角がプラス又はマイナスの方向に変化する。変化後の画像は主画面401にリアルタイムで表示され、操作者は画像を見ながら最も適切と判断される視野が得られる試料ステージ17の状態を登録する。なお、高倍率撮像欄603のラジオボタンを選択した状態で、割断面21の正対画像が主画面401に映るように視野を調整すれば、その状態でのステージ条件が、正対条件となるステージ条件を表す。このステージ条件をコンピュータシステム32に登録することで、図9CのステップS505-2を実行することができる。
 また、ステージ正対条件の設定および/または登録は、以上説明した手動での調整の他、所定のアルゴリズムに基づいて自動で調整してもよい。試料20の傾斜角度調整のアルゴリズムとしては、色々な傾斜角度でチルト像を取得し、画像から抽出したウェハのエッジ線などを基に数値計算によって傾斜角度を算出するアルゴリズムが採用し得る。
 倍率設定パネル605(図10A)は、視野探索時の撮像倍率(すなわち高倍撮像時の開始倍率)から最終倍率(高倍撮像時の最終倍率)まで倍率を増大させていく際の、途中倍率を設定するための設定欄である。「現在値」(「Current」)と表示された箇所の右側欄には、主画面401に現在表示されているチルト画像の撮像倍率が表示される。中段の「最終」(「Final」)の右側は、最終倍率を設定するための設定欄であり、ステージ状態設定パネル604と同様の調整ボタンで最終倍率を選択する。下段「ステップ*」(「Step*」)は、途中倍率がチルト画像の撮像倍率から何ステップ目であるかを設定する設定欄であり、設定欄右の調整ボタンを操作すると「*」の欄に数字が表示される。例えば、「Step1」、「Step2」…等のように表示される。設定欄右の調整ボタンの更に右側には、各ステップにおける撮像倍率を設定するための倍率設定欄が表示されており、同じく調整ボタンを操作して途中倍率を設定する。このようなGUIによれば、高倍撮像時に複数ステップにわたって倍率を拡大させてゆく際に、第何ステップが何倍であるかを個別に設定することができる。設定終了後は、登録ボタン612を押すと、設定した最終倍率と途中倍率がコンピュータシステム32に登録される。
 最終観察位置設定パネル607は、最終倍率で撮像を行う際の視野の中心位置を目印パターン23からの相対位置によって設定するための設定欄である。主画面401には、試料断面のチルト画像が目印パターン設定用のROI25と共に示されているが、操作者は、ポインタ409を操作して選択ツール410を所望の最終観察位置436(図10B参照)までドラッグアンドドロップすることで、目印パターン23に対する最終観察位置の相対位置情報を設定することができる。最終観察位置設定パネル607には、ROI25の中心座標からのX方向の距離が、左表示欄(「Left」)または右表示欄(「Right」)のいずれかに表示され、Z方向の距離が上表示欄(「Above」)または下表示欄(「Below」)のいずれかに表示される。
 最終観察位置を複数設定する場合、選択ツール410のドラッグアンドドロップを繰り返すことにより設定する。また後述のように、入力部36に備えられたキーボードやテンキー等を使用して、左表示欄、右表示欄、上表示欄、下表示欄のうち必要なものに数値を直接入力してもよい。この方式は、例えば目印パターン23から所定距離だけ離れた位置を基準として、当該基準位置から決まった間隔(例えば等間隔ピッチ)で複数枚の画像を撮像する場合等に、操作者の利便性が高い。
 視野探索時および高倍画像撮像時の光学条件の設定は、主GUIであるGUI400を用いて行う。GUI600を表示させた状態で、GUI400のセレクトパネル404やオペレーションパネル405の光学条件に関わるボタンを押すと光学条件の設定画面が表示される。
 例えば、図10BのGUIにおいて走査ボタン437(「Scan」)を押すと、走査速度設定パネル608が表示され、操作者はインジケータ610を見ながら設定ツマミ611を操作し、撮像時の走査速度を適切な値に設定することができる。設定後、登録ボタン612を押すと、設定した走査速度がコンピュータシステム32に登録される。
 以上の要領で、視野探索欄602および高倍率撮像欄603のラジオボタンを切り替えながら、加速電圧やビーム電流値等の光学条件を設定し、コンピュータシステム32に登録することで、図9BのステップS502-1や図9CのステップS505-1において用いられる条件を決定することができる。なお、チルト画像の撮像の際の走査速度は、最終倍率での画像の走査速度よりも大きく設定することができる。また、走査電子顕微鏡10は、設定された速度に応じて走査速度を切り替えることが可能である。
 なお、以上の図10Aの上段の説明において、各設定パネル(ステージ状態設定パネル604、倍率設定パネル605および最終観察位置設定パネル607)に設けられた表示欄への数値入力は調整ボタン609を用いて行うことができるが、これに代えて又はこれに加えて、入力部36に備えられたキーボードやテンキー等を使用して数値を直接入力することも可能である。
 複数の特徴識別器45が使用可能である場合には、図10AのGUI600において、モデル名入力欄624(「Model Name」)をクリックし、ストレージ内の学習済みモデルを選択することにより、視野探索に用いる特徴識別器45を選択することができる。
 以上説明した、図10AのGUI600の上段の設定を行うと、下段の領域にも情報が反映される。GUI600の下段には、視野探索(「FOV search」)の設定条件と、高倍画像撮影の設定条件がリスト化して表示される。
 逆に、下段の設定リストを直接編集しても、上段のパネルで入力するのと同じことが可能である。例えば、視野探索モード設定パネル622で「固定」(「Fix」)を選択し、探索位置設定表625のP1の行にステージ座標やチルト角を設定すれば、固定位置での視野探索が設定できる(このとき、探索位置設定表625のP2行は入力不可状態となる)。
 あるいは、視野探索モード設定パネル622で「走査」(「Scan」)を選択し、探索位置設定表625のP1およびP2の両方に異なるステージ座標を設定すれば、P1からP2までスキャンしながら目印パターンを探索する処理を設定できる。
 高倍撮像レシピ設定表626においても、複数の撮像場所や撮像条件を直接入力できる。それぞれの撮像番号(「Capture No」)に対して、目印パターン23からの相対位置をそれぞれ設定したり、観察倍率やチルト角度などを設定でき、多数の条件で連続して高倍率撮像を設定する場合には便利である。撮像番号が多く高倍撮像レシピ設定表626が画面内に表示しきれない場合には、スクロールボタン627により送り表示できる。
 検出信号についても、二次電子像(SE像)および反射電子像(BSE像)のいずれを用いるかを選択でき、同一視野で形状像とZコントラスト像を撮像することも可能である。この高倍撮像レシピは、予めCSVファイルなどに記載しておけば、自動レシピ名入力欄629(「Auto Recipe Data」)にレシピ名を入力した後にインポートボタン628(「Import」)を押して読み込むことができ、GUI600に反映される。
 図9Aに戻って、フローチャートの説明を再開する。ステップS505において画像オートキャプチャの条件設定が終わると、本番の視野探索の実行が開始される(ステップS506)。図11は、図9AのステップS506以降の手順で示される本番の視野探索の実行時に操作者が用いるGUIの構成例を示している。操作者が主GUI400に示されるメニューボタン406から選択するか、または図10AのGUIの自動レシピタブ601に代えて自動撮像タブ619(「Auto Capture」)を選択することにより、画面が図11のGUIに切り替わる。操作者がスタートボタン617を押すと、図9AのステップS506以降の手順が開始される。
 ステップS506では、撮像条件として指定された範囲の試料断面のチルト画像が撮像される。撮像された画像から得られる画像データが順次、特徴識別器45に入力され、目印パターンの中心座標データが出力される。出力された中心座標データには、ROI1、ROI2、等といったシリアルナンバーが付与され、前述の付帯情報とともにストレージ903に格納される。
 視野探索が終了すると、現在のステージ位置情報と各ROIの中心座標データとから、制御部33により試料ステージ17の移動量が計算され、目印パターン23の位置への視野移動が実行される(ステップS507)。視野移動後、ステップS506で設定した高倍での画像オートキャプチャ条件に従って、最終観察位置での高倍率画像が取得される(ステップS508)。以下、図9Dを用いてステップS508の詳細について説明する。
 図9AのステップS507で目印パターン23の位置への視野移動を行った後、制御部33により、図10Aの最終観察位置設定パネル607で設定した相対位置情報に従って、最終観察位置への視野移動が実行される(ステップS508-1)。次にステップS508-2で、ステージ条件を正対条件に調整する。このステップでは、図10AのGUIの高倍率撮像欄603のラジオボタンを押した状態で設定したステージ条件と、ステップS508-1が終了した時点でのステージ条件(又は視野探索欄602のラジオボタンを押した状態で設定したステージ条件)との差分から、制御部33がステージ移動量を計算し、試料ステージ17を動作させる。
 ステップS508-1とステップS508-2の実行により、観察視野が最終観察位置に移動し、かつ試料断面に対して正対条件となるので、その視野で倍率を拡大する(ステップS508-3)。倍率は図10Aの倍率設定パネル605で設定した途中倍率に従って、1段階ずつ拡大される。
 ステップS508-4で、コンピュータシステム32はフォーカス調整と非点収差の補正処理を行う。補正処理のアルゴリズムとしては、対物レンズや収差補正コイルの電流値を所定の範囲内で掃引しながら画像を取得し、取得画像に対して高速フーリエ変換(FFT)やWavelet変換を行って画像鮮鋭度を評価し、スコアが高い設定条件を導出する方法などが使用できる。必要に応じて他の収差の補正処理を含めてもよい。ステップS508-5で、コンピュータシステム32は拡大後の倍率で撮像を行い、現在の視野での画像データを取得する。
 ステップS508-6で、コンピュータシステム32は、第一の視野ずれ補正を行う。本実施の形態の第一の視野ずれ補正には、画像の水平線の補正処理と視野中心の位置ずれ補正処理が含まれるが、倍率に応じてその他必要な視野ずれ補正処理を行ってもよい。
 まず、水平線の補正処理について説明する。図2Aで示したように本実施の形態での観察試料はクーポン試料であり、目印パターン23が形成されたクーポン試料の上面22(ウェハ表面)と割断面21が存在する。ステージ正対条件での割断面21の断面像において、クーポン試料の上面22はエッジラインとして視認される。そこで本ステップでは、ステップS508-5で取得された画像データからエッジラインを自動で検出し、当該エッジラインが画像内で水平線(視野中心を通る仮想的な水平方向の基準線)と一致するよう取得画像のXZ面内での視野ずれを補正する。具体的には、エッジラインの画像上の位置情報と試料ステージ17の位置情報から、プロセッサ901によりエッジラインの実際の位置座標を導出し、制御部33により第一傾斜軸の回転角を調整し、視野の中央にエッジラインが位置するよう視野を移動する。エッジラインを検出するための画像処理アルゴリズムとしては、Hough変換による直線検出などが使用することができる。また、より検出精度を高めるために、Sobelフィルタなどの処理を施し、エッジラインを強調させる前処理を行ってもよい。
 次に、視野中心の位置ずれ補正処理について説明する。ステップS508-1の視野移動直後には、図10Aの最終観察位置設定パネル607で設定した位置が視野中心に位置しているが、ステップS508-3で観察倍率を拡大すると視野中心がずれる場合がある。そこでコンピュータシステム32は、倍率拡大前の画像から視野中心の周囲で適当なピクセル数分の画像データを抜き出し、この画像データをテンプレートとしてステップS508-5で取得された画像データ上でパターンマッチングを実行する。マッチングで検出された領域の中心座標が本来の視野中心であり、コンピュータシステム32は、当該検出領域の中心座標とステップS508-5で取得された画像データの視野中心の座標の差分を計算し、制御部33に試料ステージ17の制御量として送信する。制御部33は、受信した制御量に従ってX駆動軸またはY駆動軸を駆動し、さらに倍率によっては第二傾斜軸を駆動し、視野中心のずれを補正する。
 なお、コンピュータシステム32が、倍率拡大の過程で得られる画像を教師データとして学習させた別の特徴識別器を備えていれば、テンプレートマッチングを使わずとも、ステップS508-5で取得された画像データを当該別の特徴識別器に直接入力することにより視野中心の座標データを得ることができる。
 また本ステップの視野ずれ補正は、試料ステージ17の調整ではなくイメージシフトにより実行してもよい。その場合、視野ずれの調整量がコンピュータシステム32により電子線のXY方向の走査範囲に関する制御情報に変換され、制御部33に送られる。制御部33は、受け取った制御情報を基に偏向レンズ14を制御し、イメージシフトによる視野ずれ調整を実行する。
 ステップS508-7では、ステップS508-6で実行した第一の視野ずれ補正の調整量が妥当かどうかの判断が行われる。図2Bにおいて、試料20の高さ(図2Aにおいて、割断面21とその対抗面との距離)は既知であるので、第二傾斜軸62の回転中心と割断面21との距離Rも既知である。ステップS508-6で第二傾斜軸62を用いた視野ずれ補正を行う場合、原理的には、第二傾斜軸の62回転角θと距離Rの積Rθが、画像上での視野移動量に等しくなるようにθを調整する。しかしながら、試料ステージ17のウェハ載置面の水平精度や割断面21の傾き(試料形状に起因)等、種々の理由によりRを厳密に正しく計測することは困難である。よって、第一の視野ずれ補正ステップで計算された回転角θがRの精度に起因して不足または過剰である場合がある。また、X駆動軸またはY駆動軸の調整による視野ずれ補正であっても、機械精度の問題等から、視野ずれ補正後の画像において本来の視野中心が視野中心に位置しない場合も発生し得る。妥当でない場合は、ステップS508-8に進み、妥当である場合はステップS508-9に進む。
 ステップS508-8では、第二の視野ずれ補正を実行する。第二の視野ずれ補正では、画像処理によって、不足分または過剰分の回転角θの調整量、またはX駆動軸およびY駆動軸の調整量を求め、試料ステージ17を再調整する。本来の視野中心が視野中心に位置しない場合、ステップS508-8で、指定距離移動の実行前の画像と、移動実行後の画像を比較し、実移動した距離を計測し不足分を加え補正する。視野中に上記処理するための対象物がない場合には倍率を低倍率側に変更し、画像識別可能な対象物を視野内に納めてから上記処理を行う。
 なお、本ステップの第二の視野ずれ補正は、試料ステージ17の調整ではなくイメージシフトを用いて実行してもよい。以上説明した第一の視野ずれ補正処理と第二の視野ずれ補正処理を合わせて「微細調整」(「fine adjustment」)と呼ぶ場合もある。
 ステップS508-9では、現在の撮像倍率が図10Aの倍率設定パネル605で設定した最終観察倍率と一致しているかどうかの判定を行い、一致していれば次のステップS508-10に進む。一致していなければ、ステップS508-3に戻り、ステップS508-3からステップS508-8までの処理を繰り返す。
 ステップS508-10では、図10AのGUI400で設定した高倍画像撮像時の光学条件に変更し、ステップS508-11で当該光学条件に従い撮像を行う。以上でステップS508は終了し、図9AのステップS509に進む。
 ステップS509では、ステップS508で撮像したROIのシリアルナンバーから、視野探索で抽出された全ROIについて最終観察位置での撮像が終了したかどうかの判断が行われ、終了していなければ、ステップS507に戻って次のROIへの視野移動を行う。終了していれば、本実施の形態の自動撮像処理を終了する(ステップS510)。
 自動撮像処理の実行中、図11に示すGUIには自動撮像処理の進行状況を表すステイタスが表示される。ステータスバー618には全ROI数に対する撮像済みROIの割合が表示される。撮像済み画像の明細欄620には、撮像済みないし撮像中の画像のシリアルナンバー、座標(ステージ条件)と、各撮像箇所の目印パターンに対応するROIのシリアルナンバーが表示される。
 このように、走査電子顕微鏡10は、特徴識別器45を用いて自動撮像処理を実行するので、手動での視野探索作業が不要となり、作業効率が向上する。また、特徴識別器45の生成は、注目画像付帯情報541に基づいて行われるので、走査電子顕微鏡10は、注目画像付帯情報541に基づいて自動撮像処理を実行するということができる。このような構成によれば、実際の試料に基づいて自動撮像の動作(ステージ条件、倍率、等)が決定されるので、試料に適した撮像動作を実現することができる。
 図12には、自動撮像処理のシーケンス終了後の主GUI400の様子を示す。主画面401には撮像された高倍画像が表示され、サブ画面407には、主画面401よりも広視野で割断面21のチルト画像が表示されている。イメージリスト領域408には各撮像箇所の高倍画像439がサムネイル表示されている。主画面401に表示された高倍画像は、ウェハ上に形成された加工パターン26の形状が確認できる程度の高倍率の断面像であり、この例では倍率調整欄403に表示された通り拡大倍率は×200kである。また高倍画像の撮像箇所を強調表示するため、サブ画面407には目印パターンと最終撮像位置を示すマーカ438が表示されている。
 以上説明した荷電粒子線装置について、200枚セットの教師データとカスケード分類器を用いて目印パターン23の特徴識別器45を構築し、図9A~図9Dのフローを自動撮像シーケンスとして装置実装した結果、良好な自動断面観察動作が確認された。また、教師画像データの準備に要する手動での作業時間は、従来の完全手動方式では640分かかっていたのに対し、本実施の形態における半自動化方式では5分のみであり、本実施の形態により作業負担を1/128に削減する効果が得られた。
 このように、本実施の形態に係る走査電子顕微鏡10および注目画像データを出力する方法によれば、特徴識別器45の学習に必要な教師画像データを半自動的に生成でき、その結果、試料観察時における視野探索の時間と労力を大幅に削減でき、また断面画像の自動撮像が可能となる。
 本実施の形態では、ステップS305の教師画像データの生成を半自動化する構成を示したが、場合によっては、操作者が手動で教師画像データを追加生成してもよい。その場合にも、図4Aの主GUIが使用可能である。操作者は、主画面401に表示されるチルト画像上で、特徴識別器45に自動検出させたい目印パターン23を含む領域をポインタ409と選択ツール410で選択する。画像の選択や編集を行う場合、操作者は、図4Aに示されるGUIでオペレーションパネル405中の編集ボタン(「Edit」)を押す。このボタンを押すと「切り取り」(「Cut」)や「コピー」(「Copy」)、あるいは「保存」(「Save」)といった画像データの編集ツールが画面表示され、更に主画面401中にポインタ409と選択ツール410が表示される。
 図4Aは一つのROIを選択した状態を示しており、ROI25を示すマーカが主画面401に表示されている。操作者はこれらの編集ツールを用いて、チルト像の画像データから選択領域を切り出し、画像データとしてストレージ903に保存する(図3AのステップS306)。保存された画像データが機械学習に用いる教師画像データとなる。図4Aでは一つのROIしか選択していないが、1枚の画像においてROIを複数選択しても構わない。なお、保存の際には画像データのみならず、例えば倍率や走査条件等の撮像時の光学条件やステージ条件(試料ステージ17の設定に関する条件)等の付帯情報も、ストレージ903に保存することが可能である。
 また、本実施の形態では、図3BのステップS305-3において、ROI画像の追加取得を行い、教師画像データの数量を増加したが、ステップS305-2のROIの選定と登録によって、特徴識別器45の構築に充分な量の教師画像データが得られた場合は、ステップS305-3は必ずしも必要でない。また、ROI画像の追加取得を行った場合には、追加取得に係る画像データだけを教師画像データとすることも可能である(すなわち、ステップS305-2において取得された画像データを用いる必要はない)。このように、特徴識別器45は、ROIの画像データ、または、ROIの追加画像データ、のうち少なくとも一方を含む画像セットを教師データとする機械学習によって生成することが可能である。
 また、本実施の形態では、時系列画像データ50が動画データであることを想定して説明したが、時系列画像データ50は、観察像を一定時間間隔で連続撮像した複数画像のデータセットであってもよい。
 また、本実施の形態では、稼働状態の時系列データ51におけるデータの種類として、ステージX座標、ステージY座標、観察倍率、を収集したが、さらに、その他の状態データとして、ステージの第一チルト角、ステージの第二チルト角、対物レンズの電流情報、スティグマ電流情報、観察中画像の評価値、等を収集してもよい。観察中画像の評価値としては、例えば、画像の高周波成分解析により算出した鮮鋭度、画像の輝度分布から算出した輝度平均または輝度分散といった輝度特徴量、等が利用可能である。
[第2の実施の形態]
 次に、第2の実施の形態に係る走査型電子顕微鏡を説明する。第2の実施の形態は、第1の実施の形態とは異なる構造の試料ステージ17を備えた走査型電子顕微鏡を提案するものである。対象試料や、自動撮像のフローや視野認識機能の構築方法は第1の実施の形態と同じであり、試料ステージ17の構成が異なる。
 図13Aに、試料ステージ17の模式図を示す。本実施の形態では、第二傾斜軸62は図中のZ軸方向に沿って設けられている。さらに、第一傾斜軸61は、第二傾斜軸62が備わった試料ステージ17の下側の基台17Xに設置される。固定治具によって、試料20の上面22は試料ステージ17の上面と直交するように固定される。
 図13Aの状態(X-Z平面が紙面に平行)から、第二傾斜軸62を90°回転させた後の状態(Y-Z平面が紙面に平行)を、図13Bに示す。この配置では、試料20の上面22と第一傾斜軸61が直交する。
 この状態から第一傾斜軸61を回転させることで、電子線12に対して割断面21の傾きを調整できる。また、目印パターン23の探索のためにチルト像を取得する際は、図13Aの状態に戻してから、第一傾斜軸61を回転させることでチルト像が観察できる。なお、図示してはいないが、本実施の形態の試料ステージは、試料載置面をXY方向にそれぞれ独立に移動させるためのX駆動軸、Y駆動軸を備えており、観察視野を試料の長手方向に平行移動させることができる。
[第3の実施の形態]
 次に、第3の実施の形態に係る走査型電子顕微鏡を説明する。本実施の形態では、特徴識別器45を二つ備え、低倍率像での視野探索と高倍率像での視野探索を行う。本実施の形態の自動撮像シーケンスが実行される荷電粒子線装置の全体構成や、操作者が使用するGUIは、第1の実施の形態と同様であるため、以下の説明においては重複する説明は省略する場合がある。必要に応じて図3A~B、図9A~D、図10Aを適宜引用しつつ、相違点を中心に説明する。
 本実施の形態では、特徴識別器45の構築フローは図3Aおよび図3Bに示した第1の実施の形態と同様であるが、自動認識させる対象物が二つある点が異なる。本実施の形態では、低倍率で目印パターン23を自動検出する第一の特徴識別器を第1の実施の形態と同じ方法で構築し、さらに、最終観察倍率で加工パターン26(図12)を自動検出する第二の特徴識別器も、第1の実施の形態と同様の方法で構築する。
 本実施の形態において、自動撮像シーケンスの途中までは図9Aに示すフローと同様である。図9AのステップS506では、構築済の第一の特徴識別器を用いて目印パターン23を目標対象物として視野探索を実行する。本実施の形態では、ステップS508の最終観察位置での高倍率撮像時に実行される処理が、第1の実施の形態と一部異なる。
 図14に、本実施の形態での自動撮像シーケンスの要部のフローチャートを示す。ステップS508-1からステップS508-10までの処理は第1の実施の形態(図9D)のフローチャートと同じである。
 その後、S508-10Aでは、第二の特徴識別器を用いて、加工パターン26を目標物(ROI)として第二の視野探索が実行される。もし、加工パターンにゴミが付着していたり加工パターンの位置が想定とずれていた等の理由により、観察された視野に加工パターン26が見付からない場合(ステップS508-10B:NO)には、試料ステージ17を視野一つ分あるいは予め設定された距離だけ、XあるいはY方向に移動する(ステップS508-10C)。そこで再度、第二の視野探索を実行する(ステップS508-10A)。この処理が、目標物の加工パターン26が確認されるまで繰り返される。もしステップS508-10Aの判定でROIが検出されたら(ステップS508-10B:YES)、ステップS508-11で高倍率の断面画像取得を実行する。
 本実施の形態における、第二の視野探索の設定は、図10AのGUIによって実行できる。図10Aの下段にある、高倍撮像レシピ設定表626には、高倍率観察に用いる第二の特徴識別器を設定するための特徴識別器設定欄623(「Model」)が設けられている。操作者が、予め構築した第二の特徴識別器を特徴識別器設定欄623に設定しておくと、自動撮像シーケンスが実行されたとき、図14のフローチャートの処理に従って、第二の視野探索(ステップS508-10A)が実行される。
 なお、第1の実施の形態のように、第二の視野探索を実行しないシーケンスを用いる場合には、走査者は、高倍率観察の特徴識別器設定欄623には何も設定せず、その上の視野探索設定パネル(「FOV search」)のモデル名入力欄624にのみ、特徴識別器を設定する。
 本実施の形態は、例えば、加工パターンの断面に予期せぬゴミが付着していて、自動撮像した画像で加工パターン形状が見えなくなるような事態を防ぐ場合には有効である。あるいは、割断面21に正対した断面像だけでなく、若干試料を傾斜させたチルト像を高倍率で自動観察する場合にも有効である。高倍率でのチルト像観察では、正対した状態からの試料の傾斜によって、観察場所が視野外になることが多いため、傾斜後の観察視野を自動で探索する機能は、操作者の作業負担軽減に有効である。
[第4の実施の形態]
 次に、第4の実施の形態に係る走査型電子顕微鏡を説明する。本実施の形態では、半導体試料ではなく金属材料組織の観察に本発明を適用した観察手法の例について説明する。
 金属材料組織の断面においては、複数の異相の種類や分布、各相の形状や組成、といった特徴が現れ、操作者はそれらに着目して視野を選択し、観察画像を取得する。構造が複雑な金属組織の場合、着目すべき領域も複数存在することが多い。とりわけ材料開発の実験では、新しい製造条件による金属材料組織を観察するため、どのような組織特徴を有するかは観察して初めて判明するケースが多い。
 このような場合、操作者は、観察試料内の様々な場所を観察し(初回の観察)、どのような組織が形成されているかの全体像をまず把握した上で、着目すべき組織特徴を決め、それが出現している領域を含むような視野で観察像を取得する。着目すべき組織特徴が表れていた位置に再度戻って詳細観察を行なうことも多く、その視野探しに時間を要する。
 また、初回の観察の際に、ある組織特徴が詳細分析に値する組織特徴かどうか迷いつつ観察を進め、結果として詳細分析すべき領域であったと後で判明した場合に、その組織が現れていた位置の記録を忘れて戻れなくなる場合もある。このような材料組織の観察を、限られたマシンタイムの中で効率よく進めるには、操作者が着目した視野を後で抽出できる機能が有効であり、本開示の技術が適用可能である。以下、本実施の形態を説明するが、前提とする装置構成は図1と同様であり、上述の各実施の形態と同じである。
 金属材料の観察例として、図15に、多結晶組織を有する金属材料の多結晶組織71の断面模式図を示す。図示したとおり、この多結晶組織では、主相の他、複数の異相が共存する。このような組織において、操作者は、第1主相81の領域、第1異相91の領域、第2異相92に囲まれた第3異相93の領域、第2異相92に囲まれた第4異相94の領域、単独で存在する第2異相92の領域、形状がくびれた第2主相82の領域、アスペクト比の大きい第3主相83の領域、などの特徴を確認しながら、どの領域が特に詳細分析すべきかを考えつつ、その他の視野に移動しながら試料全体の観察(初回の観察)を進める。
 初回の観察を行う際、本実施の形態において、操作者は図4Aの主GUIにある記録ボタン451を押し、観察中の時系列画像データ50と、装置の稼働状態の時系列データ51の記録を開始する。
 初回の観察が終了したら、操作者は図4BのGUIにある画像抽出ボタン513を押す。その結果、図5で説明したアルゴリズムに従って操作者が着目したと推定される注目画像523が出力される。
 その後は、第1の実施の形態と同様に、図4BのGUIにあるROI選択ボタン514を押して、図4CのROI選定GUIを起動する。そこでROIを選択し、登録した後、図4BのGUIにある設定ボタン521を押して、図4Dの追加撮像を設定するGUIを起動させる。そこで観察倍率の設定を行った後、図4Bの自動収集ボタン515を押すことで、着目組織を含む領域の観察像が自動で取得できる。
 本実施の形態は、第1の実施の形態のように教師画像データの半自動生成が目的ではないが、走査型電子顕微鏡によって注目画像データを出力することにより、金属材料組織の観察においても着目領域の追加観察が自動化でき、操作者の作業負担軽減を実現できる。すなわち、特徴識別器45を生成しない場合であっても、作業負担を軽減することができる。
 なお、本発明は上記の各実施の形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記各実施の形態は本発明をわかりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えることが可能であるし、ある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段などは、それらの一部又は全部を、例えば集積回路で設計する等によりハードウエアで実現してもよい。
 10…走査電子顕微鏡(荷電粒子線装置)
 11…電子銃(撮像ユニット)
 12…電子線
 13…集束レンズ
 14…偏向レンズ
 15…対物レンズ
 16…二次電子検出器(検出器、撮像ユニット)
 17…試料ステージ
 20…試料
 21…割断面
 22…上面
 23…目印パターン
 24…断面観察視野
 25…ROI(関心領域)
 26…加工パターン
 31…像形成部(画像構成器、撮像ユニット)
 32…コンピュータシステム
 33…制御部
 34…画像処理部
 35…表示ユニット
 36…入力部
 44…教師画像データベース
 45…特徴識別器
 50…時系列画像データ
 51…稼働状態の時系列データ
 61…第一傾斜軸
 62…第二傾斜軸
 71…多結晶組織
 81…第1主相
 82…第2主相
 83…第3主相
 91…第1異相
 92…第2異相
 93…第3異相
 94…第4異相
 400…主GUI(グラフィカルユーザーインターフェース)
 523…注目画像(注目画像データ)
 541…注目画像付帯情報
 600…GUI(グラフィカルユーザーインターフェース)
 901…プロセッサ(出力ユニット)

Claims (14)

  1.  荷電粒子線装置であって、
     試料を移動させる試料ステージと、
     前記試料の観察画像データを取得する撮像ユニットと、
     前記荷電粒子線装置の稼働状態を数値化して、稼働状態の時系列データを出力する出力ユニットと、
     前記観察画像データが表示され、かつ、観察用設定パラメータを入力するためのグラフィカルユーザーインターフェースが表示される表示ユニットと、
     前記観察画像データを時系列に並べた時系列画像データを保存し、かつ、前記稼働状態の時系列データおよび前記観察画像データに関する演算処理を実行する、コンピュータシステムと、
    を備え、
     前記稼働状態の時系列データに基づき、予め設定した特定の変動パターンに合致する時刻を自動的に決定し、
     前記時系列画像データから、前記時刻に対応する観察画像データを、注目画像データとして取得して出力する、
    ことを特徴とする、荷電粒子線装置。
  2.  請求項1に記載の荷電粒子線装置において、
     前記撮像ユニットは、
      ‐前記試料に荷電粒子線を照射する電子銃と、
      ‐検出器と、
      ‐画像構成器と、
    を備えることを特徴とする、荷電粒子線装置。
  3.  請求項1に記載の荷電粒子線装置において、
     前記特定の変動パターンは、
      ‐前記試料ステージが所定の第1時間停止しており、かつ前記第1時間中の倍率が固定しているパターン、または、
      ‐前記試料ステージが所定の第2時間停止しており、かつ前記第2時間中に倍率が変化したパターン、
    の少なくとも一つを含むことを特徴する、荷電粒子線装置。
  4.  請求項1に記載の荷電粒子線装置において、
     前記稼働状態の時系列データは、
      ‐前記試料ステージの位置情報、
      ‐前記試料ステージの傾斜角度情報、
      ‐前記試料ステージの回転角度情報、
      ‐観察倍率情報、
      ‐対物レンズの電流情報、
      ‐スティグマ電流情報、
      ‐荷電粒子線の加速電圧情報、
      ‐観察中画像の評価値、
    の少なくとも一つを含むことを特徴とする、荷電粒子線装置。
  5.  請求項4に記載の荷電粒子線装置において、
     前記稼働状態の時系列データは、観察中画像の評価値を含み、
     前記観察中画像の評価値は、
      ‐画像の高周波成分解析により算出された鮮鋭度、または、
      ‐画像の輝度分布に基づいて算出された輝度特徴量、
    の少なくとも一つを含むことを特徴とする、荷電粒子線装置。
  6.  請求項1に記載の荷電粒子線装置において、前記時系列画像データは、動画データであることを特徴とする、荷電粒子線装置。
  7.  請求項1に記載の荷電粒子線装置において、前記時系列画像データは、静止画像データの集合データセットであることを特徴とする荷電粒子線装置。
  8.  請求項1に記載の荷電粒子線装置において、
     前記グラフィカルユーザーインターフェースは、前記注目画像データを表示し、
     前記荷電粒子線装置は、前記グラフィカルユーザーインターフェースを介して、前記注目画像データに係る画像内の関心領域の指定を受け付け、
     前記荷電粒子線装置は、前記関心領域の画像データ、および、前記関心領域の付帯情報を記憶することを特徴とする荷電粒子線装置。
  9.  請求項8に記載の荷電粒子線装置において、前記関心領域の前記付帯情報は、前記関心領域に対応する前記試料ステージの位置情報を含むことを特徴とする、荷電粒子線装置。
  10.  請求項8に記載の荷電粒子線装置において、
     前記関心領域の前記付帯情報は、
      ‐前記試料ステージの傾斜角度情報、
      ‐前記試料ステージの回転角度情報、または、
      ‐観察倍率情報、
    の少なくとも一つを含むことを特徴とする、荷電粒子線装置。
  11.  請求項8に記載の荷電粒子線装置において、
     前記荷電粒子線装置は、前記関心領域の前記付帯情報を用いて、前記関心領域が撮像可能な位置に前記試料ステージを移動し、
     前記荷電粒子線装置は、複数の撮像条件において、前記関心領域の追加画像データを取得し、
     前記複数の撮像条件は、倍率、前記試料ステージの傾斜角度、または、前記試料ステージの回転角度、のうち少なくとも一つが異なる複数の撮像条件を含む、
    ことを特徴とする荷電粒子線装置。 
  12.  請求項11に記載の荷電粒子線装置において、
     前記荷電粒子線装置は特徴識別器を備え、前記特徴識別器は、前記関心領域の画像データ、または、前記関心領域の追加画像データ、のうち少なくとも一方を含む画像セットを教師データとする機械学習によって生成され、
     前記荷電粒子線装置は、前記特徴識別器を用いて自動撮像処理を実行する、
    ことを特徴とする荷電粒子線装置。
  13.  請求項1に記載の荷電粒子線装置において、前記注目画像データの付帯情報に基づいて自動撮像処理を実行することを特徴とする、荷電粒子線装置。
  14.  荷電粒子線装置によって注目画像データを出力する方法であって、
     前記荷電粒子線装置は、
     試料を移動させる試料ステージと、
     前記試料の観察画像データを取得する撮像ユニットと、
     前記荷電粒子線装置の稼働状態を数値化して、稼働状態の時系列データを出力する出力ユニットと、
     前記観察画像データが表示され、かつ、観察用設定パラメータを入力するためのグラフィカルユーザーインターフェースが表示される表示ユニットと、
     前記観察画像データを時系列に並べた時系列画像データを保存し、かつ、前記稼働状態の時系列データ、および前記観察画像データに関する演算処理を実行する、コンピュータシステムと、
    を備え、
     前記方法は、
     前記稼働状態の時系列データに基づき、予め設定した特定の変動パターンに合致する時刻を自動的に決定するステップと、
     前記時系列画像データから、前記時刻に対応する観察画像データを、注目画像データとして取得して出力するステップと、
    を備えることを特徴とする、方法。
PCT/JP2022/023817 2022-06-14 2022-06-14 荷電粒子線装置および注目画像データを出力する方法 WO2023242954A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/023817 WO2023242954A1 (ja) 2022-06-14 2022-06-14 荷電粒子線装置および注目画像データを出力する方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/023817 WO2023242954A1 (ja) 2022-06-14 2022-06-14 荷電粒子線装置および注目画像データを出力する方法

Publications (1)

Publication Number Publication Date
WO2023242954A1 true WO2023242954A1 (ja) 2023-12-21

Family

ID=89192679

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/023817 WO2023242954A1 (ja) 2022-06-14 2022-06-14 荷電粒子線装置および注目画像データを出力する方法

Country Status (1)

Country Link
WO (1) WO2023242954A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013030278A (ja) * 2011-07-26 2013-02-07 Hitachi High-Technologies Corp 荷電粒子線装置
JP2020129439A (ja) * 2019-02-07 2020-08-27 株式会社日立製作所 情報処理システムおよび情報処理方法
JP2020161470A (ja) * 2019-03-25 2020-10-01 日新イオン機器株式会社 イオンビーム照射装置及びイオンビーム照射装置用プログラム
US20210239952A1 (en) * 2018-05-30 2021-08-05 Carl Zeiss Microscopy Gmbh Method, computer program product, computer-readable medium and system for scanning partial regions of a sample using a scanning microscope
WO2021199235A1 (ja) * 2020-03-31 2021-10-07 株式会社日立ハイテク 荷電粒子線装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013030278A (ja) * 2011-07-26 2013-02-07 Hitachi High-Technologies Corp 荷電粒子線装置
US20210239952A1 (en) * 2018-05-30 2021-08-05 Carl Zeiss Microscopy Gmbh Method, computer program product, computer-readable medium and system for scanning partial regions of a sample using a scanning microscope
JP2020129439A (ja) * 2019-02-07 2020-08-27 株式会社日立製作所 情報処理システムおよび情報処理方法
JP2020161470A (ja) * 2019-03-25 2020-10-01 日新イオン機器株式会社 イオンビーム照射装置及びイオンビーム照射装置用プログラム
WO2021199235A1 (ja) * 2020-03-31 2021-10-07 株式会社日立ハイテク 荷電粒子線装置

Similar Documents

Publication Publication Date Title
CN114041200B (zh) 对在电子显微镜下研究的样品的漂移校正的自动化应用
JP5715873B2 (ja) 欠陥分類方法及び欠陥分類システム
JP5412169B2 (ja) 欠陥観察方法及び欠陥観察装置
US10318805B2 (en) Pattern matching method and apparatus
JP4223979B2 (ja) 走査型電子顕微鏡装置及び走査型電子顕微鏡装置における装置としての再現性能評価方法
US20080298670A1 (en) Method and its apparatus for reviewing defects
EP2565914A1 (en) Semiconductor fault analysis device and fault analysis method
JP5320329B2 (ja) Sem式欠陥観察装置および欠陥画像取得方法
WO2000003413A1 (fr) Procede et dispositif d'observation d'un objet
US11902665B2 (en) Automated application of drift correction to sample studied under electron microscope
JP2010108797A (ja) 試料観察方法、及び電子顕微鏡
JP5977200B2 (ja) 電子顕微鏡および電子顕微鏡制御方法
WO2023242954A1 (ja) 荷電粒子線装置および注目画像データを出力する方法
JP4709168B2 (ja) レポート検索方法,レポート検索システム、およびレビュー装置
JPH08313217A (ja) 非接触画像計測システム
TWI847205B (zh) 帶電粒子線裝置
WO2023021540A1 (ja) 荷電粒子線装置
WO2012153456A1 (ja) 欠陥レビュー装置
JP4795146B2 (ja) 電子ビーム装置,プローブ制御方法及びプログラム
JP2010283088A (ja) ウェーハ外観検査装置
JP2017003305A (ja) 欠陥画像分類装置
CN114270182A (zh) 带电粒子束装置
TWI822126B (zh) 試料觀察裝置、試料觀察方法及電腦系統
WO2024053043A1 (ja) 寸法計測システム、推定システム、および寸法計測方法
JP2015007587A (ja) 試料観察装置用のテンプレート作成装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22946774

Country of ref document: EP

Kind code of ref document: A1