WO2010050136A1 - 試料観察方法、及び電子顕微鏡 - Google Patents

試料観察方法、及び電子顕微鏡 Download PDF

Info

Publication number
WO2010050136A1
WO2010050136A1 PCT/JP2009/005430 JP2009005430W WO2010050136A1 WO 2010050136 A1 WO2010050136 A1 WO 2010050136A1 JP 2009005430 W JP2009005430 W JP 2009005430W WO 2010050136 A1 WO2010050136 A1 WO 2010050136A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
view
imaging
sample
area
Prior art date
Application number
PCT/JP2009/005430
Other languages
English (en)
French (fr)
Inventor
藤澤亜希子
小林弘幸
中澤英子
Original Assignee
株式会社 日立ハイテクノロジーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 日立ハイテクノロジーズ filed Critical 株式会社 日立ハイテクノロジーズ
Priority to EP09823250A priority Critical patent/EP2343727A4/en
Priority to US13/126,638 priority patent/US9013572B2/en
Publication of WO2010050136A1 publication Critical patent/WO2010050136A1/ja
Priority to US14/657,428 priority patent/US20150185455A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/22Optical or photographic arrangements associated with the tube
    • H01J37/222Image processing arrangements associated with the tube
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders
    • G02B21/008Details of detection or image processing, including general computer control
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/26Electron or ion microscopes; Electron or ion diffraction tubes
    • H01J37/28Electron or ion microscopes; Electron or ion diffraction tubes with scanning beams
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/22Treatment of data
    • H01J2237/221Image processing
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/22Treatment of data
    • H01J2237/226Image reconstruction

Definitions

  • the present invention relates to an imaging method of an electron microscope, and more particularly to an electron microscope which images a continuous field of view a plurality of times and connects the fields of view in order to record a wide area with high resolution.
  • Patent Document 1 discloses a method for performing continuous field imaging.
  • the imaging process is automatically synchronized with the movement of the visual field (stage movement) by designating in advance the imaging magnification and the number of times of imaging (the number of imaging in the vertical and horizontal directions) and the overlapping amount of adjacent visual fields.
  • stage movement designating in advance the imaging magnification and the number of times of imaging (the number of imaging in the vertical and horizontal directions) and the overlapping amount of adjacent visual fields.
  • Patent Document 2 by specifying the vertex coordinates of the entire area of the continuous visual field to be imaged, the number of times of imaging is automatically calculated and a method of performing imaging processing in synchronization with visual field movement (stage movement) automatically. It has been described. Moreover, in patent document 1, it is shown also about the function which displays the visual field area
  • An electron microscope image is selectively acquired based on the required field of view setting along the shape of the observation object by arranging the field of view after setting the necessary outlines for the observation object having various shapes. Is possible.
  • 6 is a flowchart illustrating an operation of continuous field imaging.
  • 6 is a flowchart illustrating an operation of continuous field imaging.
  • the figure explaining the method of extracting the boundary of the target object which corresponds with the pattern registered beforehand, and setting a continuous view imaging area.
  • FIG. 7 is a diagram for describing a method of efficiently organizing captured image data in each visual field area.
  • TEM transmission electron microscope
  • FOV fields of view
  • the set of arranged FOVs becomes a square or rectangular shape, for example, an object Is elongated and obliquely present, or in the case where continuous visual fields to be processed are connected in a curvilinear manner, etc.
  • it is inefficient because an unnecessary visual field is imaged. That is, when an image was taken using a film, a CCD device or the like for recording an unnecessary imaging process and an unnecessary imaging process time, it was necessary to secure a sufficient memory capacity for image data.
  • the imaging area has a rectangular shape
  • the visual field is moved in the longitudinal and lateral directions of the imaging area so as to have a predetermined overlapping amount. That is, the direction of movement of the visual field coincides with the longitudinal and lateral directions of the imaging region. That is, since the fields of view are continuously arranged in the vertical and horizontal directions, the fields of view are arranged to unnecessary portions, which is inefficient.
  • an input means capable of designating a plurality of visual field positions continuously or continuously so as to display the entire visual field area as a target and include the area necessary for each imaging. Become.
  • means for displaying each imaging area on the display in an overlapping manner is provided, and each area is subjected to display control to make the display different every time imaging is completed, thereby visualizing the confirmation of each imaging view and the imaging processing. it can.
  • each field of view can be efficiently imaged continuously. That is, the time required to perform unnecessary imaging processing can be shortened, the film for recording unnecessary imaging results is eliminated, and when imaging is performed using a CCD element etc., a memory capacity for image data is unnecessarily secured. There is no need to For this reason, the work of connecting complicated image data is also only the minimum necessary data, and becomes an efficient work.
  • FIG. 1 is an example showing the configuration of an electron microscope.
  • an electron beam emitted from an electron gun 1 is focused by an irradiation lens 2 and irradiated to a sample 3 held by a sample stage.
  • the electron beam transmitted through the sample 3 is expanded by the imaging lens system 4 and imaged on a scintillator in the fluorescent plate 5 or the imaging device 6.
  • the magnified image formed on the scintillator is imaged by an imaging device such as a CCD via an optical lens or a fiber plate in the imaging device and converted into an electrical signal (image signal).
  • the image signal is read by the PC 11 through the interface 9 c and displayed on the monitor 14 as an image. At this time, the image signal output via the interface 9 c can be stored as image data in the memory 12 by the PC 11.
  • the control entity of the TEM may be simply referred to as a "control device".
  • a memory 12 Connected to the PC 11 are a memory 12, an arithmetic unit 13, and an input device 10 such as a keyboard or a mouse used to specify conditions, and a monitor 14.
  • the sample stage drive unit 7 for holding and moving the sample 3 is controlled by the PC 11 via the interface 9a.
  • the PC 11 also controls an electron gun 1, an irradiation lens 2, an imaging lens system 4, and the like.
  • the observation magnification M can be set so that the entire target area of the sample 3 can be confirmed, and the sample stage drive unit 7 is moved so that the desired visual field area becomes the imaging range.
  • the coordinate position of the sample stage drive unit 7 is read by the stage position detector 8 connected to the sample stage drive unit 7 in synchronization with the sample stage drive unit 7 and transmitted to the PC 11 via the interface 9 b. Ru.
  • the PC 11 stores parameters for controlling the driving conditions of the sample stage, such as the movement amount of the sample stage, the overlapping amount of adjacent fields, the number of images of continuous field images, and the specification of the imaging range. ing.
  • an image from which the entire target area can be confirmed is displayed on a monitor, and the display image is used to A continuous vision area is determined by a method of tracing, or a method of specifying a plurality of arbitrary positions on the boundary of an object as shown in FIG. 3 and performing interpolation calculation between the specified positions, and determining the boundary of the area only
  • a method of imaging by controlling the stage or controlling the electron beam deflector so as to provide a continuous field of view with a predetermined magnification and an overlap amount over the entire area will be described with reference to the flowchart of FIG.
  • FIG. 2a an arbitrary field of view in which the entire target area can be confirmed on the monitor 14 is obtained as shown in FIG. 2a.
  • a continuous field of view imaging area as shown in FIG. 2c is output to the monitor 14, and a continuous field image of only the boundary or the entire area is imaged.
  • FIG. 3a an arbitrary field of view in which the entire target area can be confirmed on the monitor 14 is obtained as shown in FIG. 3a.
  • FIG. 3b when a plurality of arbitrary positions on the boundary of the object are specified, the continuous-field imaging region is output on the monitor 14 as shown in FIG. 3c, and only the boundary or the entire region is output. Take a continuous field of view image.
  • step 101 continuous-field imaging conditions are set.
  • the operator inputs an arbitrary imaging magnification M ′ of the continuous field image and the overlapping amount ⁇ N pixel of the visual field.
  • the operation at this time is performed using an input device 10 such as a keyboard and a mouse.
  • an arbitrary magnification M can be set so that the entire target area can be confirmed, and while looking at the image of the sample 3 displayed on the monitor 14, using the input device 10 such as a keyboard or mouse, Trace the boundaries of objects (contours). Alternatively, a plurality of arbitrary positions on the boundary of the object are designated.
  • the trace or arbitrarily designated coordinates are (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ), ..., (x m , y m ) (where x j , y j is an integer, and the unit is “pixel” in the coordinate system on the image data, and is stored in the memory 12.
  • step 103 the entire area of the imaging field of view is output on the monitor 14.
  • the boundary of the target area is a closed curve, it is approximated by an arbitrary plurality of divided curves, and repetition is performed for the number obtained by dividing steps 104 to 115, and the captured continuous visual field images are combined to form one image. You may output it.
  • the least-squares method minimizes the sum of squares of residuals so that the assumed function is a good approximation to the measured value when the set of numerical values obtained by the measurement is approximated using a specific function. It is a method of determining such coefficients.
  • the calculated values for each x j are (x 0 , f (x 0 )), (x 1 , f (x 1 )), (x 2 , f (x 2 )), ..., (x m , Then f (x m )) and the sum of squares of residuals with the actual measured value y j is
  • any method may be used as this method of curve interpolation.
  • step 105 the specified plurality of points (x 1, y 1), (x 2, y 2), (x 3, y 3), ..., (x m, y m) ( where, x j, y j is The minimum value and the maximum value of x in integers and the coordinate system on the image data are extracted and set as x min and x max respectively.
  • step 108 the stage drive unit 7 moves to stage coordinates (X, Y) calculated below to perform continuous field imaging.
  • stage coordinates (X, Y) are (X 0 , Y 0 ) stage coordinates, M as imaging magnification, imaging pixels as observation conditions for confirming the entire range in which continuous field image imaging is performed in step 102
  • N N pixels
  • L L pixels
  • step 109 the PC 11 performs imaging after changing to the arbitrary imaging magnification M ′ of the continuous field image set in step 101.
  • step 111 it is determined whether x e calculated in step 110 is larger than x max . If so, the process proceeds to step 116 and imaging is finished. If it is smaller, the process proceeds to step 112.
  • step 114 for d obtained in step 113
  • the movement destination to the next field of view of the continuous field of view is calculated each time imaging is completed. Therefore, the imaging area of each field of view can not be confirmed before the imaging process starts. In order to make this possible, it is sufficient to calculate the moving destination to each field of view before the start of imaging.
  • the coordinate position of (x (j) ', y (j) ') is the visual field movement destination, which is converted to the stage coordinate system (X, Y) to perform visual field movement.
  • FIG. 14 is a diagram for explaining another example of an algorithm for automatically determining the position of the FOV.
  • an example in which a location away from a field of view (FOV) by a distance r is set as the next FOV is described.
  • Expression (7) is an approximate expression obtained by approximating the contour of the object to be observed.
  • r is a value relating to the distance from the center coordinates of the first FOV.
  • the minute intersection point is obtained, and stage coordinates and the like are set such that the intersection point is at the center of the second FOV.
  • the distance r is desirable to less than the distance of one side of the FOV in order to form an overlapping region between the FOVs. Specifically, it is desirable to set (the dimension value of one side of the FOV-the dimension value of the desired overlapping area). In addition, it is desirable that the size of the overlapping region can be arbitrarily set according to the purpose of observation, observation conditions, and the like.
  • the contour such as a microorganism includes many curves and the like and it is an observation target whose determination of the visual field position is difficult, setting of the visual field to an appropriate position and an appropriate distance between the visual fields It is possible to acquire a continuous field image based on the setting of the overlapping area.
  • the overlapping portion is provided to properly connect the visual field images.
  • the overlapping portions are set larger than necessary, the number of acquired visual field images increases, which also contributes to a delay in observation time. Therefore, hereinafter, a setting method will be described in which the overlapping portion has an appropriate size while securing the size of the overlapping region of a certain degree or more.
  • the operation is retried to adjust the overlapping portion. More specifically, the distance between the FOVs is increased to reduce the area of the overlapping portion. For example, in the case of FIG. Xx, it is conceivable to adjust the distance between the FOVs according to the ratio of ⁇ x and ⁇ y.
  • the distance between FOVs is adjusted to unify the length of the outline in the overlapping region, and the same distance as when the FOVs are linearly arranged in the horizontal direction or the vertical direction
  • the above adjustment may be performed when the length of the outline in the overlapping portion exceeds a predetermined value, or the length of the outline in the overlapping area is always adjusted to a predetermined value. You may do it.
  • any part of the biological sample may be selected, and the other part may be automatically selected. More specifically, it is conceivable to assign the FOV positions at equal distances so as to interpolate between the selected points after selecting the desired point. In such a case, the r value may be determined in accordance with the FOV size determined based on the desired observation magnification as well as the interpolation distance.
  • FOV may be assigned using different r-values for each part of the contour of the sample (or for each type of approximate curve approximating the contour).
  • the movement of the visual field position with respect to the determined position is, for example, the relationship between the observation magnification of the electron microscope, the coordinate information of the pixels on the image, and the visual field movement amount by the stage and / or the deflector when a predetermined signal is supplied.
  • the control is performed by controlling the stage and / or the deflector based on the information registered in advance in a storage medium incorporated in the control device.
  • an image of an arbitrary object is taken at an arbitrary magnification M at which the entire region of interest can be confirmed, and the image is subjected to image processing such as binarization to obtain an outline of the object.
  • image processing such as binarization to obtain an outline of the object.
  • FIG. 6a an arbitrary field of view in which the entire target area can be confirmed on the monitor 14 is obtained as shown in FIG. 6a.
  • image processing is performed and extraction of boundaries (contours) is performed, a form as shown in FIG. 6b is obtained, and a continuous view imaging region as shown in FIG. 6c is displayed. Only the boundaries of the object or the entire region is displayed. Take a continuous field of view image.
  • step 201 setting of continuous-field image capturing conditions is performed.
  • the operator inputs an arbitrary imaging magnification M ′ of the continuous field image and the overlapping amount ⁇ N pixel of the visual field.
  • the operation at this time is performed using an input device 10 such as a keyboard and a mouse.
  • step 202 while viewing the image of the sample 3 displayed on the monitor 14, the sample is set to an arbitrary magnification M that allows the entire target area to be confirmed, and the sample is set so that the desired part is in the imaging range.
  • the stage drive unit 7 is moved.
  • the coordinate position of the sample stage drive unit 7 is read by the position detector 8 connected to the sample stage drive unit 7 and transmitted to the PC 11 via the interface 9b.
  • An image of an arbitrary object is acquired using the imaging device 6, and stored in the memory 12 via the interface 9c.
  • step 203 the arithmetic unit 13 reads out the image data acquired in step 202 from the memory 12, performs image processing such as sharpness, edge enhancement, contrast adjustment, and binarization processing, and in step 204, a boundary (contour) Extraction of
  • step 205 the coordinate position of the extracted boundary (outline) in step 204 (x 1, y 1) , (x 2, y 2), (x 3, y 3), ..., (x m, y m) (X, y are integers) and stored in the memory 12.
  • step 206 the arithmetic processing unit 13 continuously executes the imaging magnification M ′ input in step 201 and the overlap amount ⁇ N pixel of the visual field and the coordinates read in step 205 so that the continuous field image imaging range can be confirmed on the monitor 14.
  • the field of view imaging area is calculated and output on the monitor 14. You may superimpose and display the image which can confirm the whole area
  • imaging of a continuous field image is performed.
  • the imaging of the continuous field image is performed using the same method as the flowchart of FIG. 5 described above.
  • the imaging of the continuous field of view ends. Further, as a substitute for the above-described method of performing stage control and capturing a continuous field image, imaging can also be performed by a method of controlling an electron beam deflector.
  • an image of an arbitrary object is taken at an arbitrary magnification M at which the entire target area can be confirmed, an area matching the pattern registered in advance is extracted, and a continuous visual field image imaging area is determined Do.
  • a method of imaging by controlling the stage automatically or controlling the electron beam deflector so that only the boundary of the area or the entire area becomes a continuous field-of-view image with a predetermined magnification and overlap amount will be described using the flowchart of FIG. .
  • step 301 setting of continuous-field image imaging conditions is performed.
  • the operator registers an arbitrary imaging magnification M ′ of the continuous field image, an input of the overlapping amount ⁇ N pixel of the field, and an arbitrary pattern for imaging the continuous field image.
  • the operation at this time is performed using an input device 10 such as a keyboard and a mouse.
  • the pattern can be set according to conditions such as the angle between the sides, the ellipticity, and the ratio of the major axis to the minor axis.
  • the shape stored in advance in the memory 12 may be called and set.
  • step 302 while viewing the image of the sample 3 displayed on the monitor 14, the sample stage drive unit is set to an arbitrary magnification factor M that allows the entire target area to be confirmed and the desired part becomes the imaging range.
  • Move 7 At this time, in synchronization with the sample stage drive unit 7, the coordinate position of the sample stage drive unit 7 is read by the position detector 8 connected to the sample stage drive unit 7 and transmitted to the PC 11 via the interface 9b. .
  • An image of an arbitrary place is acquired using the imaging device 6 and stored in the memory 12 via the interface 9 c.
  • the arithmetic unit 13 performs pattern matching between the image data captured in step 302 and the shape registered in advance in step 301.
  • step 304 the form determined to be identical to the shape registered in advance by pattern matching is extracted.
  • step 305 the arithmetic unit 13 performs image processing such as sharpness, edge enhancement, contrast adjustment, and binarization processing on the area extracted in step 304.
  • step 306 the boundaries (contours) in the corresponding area are extracted.
  • step 307 the coordinate position of the extracted boundary (outline) in step 306 (x 1, y 1) , (x 2, y 2), (x 3, y 3), ..., (x m, y m) (X, y are integers) and stored in the memory 12.
  • step 308 the continuous processing of visual field is performed by the arithmetic processing unit 13 from the imaging magnification M 'input in step 301 and the overlap amount ⁇ N pixel of the visual field and the coordinates read in step 306 so that the continuous visual field image imaging range can be confirmed on the monitor 14.
  • the image capture area is calculated and output on the monitor 14.
  • imaging of a continuous field image is performed.
  • the imaging of the continuous field image is performed using the same method as the flowchart of FIG. 5 described above.
  • step 310 the imaging of the continuous field of view ends. Further, as a substitute for the above-described method of performing stage control and capturing a continuous field image, imaging can also be performed by a method of controlling an electron beam deflector.
  • FIG. 10 an image of an arbitrary object is displayed on a monitor at an arbitrary magnification M at which the entire visual field for continuous field imaging can be confirmed, and an imaging area calculated from a predetermined magnification and an overlapping amount is displayed on the monitor Display grid on.
  • a flowchart of FIG. 11 shows a method of designating an arbitrary imaging region with a cursor or a mouse and controlling the stage or controlling the electron beam deflector so that the designated region becomes a continuous field of view with a predetermined magnification and an overlap amount. It demonstrates using.
  • step 401 setting of continuous-field image imaging conditions is performed.
  • the operator inputs an arbitrary imaging magnification M ′ of the continuous field image and the overlapping amount ⁇ N pixel of the visual field.
  • the operation at this time is performed using an input device 10 such as a keyboard and a mouse.
  • step 402 while viewing the image of the sample 3 displayed on the monitor 14, the sample is set to an arbitrary magnification M with which the entire target area can be confirmed, and the desired portion is the imaging range.
  • the stage drive unit 7 is moved.
  • the coordinate position of the sample stage drive unit 7 is read by the position detector 8 connected to the sample stage drive unit 7 and transmitted to the PC 11 via the interface 9b. .
  • step 403 An image of an arbitrary place is acquired using the imaging device 6 and stored in the memory 12 via the interface 9 c.
  • the continuous-field image capturing area is calculated by the arithmetic processing unit 13 from the imaging magnification M ′ input in step 401 and the overlap amount ⁇ N pixel of the fields so that the continuous-field image capturing area can be confirmed on the monitor 14 It is displayed on the monitor 14.
  • the imaging region may be displayed as a grid line or the like.
  • a desired imaging region is designated by a cursor or a mouse. The operation at this time is performed using an input device 10 such as a keyboard and a mouse.
  • the designated area is displayed on the monitor 14 so as to be differentiated from the non-designated view.
  • step 405 the stage control or the electron beam deflector is automatically controlled and imaged so that the area designated in step 404 has a continuous field of view with the predetermined magnification and overlap amount input in step 401.
  • the following control configuration is used when considering the damage to the sample due to the irradiation electron beam, the drift of the sample and the stage, and the vibration of the stage.
  • it is necessary to sequentially move the field of view to be taken to the next field of view every imaging in the process of imaging a continuous field of view, when moving the field of view at that time, in order to reduce electron beam irradiation to the sample.
  • It has means to control the electron beam irradiation that controls only the imaging time by controlling the bias voltage of the electron gun so as to block the line, or by controlling the deflection so that the sample is not irradiated by the electron beam deflector.
  • control means for irradiating from weak electron beam intensity to suppress sample drift and gradually setting to predetermined electron beam intensity to be imaged are provided. Also in the means for moving the field of view, it is possible to move the stage drive and the electromagnetic field of view in combination or independently according to the imaging magnification and the movement amount in order to suppress vibration due to sample drift or stage movement. Furthermore, after moving the field of view so as to reduce the influence of sample drift and stage vibration, it is configured to have means for setting a waiting time until imaging starts and means for delaying the imaging start by the time.
  • the imaging sequence of continuous view has been described with the imaging magnification and imaging conditions (camera sensitivity, threshold, focus, etc.) fixed, but these combinations may be set in advance as configurable.
  • Various image data can be acquired more efficiently. That is, in the case where it is desired to observe and record a continuous visual field with higher resolution, an input unit capable of setting a plurality of imaging magnifications and a magnification varying unit are provided. In this configuration, the movement of the field of view is performed based on the maximum imaging magnification, and it is determined whether it is necessary to perform imaging at the magnification set by the field of view position.
  • Imaging is performed once at a magnification that allows confirmation of the entire visual field area to be imaged, and captured as image data (FIG. 12 a).
  • a sequence number (or a symbol) when each field of view is imaged at a predetermined magnification is stored as part of captured image data or file name of each field of view.
  • the image data of FIG. 12A is superimposed on the frame indicating the imaging area in each field of view and the sequence number in that frame (FIG. 12b) and the function of displaying on the monitor and storing the image data
  • the efficiency is improved when the images are reconfirmed in each field of view or rejoined as a continuous field of view.
  • the coordinates of the visual field movement destination which is the center of each visual field area to be imaged, are automatically calculated to perform visual field movement and imaging.
  • the imaging position in each field of view is automatically determined, when the imaging area is displayed in a grid as shown in FIG. 10, the light color area as shown in FIG. There is only a small amount.

Landscapes

  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

本発明の試料観察方法は、電子顕微鏡像上において、試料(3)上の観察対象の輪郭線或いは当該輪郭上に位置する複数の点を設定する行程と、当該輪郭線に沿って電子顕微鏡の複数の視野を配列する行程とを備え、前記観察対象の形状に沿って前記各行程により設定及び配列された前記複数の視野の電子顕微鏡像を取得する試料観察方法である。これにより、種々の形状を有する観察対象に対し、観察対象の形状に沿った視野設定に基づく電子顕微鏡像を選択的に取得することが可能な試料観察方法、及び当該試料観察方法を実現する電子顕微鏡装置の提供が可能になった。

Description

試料観察方法、及び電子顕微鏡
 本発明は電子顕微鏡の撮像方法に係り、特に広い領域を解像度良く記録するために連続する視野を複数回、撮像して各視野をつなぎ合わせる電子顕微鏡に関するものである。
 電子顕微鏡において、広い領域を解像度良く記録するために、所望の解像度となる高倍率で連続する視野を複数回、撮像し各視野をつなぎ合わせて一枚の画像に構成する連続視野撮像(つなぎ写真)を行う手法がある。この連続視野撮像を行うための手法が、特許文献1に開示されている。
 特許文献1には、予め、撮像倍率と撮像回数(縦および横方向の撮像枚数)と隣接する視野の重なり量を指定することによって、自動的に視野移動(ステージ移動)と同期して撮像処理を行う方式が提示されている。
 また、特許文献2では撮像する連続視野全体の領域の頂点座標を指定することで、自動的に撮像回数を算出するとともに自動的に視野移動(ステージ移動)と同期して撮像処理を行う方式を記載してある。また、特許文献1においては、連続撮像する視野領域を表示する機能についても提示されている。
特開昭61-126750号公報 特開平4-184849号公報
 特許文献1,2共に、観察対象を包含する矩形、或いは矩形形状の組み合わせによって形成される領域内を掃引するように、複数の撮像視野を設定すると共に、各視野間を重ね合わせる例が説明されている。しかしながら、このような手法では、上記領域内を漏れなく撮像することになるため、本来含む必要のない領域まで、撮像視野を設定することになり、効率が悪い。
 以下に、観察対象となる試料の観察に要する個所に対し、選択的に観察視野を割り当てることを目的とする試料観察方法、及び電子顕微鏡について説明する。
 上記目的を達成するために、以下に電子顕微鏡像上にて輪郭線、或いは当該輪郭上に位置する複数の点を設定する行程と、当該輪郭線に沿って電子顕微鏡の複数の視野を配列する行程を備えた試料観察方法、及び当該方法を実現するための装置を提案する。
 種々の形状を有する観察対象に対し、必要な輪郭線を設定した上で、視野を配列することで、観察対象の形状に沿った必要な視野設定に基づく電子顕微鏡像を選択的に取得することが可能となる。
 上記構成によれば、観察対象の形状に依らず、適切に複数の視野の配列を行うことが可能となるので、必要な視野像を効率良く取得することが可能となる。
透過電子顕微鏡の構成の一例を説明する図。 対象物の境界をトレースし連続視野撮像領域を設定する方法を説明する図。 対象物の境界上の任意位置を複数点指定し連続視野撮像領域を設定する方法を説明する図。 連続視野撮像の動作を説明するフローチャート。 連続視野撮像の動作を説明するフローチャート。 対象物の境界を抽出して連続視野撮像領域を設定する方法を説明する図。 対象物の境界を抽出して連続視野撮像を行う方法を説明するフローチャート。 予め登録したパターンと一致する対象物の境界を抽出し連続視野撮像領域を設定する方法を説明する図。 予め登録したパターンと一致する対象物の境界を抽出して連続視野撮像を行う方法を説明するフローチャート。 グリッド表示した連続視野撮像領域から所望の撮像領域を指定し、連続視野撮像を行う方法を説明する図。 グリッド表示した連続視野撮像領域から所望の撮像領域を指定し、連続視野撮像を行う方法を説明するフローチャート。 各視野領域での撮像画像データを効率良く整理する方法について説明する図。 自動的に算出された撮像視野位置を再設定する機能を説明する図。 自動的に連続視野位置を決定する一手法の原理を説明する図。 視野間の重なり領域の大きさを調整する手法の一例を説明する図。
 以下に、低倍率像(第1の画像)上にて、高倍率像(第2の画像)の視野を設定を行う方法、及びそれを実現するための透過電子顕微鏡(Transmission Electron Microscope:TEM)、及び上記方法を実行するためのコンピュータプログラムについて説明する。
 低倍率像上にて、縦方向及び横方向に連続的に視野(Field Of View:FOV)を配列する場合、その配列されたFOVの集合は、正方形、或いは長方形の矩形状となり、例えば対象物が細長くて斜め方向に存在している場合や対象としている連続する視野が曲線状に繋がっている場合などは、不必要な視野を撮像してしまうため非効率である。つまり、不必要な撮像処理を行うだけの時間と不必要な撮像結果を記録するフィルムやCCD素子等を用いて撮像した場合には画像データ用のメモリ容量を充分に確保しなければならなかった。また、連続している視野領域をどのような視野ごとに撮像されているかの表示機能がなく事前に確認することができなかった。さらに繰り返しの撮像処理の進捗を確認することができなかった。
 撮像領域が長方形の形状であるために、連続する視野を撮像していく場合には、この撮像領域の縦および横方向に所定の重なり量となるように視野移動を行っていた。すなわち、視野移動の方向が撮像領域の縦および横方向に一致していた。即ち視野が縦横に連続的に配列されているが故に、不要な部分にまで視野を配置してしまうことになり、非効率であった。
 本実施例では、低倍率像上にて、輪郭線、或いは当該輪郭に沿って複数の点を設定することで、高倍率像の視野を必要な個所に適切に配列させることが可能となる。更にこの視野移動の方向は、試料ステージ制御による方式や電磁的に電子線を偏向して視野移動を行う方式にしても任意方向で移動可能であるので、視野移動の方向を視野ごとに指定できる手段を設けることで任意の方向で隣接する視野が所定の重なり量を確保して連続した視野を撮像することができる。
 視野移動の方向を指定できる手段としては、対象とする全視野領域を表示させて各撮像に必要な領域が含まれるように視野位置を複数点または連続で指定できる入力手段を設けることで可能となる。また、各撮像領域を前記表示と重ね表示する手段を設け、各領域が撮像完了の都度、該表示を異ならせる表示制御とすることで各撮像視野の確認と撮像処理の進捗を可視化することができる。
 以上のような構成によれば、対象物の形状に沿って視野の移動方向を変化することができるので、各視野を効率的に連続撮像することができる。すなわち、不必要な撮像処理を行うだけの時間を短縮でき、不必要な撮像結果を記録するフィルムを無くし、CCD素子等を用いて撮像した場合には画像データ用のメモリ容量を不必要に確保する必要がなくなる。このために煩雑な画像データをつなぎ合わせる作業も必要最低限のデータだけとなり効率的な作業となる。
 また、連続視野の撮像処理の回数,各撮像視野位置,進捗状況が可視化されて認識できることは、操作性向上につながる。
 図1は、電子顕微鏡の構成を示した一実施例である。
 以下の説明はTEMに関するものであるが、他の電子顕微鏡(走査電子顕微鏡(Scanning Electron Microscope:SEM),走査透過電子顕微鏡(Scanning Transmission Electron Microscope:STEM))への適用も可能である。
 図1において、電子銃1より放出された電子線は、照射レンズ2によって集束され、試料ステージに保持されている試料3に照射される。該試料3を透過した電子線は、結像レンズ系4によって拡大され、蛍光板5または撮像装置6内にあるシンチレータ上に結像される。シンチレータに結像された拡大像は、該撮像装置内にある光学レンズやファイバープレートを介してCCDなどの撮像素子で撮像されて電気的な信号(画像信号)に変換される。該画像信号は、インターフェース9cを介してPC11で読み込まれて、モニタ14に画像として表示される。このとき、インターフェース9cを介して出力された画像信号は、PC11により、メモリ12に画像データとしても保存することができる。なお、以下の説明では、TEMの制御主体を単に「制御装置」とすることもある。
 PC11には、メモリ12,演算装置13,条件の指定などに用いるキーボードやマウスのような入力装置10およびモニタ14が接続されている。また、試料3を保持し、かつ、移動するための試料ステージ駆動部7は、インターフェース9a部を介してPC11によって制御されている。さらにPC11は、電子銃1,照射レンズ2,結像レンズ系4なども制御している。
 以上のような構成において、具体的な実施形態を以下に説明する。
 試料の撮像に際し、試料3の対象とする領域全体が確認できる観察倍率Mに設定し、かつ所望の視野領域が撮像範囲になるように、試料ステージ駆動部7を動かす。このとき、試料ステージ駆動部7と同期して、試料ステージ駆動部7の座標位置が、試料ステージ駆動部7に接続されたステージ位置検出器8によって読み込まれ、インターフェース9bを介してPC11に伝送される。PC11には、試料ステージの位置情報のほか、試料ステージの移動量,隣接する視野の重なり量,連続視野像の撮像枚数,撮像範囲の指定など、試料ステージの駆動条件を制御するパラメータが格納されている。
 図1に示した構成の透過電子顕微鏡において、図2に示したように、対象とする領域全体が確認できる画像をモニタ表示し、該表示画像を用いて対象物の境界(輪郭)をカーソルでトレースする方法、または、図3のように対象物の境界線上の任意の位置を複数点指定し、指定された位置間を補間演算する方法によって、連続視野領域を決定し、該領域の境界のみ、あるいは、領域全体を所定の倍率と重なり量で連続視野となるようステージ制御、または電子線偏向器を制御して撮像する方法について図4のフローチャートを用いて説明する。
 本実施の形態では、例えば、モニタ14上に対象とする領域全体が確認できる任意の視野が図2aのように得られたとする。図2bに示したように任意の対象物の境界線上をトレースすると、図2cで示したような連続視野撮像領域がモニタ14に出力され、境界のみ、あるいは領域全体の連続視野像を撮像する。同様に、モニタ14上に対象とする領域全体が確認できる任意の視野が図3aのように得られたとする。図3bに示したように、対象物の境界線上の任意の位置を複数点指定すると、図3cで示したように、モニタ14上に連続視野撮像領域が出力され、境界のみ、あるいは領域全体の連続視野像を撮像する。
 ステップ101において連続視野撮像条件の設定を行う。オペレータは、連続視野像の任意の撮像倍率M′および視野の重なり量ΔN pixelを入力する。このときの操作は、キーボードおよびマウスなどの入力装置10を用いて行う。次に、ステップ102において、対象とする領域全体が確認できる任意の倍率Mに設定し、モニタ14に表示される試料3の画像を見ながら、キーボードあるいはマウスなどの入力装置10を用いて、対象物の境界(輪郭)をトレースする。あるいは、対象物の境界線上の任意の位置を複数点指定する。このとき、トレースまたは任意に指定した座標を(x1,y1),(x2,y2),(x3,y3),…,(xm,ym)(但し、xj,yjは整数、画像データ上の座標系で単位はpixelとする)とし、メモリ12に保存する。ステップ103では、撮像視野の全領域をモニタ14上に出力する。ステップ104において、ステップ102で指定した複数点から、対象領域の境界を多項式の曲線y=f(x)で近似する。ただし、対象領域の境界が閉曲線となる場合は、任意の複数に分割した曲線で近似し、ステップ104からステップ115までを分割した数だけ繰り返し行い、撮像した連続視野像を合わせて一つの画像として出力してもよい。
 ここで、ステップ104において、指定した複数点を特定の関数y=f(x)で近似するための最小二乗法の概略を説明する。最小二乗法とは、測定で得られた数値の組を、特定の関数を用いて近似する場合に、想定する関数が測定値に対してよい近似になるように、残差の二乗和を最小とするような係数を決定する方法のことである。今、(x0,y0),(x1,y1),(x2,y2),…,(xm,ym)という入力座標の集合があるとする(但し、xj,yjは整数、画像データ上の座標系で単位はpixelとする)。これら(xj,yj)の分布を、次式(1)のようにn次の多項式の曲線で近似する。
Figure JPOXMLDOC01-appb-M000001
 各xjに対しての計算値は、(x0,f(x0)),(x1,f(x1)),(x2,f(x2)),…,(xm,f(xm))となり、実際の測定値yjとの残差の平方和は、
Figure JPOXMLDOC01-appb-M000002
で与えられるので、Δが最小になるようなAi(i=0,1,2,3,…,n)を求めればよい。式(2)を変数Aiとする関数とみなして、Δを各Aiについて偏微分してゼロとなる場合が、Δの最小値となる条件である。すなわち
Figure JPOXMLDOC01-appb-I000001
となるので、式(2)を代入すると次の条件式が導出できる。
Figure JPOXMLDOC01-appb-M000003
 式(3)は、n+1元の連立方程式となるので、これを解きAiを導出し、近似式y=f(x)を求める。なお、本実施例においては、最小二乗法を用いる方法について説明したが、この曲線補間の方法は、どのような手法を用いてもよい。ステップ105において、指定した複数点(x1,y1),(x2,y2),(x3,y3),…,(xm,ym)(但し、xj,yjは整数、画像データ上の座標系で単位はpixel)のxの最小値と最大値を抽出して、それぞれxminとxmaxと設定する。ステップ106において、連続視野撮像の開始点のx座標をxs=xminとする。ステップ107において、ステップ104で求めた近似式y=f(x)から、連続視野撮像の開始点のy座標はys=f(xs)となる。また、連続視野撮像の終点が次の開始点と同じx座標(xe=xs)とする。ステップ108において、ステージ駆動部7は、連続視野撮像を行うため以下で算出するステージ座標(X,Y)まで移動する。ここで、ステージ座標(X,Y)は、ステップ102において連続視野像撮像を行う範囲全体を確認するための観察条件として、ステージ座標を(X0,Y0)、撮像倍率をM、撮像画素数をN×N pixel、撮像領域(シンチレータサイズ)をL×L pixelとした場合に、
Figure JPOXMLDOC01-appb-M000004
として求められる。
 ステップ109において、PC11は、ステップ101で設定した連続視野像の任意の撮像倍率M′に変更後、撮像を行う。ステップ110において、xe=xe+1とする。ステップ111において、ステップ110で計算したxeがxmaxよりも大きいかどうか判定を行う。大きい場合は、ステップ116に移り、撮像が終了する。小さい場合は、ステップ112に進む。ステップ112において、xeがxmaxと等しいかどうか判定を行う。等しい場合はステップ108に戻り、xs=xeとして連続視野撮像を続行する。異なる場合は、ステップ113に移る。ステップ113において、ステージの移動距離dを求める。
Figure JPOXMLDOC01-appb-M000005
 ステップ114において、ステップ113で求めたdについて
Figure JPOXMLDOC01-appb-M000006
の判定を行う。d≦(N-ΔN)/(M′/M)の場合は、ステップ108に移る。d>(N-ΔN)/(M′/M)の場合は、xs=xeとしてステップ107へ移る。ステップ102で入力した撮像範囲全体が撮像されるまで、動作を繰り返す。また、上述のステージ制御によって連続視野像を撮像する方法の代替として、電子線偏向器を制御する方法でも撮像は可能である。
 図4のフローチャートでは、連続した視野の次の視野への移動先を撮像終了ごとに計算を行っている。従って、各視野の撮像領域を撮像処理が開始する以前に確認できない。これを可能とするためには、撮像開始の前に各視野への移動先を算出しておけばよい。図5のフローチャートにおいて、(x(j)′,y(j)′)の座標位置が視野移動先であり、これをステージ座標系(X,Y)に換算して視野移動することになる。
 なお、図4のS114では、dが演算値を超えている場合は、当該視野位置が適正なものであると判断し、次の視野位置の演算を行う処理を行っている。このように構成することで、過度に視野間の間隔が狭くならないように視野位置の設定が可能となる。また、このような視野位置の調節法に依らず、他の視野位置調整法の適用も可能である。例えば、重なり領域の面積(或いは重なり領域のX方向、及びY方向の距離)について、上限値と下限値を設けておき、当該範囲に、重なり領域の面積が収まるように、視野位置を調整することも考えられる。当該調整では、例えば、輪郭線に沿って、徐々に視野を移動していき、上記重なり領域の面積が、上記上下限値に収まったときに、その移動を停止することで視野位置の調整を行うことが考えられる。
 単にマトリクス状に視野を割り当てる場合と比較すると、曲線を描く輪郭線に沿って、視野を割り当てる必要がある分、重なり領域の面積が曲線の状況等に応じて変化することになるため、上述の手法は非常に有効である。
 なお、上述の例では、観察対象物の輪郭線上の任意の複数点を選択し、当該複数点の選択に基づいて、ステージ座標を決定する例を説明したが、観察対象の輪郭線の設定によって、自動的にステージ座標等を決定することもできる。以下にその一例を説明する。
 図14は、自動的にFOVの位置を決定するためのアルゴリズムの他の一例を説明する図である。本例では、1つの視野(Field Of View:FOV)から距離r分、離れた個所を次のFOVとして設定する例を説明している。
 第1のFOV1401の次の第2のFOV1402の位置を演算するために、観察対象の輪郭を近似した近似式と、第1のFOV1401の中心座標(xc,yc)を用いて、式(7),(8)を用いた演算を行う。
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000008
 式(7)は観察対象の輪郭を近似することによって得られる近似式である。rは、第1のFOVの中心座標からの距離に関する値である。第2のFOVの中心座標の位置を演算するために、本例では、式(8)を式(7)に代入することによって、半径rの円周と、y=f(x)を示す線分の交点を求め、当該交点が第2のFOVの中心となるように、ステージ座標等を設定する。
 このような処理を観察対象の輪郭線に沿って連続的に実行することによって、自動的に輪郭線全体のFOV取得のためのステージ座標等を決定することが可能となる。距離rは、FOV間の重なり領域を形成するために、FOVの一辺の距離未満に設定することが望ましい。具体的には、(FOVの一辺の寸法値-所望の重なり領域の寸法値)とすることが望ましい。なお、重なり領域の大きさは観察目的や観察条件等に応じて、任意に設定可能とすることが望ましい。
 本例によれば、微生物のような輪郭に多くの曲線等を含み、その視野位置の決定が困難な観察対象であったとしても、適正な位置への視野の設定と、視野間の適正な重なり領域の設定に基づく、連続視野像を取得することが可能となる。
 なお、重なり部分は、視野像間の接続を適正に行うために設けられるものであるが、必要以上に大きく設定すると、取得視野像の数が増加し、観察時間の遅延の一因ともなる。そこで、以下に、或る程度以上の重なり領域の大きさを確保しつつも、重なり部分が適正な大きさとなるような設定法について説明する。
 上述のようにFOV間の中心間の距離がrとなるような連続視野設定を行った場合に、図15のように、FOVの角部同士が斜めに接続されるような状態となると、そうでない場合と比較して、重畳領域内の輪郭線の距離が長くなる。このような状況に鑑み、以下に重畳領域の大きさを適正化する手法の一例について、説明する。
 角部は重畳距離が長くなるため、方程式の種類、或いは重なり領域の正方形の度合い(縦横比,X方向の画素、或いはY方向の画素数が正方形に近い形状をなしているような値の場合)に応じて、演算のリトライを行い、重なり部分を調整する。より具体的には重なり部分の面積が小さくなるように、FOV間の距離を大きくする。例えば、図xxの場合、ΔxとΔyの比率に応じて、FOV間の距離を調整することが考えられる。例えば、重なり領域内の輪郭線の長さを統一するように、FOV間距離の調整を行うと共に、その長さをFOV同士が横方向、或いは縦方向に直線的に配列された場合と同じ距離Dに統一することを考えると、輪郭線の長さD1-D分,FOVを移動するようにして、FOV間の距離を調整することが考えられる。この場合、重なり部分内の輪郭線の長さが所定値を超えたときに、上記調整を行うようにしても良いし、常に重なり領域内の輪郭線の長さが所定値となるように調整するようにしても良い。
 また、生体試料を観察する場合においても、重点的に観察したい個所が存在する場合もある。このような場合、生体試料の任意の個所を選択可能とし、それ以外の部分については自動選択を行い得るようにしても良い。より具体的には、所望の個所の選択後、その選択個所間を補間するように、FOV位置を均等距離にて割り当てていくことが考えられる。このような場合は、補間距離を求めると共に、所望の観察倍率に基づいて決定されるFOVの大きさに応じて、上記r値を決定するようにすると良い。
 また、試料の輪郭の部位ごと(或いは輪郭線を近似する近似曲線の種類ごと)に、異なるr値を用いて、FOVを割り当てるようにしても良い。
 なお、求められた位置に対する視野位置の移動は、例えば電子顕微鏡の観察倍率,画像上の画素の座標情報、及び所定信号を供給したときのステージ及び/又は偏向器による視野移動量との関係が予め制御装置に内蔵された記憶媒体に登録されており、当該記憶媒体に登録された情報に基づいて、ステージ、及び/又は偏向器の制御されることによって行われる。
 図6に示すように、対象とする領域全体が確認できる任意の倍率Mにおいて、任意の対象物の画像を撮像し、該画像を二値化などの画像処理を用いて該対象物の輪郭を抽出し、輪郭線上のみ、あるいは輪郭内の領域を所定の倍率と重なり量で連続視野となるようステージ制御、または電子線偏向器を制御して撮像する方法について図7のフローチャートを用いて説明する。
 本実施の形態では、例えば、モニタ14上に対象とする領域全体が確認できる任意の視野が図6aのように得られたとする。画像処理を施し、境界(輪郭)の抽出を行うと図6bのような形態が得られ、図6cで示したような連続視野撮像領域が表示され、該対象物の境界のみ、あるいは領域全体の連続視野像を撮像する。
 まず、ステップ201において、連続視野像撮像条件の設定を行う。オペレータは、連続視野像の任意の撮像倍率M′および視野の重なり量ΔN pixelを入力する。このときの操作は、キーボードおよびマウスなどの入力装置10を用いて行う。次に、ステップ202において、モニタ14に表示される試料3の画像を見ながら、対象とする領域全体が確認できる任意の倍率Mに設定し、かつ所望の部分が撮像範囲になるように、試料ステージ駆動部7を動かす。このとき、試料ステージ駆動部7と同期して、試料ステージ駆動部7の座標位置が、試料ステージ駆動部7に接続された位置検出器8によって読み込まれ、インターフェース9bを介してPC11に伝送される。撮像装置6を用いて任意の対象物の画像を取得、インターフェース9cを介してメモリ12に保存する。ステップ203において、演算装置13は、ステップ202で取得した画像データをメモリ12から読み出し、シャープネス,エッジの強調,コントラスト調整および二値化処理などの画像処理を行い、ステップ204において、境界(輪郭)の抽出を行う。ステップ205において、ステップ204で抽出した境界(輪郭)の座標位置を(x1,y1),(x2,y2),(x3,y3),…,(xm,ym)(x,yは整数)とし、メモリ12に保存する。ステップ206では、連続視野像撮像範囲がモニタ14上で確認できるよう、演算処理装置13は、ステップ201で入力した撮像倍率M′および視野の重なり量ΔN pixelとステップ205で読み取った座標から、連続視野像撮像領域を計算し、モニタ14上に出力する。対象とする領域全体が確認できる画像と重ね合せて表示してもよい。ステップ207において、連続視野像の撮像を行う。連続視野像の撮像は、上述した図5のフローチャートと同様の方法を用いて行う。ステップ208において、連続視野像の撮像が終了する。また、上述のステージ制御を行い連続視野像を撮像する方法の代替として、電子線偏向器を制御する方法でも撮像は可能である。
 図8に示すように、対象とする領域全体が確認できる任意の倍率Mにおいて、任意の対象物の画像を撮像し、予め登録したパターンと一致する領域を抽出し、連続視野像撮像領域を決定する。該領域の境界のみ、あるいは領域全体を所定の倍率と重なり量で連続視野像となるよう自動でステージ制御、または電子線偏向器を制御して撮像する方法について図9のフローチャートを用いて説明する。
 本実施の形態では、例えば図8aに示した円をパターンとして登録し、撮像した任意の視野がモニタ14上に図8bのように得られたとすると、パターンとして選択した円と同一パターンを持つ形態が自動的に抽出された後、図8cに示したように、連続視野撮像領域が出力され、該形態の境界のみ、あるいは領域全体の連続視野像を撮像する。
 まず、ステップ301において、連続視野像撮像条件の設定を行う。オペレータは、連続視野像の任意の撮像倍率M′、視野の重なり量ΔN pixelの入力および連続視野像を撮像する任意のパターンを登録する。このときの操作は、キーボードおよびマウスなどの入力装置10を用いて行う。パターンは、例えば辺のなす角度,楕円率,長軸と短軸の長さの比などの条件によって設定することができる。または、予めメモリ12に保存しておいた形状を呼び出して設定してもよい。ステップ302において、モニタ14に表示される試料3の画像を見ながら、対象とする領域全体が確認できる任意の倍率Mに設定し、かつ所望の部分が撮像範囲になるように、試料ステージ駆動部7を動かす。このとき、試料ステージ駆動部7と同期して、試料ステージ駆動部7の座標位置が、試料ステージ駆動部7に接続された位置検出器8によって読み込まれ、インターフェース9bを介してPC11に伝送される。撮像装置6を用いて任意の箇所の画像を取得、インターフェース9cを介してメモリ12に保存する。ステップ303において、演算装置13は、ステップ302で撮像した画像データと、ステップ301で予め登録した形状とのパターンマッチングを行う。ステップ304において、パターンマッチングで予め登録した形状と同一であると判断された形態を抽出する。ステップ305において、演算装置13は、ステップ304で抽出した領域をシャープネス,エッジの強調,コントラスト調整および二値化処理などの画像処理を行う。ステップ306において、該当する領域内の境界(輪郭)を抽出する。ステップ307において、ステップ306で抽出した境界(輪郭)の座標位置を(x1,y1),(x2,y2),(x3,y3),…,(xm,ym)(x,yは整数)とし、メモリ12に保存する。ステップ308では、連続視野像撮像範囲がモニタ14上で確認できるよう、ステップ301で入力した撮像倍率M′および視野の重なり量ΔN pixelとステップ306で読み取った座標から、演算処理装置13で連続視野像撮像領域を計算し、モニタ14上に出力する。ステップ309において、連続視野像の撮像を行う。連続視野像の撮像は、上述した図5のフローチャートと同様の方法を用いて行う。ステップ310において、連続視野像の撮像が終了する。また、上述のステージ制御を行い連続視野像を撮像する方法の代替として、電子線偏向器を制御する方法でも撮像は可能である。
 図10に示すように、連続視野撮像を行うための視野全体が確認できる任意の倍率Mにおいて、任意の対象物の画像をモニタ表示し、所定の倍率と重なり量から計算した撮像領域をモニタ上にグリッド表示させる。任意の撮像領域をカーソルまたはマウスで指定し、指定した該領域を所定の倍率と重なり量で連続視野となるようステージ制御、または電子線偏向器を制御して撮像する方法について図11のフローチャートを用いて説明する。
 まず、ステップ401において、連続視野像撮像条件の設定を行う。オペレータは、連続視野像の任意の撮像倍率M′,視野の重なり量ΔN pixelを入力する。このときの操作は、キーボードおよびマウスなどの入力装置10を用いて行う。次に、ステップ402において、モニタ14に表示される試料3の画像を見ながら、対象とする領域全体が確認できる任意の倍率Mに設定し、かつ所望の部分が撮像範囲となるように、試料ステージ駆動部7を動かす。このとき、試料ステージ駆動部7と同期して、試料ステージ駆動部7の座標位置が、試料ステージ駆動部7に接続された位置検出器8によって読み込まれ、インターフェース9bを介してPC11に伝送される。撮像装置6を用いて任意の箇所の画像を取得、インターフェース9cを介してメモリ12に保存する。ステップ403において、連続視野像撮像領域をモニタ14上で確認できるよう、ステップ401で入力した撮像倍率M′および視野の重なり量ΔN pixelから、演算処理装置13で連続視野像撮像領域を計算し、モニタ14上に表示する。図10aで示したように撮像領域をグリッド線などで表示してもよい。ステップ404において、所望の撮像領域をカーソルまたはマウスで指定する。このときの操作は、キーボードおよびマウスなどの入力装置10を用いて行う。指定された領域は、指定していない視野と差別化してモニタ14に表示される。例えば、図10bのように指定した領域は色調などを変えて表示される。ステップ405において、ステップ404で指定した領域をステップ401で入力した所定の倍率と重なり量で連続視野となるよう自動でステージ制御、または電子線偏向器を制御して撮像する。
 以上のような実施形態において、照射電子線による試料損傷,試料やステージのドリフト,ステージの振動に対して考慮する場合には、以下のような制御構成とする。連続視野を撮像する過程で撮像する視野を撮像の都度逐次、次の視野へ移動する必要があるが、その際の視野移動時は、試料に対しての電子線照射を少なくするために、電子線を遮断するように電子銃のバイアス電圧を制御、または電子線偏向器により試料に照射しないように偏向制御して、撮像する時間のみ照射するような電子線照射を制御可能とする手段を有する構成とする。次に、撮像する視野位置に移動完了した時点で試料ドリフト抑制のために弱い電子線強度から照射して徐々に所定の撮像する電子線強度に設定していくような制御手段を有する。尚、視野移動の手段においても、試料ドリフトやステージ移動による振動抑制のために撮像倍率や移動量に応じてステージ駆動と電磁的視野移動の組み合わせ、または単独での移動を可能とする。さらに、試料ドリフトやステージ振動による影響が小さくなるように視野移動後、撮像開始する迄に待ち時間を設定する手段と撮像開始を該時間だけ遅延させる手段を有する構成とする。
 また、今まで説明した実施形態においては、撮像倍率や撮像条件(カメラ感度,閾値,フォーカスなど)を一定として連続視野の撮像シーケンスを説明していたが、これらの組み合わせを予め設定可能として行うことで、より効率的に種々の画像データを取得することができる。すなわち、連続視野をより解像度高く観察・記録したい場合には、撮像倍率を複数設定可能とする入力手段,倍率可変手段を有する構成とする。該構成において、視野移動は最大撮像倍率を基準に行い、視野位置によって設定された倍率で撮像する要否を判定して、要の場合には撮像を繰り返すシーケンスとすると撮像倍率の異なる連続した視野の画像を得ることが可能である。同様に撮像条件を複数設定可能とする手段と該条件を制御する手段を有した構成として、前述のような撮像シーケンスを行いながら、各視野の撮像の都度、該条件を異ならせて複数の条件で撮像するように制御すれば、異なった画質での連続視野の画像を得ることが可能となる。次に、連続撮像する領域が一箇所の場合を例として前述まで説明してきたが、視野領域を複数設定可能として、一連の連続視野領域を撮像完了して次の設定された視野領域に視野移動して一連の連続視野を撮像していくことを繰り返すように制御できることは、上記手法を用いれば容易に可能である。
 ここで、各視野領域での撮像画像データを効率よく整理することについて、図12を用いて以下に説明する。撮像する全視野領域を確認できる倍率において、一旦撮像を行い、画像データとして取り込む(図12a)。所定の倍率で各視野を撮像したときのシーケンス番号(または記号でもよい)を各視野の撮像画像データまたはファイル名称の一部として記憶しておく。図12aの画像データに各視野での撮像領域を示す枠とその枠内に上記シーケンス番号を重ね合わせた画像データを作成(図12b)してモニタ上に表示させる機能および該画像データを記憶させる手段を有する構成とすると、各視野での画像の再確認や再度、連続視野としてつなぎ合わせる時に効率が良くなる。
 以上、説明してきた実施形態においては、撮像する各視野領域の中心となる視野移動先の座標を自動的に算出して視野移動および撮像を行うことを説明したが、撮像する各視野の領域と対象とする視野領域全体が確認できる画像を表示することで、各視野の画像や重なり量などを撮像以前に確認できる。しかしながら、自動的に各視野での撮像位置を決定すると、図10のように撮像領域がグリッド表示される場合には、図13aに示すような淡色の領域は対象とするものが撮像視野内に僅かにしか入っていない。これを防ぐためには撮像する各視野領域の表示領域を選択するマウスのような手段を有し、選択した視野領域をマウス移動とともにモニタ上で移動して、移動後の距離・方向により撮像視野位置を再度算出して、視野移動と撮像を制御することで可能となる。このように自動的に算出された撮像視野位置を再設定できる機能は、図13bに示すように図2,図3,図6,図8の場合においても容易に適用できる。
1 電子銃
2a,2b 照射レンズ
3 試料
4a~4e 結像レンズ系
5 蛍光板
6 撮像装置
7 試料保持及びステージ駆動部
8 ステージ位置検出器
9a~9d インターフェース
10 入力装置
11 PC
12 メモリ
13 演算装置
14 モニタ

Claims (19)

  1.  電子顕微鏡にて得られる第1の画像から、当該画像より高い倍率の画像を取得する領域を設定し、当該設定に基づいて得られる第2の画像を用いて試料を観察する試料観察方法において、
     前記第1の画像上にて、観察対象に輪郭線、或いは当該輪郭線上に位置する複数の点を指定する行程と、当該輪郭線に沿って、前記第2の画像を取得するための複数の視野を、当該複数の視野の一部間が重なるように配列する行程を備えることを特徴とする試料観察方法。
  2.  請求項1において、
     前記電子顕微鏡に設けられた試料ステージ、或いは電子線を偏向する偏向器を用いて、前記複数の視野間の移動を行うことを特徴とする試料観察方法。
  3.  請求項2において、
     前記指定された複数点間の補間演算に基づいて、前記複数の視野を取得するときの前記試料ステージの移動量、或いは前記偏向器の偏向信号を求めることを特徴とする試料観察方法。
  4.  請求項2において、
     前記視野間の重なり量に応じて、前記視野間の距離を調整することを特徴とする試料観察方法。
  5.  請求項4において、
     前記視野間の距離の調整は、当該視野間の距離dが、(N-ΔN)/(M′/M)以下であるときに、行うことを特徴とする試料観察方法。
       N:撮像画素数
      ΔN:視野の重なり量
      M′:第2の画像の倍率
       M:第1の画像の倍率
  6.  請求項5において、
     前記視野間の距離の調整は、前記視野間の距離dが、(N-ΔN)/(M′/M)以下であるときに、視野間の距離がより離間するように行われることを特徴とする試料観察方法。
  7.  請求項4において、
     前記視野間の重なり量が、所定範囲に含まれるか否かを判定し、当該所定範囲を逸脱していると判断される場合は、当該所定範囲に含まれるように、前記視野の位置を調整することを特徴とする試料観察方法。
  8.  請求項1において、
     前記輪郭線は、前記複数の点間を曲線補間することによって形成されることを特徴とする試料観察方法。
  9.  電子源と、
     当該電子源から放出される電子線が照射される試料を移動させる試料ステージ、或いは試料上に照射される電子線を偏向する偏向器を制御する制御装置を備えた電子顕微鏡において、
     前記制御装置は、前記電子顕微鏡によって取得される第1の画像上での輪郭線、或いは当該輪郭線上に位置する複数の点を指定に基づいて、当該輪郭線に沿って第1の画像より高倍率の第2の画像を取得するための複数の視野の位置を、当該複数の視野の一部間が重なるように決定することを特徴とする電子顕微鏡。
  10.  請求項9において、
     前記制御装置は、前記第2の画像を取得するための視野を、所定の倍率と、予め設定された重なり量で連続視野となるように、前記試料ステージ、或いは前記偏向器を制御することを特徴とする電子顕微鏡。
  11.  請求項9において、
     前記表示画像と同時に各撮像視野領域を重ね表示することを特徴とする電子顕微鏡。
  12.  請求項9において、
     撮像が完了した視野領域を前記各撮像視野領域の表示と区別できるように画像の階調及び/又は色調を変えて表示または表示を点滅させることを特徴とする電子顕微鏡。
  13.  請求項9において、
     対象とする領域全体が確認できる画像と撮像する各視野領域を重ねてモニタ表示するとともに、該重ね表示した画像を画像データとして記憶・呼出・表示することを特徴とする電子顕微鏡。
  14.  請求項9において、
     撮像する各視野領域の画像データを記憶する際に、撮像順番を表わす数字や記号を画像データの一部としてまたは画像データ名称の一部として記憶するとともに該撮像順番を、撮像する各視野領域の表示の近傍に表示させることを特徴とする電子顕微鏡。
  15.  請求項9において、
     撮像する各視野領域の表示領域を選択する手段、選択した視野領域を移動する手段、該手段と連動して選択された視野領域の撮像位置を移動するように制御することを特徴とする電子顕微鏡。
  16.  電子源と、
     当該電子源から放出される電子線が照射される試料を移動させる試料ステージ、或いは試料上に照射される電子線を偏向する偏向器を制御する制御装置を備えた電子顕微鏡において、
     前記制御装置は、前記電子顕微鏡によって取得される第1の画像上での複数の点を指定に基づいて、当該複数の点間の補間演算を行い、当該補間演算によって形成される輪郭線に沿って、前記第1の画像より高倍率の第2の画像を取得するための複数の視野の位置を、当該複数の視野の一部間が重なるように決定することを特徴とする電子顕微鏡。
  17.  電子源と、
     当該電子源から放出される電子線が照射される試料を移動させる試料ステージ、或いは試料上に照射される電子線を偏向する偏向器を制御する制御装置を備えた電子顕微鏡において、
     前記制御装置は、前記電子顕微鏡によって取得される第1の画像について、二値化を実施し、当該二値化によって得られる輪郭線に沿って、前記第1の画像より高倍率の第2の画像を取得するための複数の視野の位置を、当該複数の視野の一部間が重なるように決定することを特徴とする電子顕微鏡。
  18.  電子源と、当該電子源から放出される電子線が照射される試料を移動させる試料ステージ、或いは試料上に照射される電子線を偏向する偏向器を制御する制御装置を備えた電子顕微鏡において、
     対象とする領域全体が確認できる画像を撮像し、該画像の中から、予め登録したパターンと一致する領域を抽出する手段を有し、該領域の境界を、あるいは領域全体を所定の倍率と予め設定された重なり量で連続視野となるようステージ制御、または電子線偏向器を制御して視野移動を行いながら、上記決定した撮像領域全体を視野ごとに連続して撮像する機能を備えることを特徴とする電子顕微鏡。
  19.  電子源と、当該電子源から放出される電子線が照射される試料を移動させる試料ステージ、或いは試料上に照射される電子線を偏向する偏向器を制御する制御装置を備えた電子顕微鏡において、
     対象とする領域全体が確認できる画像をモニタ表示し、所定の倍率と重なり量から計算した撮像領域をグリッド状に表示させる手段を有し、任意の撮像領域の視野位置をカーソルまたはマウスで指定し、該指定された視野を所定の倍率と重なり量になるようにステージ制御、または電子線偏向器を制御して撮像する機能を備えることを特徴とする電子顕微鏡。
PCT/JP2009/005430 2008-10-31 2009-10-19 試料観察方法、及び電子顕微鏡 WO2010050136A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP09823250A EP2343727A4 (en) 2008-10-31 2009-10-19 METHOD FOR OBSERVING A SAMPLE AND ELECTRON MICROSCOPE
US13/126,638 US9013572B2 (en) 2008-10-31 2009-10-19 Method for observing sample and electronic microscope
US14/657,428 US20150185455A1 (en) 2008-10-31 2015-03-13 Method for observing sample and electronic microscope

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-280676 2008-10-31
JP2008280676A JP5066056B2 (ja) 2008-10-31 2008-10-31 試料観察方法、及び電子顕微鏡

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/126,638 A-371-Of-International US9013572B2 (en) 2008-10-31 2009-10-19 Method for observing sample and electronic microscope
US14/657,428 Continuation US20150185455A1 (en) 2008-10-31 2015-03-13 Method for observing sample and electronic microscope

Publications (1)

Publication Number Publication Date
WO2010050136A1 true WO2010050136A1 (ja) 2010-05-06

Family

ID=42128509

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/005430 WO2010050136A1 (ja) 2008-10-31 2009-10-19 試料観察方法、及び電子顕微鏡

Country Status (4)

Country Link
US (2) US9013572B2 (ja)
EP (1) EP2343727A4 (ja)
JP (1) JP5066056B2 (ja)
WO (1) WO2010050136A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150002651A1 (en) * 2012-03-07 2015-01-01 Hitachi High-Technologies Corporation Scanning-electron-microscope image processing device and scanning method
JPWO2015068669A1 (ja) * 2013-11-07 2017-03-09 株式会社日立ハイテクノロジーズ 電子顕微鏡

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5589366B2 (ja) 2009-11-27 2014-09-17 ソニー株式会社 情報処理装置、情報処理方法及びそのプログラム
WO2013118191A1 (ja) * 2012-02-10 2013-08-15 三菱電機株式会社 運転支援装置及び運転支援方法
TWI499309B (zh) * 2012-03-28 2015-09-01 Albert Chang 影像控制系統及其方法
US9041793B2 (en) * 2012-05-17 2015-05-26 Fei Company Scanning microscope having an adaptive scan
JP5967197B2 (ja) * 2012-05-28 2016-08-10 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び顕微鏡システム
JP2014029380A (ja) * 2012-07-31 2014-02-13 Sony Corp 情報処理装置、情報処理方法、プログラム及び画像表示装置
US10838191B2 (en) * 2016-12-21 2020-11-17 Carl Zeiss Microscopy Gmbh Method of operating a microscope
DE102018104704A1 (de) * 2018-03-01 2019-09-05 Carl Zeiss Microscopy Gmbh Digitales Mikroskop und Verfahren zum Verändern einer Vergrößerung eines digitalen Mikroskops

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5346266A (en) * 1976-10-08 1978-04-25 Hitachi Ltd Electronic microscope
JPS61126750A (ja) 1984-11-22 1986-06-14 Hitachi Ltd 電子顕微鏡
JPS634056U (ja) * 1986-06-27 1988-01-12
JPH0197359A (ja) * 1987-10-09 1989-04-14 Jeol Ltd 電子顕微鏡等の自動モンタージュ撮影装置
JPH04184849A (ja) 1990-11-19 1992-07-01 Hitachi Ltd 電子顕微鏡
JPH07130319A (ja) * 1993-11-04 1995-05-19 Hitachi Ltd 走査電子顕微鏡及びその画像形成方法
JP2005116795A (ja) * 2003-10-08 2005-04-28 Toshiba Corp 荷電ビーム照射方法、半導体装置の製造方法および荷電ビーム照射装置
JP2008282775A (ja) * 2007-05-14 2008-11-20 Hitachi High-Technologies Corp 透過型電子顕微鏡及び撮影方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS634056A (ja) 1986-06-24 1988-01-09 Toyota Motor Corp タ−ボチヤ−ジヤのフロ−テイングベアリング
JPH073774B2 (ja) * 1986-10-08 1995-01-18 株式会社日立製作所 電子顕微鏡
US6252412B1 (en) * 1999-01-08 2001-06-26 Schlumberger Technologies, Inc. Method of detecting defects in patterned substrates
JP5342728B2 (ja) * 2000-04-24 2013-11-13 エフ イー アイ カンパニ 走査電子顕微鏡の対物レンズを通した二次電子の捕集
JP3619132B2 (ja) * 2000-08-25 2005-02-09 株式会社日立製作所 電子顕微鏡
JP4199939B2 (ja) * 2001-04-27 2008-12-24 株式会社日立製作所 半導体検査システム
US7102145B2 (en) * 2004-10-25 2006-09-05 International Business Machines Corporation System and method for improving spatial resolution of electron holography
US7224437B2 (en) * 2005-05-31 2007-05-29 Invarium, Inc Method for measuring and verifying stepper illumination
JP4945267B2 (ja) * 2007-02-28 2012-06-06 株式会社日立ハイテクノロジーズ 電子顕微鏡
JP5408852B2 (ja) * 2007-08-09 2014-02-05 株式会社日立ハイテクノロジーズ パターン測定装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5346266A (en) * 1976-10-08 1978-04-25 Hitachi Ltd Electronic microscope
JPS61126750A (ja) 1984-11-22 1986-06-14 Hitachi Ltd 電子顕微鏡
JPS634056U (ja) * 1986-06-27 1988-01-12
JPH0197359A (ja) * 1987-10-09 1989-04-14 Jeol Ltd 電子顕微鏡等の自動モンタージュ撮影装置
JPH04184849A (ja) 1990-11-19 1992-07-01 Hitachi Ltd 電子顕微鏡
JPH07130319A (ja) * 1993-11-04 1995-05-19 Hitachi Ltd 走査電子顕微鏡及びその画像形成方法
JP2005116795A (ja) * 2003-10-08 2005-04-28 Toshiba Corp 荷電ビーム照射方法、半導体装置の製造方法および荷電ビーム照射装置
JP2008282775A (ja) * 2007-05-14 2008-11-20 Hitachi High-Technologies Corp 透過型電子顕微鏡及び撮影方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2343727A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150002651A1 (en) * 2012-03-07 2015-01-01 Hitachi High-Technologies Corporation Scanning-electron-microscope image processing device and scanning method
US9978558B2 (en) * 2012-03-07 2018-05-22 Hitachi High-Technologies Corporation Scanning-electron-microscope image processing device and scanning method
JPWO2015068669A1 (ja) * 2013-11-07 2017-03-09 株式会社日立ハイテクノロジーズ 電子顕微鏡

Also Published As

Publication number Publication date
JP5066056B2 (ja) 2012-11-07
US9013572B2 (en) 2015-04-21
JP2010108797A (ja) 2010-05-13
US20150185455A1 (en) 2015-07-02
US20110205353A1 (en) 2011-08-25
EP2343727A1 (en) 2011-07-13
EP2343727A4 (en) 2012-05-02

Similar Documents

Publication Publication Date Title
WO2010050136A1 (ja) 試料観察方法、及び電子顕微鏡
US10809515B2 (en) Observation method and specimen observation apparatus
JP4654093B2 (ja) 回路パターン検査方法及びその装置
JP5422411B2 (ja) 荷電粒子線装置によって得られた画像データの輪郭線抽出方法、及び輪郭線抽出装置
JP4982544B2 (ja) 合成画像形成方法及び画像形成装置
WO2016017561A1 (ja) 荷電粒子線装置
JP7232326B2 (ja) 粒子顕微鏡を用いる画像記録方法
KR101677822B1 (ko) 주사형 전자 현미경의 화상 처리 장치 및 주사 방법
US9053904B2 (en) Image quality adjusting method, non-transitory computer-readable recording medium, and electron microscope
JP6901460B2 (ja) 走査電子顕微鏡および画像処理方法
US8841614B1 (en) Sample structure analyzing method, transmission electron microscope, and computer-readable non-transitory recording medium
JP2010117229A (ja) 高さ情報取得装置、高さ情報取得方法、及びプログラム
JP2008159574A (ja) 走査型電子顕微鏡
JP3036444B2 (ja) 収束電子線回折図形を用いた格子歪み評価方法および評価装置
JPH053013A (ja) 自動焦点調節装置
JP6078356B2 (ja) テンプレートマッチング条件設定装置、及び荷電粒子線装置
WO2021044553A1 (ja) 荷電粒子線装置
JP5084528B2 (ja) 電子顕微鏡の制御装置及び制御方法
JP2010283088A (ja) ウェーハ外観検査装置
EP1394739A1 (en) Mosaicing from microscopic images of a specimen
JPWO2020129164A1 (ja) 撮像装置
JP6706956B2 (ja) 分析装置
JP2007324467A (ja) パターン検査方法及びその装置
JP6783071B2 (ja) 荷電粒子線装置
WO2019215861A1 (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09823250

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2009823250

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13126638

Country of ref document: US

Ref document number: 2009823250

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE