DE102020212010A1 - CARRIER JET DEVICE - Google Patents

CARRIER JET DEVICE Download PDF

Info

Publication number
DE102020212010A1
DE102020212010A1 DE102020212010.2A DE102020212010A DE102020212010A1 DE 102020212010 A1 DE102020212010 A1 DE 102020212010A1 DE 102020212010 A DE102020212010 A DE 102020212010A DE 102020212010 A1 DE102020212010 A1 DE 102020212010A1
Authority
DE
Germany
Prior art keywords
determination
image
target
sample
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020212010.2A
Other languages
German (de)
Inventor
Ayana MURAKI
Atsushi Uemoto
Tatsuya Asahata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Science Corp
Original Assignee
Hitachi High Tech Science Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020047470A external-priority patent/JP7391735B2/en
Application filed by Hitachi High Tech Science Corp filed Critical Hitachi High Tech Science Corp
Publication of DE102020212010A1 publication Critical patent/DE102020212010A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/20Means for supporting or positioning the object or the material; Means for adjusting diaphragms or lenses associated with the support
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/30Electron-beam or ion-beam tubes for localised treatment of objects
    • H01J37/304Controlling tubes by information coming from the objects or from the beam, e.g. correction signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N1/00Sampling; Preparing specimens for investigation
    • G01N1/28Preparing specimens for investigation including physical details of (bio-)chemical methods covered elsewhere, e.g. G01N33/50, C12Q
    • G01N1/286Preparing specimens for investigation including physical details of (bio-)chemical methods covered elsewhere, e.g. G01N33/50, C12Q involving mechanical work, e.g. chopping, disintegrating, compacting, homogenising
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/22Optical, image processing or photographic arrangements associated with the tube
    • H01J37/222Image processing arrangements associated with the tube
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/02Details
    • H01J37/244Detectors; Associated components or circuits therefor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/26Electron or ion microscopes; Electron or ion diffraction tubes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/30Electron-beam or ion-beam tubes for localised treatment of objects
    • H01J37/3002Details
    • H01J37/3005Observing the objects or the point of impact on the object
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/30Electron-beam or ion-beam tubes for localised treatment of objects
    • H01J37/304Controlling tubes by information coming from the objects or from the beam, e.g. correction signals
    • H01J37/3045Object or beam position registration
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J37/00Discharge tubes with provision for introducing objects or material to be exposed to the discharge, e.g. for the purpose of examination or processing thereof
    • H01J37/30Electron-beam or ion-beam tubes for localised treatment of objects
    • H01J37/31Electron-beam or ion-beam tubes for localised treatment of objects for cutting or drilling
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N1/00Sampling; Preparing specimens for investigation
    • G01N1/28Preparing specimens for investigation including physical details of (bio-)chemical methods covered elsewhere, e.g. G01N33/50, C12Q
    • G01N1/286Preparing specimens for investigation including physical details of (bio-)chemical methods covered elsewhere, e.g. G01N33/50, C12Q involving mechanical work, e.g. chopping, disintegrating, compacting, homogenising
    • G01N2001/2873Cutting or cleaving
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/20Positioning, supporting, modifying or maintaining the physical state of objects being observed or treated
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/20Positioning, supporting, modifying or maintaining the physical state of objects being observed or treated
    • H01J2237/208Elements or methods for movement independent of sample stage for influencing or moving or contacting or transferring the sample or parts thereof, e.g. prober needles or transfer needles in FIB/SEM systems
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/26Electron or ion microscopes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/26Electron or ion microscopes
    • H01J2237/28Scanning microscopes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/30Electron or ion beam tubes for processing objects
    • H01J2237/304Controlling tubes
    • H01J2237/30405Details
    • H01J2237/30427Details using neural networks or fuzzy logic
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/30Electron or ion beam tubes for processing objects
    • H01J2237/317Processing objects on a microscale
    • H01J2237/3174Etching microareas
    • H01J2237/31745Etching microareas for preparing specimen to be viewed in microscopes or analyzed in microanalysers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01JELECTRIC DISCHARGE TUBES OR DISCHARGE LAMPS
    • H01J2237/00Discharge tubes exposing object to beam, e.g. for analysis treatment, etching, imaging
    • H01J2237/30Electron or ion beam tubes for processing objects
    • H01J2237/317Processing objects on a microscale
    • H01J2237/31749Focused ion beam

Landscapes

  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Plasma & Fusion (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

Zur Stabilisierung der automatisierten MS ist eine Ladungsträgerstrahlvorrichtung vorgesehen, die so konfiguriert ist, dass sie automatisch ein Probenstück aus einer Probe herstellt, wobei die Vorrichtung für einen Ladungsteilchenstrahl Folgendes umfasst: ein optisches System zur Bestrahlung mit einem Ladungsträgerstrahl, das so konfiguriert ist, dass es einen Ladungsträgerstrahl ausstrahlt; einen Probentisch, der so konfiguriert ist, dass er die Probe, die auf den Probentisch gelegt wird, bewegt; eine Probenstück-Transporteinheit, die so konfiguriert ist, dass sie das Probenstück, das von der Probe getrennt und extrahiert wurde, hält und befördert; eine Halterbefestigungsbasis, die so konfiguriert ist, dass sie einen Probenstückhalter hält, zu dem das Probenstück transportiert wird; und einen Rechner, der so konfiguriert ist, dass er die Steuerung einer Position in Bezug auf ein Ziel durchführt, basierend auf: einem Ergebnis einer zweiten Bestimmung über die Position, die in Abhängigkeit von einem Ergebnis der ersten Bestimmung über die Position ausgeführt wird; und Informationen einschließlich eines Bildes, das durch Bestrahlung mit dem Ladungsträgerstrahl erhalten wird.To stabilize the automated MS, a charged particle beam device is provided which is configured to automatically produce a specimen from a sample, the device for a charged particle beam comprising: an optical system for irradiation with a charged particle beam, which is configured to emits a charged beam; a sample table configured to move the sample placed on the sample table; a sample piece transport unit configured to hold and transport the sample piece that has been separated and extracted from the sample; a holder attachment base configured to hold a specimen holder to which the specimen is transported; and a computer configured to perform control of a position with respect to a target based on: a result of a second determination of the position carried out in response to a result of the first determination of the position; and information including an image obtained by irradiating the charged carrier beam.

Description

ALLGEMEINER STAND DER TECHNIKGENERAL STATE OF THE ART

Gebiet der ErfindungField of the invention

Die vorliegende Erfindung bezieht sich auf eine Ladungsträgerstrahlvorrichtung.The present invention relates to a charged carrier beam device.

Beschreibung des Standes der TechnikDescription of the prior art

Bisher war eine Vorrichtung bekannt, bei der ein Probenstück, das durch Bestrahlung einer Probe mit einem aus Elektronen oder Ionen bestehenden Ladungsträgerstrahl hergestellt wurde, extrahiert und in eine Form gebracht wird, die für Beobachtung, Analyse, Messung und andere Schritte geeignet ist, bei denen ein Transmissionselektronenmikroskop (TEM) oder ein ähnliches Instrument verwendet wird ( japanische Patentanmeldung Nr. 2019-102138 ). Für die Beobachtung mit einem Transmissionselektronenmikroskop führt die in der japanischen Patentanmeldung Nr. 2019-102138 beschriebene Vorrichtung eine so genannte Mikroprobennahme (MS) durch, bei der ein winziges Dünnschichtprobenstück aus einer Probe, die ein Beobachtungsziel darstellt, extrahiert und an einem Probenhalter befestigt wird, um eine TEM-Probe herzustellen.Heretofore, there has been known an apparatus in which a specimen produced by irradiating a specimen with a charge carrier beam composed of electrons or ions is extracted and shaped into a shape suitable for observation, analysis, measurement and other steps in which a transmission electron microscope (TEM) or similar instrument is used ( Japanese Patent Application No. 2019-102138 ). For observation with a transmission electron microscope, the in Japanese Patent Application No. 2019-102138 The device described above performs a so-called microsampling (MS) in which a minute thin film specimen is extracted from a specimen which is an observation target and attached to a specimen holder to prepare a TEM specimen.

Eine bekannte Ladungsträgerstrahlvorrichtung verwendet bei der Herstellung eines dünnen Probenstücks für die TEM-Beobachtung eine Schablonenanpassung, um ein Ziel zu erkennen, z. B. die Spitze einer Mikrosonde, eine Aufnahmeposition des dünnen Probenstücks oder ein Säulenende auf einem Gitterträger ( japanische Patentanmeldung Nr. 2016-157671 ). Bei der in der japanischen Patentanmeldung Nr. 2016-157671 beschriebenen Ladungsträgerstrahlvorrichtung wird die Positionssteuerung in Bezug auf das Ziel auf der Grundlage einer Schablone, die aus einem Bild des Ziels erstellt wird, das durch Bestrahlung mit einem Ladungsträgerstrahl erhalten wird, und auf der Grundlage von Positionsinformationen, die aus dem Bild des Ziels erhalten werden, durchgeführt. Dies ermöglicht die automatische Ausführung von MS (automatisierte MS) in der in der japanischen Patentanmeldung Nr. 2016-157671 beschriebenen Ladungsträgerstrahlvorrichtung.A known charged carrier beam apparatus uses template matching in the manufacture of a thin specimen for TEM observation to recognize a target, e.g. B. the tip of a microprobe, a receiving position of the thin sample or the end of a column on a lattice girder ( Japanese Patent Application No. 2016-157671 ). In the case of the Japanese Patent Application No. 2016-157671 The position control with respect to the target is carried out on the basis of a template made from an image of the target obtained by irradiation with a charged carrier beam and on the basis of position information obtained from the image of the target. carried out. This enables MS (Automated MS) to run automatically in the in the Japanese Patent Application No. 2016-157671 described charge carrier beam device.

Bei der in der japanischen Patentanmeldung Nr. 2016-157671 beschriebenen Ladungsträgerstrahlvorrichtung versagt die Schablonenanpassung manchmal, wenn ein Unterschied im Kontrast oder Fokus zwischen einem Bild eines Ziels, das durch Bestrahlung mit einem Ladungsträgerstrahl erhalten wird, und einem Schablonenbild besteht, oder wenn sich ein Bild eines Ziels und ein Schablonenbild in der Oberflächenform des Ziels voneinander unterscheiden (ein durch die Anhaftung eines Fremdmaterials verursachter Oberflächenformunterschied ist eingeschlossen). Eine fehlgeschlagene Schablonenanpassung stoppt die automatische MS in der in der japanischen Patentanmeldung Nr. 2016-157671 beschriebenen Ladungsträgerstrahlvorrichtung.In the case of the Japanese Patent Application No. 2016-157671 The template matching sometimes fails when there is a difference in contrast or focus between an image of a target obtained by irradiation with a charged beam and a template image, or when an image of a target and a template image in the surface shape of the target differ from each other differ (a surface shape difference caused by the adhesion of a foreign matter is included). A failed template adaptation stops the automatic MS in the Japanese Patent Application No. 2016-157671 described charge carrier beam device.

Beim Stand der Technik ist die automatisierte MS daher nicht stabil genug gewesen, und eine Stabilisierung der automatisierten MS für einen verbesserten Durchsatz ist erwünscht.In the prior art, the automated MS has therefore not been stable enough, and stabilization of the automated MS for improved throughput is desired.

ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION

Die vorliegende Erfindung ist im Hinblick auf die oben genannten Umstände gemacht worden.The present invention has been made in view of the above circumstances.

Die vorliegende Erfindung nimmt die folgenden Ausführungsformen an.The present invention takes the following embodiments.

(1) Gemäß mindestens einer Ausführungsform der vorliegenden Erfindung ist eine Ladungsträgerstrahlvorrichtung vorgesehen, die so konfiguriert ist, dass sie automatisch ein Probenstück aus einer Probe herstellt, wobei die Ladungsträgerstrahlvorrichtung folgendes umfasst: ein optisches System zur Bestrahlung mit einem Ladungsträgerstrahl, das so konfiguriert ist, dass es einen Ladungsträgerstrahl anstrahlt; einen Probentisch, der so konfiguriert ist, dass er die Probe, die auf den Probentisch platziert wird, bewegt; eine Probenstück-Transporteinheit, die so konfiguriert ist, dass sie das Probenstück, das von der Probe getrennt und extrahiert wurde, hält und befördert; eine Halterbefestigungsbasis, die so konfiguriert ist, dass sie einen Probenstückhalter hält, zu dem das Probenstück transportiert wird; und einen Rechner, der so konfiguriert ist, dass er die Steuerung einer Position in Bezug auf ein Ziel durchführt, basierend auf: einem Ergebnis einer zweiten Bestimmung über die Position, die in Abhängigkeit von einem Ergebnis der ersten Bestimmung über die Position ausgeführt wird; und Informationen einschließlich eines Bildes, das durch Bestrahlung mit dem Ladungsträgerstrahl erhalten wird.(1) According to at least one embodiment of the present invention, there is provided a charged carrier beam device configured to automatically produce a specimen from a sample, the charged carrier beam device comprising: an optical system for irradiating a charged carrier beam configured to that it illuminates a charge carrier beam; a sample table configured to move the sample placed on the sample table; a sample piece transport unit configured to hold and transport the sample piece that has been separated and extracted from the sample; a holder attachment base configured to hold a specimen holder to which the specimen is transported; and a computer configured to perform control of a position with respect to a target based on: a result of a second determination of the position carried out in response to a result of the first determination of the position; and information including an image obtained by irradiating the charged carrier beam.

In der Ladungsträgerstrahlvorrichtung nach der oben unter Punkt (1) beschriebenen Ausführungsform ist die Position eines Zieles aufgrund des Ergebnisses der zweiten Bestimmung, die in Abhängigkeit vom Ergebnis der ersten Bestimmung durchgeführt wird, detektierbar und damit die automatisierte MS stabilisiert.In the charged carrier beam device according to the embodiment described above under point (1), the position of a target can be detected on the basis of the result of the second determination, which is carried out as a function of the result of the first determination, and the automated MS is thus stabilized.

Wenn ein Fehler bei der Erkennung der Position eines Ziels die automatisierte MS beim Stand der Technik zum Stillstand bringt, muss sich der Benutzer jedes Mal mit der Situation auseinandersetzen, wenn die automatisierte MS zum Stillstand kommt, was zu einem Rückgang des Durchsatzes führt. In der Ladungsträgerstrahlvorrichtung gemäß der unter Punkt (1) beschriebenen Ausführungsform ist die Position eines Ziels auf der Grundlage des Ergebnisses der zweiten Bestimmung auch dann nachweisbar, wenn die erste Bestimmung fehlschlägt, was die Erfolgsrate der Positionserfassung verbessert und die Ladungsträgerstrahlvorrichtung in die Lage versetzt, sich im Falle eines Fehlschlags des Schablonenabgleichs zu erholen.In the prior art, when an error in detecting the position of a target brings the automated MS to a standstill, the user has to deal with the situation every time the automated MS comes to a standstill, resulting in a decrease in throughput. In the charged carrier beam device according to the embodiment described in item (1), the position of a target is based on the result The second determination is also detectable if the first determination fails, which improves the success rate of the position detection and enables the charged carrier beam device to recover in the event of a failure of the template matching.

(2) In der Ladungsträgerstrahlvorrichtung gemäß dem oben beschriebenen Punkt (1) ist die erste Bestimmung eine Bestimmung, die auf einem Schablonenabgleich basiert, bei der eine Schablone über das Ziel verwendet wird, und die zweite Bestimmung ist eine Bestimmung, die auf einem Maschinenlernmodell basiert, bei dem eine zweite Information einschließlich eines zweiten Bildes eines zweiten Ziels gelernt wird.(2) In the charged particle beam device according to item (1) described above, the first determination is a determination based on template matching using a template about the target, and the second determination is a determination based on a machine learning model in which second information including a second image of a second target is learned.

In der Ladungsträgerstrahlvorrichtung gemäß der unter Punkt (2) beschriebenen Ausführungsform ist die Position eines Ziels aus dem Ergebnis der Bestimmung auf der Grundlage eines Maschinenlernmodells erkennbar, das in Abhängigkeit vom Ergebnis der auf dem Schablonenabgleich basierenden Bestimmung ausgeführt wird. Automatisierte MS kann daher auf der Grundlage des Schablonenabgleichs und auf der Grundlage eines Maschinenlernmodells stabilisiert werden. Insbesondere kann die Ladungsträgerstrahlvorrichtung gemäß der in Punkt (2) beschriebenen Ausführungsform die Position eines Ziels auf der Grundlage eines Maschinenlernmodells unabhängig von einem Fehler beim Schablonenabgleich erkennen.In the charged beam device according to the embodiment described in item (2), the position of a target can be recognized from the result of the determination based on a machine learning model which is carried out depending on the result of the determination based on the template matching. Automated MS can therefore be stabilized on the basis of the template matching and on the basis of a machine learning model. In particular, the charged carrier beam apparatus according to the embodiment described in item (2) can recognize the position of a target based on a machine learning model regardless of an error in template matching.

(3) In der Ladungsträgerstrahlvorrichtung gemäß Punkt (1) oder (2), wie oben beschrieben, ist der Rechner so konfiguriert, dass er eine Bestimmungsart für mindestens eine der ersten Bestimmung oder der zweiten Bestimmung auswählt, basierend auf einem Ergebnis der dritten Bestimmung zur Auswahl einer Bestimmungsart.(3) In the charged carrier beam device according to item (1) or (2) described above, the calculator is configured to select a determination type for at least one of the first determination or the second determination based on a result of the third determination for Selection of a determination type.

In der Ladungsträgerstrahlvorrichtung nach der oben unter Punkt (3) beschriebenen Ausführungsform kann eine Bestimmungsart (ein geeigneter Bildverarbeitungsalgorithmus) für die Bestimmung der Position eines Zieles ausgewählt und die Genauigkeit der Erfassung der Zielposition entsprechend verbessert werden.In the charged carrier beam device according to the embodiment described in item (3) above, a determination mode (an appropriate image processing algorithm) for determining the position of a target can be selected and the accuracy of detection of the target position can be improved accordingly.

(4) In der Vorrichtung für einen geladenen Teilchenstrahl gemäß einem der oben beschriebenen Punkte (1) bis (3) ist der Rechner 30 konfiguriert, dass er eine Steuerung der Position durchführt, basierend auf: einem Ergebnis einer vierten Bestimmung, die basierend auf mindestens einem Ergebnis der ersten Bestimmung oder dem Ergebnis der zweiten Bestimmung ausgewählt wird; und der Information einschließlich des Bildes, das durch Bestrahlung mit dem Ladungsträgerstrahl erhalten wird.(4) In the charged particle beam apparatus according to any one of (1) to (3) described above, the computer 30 is configured to perform position control based on: a result of a fourth determination based on at least a result of the first determination or the result of the second determination is selected; and the information including the image obtained by irradiating the charged carrier beam.

In der Ladungsträgerstrahlvorrichtung gemäß der oben unter Punkt (4) beschriebenen Ausführungsform ist die Position eines Ziels auf der Grundlage des Ergebnisses der vierten Bestimmung feststellbar, die auf der Grundlage mindestens eines der Ergebnisse der ersten Bestimmung oder des Ergebnisses der zweiten Bestimmung ausgewählt wird, und die automatisierte MS wird daher stärker stabilisiert, als wenn die Position eines Ziels auf der Grundlage des Ergebnisses der zweiten Bestimmung festgestellt wird.In the charged carrier beam device according to the embodiment described in item (4) above, the position of a target can be determined based on the result of the fourth determination, which is selected based on at least one of the results of the first determination or the result of the second determination, and the Automated MS is therefore stabilized more than when the position of a target is determined based on the result of the second determination.

Nach der vorliegenden Erfindung wird die automatisierte Mikroprobennahme stabilisiert.In accordance with the present invention, automated microsampling is stabilized.

FigurenlisteFigure list

  • 1 ist eine Zeichnung zur Veranschaulichung eines Beispiels für eine Konfiguration einer Ladungsträgerstrahlvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung und einer Konfiguration eines Bildverarbeitungsrechners in der ersten Ausführungsform. 1 Fig. 13 is a drawing showing an example of a configuration of a charged carrier beam device according to a first embodiment of the present invention and a configuration of an image processing computer in the first embodiment.
  • 2 ist eine Zeichnung zur Veranschaulichung eines Beispiels für die Konfiguration der Ladungsträgerstrahlvorrichtung nach der ersten Ausführungsform der vorliegenden Erfindung. 2 Fig. 13 is a drawing showing an example of the configuration of the charged carrier beam device according to the first embodiment of the present invention.
  • 3 ist eine Draufsicht zur Veranschaulichung eines Probenstücks in der ersten Ausführungsform der vorliegenden Erfindung. 3 Fig. 13 is a plan view showing a sample piece in the first embodiment of the present invention.
  • 4 ist eine Draufsicht eines Probenstückhalters in der ersten Ausführungsform der vorliegenden Erfindung. 4th Fig. 13 is a plan view of a specimen holder in the first embodiment of the present invention.
  • 5 ist eine Seitenansicht des Probenstückhalters in der ersten Ausführungsform der vorliegenden Erfindung. 5 Fig. 13 is a side view of the specimen holder in the first embodiment of the present invention.
  • 6 ist eine Zeichnung zur Veranschaulichung eines Beispiels für die Konfiguration des Bildverarbeitungsrechners in der ersten Ausführungsform der vorliegenden Erfindung. 6th Fig. 13 is a drawing showing an example of the configuration of the image processing computer in the first embodiment of the present invention.
  • 7 ist eine Zeichnung zur Veranschaulichung eines Beispiels für einen ersten Einstellschritt in der ersten Ausführungsform der vorliegenden Erfindung. 7th Fig. 13 is a drawing showing an example of a first setting step in the first embodiment of the present invention.
  • 8 ist eine Draufsicht auf einen säulenartigen Abschnitt in der ersten Ausführungsform der vorliegenden Erfindung. 8th Fig. 13 is a plan view of a columnar portion in the first embodiment of the present invention.
  • 9 ist eine Seitenansicht des säulenartigen Abschnitts in der ersten Ausführungsform der vorliegenden Erfindung. 9 Fig. 13 is a side view of the columnar portion in the first embodiment of the present invention.
  • 10 ist eine Zeichnung zur Veranschaulichung eines Beispiels für Lernbilder der säulenartigen Abschnitte in der ersten Ausführungsform der vorliegenden Erfindung. 10 Fig. 13 is a drawing showing an example of learning images of the columnar portions in the first embodiment of the present invention.
  • 11 ist eine Ansicht zur Veranschaulichung eines Beispiels für den säulenartigen Abschnitt in der ersten Ausführungsform der vorliegenden Erfindung, in der eine Säule keine abgestufte Struktur hat. 11 Fig. 13 is a view showing an example of the columnar portion in the first embodiment of the present invention in which a column does not have a stepped structure.
  • 12 ist eine Zeichnung zur Veranschaulichung eines Beispiels für Lernbilder der säulenartigen Abschnitte in der ersten Ausführungsform der vorliegenden Erfindung, in der die Säule keine abgestufte Struktur hat. 12th Fig. 13 is a drawing showing an example of learning images of the columnar portions in the first embodiment of the present invention in which the column does not have a stepped structure.
  • 13 ist eine Zeichnung zur Veranschaulichung eines Beispiels für einen Schritt zur Aufnahme eines Probenstücks in der ersten Ausführungsform der vorliegenden Erfindung. 13th Fig. 13 is a drawing showing an example of a step for receiving a specimen in the first embodiment of the present invention.
  • 14 ist eine Zeichnung zur Veranschaulichung eines Verarbeitungsbeispiels für das Bewegen einer Nadel in der ersten Ausführungsform der vorliegenden Erfindung. 14th Fig. 13 is a drawing showing an example of processing for moving a needle in the first embodiment of the present invention.
  • 15 ist eine Zeichnung zur Veranschaulichung eines Beispiels für die Verarbeitung zur Bestimmung der Nadelspitzenposition in der ersten Ausführungsform der vorliegenden Erfindung. 15th Fig. 13 is a drawing showing an example of the processing for determining the needle tip position in the first embodiment of the present invention.
  • 16 ist eine Zeichnung zur Veranschaulichung eines Beispiels von REM-Bilddaten, das eine Nadelspitze in der ersten Ausführungsform der vorliegenden Erfindung enthält. 16 Fig. 13 is a drawing showing an example of SEM image data including a needle tip in the first embodiment of the present invention.
  • 17 ist eine Zeichnung zur Veranschaulichung eines Beispiels von SIM-Bilddaten, das die Nadelspitze in der ersten Ausführungsform der vorliegenden Erfindung enthält. 17th Fig. 13 is a drawing showing an example of SIM image data that the needle tip contains in the first embodiment of the present invention.
  • 18 ist eine Zeichnung zur Veranschaulichung eines Beispiels für die Nadelspitze in der ersten Ausführungsform der vorliegenden Erfindung. 18th Fig. 13 is a drawing showing an example of the needle tip in the first embodiment of the present invention.
  • 19 ist eine Zeichnung zur Veranschaulichung eines Beispiels für Lernbilder der Nadel in der ersten Ausführungsform der vorliegenden Erfindung. 19th Fig. 13 is a drawing showing an example of learning images of the needle in the first embodiment of the present invention.
  • 20 ist eine Zeichnung zur Veranschaulichung eines Beispiels eines Probenstücks, das bei der ersten Ausführungsform der vorliegenden Erfindung an der Nadelspitze anhaftet. 20th Fig. 13 is a drawing showing an example of a sample piece adhered to the needle tip in the first embodiment of the present invention.
  • 21 ist eine Zeichnung zur Veranschaulichung eines Beispiels von Lernbildern für abnormale Fälle in der ersten Ausführungsform der vorliegenden Erfindung. 21 Fig. 13 is a drawing showing an example of learning images for abnormal cases in the first embodiment of the present invention.
  • 22 ist eine Ansicht zur Veranschaulichung eines Beispiels für die Entfernung eines Fremdmaterials in der ersten Ausführungsform der vorliegenden Erfindung. 22nd Fig. 13 is a view illustrating an example of foreign matter removal in the first embodiment of the present invention.
  • 23 ist eine Zeichnung zur Veranschaulichung eines Beispiels für die Verarbeitung zur Bestimmung der Aufnahmeposition in der ersten Ausführungsform der vorliegenden Erfindung. 23 Fig. 13 is a drawing showing an example of the processing for determining the pickup position in the first embodiment of the present invention.
  • 24 ist eine Zeichnung zur Veranschaulichung eines Beispiels von SIM-Bilddaten, das ein Probenstück in der ersten Ausführungsform der vorliegenden Erfindung enthält. 24 Fig. 13 is a drawing showing an example of SIM image data that a sample piece contains in the first embodiment of the present invention.
  • 25 ist eine Zeichnung zur Veranschaulichung eines Beispiels für Lernbilder des Probenstücks in der ersten Ausführungsform der vorliegenden Erfindung. 25th Fig. 13 is a drawing showing an example of learning images of the sample piece in the first embodiment of the present invention.
  • 26 ist eine Zeichnung zur Veranschaulichung eines Beispiels für Lernbilder in der ersten Ausführungsform der vorliegenden Erfindung. 26th Fig. 13 is a drawing showing an example of learning images in the first embodiment of the present invention.
  • 27 ist eine Zeichnung zur Veranschaulichung eines Beispiels für ein Bild, das in die erste Ausführungsform der vorliegenden Erfindung eingefügt werden soll. 27 Fig. 13 is a drawing showing an example of an image to be inserted in the first embodiment of the present invention.
  • 28 ist eine Zeichnung zur Veranschaulichung eines Beispiels für ein Bild, für das in der ersten Ausführungsform der vorliegenden Erfindung ein Merkmalspunkt festgelegt ist. 28 Fig. 13 is a drawing showing an example of an image for which a feature point is set in the first embodiment of the present invention.
  • 29 ist eine Zeichnung zur Veranschaulichung eines Beispiels für ein Bild, für das in der ersten Ausführungsform der vorliegenden Erfindung Merkmalspunkte festgelegt sind. 29 Fig. 13 is a drawing showing an example of an image for which feature points are set in the first embodiment of the present invention.
  • 30 ist eine Zeichnung zur Veranschaulichung einer Schnittbearbeitungsposition, an der in eine Probe und einen Stützabschnitt eines Probenstücks SIM-Bilddaten in der ersten Ausführungsform der vorliegenden Erfindung geschnitten werden. 30th Fig. 13 is a drawing showing a cutting processing position at which SIM image data is cut into a sample and a support portion of a sample piece in the first embodiment of the present invention.
  • 31 ist eine Zeichnung zur Veranschaulichung eines Beispiels für einen Montageschritt eines Probenstücks in der ersten Ausführungsform der vorliegenden Erfindung. 31 Fig. 13 is a drawing showing an example of an assembling step of a sample piece in the first embodiment of the present invention.
  • 32 ist eine Zeichnung zur Veranschaulichung eines Beispiels für eine Konfiguration eines Bildverarbeitungsrechners in einer zweiten Ausführungsform der vorliegenden Erfindung. 32 Fig. 13 is a drawing showing an example of a configuration of an image processing computer in a second embodiment of the present invention.
  • 33 ist eine Zeichnung zur Veranschaulichung eines Beispiels für „bare wäre“ in der zweiten Ausführungsform der vorliegenden Erfindung. 33 Fig. 13 is a drawing showing an example of “bare would” in the second embodiment of the present invention.
  • 34 ist eine Zeichnung zur Veranschaulichung eines Beispiels für ein Musterbild in der zweiten Ausführungsform der vorliegenden Erfindung. 34 Fig. 13 is a drawing showing an example of a pattern image in the second embodiment of the present invention.
  • 35 ist eine Zeichnung zur Veranschaulichung eines Beispiels von Pseudobildern in der zweiten Ausführungsform der vorliegenden Erfindung. 35 Fig. 13 is a drawing for illustrating an example of pseudo-images in the second embodiment of the present invention.
  • 36 ist eine Zeichnung zur Veranschaulichung eines Verarbeitungsbeispiels für die Erkennung einer Aufnahmeposition in der zweiten Ausführungsform der vorliegenden Erfindung. 36 Fig. 13 is a drawing showing an example of processing for detecting a pickup position in the second embodiment of the present invention.

BESCHREIBUNG DER AUSFÜHRUNGSFORMENDESCRIPTION OF THE EMBODIMENTS

(Erste Ausführungsform)(First embodiment)

Ausführungsformen der vorliegenden Erfindung werden im Folgenden unter Bezugnahme auf die Zeichnungen ausführlich beschrieben. 1 ist eine Zeichnung zur Veranschaulichung eines Beispiels für eine Konfiguration einer Ladungsträgerstrahlvorrichtung 10 gemäß einer ersten Ausführungsform der vorliegenden Erfindung und einer Konfiguration eines Bildverarbeitungsrechners 30 in der ersten Ausführungsform. Ein Steuerrechner 22, der in der Ladungsträgerstrahlvorrichtung 10 enthalten ist, erhält Bilddaten, die durch Bestrahlung mit einem Ladungsteilchenstrahl erhalten werden. Der Steuerrechner 22 sendet oder empfängt Daten zu oder von dem Bildverarbeitungsrechner 30. Der Bildverarbeitungsrechner 30 bestimmt ein Ziel, das in den vom Steuerrechner 22 empfangenen Bilddaten enthalten ist, zunächst auf der Grundlage eines Schablonenabgleichs unter Verwendung einer Schablone T. Wenn die Bestimmung durch Schablonenabgleich fehlschlägt, bestimmt der Bildverarbeitungsrechner 30 dieses Ziel auf der Grundlage eines Maschinenlernmodells M. Der Steuerrechner 22 führt eine Positionssteuerung in Bezug auf das Ziel auf der Grundlage des Ergebnisses der Bestimmung durch den Bildverarbeitungsrechner 30 durch.Embodiments of the present invention will be described in detail below with reference to the drawings. 1 Fig. 13 is a drawing showing an example of a configuration of a charged carrier beam device 10 according to a first embodiment of the present invention and a configuration of an image processing computer 30th in the first embodiment. A tax calculator 22nd that is in the charged beam device 10 is contained, obtains image data obtained by irradiating a charged particle beam. The tax calculator 22nd sends or receives data to or from the image processing computer 30th . The image processing computer 30th determines a goal that is in the from the control computer 22nd received image data is included, initially on the basis of a template comparison using a template T . If the determination by template matching fails, the image processing computer determines 30th this goal based on a machine learning model M. . The tax calculator 22nd performs position control with respect to the target based on the result of the determination by the image processing computer 30th by.

Der Steuerrechner 22 ist ein Beispiel für einen Rechner, der so konfiguriert ist, dass er in Abhängigkeit vom Ergebnis einer ersten Bestimmung (Schablonenabgleich) über eine Position in Bezug auf ein Ziel eine zweite Bestimmung (Bestimmung auf der Grundlage des Maschinenlernmodells M) über die Position in Bezug auf das Ziel ausführt und eine Positionssteuerung in Bezug auf ein zweites Ziel auf der Grundlage des Ergebnisses der zweiten Bestimmung und auf der Grundlage von Informationen einschließlich eines durch Bestrahlung mit einem Ladungsträgerstrahl erhaltenen Bildes durchführt.The tax calculator 22nd is an example of a computer configured to make a second determination (determination based on the machine learning model) based on the result of a first determination (template matching) of a position with respect to a target M. ) on the position with respect to the target and performs position control with respect to a second target on the basis of the result of the second determination and on the basis of information including an image obtained by irradiation with a charged beam.

Der Bildverarbeitungsrechner 30 kann in die Ladungsträgerstrahlvorrichtung 10 integriert werden.The image processing computer 30th can into the charged beam device 10 to get integrated.

Die Konfiguration der Ladungsträgerstrahlvorrichtung 10 wird unter Bezugnahme auf 2 beschrieben.The configuration of the charged carrier beam device 10 is made with reference to 2 described.

(Ladungsträgerstrahlvorrichtung)(Charge carrier beam device)

2 ist eine Zeichnung zur Veranschaulichung eines Beispiels für die Konfiguration der Ladungsträgerstrahlvorrichtung 10 gemäß der ersten Ausführungsform. Die Ladungsträgerstrahlvorrichtung 10 umfasst eine Probenkammer 11, einen Probentisch 12, einen Probentischantriebsmechanismus 13, ein optisches System zur Bestrahlung mit fokussiertem Ionenstrahl 14, ein optisches System zur Bestrahlung mit Elektronenstrahl 15, einen Erfasser 16, eine Gasversorgungseinheit 17, eine Nadel 18, einen Nadelantriebsmechanismus 19, einen Absorptionsstromerfasser 20, eine Anzeigevorrichtung 21, den Steuerrechner 22 und eine Eingabevorrichtung 23. 2 Fig. 13 is a drawing showing an example of the configuration of the charged carrier beam device 10 according to the first embodiment. The charged beam device 10 includes a sample chamber 11 , a sample table 12th , a stage drive mechanism 13th , an optical system for irradiation with a focused ion beam 14th , an optical system for electron beam irradiation 15th , a recorder 16 , a gas supply unit 17th , a needle 18th , a needle drive mechanism 19th , an absorption flow meter 20th , a display device 21 , the tax calculator 22nd and an input device 23 .

Das Innere der Probenkammer 11 wird in einem Vakuumzustand gehalten. Der Probentisch 12 fixiert eine Probe S und einen Probenstückhalter P im Inneren der Probenkammer 11. Der Probentisch 12 enthält eine Halterbefestigungsbasis 12a, die so konfiguriert ist, dass sie den Probenstückhalter P hält. Die Halterbefestigungsbasis 12a kann so aufgebaut sein, dass mehrere Probenstückhalter P daran befestigt werden können.The inside of the sample chamber 11 is kept in a vacuum state. The sample table 12th fixes a sample S. and a sample holder P inside the sample chamber 11 . The sample table 12th includes a holder mounting base 12a that is configured to hold the specimen holder P holds. The holder mounting base 12a can be constructed so that several specimen holders P can be attached to it.

Der Probentischantriebsmechanismus 13 treibt den Probentisch 12 an. Hier befindet sich der Probentischantriebsmechanismus 13 in der Probenkammer 11 in einem Zustand, in dem er mit dem Probentisch 12 verbunden ist, und ist so konfiguriert, dass er den Probentisch 12 in Bezug auf eine vorbestimmte Achse in Übereinstimmung mit einem vom Steuerrechner 22 ausgegebenen Steuersignal verschiebt. Der Probentischantriebsmechanismus 13 enthält einen Bewegungsmechanismus 13a, der so konfiguriert ist, dass er den Probentisch 12 zumindest entlang und parallel zu einer X-Achse und einer Y-Achse, die parallel zu einer horizontalen Ebene und orthogonal zueinander sind, und einer Z-Achse in einer vertikalen Richtung, die orthogonal zur X-Achse und zur Y-Achse ist, bewegt. Der Probentischantriebsmechanismus 13 umfasst einen Kippmechanismus 13b, der so konfiguriert ist, dass er den Probentisch 12 um die X-Achse oder die Y-Achse kippt, und einen Rotationsmechanismus 13c, der so konfiguriert ist, dass er den Probentisch 12 um die Z-Achse dreht.The stage drive mechanism 13th drives the sample table 12th at. This is where the stage drive mechanism is located 13th in the sample chamber 11 in a state in which he is with the sample table 12th is connected, and is configured to use the sample stage 12th with respect to a predetermined axis in accordance with one from the control computer 22nd shifts the output control signal. The stage drive mechanism 13th contains a movement mechanism 13a that is configured to hold the sample stage 12th at least along and parallel to an X-axis and a Y-axis that are parallel to a horizontal plane and orthogonal to each other, and a Z-axis in a vertical direction that is orthogonal to the X-axis and the Y-axis . The stage drive mechanism 13th includes a tilt mechanism 13b that is configured to hold the sample stage 12th tilts about the X-axis or the Y-axis, and a rotating mechanism 13c that is configured to hold the sample stage 12th rotates around the Z-axis.

Das optische System 14 zur Bestrahlung mit fokussiertem Ionenstrahl bestrahlt ein Bestrahlungsziel innerhalb eines vorgegebenen Bestrahlungsbereichs (nämlich des Abtastbereichs) in der Probenkammer 11 mit einem fokussierten Ionenstrahl (FIB). Das optische System 14 zur Bestrahlung mit fokussiertem Ionenstrahl bestrahlt das Bestrahlungsziel, das die auf dem Probentisch 12 platzierte Probe S, ein Probenstück Q, die im Bestrahlungsbereich vorhandene Nadel 18 und andere enthält, mit einem fokussierten Ionenstrahl von oben nach unten in vertikaler Richtung.The optical system 14th for irradiation with a focused ion beam, an irradiation target irradiates within a predetermined irradiation area (namely, the scanning area) in the sample chamber 11 with a focused ion beam ( FIB ). The optical system 14th for irradiation with focused ion beam irradiates the irradiation target that is on the sample table 12th placed sample S. , a sample piece Q , the needle present in the treatment area 18th and others, with a focused ion beam from top to bottom in a vertical direction.

Das optische System 14 zur Bestrahlung mit fokussierten Ionenstrahlen umfasst eine Ionenquelle 14a, die so konfiguriert ist, dass sie Ionen erzeugt, und ein optisches System 14b, das so konfiguriert ist, dass es die aus der Ionenquelle 14a extrahierten Ionen fokussiert und ablenkt. Die Ionenquelle 14a und das ionenoptische System 14b werden in Übereinstimmung mit einem vom Steuerrechner 22 ausgegebenen Steuersignal so gesteuert, dass eine Bestrahlungsposition, Bestrahlungsbedingungen und dergleichen des fokussierten Ionenstrahls vom Steuerrechner 22 gesteuert werden.The optical system 14th for irradiation with focused ion beams comprises a Ion source 14a configured to generate ions and an optical system 14b that is configured to take out the ion source 14a extracted ions are focused and deflected. The ion source 14a and the ion optical system 14b will be in accordance with one from the control computer 22nd output control signal controlled so that an irradiation position, irradiation conditions and the like of the focused ion beam from the control computer 22nd to be controlled.

Das optische System 15 zur Bestrahlung mit Elektronenstrahlen bestrahlt das Bestrahlungsziel innerhalb eines vorgegebenen Bestrahlungsbereichs in der Probenkammer 11 mit einem Elektronenstrahl (EB). Das optische System 15 zur Bestrahlung mit Elektronenstrahlen kann das Bestrahlungsziel, das die auf dem Probentisch 12 befestigte Probe S, das Probenstück Q, die im Bestrahlungsbereich befindliche Nadel 18 und andere umfasst, mit einem Elektronenstrahl von oben nach unten in einer Kipprichtung mit der Neigung eines vorbestimmten Winkels (z.B. 60°) in Bezug auf die vertikale Richtung bestrahlen.The optical system 15th for irradiation with electron beams, the irradiation target irradiates within a predetermined irradiation area in the sample chamber 11 with an electron beam ( EB ). The optical system 15th for irradiation with electron beams, the irradiation target that is placed on the sample table 12th attached sample S. , the sample piece Q , the needle in the treatment area 18th and others include irradiating an electron beam from top to bottom in a tilting direction with the inclination of a predetermined angle (eg, 60 °) with respect to the vertical direction.

Das optische System 15 zur Bestrahlung mit Elektronenstrahlen umfasst eine Elektronenquelle 15a, die so konfiguriert ist, dass sie Elektronen erzeugt, und ein elektronenoptisches System 15b, das so konfiguriert ist, dass es die von der Elektronenquelle 15a emittierten Elektronen fokussiert und ablenkt. Die Elektronenquelle 15a und das elektronenoptische System 15b werden in Übereinstimmung mit einem vom Steuerrechner 22 ausgegebenen Steuersignal so gesteuert, dass eine Bestrahlungsposition, Bestrahlungsbedingungen und dergleichen des Elektronenstrahls vom Steuerrechner 22 gesteuert werden.The optical system 15th for irradiation with electron beams comprises an electron source 15a configured to generate electrons and an electron optical system 15b that is configured so that it is taken from the electron source 15a focuses and deflects emitted electrons. The electron source 15a and the electron optical system 15b will be in accordance with one from the control computer 22nd output control signal controlled so that an irradiation position, irradiation conditions and the like of the electron beam from the control computer 22nd to be controlled.

Die Anordnung des optischen Systems 15 zur Bestrahlung mit Elektronenstrahlen und das optische System 14 zur Bestrahlung mit fokussierten Ionenstrahlen kann so geschaltet werden, dass das optische Systems 15 zur Bestrahlung mit Elektronenstrahlen in vertikaler Richtung und das optische System 14 zur Bestrahlung mit fokussierten Ionenstrahlen in Kipprichtung mit der Neigung um einen vorbestimmten Winkel in vertikaler Richtung angeordnet wird.The arrangement of the optical system 15th for irradiation with electron beams and the optical system 14th for irradiation with focused ion beams can be switched so that the optical system 15th for irradiation with electron beams in the vertical direction and the optical system 14th for irradiation with focused ion beams is arranged in the tilting direction with the inclination by a predetermined angle in the vertical direction.

Der Erfasser 16 erfasst sekundäre geladene Teilchen (Sekundärelektronen oder Sekundärionen) R, die aus dem Bestrahlungsziel durch Bestrahlung mit einem fokussierten Ionenstrahl oder einem Elektronenstrahl erzeugt werden. Die Gasversorgungseinheit 17 führt einer Oberfläche des Bestrahlungsziels Gas G zu. Die Nadel 18 entnimmt das winzige Probenstück Q aus der auf dem Probentisch 12 befestigten Probe S und hält und transportiert das Probenstück Q zum Probenstückhalter P. Der Nadelantriebsmechanismus 19 treibt die Nadel 18 an, um das Probenstück Q zu transportieren. In der folgenden Beschreibung können die Nadel 18 und der Nadelantriebsmechanismus 19 zusammen als „Probenstück-Transporteinheit“ bezeichnet werden.The recorder 16 detects secondary charged particles (secondary electrons or secondary ions) R. generated from the irradiation target by irradiation with a focused ion beam or an electron beam. The gas supply unit 17th supplies gas to a surface of the irradiation target G to. The needle 18th removes the tiny sample Q from the on the sample table 12th attached sample S. and holds and transports the sample Q to the sample holder P . The needle drive mechanism 19th drives the needle 18th to the specimen Q to transport. In the following description, the needle 18th and the needle drive mechanism 19th collectively referred to as the "sample transport unit".

Der Absorptionsstromerfasser 20 erfasst einen einströmenden Strom (auch Absorptionsstrom genannt) eines Ladungsträgerstrahls, der in die Nadel 18 fließt, und gibt das Ergebnis der Erfassung als einströmendes Stromsignal an den Steuerrechner 22 aus.The absorption flow meter 20th detects an inflowing current (also called absorption current) of a charge carrier beam entering the needle 18th flows, and gives the result of the detection as an incoming current signal to the control computer 22nd out.

Der Steuerrechner 22 steuert mindestens den Probentischantriebsmechanismus 13, das optische System 14 zur Bestrahlung mit fokussiertem Ionenstrahl, das optische System 15 zur Bestrahlung mit Elektronenstrahl, die Gasversorgungseinheit 17 und den Nadelantriebsmechanismus 19. Der Steuerrechner 22 ist außerhalb der Probenkammer 11 angeordnet und mit der Anzeigevorrichtung 21 und der Eingabevorrichtung 23, z.B. einer Maus oder einer Tastatur, verbunden, die so konfiguriert ist, dass sie ein Signal ausgibt, das einer Eingabeoperation eines Bedieners entspricht. Der Steuerrechner 22 steuert zentral den Betrieb der Ladungsträgerstrahlvorrichtung 10, z.B. mit dem von der Eingabeeinrichtung 23 ausgegebenen Signal oder einem Signal, das durch eine voreingestellte automatische Antriebssteuerungsverarbeitung erzeugt wird.The tax calculator 22nd controls at least the stage drive mechanism 13th , the optical system 14th for irradiation with a focused ion beam, the optical system 15th for irradiation with electron beam, the gas supply unit 17th and the needle drive mechanism 19th . The tax calculator 22nd is outside the sample chamber 11 arranged and with the display device 21 and the input device 23 , for example, a mouse or a keyboard, which is configured to output a signal corresponding to an input operation of an operator. The tax calculator 22nd centrally controls the operation of the charge carrier beam device 10 , for example with the one from the input device 23 output signal or a signal generated by preset automatic drive control processing.

Wie oben beschrieben, führt der Steuerrechner 22 eine Positionsregelung in Bezug auf ein Ziel durch, basierend auf dem Ergebnis der Bestimmung durch den Bildverarbeitungsrechner 30. Der Steuerrechner 22 enthält eine Kommunikationsschnittstelle für die Kommunikation zum und vom Bildverarbeitungsrechner 30.As described above, the control computer performs 22nd position control with respect to a target based on the result of the determination by the image processing computer 30th . The tax calculator 22nd contains a communication interface for communication to and from the image processing computer 30th .

Der Steuerrechner 22 verwendet das einströmende Stromsignal, das vom Absorptionsstromerfasser 20 ausgegeben wird, als Absorptionsstrom-Bilddaten, um aus dem Signal ein Bild zu erzeugen. Dabei wandelt der Steuerrechner 22 die erfasste Menge der sekundäre geladenen Teilchen R, die von dem Erfasser 16 während der Abtastung einer mit dem Ladungsträgerstrahl bestrahlten Bestrahlungsposition erfasst werden, in ein der Bestrahlungsposition zugeordnetes Leuchtdichtesignal um und erzeugt Absorptionsstrom-Bilddaten, die eine Form des Bestrahlungsziels durch eine zweidimensionale Positionsverteilung der erfassten Menge der sekundäre geladenen Teilchen R anzeigen. In einem Absorptionsstrom-Bildmodus erzeugt der Steuerrechner 22 Absorptionsstrom-Bilddaten, die mittels einer zweidimensionalen Positionsverteilung eines Absorptionsstroms (Absorptionsstrombild) die Form der Nadel 18 anzeigen, indem er einen Absorptionsstrom erfasst, der während der Abtastung der Bestrahlungsposition, die mit dem Ladungsträgerstrahl bestrahlt wird, in der Nadel 18 fließt. Der Steuerrechner 22 zeigt die erzeugten Bilddaten auf der Anzeigevorrichtung 21 an.The tax calculator 22nd uses the incoming flow signal received from the absorption flow meter 20th is output as absorption current image data to form an image from the signal. The control computer converts 22nd the detected amount of secondary charged particles R. by the recorder 16 are detected during the scanning of an irradiation position irradiated with the charged carrier beam, into a luminance signal assigned to the irradiation position and generates absorption current image data which shows a shape of the irradiation target by a two-dimensional position distribution of the detected amount of the secondary charged particles R. Show. In an absorption current image mode, the control computer generates 22nd Absorption current image data showing the shape of the needle by means of a two-dimensional position distribution of an absorption current (absorption current image) 18th by detecting an absorption current generated during the scanning of the irradiation position irradiated with the charged carrier beam in the needle 18th flows. The tax calculator 22nd shows the generated image data on the display device 21 at.

Die Anzeigevorrichtung 21 zeigt unter anderem Bilddaten an, die auf den sekundären geladenen Teilchen R basieren, die vom Erfasser 16 erfasst werden.The display device 21 displays, among other things, image data on the secondary charged particles R. based on the recorder 16 are recorded.

Die Ladungsträgerstrahlvorrichtung 10 kann die Sichtbarmachung eines Bestrahlungsziels, verschiedene Arten der Verarbeitung (Abtragen, Trimmen und dergleichen) durch Sputtern, die Bildung eines Abscheidungsfilms und andere durch Bestrahlen und Abtasten einer Oberfläche des Bestrahlungsziels mit einem fokussierten Ionenstrahl ausführen.The charged beam device 10 can perform visualization of an irradiation target, various kinds of processing (ablation, trimming, and the like) by sputtering, formation of a deposition film, and others by irradiating and scanning a surface of the irradiation target with a focused ion beam.

3 ist eine Draufsicht zur Veranschaulichung des Probenstücks Q, das durch Bestrahlung einer Oberfläche (schraffierter Teil) der Probe S mit einem fokussierten Ionenstrahl in der Ladungsträgerstrahlvorrichtung 10 gemäß der ersten Ausführungsform der vorliegenden Erfindung vor der Extraktion des Probenstücks Q aus der Probe S gebildet wurde. Ein Bezugszeichen „F“ zeigt einen Bearbeitungsrahmen mit einem fokussierten Ionenstrahl an, d.h. einen Abtastbereich des fokussierten Ionenstrahls. Die Innenseite (weißer Teil) des Rahmens ist ein bearbeiteter Bereich H, der durch Abtragen durch eine Sputterbearbeitung erzeugt wird, die durch Bestrahlung mit dem fokussierten Ionenstrahl ausgeführt wird. Eine Referenzmarke „Ref“ stellt einen Bezugspunkt dar, die eine Position angibt, an der das Probenstück Q gebildet werden soll (die Position eines Teils, das beim Abtragen intakt bleiben soll). Eine grobe Position des Probenstücks Q wird mit Hilfe des Abscheidefilms ermittelt, und die Feinpositionierung des Probenstücks Q erfolgt über ein winziges Loch. In der Probe S werden periphere Teile des Probenstücks Q an den Seiten und am Boden geschliffen und durch Ätzbearbeitung entfernt, wobei ein Trägerteil Qa, das mit der Probe S verbunden ist, intakt bleibt. Das Probenstück Q ist durch den Trägerteil Qa freitragend mit der Probe S verbunden. 3 Fig. 13 is a plan view for illustrating the sample piece Q obtained by irradiating a surface (hatched part) of the sample S. with a focused ion beam in the charged beam device 10 according to the first embodiment of the present invention before the extraction of the sample piece Q from the sample S. was formed. A reference sign " F. “Indicates a processing frame with a focused ion beam, that is, a scanning area of the focused ion beam. The inside (white part) of the frame is a machined area H generated by ablation by sputtering processing carried out by irradiating the focused ion beam. A reference mark " Ref “Represents a reference point that indicates a position at which the specimen Q is to be formed (the position of a part that is to remain intact when it is removed). A rough position of the specimen Q is determined with the help of the deposition film, and the fine positioning of the sample piece Q takes place through a tiny hole. In the rehearsal S. become peripheral parts of the specimen Q Sanded on the sides and bottom and removed by etching, with a support part Qa that with the sample S. connected, remains intact. The sample piece Q is through the support part Qa unsupported with the sample S. connected.

Der Probenstückhalter P wird nachfolgend unter Bezugnahme auf 4 und 5 beschrieben.The sample holder P will be referred to below with reference to 4th and 5 described.

4 ist eine Draufsicht auf den Probenstückhalter P und 5 ist eine Seitenansicht des Probenstückhalters P. Der Probenstückhalter P besteht aus einem Basisabschnitt 42, das eine im Wesentlichen halbkreisförmige Platte ist und einen Ausschnitt 41 aufweist, und einem Probentisch 43, der am Ausschnitt 41 befestigt ist. Der Basisabschnitt 42 besteht z.B. aus Metall in Form einer kreisförmigen Platte. Der Probentisch 43 enthält eine Vielzahl von hervorstehenden säulenartigen Abschnitten (im folgenden auch als „Säulen“ bezeichnet) 44, die voneinander beabstandet sind, so dass sie die Form von Kammzähnen haben und zu dem Probenstücke Q transportiert werden sollen. 4th Fig. 3 is a plan view of the specimen holder P and 5 Fig. 3 is a side view of the specimen holder P . The sample holder P consists of a base section 42 , which is a substantially semicircular plate and has a cutout 41 and a sample table 43 that at the neckline 41 is attached. The base section 42 consists for example of metal in the form of a circular plate. The sample table 43 includes a plurality of protruding columnar portions (hereinafter also referred to as "columns") 44 which are spaced from one another so that they have the shape of comb teeth and to the specimen Q are to be transported.

(Bildverarbeitungsrechner)(Image processing computer)

Der Bildverarbeitungsrechner 30 wird nachfolgend unter Bezugnahme auf 6 beschrieben. 6 ist eine Zeichnung zur Veranschaulichung eines Beispiels für eine Konfiguration des Bildverarbeitungsrechners 30 in der ersten Ausführungsform. Der Bildverarbeitungsrechner 30 enthält eine Steuereinheit 300 und eine Speichereinheit 305.The image processing computer 30th will be referred to below with reference to 6th described. 6th Fig. 13 is a drawing showing an example of a configuration of the image processing computer 30th in the first embodiment. The image processing computer 30th contains a control unit 300 and a storage unit 305 .

Die Steuereinheit 300 umfasst eine Lerndatengewinnungseinheit 301, eine Lerneinheit 302, eine Bestimmungsbildgewinnungseinheit 303 und eine Bestimmungseinheit 304.The control unit 300 comprises a learning data acquisition unit 301 , a learning unit 302 , a destination image acquisition unit 303 and a determining unit 304 .

Die Lerndatengewinnungseinheit 301 gewinnt Lerndaten. Die Lerndaten sind Informationen, die für das Lernen im Maschinenlernen verwendet werden. Die Lerndaten sind eine Kombination aus einem Lernbild und Informationen, die die Position eines Ziels im Lernbild angeben. Beispiele für das Ziel im Lernbild sind das Probenstück, die Nadel und die säulenartigen Abschnitte, die im Probenstückhalter enthalten sind. Der Zieltyp im Lernbild und der Zieltyp in einem Bestimmungsbild sind identisch. Wenn beispielsweise der Zieltyp im Lernbild ein Probenstück, eine Nadel oder ein säulenartiger Abschnitt ist, ist der Zieltyp im Bestimmungsbild ein Probenstück, eine Nadel bzw. ein säulenartiger Abschnitt.The learning data acquisition unit 301 wins learning data. The learning data is information that is used for learning in machine learning. The learning data is a combination of a learning image and information indicating the position of a target in the learning image. Examples of the target in the learning image are the sample piece, the needle, and the columnar portions contained in the sample piece holder. The target type in the learning picture and the target type in a determination picture are identical. For example, if the target type in the learning image is a sample piece, a needle or a columnar portion, the target type in the determination image is a sample piece, a needle or a columnar portion.

In der ersten Ausführungsform werden als Lernbild ein SIM-Bild und ein REM-Bild verwendet, die im Voraus durch die Bestrahlung des Ziels mit einem Ladungsträgerstrahl gewonnen wurden. Der Ladungsträgerstrahl wird aus einer vorgegebenen Richtung auf das Ziel gestrahlt. In der Ladungsträgerstrahlvorrichtung 10 ist die Richtung eines Linsentubus jedes optischen Systems zur Bestrahlung mit einem Ladungsträgerstrahl festgelegt, und die Richtung, in der der Ladungsträgerstrahl auf das Ziel gestrahlt wird, ist entsprechend vorgegeben.In the first embodiment, a SIM image and an SEM image obtained in advance by irradiating the target with a carrier beam are used as the learning image. The charge carrier beam is radiated onto the target from a predetermined direction. In the charged beam device 10 For example, the direction of a lens barrel of each optical system for irradiating a charged beam is specified, and the direction in which the charged beam is irradiated on the target is specified accordingly.

Ein Beispiel für die Informationen, die die Position des Ziels im Lernbild angeben, sind Koordinaten, die die Position des Ziels im Lernbild angeben. Die Koordinaten, die die Position im Lernbild angeben, sind z.B. zweidimensionale orthogonale Koordinaten oder Polarkoordinaten.An example of the information indicating the position of the target in the learning image is coordinates indicating the position of the target in the learning image. The coordinates that indicate the position in the learning image are, for example, two-dimensional orthogonal coordinates or polar coordinates.

Das Lernbild umfasst sowohl ein SIM-Bild des Ziels als auch ein REM-Bild des Ziels. Das Lernbild besteht sowohl aus einem SIM-Bild, in dem das Ziel aus der Neigungsrichtung mit der Neigung eines vorbestimmten Winkels in Bezug auf die vertikale Richtung des Probentischs 12 betrachtet wird, als auch aus einem REM-Bild, in dem das Ziel aus der vertikalen Richtung des Probentischs 12 betrachtet wird. Das heißt, das Lernbild enthält ein Bild des Ziels, das aus einer ersten Richtung betrachtet wird, die mit dem Probentisch 12 als Referenz definiert ist, und ein Bild des Ziels, das aus einer zweiten Richtung betrachtet wird. Die zweite Richtung ist eine Richtung, die mit dem Probentisch 12 als Referenz definiert ist und die nicht die erste Richtung ist.The learning image includes both a SIM image of the target and an SEM image of the target. The learning image is composed of both a SIM image in which the target from the inclination direction with the inclination of a predetermined angle with respect to the vertical direction of the sample stage 12th is viewed, as well as from an SEM image in which the target is viewed from the vertical direction of the specimen stage 12th is looked at. That is, the learning image includes an image of the target viewed from a first direction that is with the sample stage 12th is defined as a reference, and an image of the target viewed from a second direction. The second direction is a direction that is with the sample stage 12th is defined as a reference and which is not the first direction.

Die Lerneinheit 302 führt Maschinenlernen auf der Grundlage der Lerndaten durch, die durch die Lerndatengewinnungseinheit 301 gewonnen werden. Die Lerneinheit 302 speichert das Ergebnis des Lernens als das Maschinenlernmodell M in der Speichereinheit 305. Die Lerneinheit 302 führt z.B. Maschinenlernen für jeden Zieltyp des in den Lerndaten enthaltenen Lernbildes aus. Das Maschinenlernmodell M wird dementsprechend für jeden Zieltyp des in den Lerndaten enthaltenen Lernbildes generiert. Die Lerneinheit 302 führt Maschinenlernen möglicherweise nicht für jeden Zieltyp aus. Das heißt, allgemeines Maschinenlernen kann unabhängig vom Typ des Lernziels ausgeführt werden. Ob die Lerneinheit 302 Maschinenlernen für jeden Zieltyp ausführt, wird auf dem Bildverarbeitungsrechner 30 z.B. aufgrund von Einstellungen, die in den Steuerrechner 22 eingegeben werden, eingestellt.The learning unit 302 performs machine learning based on the learning data obtained by the learning data acquisition unit 301 be won. The learning unit 302 stores the result of the learning as the machine learning model M. in the storage unit 305 . The learning unit 302 executes, for example, machine learning for each target type of the learning image contained in the learning data. The machine learning model M. is generated accordingly for each target type of the learning image contained in the learning data. The learning unit 302 machine learning may not perform for every target type. That is, general machine learning can be performed regardless of the type of learning objective. Whether the learning unit 302 Machine learning for each target type is performed on the image processing computer 30th eg due to settings made in the control computer 22nd entered.

Das Maschinenlernmodell M umfasst eine Vielzahl von Modellen. Die Vielzahl der im Maschinenlernmodell M enthaltenen Modelle wird nicht nur durch die bei der Generierung der Modelle verwendeten Lerndatensätze, sondern auch durch die Algorithmen des Maschinenlernens voneinander unterschieden.The machine learning model M. includes a variety of models. The multitude of in the machine learning model M. The models contained therein are distinguished from one another not only by the learning data sets used in generating the models, but also by the algorithms of machine learning.

In der folgenden Beschreibung kann ein Ziel, das durch Bildaufnahme erfasst oder in ein Bild eingezeichnet wurde, als „Ziel des Bildes“ bezeichnet werden.In the following description, a target captured by image capture or drawn into an image may be referred to as the “target of the image”.

Das Maschinenlernen, das von der Lerneinheit 302 durchgeführt wird, ist ein Tiefenlernen, bei dem z.B. ein faltendes neuronales Netz (CNN) verwendet wird. Das Maschinenlernmodell M umfasst in diesem Fall ein mehrschichtiges neuronales Netz, bei dem die Gewichtung zwischen den Knoten in Abhängigkeit von der Assoziation zwischen einem Lernbild und der Position eines Ziels im Lernbild variiert wird. Das mehrschichtige neuronale Netz umfasst eine Eingabeschicht, in der die Knoten den Pixeln eines Bildes entsprechen, und eine Ausgabeschicht, in der die Knoten den Positionen im Bild entsprechen. Wenn der Luminanzwert jedes Pixels in einem SIM- oder REM-Bild in die Eingabeschicht eingegeben wird, wird ein Satz von Werten, die eine Position im Bild angeben, von der Ausgabeschicht ausgegeben.The machine learning, that of the learning unit 302 is carried out is a deep learning in which, for example, a convolutional neural network (CNN) is used. The machine learning model M. in this case comprises a multilayer neural network in which the weighting between the nodes is varied as a function of the association between a learning image and the position of a target in the learning image. The multilayer neural network comprises an input layer in which the nodes correspond to the pixels of an image and an output layer in which the nodes correspond to the positions in the image. When the luminance value of each pixel in a SIM or SEM image is input to the input layer, a set of values indicating a position in the image is output from the output layer.

Die Bestimmungsbildgewinnungseinheit 303 erhält ein Bestimmungsbild. Das Bestimmungsbild ist ein SIM-Bild und ein REM-Bild, die vom Steuerrechner 22 ausgegeben werden. Das Bestimmungsbild enthält die oben beschriebenen Bilder des Ziels. Das Ziel des Bestimmungsbildes enthält Objekte, die mit der Bestrahlung mit einem geladenen Teilchenstrahl in Verbindung stehen, z.B. das Probenstück Q und die Nadel 18 nach der Verwendung.The destination image acquisition unit 303 receives a destination image. The identification image is a SIM image and an SEM image from the control computer 22nd are issued. The destination image contains the images of the destination described above. The target of the determination image contains objects that are connected to the irradiation with a charged particle beam, for example the sample Q and the needle 18th after using.

Das Bestimmungsbild besteht sowohl aus einem SIM-Bild, in dem das Ziel aus der Neigungsrichtung mit der Neigung eines vorbestimmten Winkels in Bezug auf die vertikale Richtung des Probentisches 12 betrachtet wird, als auch aus einem REM-Bild, in dem das Ziel aus der vertikalen Richtung des Probentisches 12 betrachtet wird. Das heißt, das Bestimmungsbild enthält ein Bild des Ziels, das aus der ersten Richtung betrachtet wird, und ein Bild des Ziels, das aus der zweiten Richtung betrachtet wird. Die erste Richtung ist eine Richtung, die mit dem Probentisch 12 als Referenz definiert ist, und die zweite Richtung ist eine Richtung, die mit der Probentisch 12 als Referenz definiert ist und die nicht die erste Richtung ist.The destination image consists of both a SIM image in which the target from the inclination direction with the inclination of a predetermined angle with respect to the vertical direction of the sample table 12th is viewed, as well as from an SEM image in which the target is viewed from the vertical direction of the specimen table 12th is looked at. That is, the destination image includes an image of the target viewed from the first direction and an image of the target viewed from the second direction. The first direction is a direction that is with the sample stage 12th is defined as a reference, and the second direction is a direction associated with the sample stage 12th is defined as a reference and which is not the first direction.

Die Bestimmungseinheit 304 bestimmt die Position des Ziels, das in dem Bestimmungsbild enthalten ist, das von der Bestimmungsbildgewinnungseinheit 303 erhalten wird, basierend auf dem Schablonenabgleich. Die Bestimmungseinheit 304 verwendet die Schablone T über das Ziel im Schablonenabgleich. Die Schablone T wird im Voraus aus einem Bild des Ziels erstellt, das durch Bestrahlung mit einem Ladungsträgerstrahl erhalten wird. Die Schablone T wird z.B. in der Speichereinheit 305 gespeichert.The unit of determination 304 determines the position of the target included in the destination image obtained by the destination image acquisition unit 303 is obtained based on the template matching. The unit of determination 304 uses the template T about the target in template matching. The stencil T is prepared in advance from an image of the target obtained by irradiating with a charged carrier beam. The stencil T is e.g. in the storage unit 305 saved.

Wenn der Schablonenabgleich fehlschlägt, bestimmt die Bestimmungseinheit 304 die Position des Ziels, das in dem Bestimmungsbild enthalten ist, das von der Bestimmungsbildgewinnungseinheit 303 auf der Grundlage des Maschinenlernmodells M erhalten wird, das durch die Ausführung des Lernens durch die Lerneinheit 302 erzeugt wird.When the template matching fails, the determining unit determines 304 the position of the target included in the destination image obtained by the destination image extraction unit 303 based on the machine learning model M. obtained by performing the learning through the learning unit 302 is produced.

Beispiele für die im Bestimmungsbild enthaltene Position des Zielobjekts sind die Aufnahmeposition des Probenstücks im SIM- und REM-Bild, die Position der Nadelspitze im SIM- und REM-Bild und die Position des säulenartigen Abschnitts 44 im SIM- und REM-Bild. Die Bestimmungseinheit 304 bestimmt z.B. die Koordinaten des Ziels im Bestimmungsbild als die Position des im Bestimmungsbild enthaltenen Ziels.Examples of the position of the target object contained in the determination image are the recording position of the sample piece in the SIM and SEM images, the position of the needle tip in the SIM and SEM images and the position of the columnar section 44 in the SIM and REM image. The unit of determination 304 determines, for example, the coordinates of the destination in the destination image as the position of the destination included in the destination image.

In der ersten Ausführungsform, wenn das Ziel z.B. das Probenstück Q ist, bestimmt die Bestimmungseinheit 304 die Aufnahmeposition des Probenstücks Q aufgrund des Schablonenabgleichs und bestimmt bei einem Fehlschlag beim Schablonenabgleich die Aufnahmeposition aufgrund des Maschinenlernmodells M. Wenn das Ziel die säulenförmigen Abschnitte 44 oder die Nadel 18 ist, bestimmt die Bestimmungseinheit 304 dagegen die Positionen der säulenförmigen Abschnitte 44 oder die Position der Spitze der Nadel 18 aufgrund des Maschinenlernmodells M. Für das Ziel, d.h. die säulenförmigen Abschnitte 44, die Nadel 18 oder ein anderes Ziel, das nicht das Probenstück Q ist, kann die Bestimmungseinheit 304 die Position des Ziels auf der Grundlage des Schablonenabgleichs bestimmen und im Falle eines Fehlers bei der Bestimmung diese Bestimmung auf der Grundlage des Maschinenlernmodells M durchführen, wie es für das Probenstück Q der Fall ist.In the first embodiment, for example, when the target is the sample piece Q is determined by the determining unit 304 the receiving position of the specimen Q based on the template comparison and, if the template comparison fails, determines the recording position based on the Machine learning model M. . When the goal is the columnar sections 44 or the needle 18th is determined by the determining unit 304 on the other hand, the positions of the columnar sections 44 or the position of the tip of the needle 18th due to the machine learning model M. . For the goal i.e. the columnar sections 44 , the needle 18th or some other target that is not the specimen Q is, the determining unit 304 determine the position of the target based on the template matching and, in the event of an error in the determination, make this determination based on the machine learning model M. perform as it is for the specimen Q the case is.

Welcher Algorithmus zur Bestimmung der Zielposition verwendet werden soll, wird vorab z.B. durch den Anwender festgelegt.Which algorithm should be used to determine the target position is determined in advance, e.g. by the user.

Die Bestimmung auf der Grundlage des Schablonenabgleichs ist ein Beispiel für die erste Bestimmung, und die Bestimmung auf der Grundlage des Maschinenlernmodells M ist ein Beispiel für die zweite Bestimmung.The determination based on the template matching is an example of the first determination, and the determination based on the machine learning model M. is an example of the second provision.

Der Bildverarbeitungsrechner 30 kann die Schablone T oder ein gelerntes Maschinenlernmodells z.B. aus einer externen Datenbank beziehen. In diesem Fall, könnte die Steuereinheit 300 die Lerndatengewinnungseinheit 301 und die Lerneinheit 302 nicht enthalten.The image processing computer 30th can the stencil T or obtain a learned machine learning model from an external database, for example. In this case, the control unit could 300 the learning data acquisition unit 301 and the learning unit 302 not included.

In der folgenden Beschreibung wird der vom Steuerrechner 22 ausgeführte Vorgang der automatisierten Mikroprobennahme (MS), nämlich der Vorgang des automatischen Transports des durch Bearbeitung der Probe S mit einem Ladungsträgerstrahl (fokussierter Ionenstrahl) gebildeten Probenstücks Q zum Probenstückhalter P, grob in einen ersten Einstellschritt, einen Probenstück-Aufnahmeschritt und einen Probenstück-Montageschritt unterteilt und die Schritte der Reihe nach beschrieben.In the following description, the control computer 22nd The automated micro-sampling (MS) process carried out, namely the process of automatically transporting the sample through processing S. with a charge carrier beam (focused ion beam) formed sample piece Q to the sample holder P , roughly divided into a first setting step, a specimen receiving step and a specimen mounting step, and the steps are described in order.

(Erster Einstellschritt)(First setting step)

7 ist eine Zeichnung zur Veranschaulichung eines Beispiels für den ersten Einstellschritt in der ersten Ausführungsform. 7th Fig. 13 is a drawing showing an example of the first setting step in the first embodiment.

Schritt S10: Der Steuerrechner 22 führt die Einstellung eines Modus und der Verarbeitungsbedingungen aus. Bei der Einstellung eines Modus wird auf der Grundlage einer Bedienereingabe zu Beginn einer Automatisierungssequenz festgelegt, ob ein Haltungskontrollmodus, der später beschrieben wird, eingestellt werden soll. Die Einstellung der Verarbeitungsbedingungen umfasst die Einstellung der Verarbeitungsposition, der Abmessungen, der Anzahl der Probenstücke Q und dergleichen.step S10 : The tax calculator 22nd executes setting of a mode and processing conditions. When setting a mode, it is determined on the basis of an operator input at the beginning of an automation sequence whether a posture control mode, which will be described later, should be set. The setting of the processing conditions includes the setting of the processing position, the dimensions, the number of specimens Q and the same.

Schritt S20: Der Steuerrechner 22 registriert die Position des säulenartigen Abschnitts 44. Der Steuerrechner 22 überträgt an dieser Stelle ein SIM-Bild und ein REM-Bild, die den säulenartigen Abschnitt 44 als Ziel enthalten, an den Bildverarbeitungsrechner 30.step S20 : The tax calculator 22nd registers the position of the columnar section 44 . The tax calculator 22nd At this point, transmits a SIM image and an SEM image that make up the columnar section 44 included as a target to the image processing computer 30th .

In der ersten Ausführungsform sind die Absorptionsstrom-Bilddaten einschließlich eines Ziels eine Kombination aus einem SIM-Bild des Ziels und einem REM-Bild des Ziels. Das heißt, das SIM-Bild und das REM-Bild, die das Ziel enthalten, sind eine Kombination aus einem SIM-Bild, in dem das Ziel aus der Neigungsrichtung mit der Neigung eines vorbestimmten Winkels in Bezug auf die vertikale Richtung des Probentischs 12 betrachtet wird, und einem REM-Bild, in dem das Ziel aus der vertikalen Richtung des Probentischs 12 betrachtet wird.In the first embodiment, the absorption current image data including a target is a combination of a SIM image of the target and an SEM image of the target. That is, the SIM image and the SEM image containing the target are a combination of a SIM image in which the target is tilted from the inclination direction with the inclination of a predetermined angle with respect to the vertical direction of the sample stage 12th and an SEM image in which the target is viewed from the vertical direction of the specimen stage 12th is looked at.

Die Bestimmungsbildgewinnungseinheit 303 erhält das SIM-Bild und das REM-Bild als Bestimmungsbild vom Bildverarbeitungsrechner 30. Die Bestimmungseinheit 304 bestimmt auf der Grundlage des Maschinenlernmodells M die Position des säulenartigen Abschnitts 44, der in dem von der Bestimmungsbildgewinnungseinheit 303 erhaltenen Bestimmungsbild enthalten ist. Die Bestimmungseinheit 304 gibt Positionsinformationen, die die bestimmte Position des säulenartigen Abschnitts 44 angeben, an den Steuerrechner 22 aus.The destination image acquisition unit 303 receives the SIM image and the SEM image as identification image from the image processing computer 30th . The unit of determination 304 determined on the basis of the machine learning model M. the position of the columnar portion 44 , which in that of the destination image acquisition unit 303 obtained determination image is included. The unit of determination 304 gives positional information indicating the determined position of the columnar section 44 specify to the control computer 22nd out.

Die Bestimmungseinheit 304 bestimmt die zweidimensionalen Koordinaten der Position des Ziels auf dem Probentisch 12 aus dem SIM-Bild, in dem das Ziel aus der Neigungsrichtung mit der Neigung eines vorbestimmten Winkels in Bezug auf die vertikale Richtung des Probentisches 12 betrachtet wird. Die Bestimmungseinheit 304 verwendet ein REM-Bild, in dem das Ziel aus der Neigungsrichtung mit der Neigung eines vorbestimmten Winkels in Bezug auf die vertikale Richtung des Probentisches 12 betrachtet wird, um zweidimensionale Koordinaten der Position des Ziels auf einer Ebene senkrecht zur Neigungsrichtung zu bestimmen. Die Bestimmungseinheit 304 bestimmt die Position des Ziels in Form von Werten dreidimensionaler Koordinaten, basierend auf den ermittelten zweidimensionalen Koordinaten auf dem Probentisch 12 und den ermittelten zweidimensionalen Koordinaten auf der Ebene senkrecht zur Kipprichtung.The unit of determination 304 determines the two-dimensional coordinates of the position of the target on the sample stage 12th from the SIM image in which the target from the inclination direction with the inclination of a predetermined angle with respect to the vertical direction of the sample table 12th is looked at. The unit of determination 304 uses an SEM image in which the target is tilted from the direction of inclination with the inclination of a predetermined angle with respect to the vertical direction of the sample table 12th is considered to determine two-dimensional coordinates of the position of the target on a plane perpendicular to the direction of inclination. The unit of determination 304 determines the position of the target in the form of values of three-dimensional coordinates based on the determined two-dimensional coordinates on the sample table 12th and the determined two-dimensional coordinates on the plane perpendicular to the direction of tilt.

Die Bestimmungseinheit 304 berechnet die Werte der dreidimensionalen Koordinaten unter Verwendung von Richtungsinformationen, d.h. Informationen über die Richtungen, in denen das optische System 15 zur Bestrahlung mit Elektronenstrahlen und das optische System 14 zur Bestrahlung mit fokussiertem Ionenstrahl in der Ladungsträgerstrahlvorrichtung 10 angeordnet sind, und über einen Winkel zwischen den beiden optischen Systemen. Die Bestimmungseinheit 304 liest die im Voraus in der Speichereinheit 305 gespeicherte Richtungsinformation oder erhält die Richtungsinformation vom Steuerrechner 22.The unit of determination 304 calculates the values of the three-dimensional coordinates using directional information, that is, information about the directions in which the optical system 15th for irradiation with electron beams and the optical system 14th for irradiation with a focused ion beam in the charged carrier beam device 10 are arranged, and at an angle between the two optical systems. The Determination unit 304 reads the in advance in the storage unit 305 stored direction information or receives the direction information from the control computer 22nd .

In Schritt S20 ist das Ziel der säulenartige Teil 44. Die Bestimmungseinheit 304 führt die gleiche Verarbeitung wie in diesem Schritt aus, um die Position eines Ziels in den folgenden Schritten zu bestimmen, mit Ausnahme des Falls, in dem das Ziel das Probenstück Q ist.In step S20 the goal is the columnar part 44 . The unit of determination 304 performs the same processing as in this step to determine the position of a target in the following steps, except for the case where the target is the specimen Q is.

Die säulenartigen Abschnitte 44 und Lernbilder der säulenartigen Abschnitte 44, die bei der Erstellung des Maschinenlernmodells M verwendet werden sollen, werden unter Bezugnahme auf 8 bis 12 beschrieben. The columnar sections 44 and learning images of the columnar sections 44 involved in creating the machine learning model M. are to be used with reference to 8th to 12th described.

8 und 9 sind Ansichten zur Darstellung eines Beispiels für die säulenartigen Abschnitte 44 in der ersten Ausführungsform. Ein säulenartiger Abschnitt A0 in 8 und 9 ist ein Beispiel für die Konstruktionsstruktur der säulenartigen Abschnitte 44. 8 ist eine Draufsicht auf den säulenartigen Abschnitt A0, und 9 ist eine Seitenansicht des säulenartigen Abschnitts A0. Der säulenartige Abschnitt A0 hat eine Struktur, bei der eine Säule A01 mit einer abgestuften Struktur an einem Basisabschnitt A02 befestigt ist. 8th and 9 are views showing an example of the columnar portions 44 in the first embodiment. A columnar section A0 in 8th and 9 is an example of the construction structure of the columnar portions 44 . 8th Fig. 3 is a plan view of the columnar portion A0 , and 9 Fig. 13 is a side view of the columnar portion A0 . The columnar section A0 has a structure in which a pillar A01 with a stepped structure on a base portion A02 is attached.

10 ist eine Zeichnung zur Veranschaulichung eines Beispiels für Lernbilder der säulenartigen Abschnitte 44 in der ersten Ausführungsform. Ein Lernbild X11, ein Lernbild X12 und ein Lernbild X13 werden für das Lernen der Positionen der säulenartigen Abschnitte 44 verwendet. Auf dem Lernbild X11, dem Lernbild X12 und dem Lernbild X13 sind Informationen, die die Position eines säulenartigen Abschnitts angeben, als Kreis dargestellt. 10 Fig. 13 is a drawing showing an example of learning images of the columnar portions 44 in the first embodiment. A learning picture X11 , a learning picture X12 and a learning picture X13 are used for learning the positions of the columnar sections 44 used. On the learning picture X11 , the learning image X12 and the learning image X13 information indicating the position of a columnar portion is represented as a circle.

Eine Säule A11 im Lernbild X11, eine Säule A21 im Lernbild X12 und eine Säule A31 im Lernbild X13 unterscheiden sich in ihrer Form voneinander. Ein Basisabschnitt A12 auf dem Lernbild X11, ein Basisabschnitt A22 auf dem Lernbild X12 und ein Basisabschnitt A32 auf dem Lernbild X13 haben dagegen die gleiche Form.A column A11 in the learning image X11 , a column A21 in the learning image X12 and a pillar A31 in the learning image X13 differ from each other in their shape. A basic section A12 on the learning picture X11 , a base section A22 on the learning picture X12 and a base section A32 on the learning picture X13 on the other hand have the same shape.

Das Lernbild X11, das Lernbild X12 und das Lernbild X13 sind Lernbilder zur Bestimmung, als Beispiel, der Positionen der säulenartigen Abschnitte 44, die im SIM-Bild und im REM-Bild enthalten sind, wenn die säulenartigen Abschnitte 44 aus einer horizontalen Richtung des Probentischs 12 betrachtet werden. Obwohl das optische System 14 zur Bestrahlung mit fokussiertem Ionenstrahl und das optische System 15 zur Bestrahlung mit Elektronenstrahl in 2 dem Probentisch 12 nicht aus der horizontalen Richtung des Probentisches 12 zugewandt sind, kann eines von dem optischen System 14 zur Bestrahlung mit fokussiertem Ionenstrahl und dem optischen System 15 zur Bestrahlung mit Elektronenstrahl dem Probentisch 12 aus der horizontalen Richtung zugewandt sein, und das Lernbild X11, das Lernbild X12 und das Lernbild X13 sind in diesem Fall Lernbilder zur Bestimmung der Positionen der säulenartigen Abschnitte 44.The learning image X11 , the learning image X12 and the learning image X13 are learning images for determining, as an example, the positions of the columnar sections 44 included in the SIM picture and SEM picture when the columnar sections 44 from a horizontal direction of the sample table 12th to be viewed as. Although the optical system 14th for irradiation with a focused ion beam and the optical system 15th for irradiation with electron beam in 2 the sample table 12th not from the horizontal direction of the sample table 12th facing, one of the optical system 14th for irradiation with a focused ion beam and the optical system 15th for irradiation with electron beam the sample table 12th face from the horizontal direction, and the learning image X11 , the learning image X12 and the learning image X13 in this case are learning images for determining the positions of the columnar sections 44 .

11 ist eine Ansicht zur Veranschaulichung eines Beispiels für die säulenartigen Abschnitte 44 in der ersten Ausführungsform, in der eine Säule keine abgestufte Struktur hat. Ein in 11 dargestellter säulenartiger Abschnitt A4 ist ein Beispiel für die Konstruktionsstruktur der säulenartigen Abschnitte 44, bei der eine Säule keine abgestufte Struktur hat, und wird von der Seite betrachtet. 11 Fig. 13 is a view showing an example of the columnar portions 44 in the first embodiment in which a column does not have a stepped structure. An in 11 illustrated columnar section A4 is an example of the construction structure of the columnar portions 44 , in which a column does not have a stepped structure, and is viewed from the side.

12 ist eine Zeichnung zur Illustration eines Beispiels für Lernbilder der säulenartigen Abschnitte 44 in der ersten Ausführungsform, in der eine Säule keine abgestufte Struktur hat. 12th Fig. 13 is a drawing to illustrate an example of learning images of the columnar portions 44 in the first embodiment in which a column does not have a stepped structure.

Ein Lernbild X21, ein Lernbild X22 und ein Lernbild X23 sind Lernbilder zur Bestimmung, als Beispiel, der Positionen der säulenartigen Abschnitte 44, die im REM-Bild enthalten sind, wenn die säulenartigen Abschnitte 44 aus der vertikalen Richtung des Probentischs 12 betrachtet werden.A learning picture X21 , a learning picture X22 and a learning picture X23 are learning images for determining, as an example, the positions of the columnar sections 44 included in the SEM image when the columnar sections 44 from the vertical direction of the sample table 12th to be viewed as.

Eine Säule A51 im Lernbild X21, eine Säule A61 im Lernbild X22 und eine Säule A71 im Lernbild X23 unterscheiden sich in ihrer Form voneinander. Ein Basisabschnitt A52 auf dem Lernbild X21, ein Basisabschnitt A62 auf dem Lernbild X22 und ein Basisabschnitt A72 auf dem Lernbild X23 haben dagegen die gleiche Form.A column A51 in the learning image X21 , a column A61 in the learning image X22 and a pillar A71 in the learning image X23 differ from each other in their shape. A basic section A52 on the learning picture X21 , a base section A62 on the learning picture X22 and a base section A72 on the learning picture X23 on the other hand have the same shape.

Bei der Schablonenanpassung des Standes der Technik führt ein Unterschied in der Säulenform in einigen Fällen zu einer erfolglosen Bestimmung der Position eines säulenartigen Abschnitts. Im Maschinenlernmodell M hingegen werden z.B. die Formen der Basisabschnitte als Merkmalsmenge gelernt, weil das Maschinenlernmodell M auf der Grundlage des Maschinenlernens generiert wird, das Lernbilder einschließlich der Basisabschnitte der säulenartigen Abschnitte 44 verwendet. Die Ladungsträgerstrahlvorrichtung 10 ist daher in der Genauigkeit der Bestimmung der säulenartigen Abschnitte verbessert, selbst wenn es einen Unterschied in der Säulenform gibt.In the prior art template matching, a difference in columnar shape results in unsuccessful determination of the position of a columnar portion in some cases. In the machine learning model M. on the other hand, for example, the shapes of the basic sections are learned as a feature set because the machine learning model M. is generated based on the machine learning, the learning image including the base portions of the columnar portions 44 used. The charged beam device 10 is therefore improved in the accuracy of determination of the columnar portions even if there is a difference in the columnar shape.

Ein Zielobjekt eines Lernbildes ist vorzugsweise so zu gestalten, dass Zielobjekte einer Vielzahl von Lernbildern Teile enthalten, die in einem Zielobjekt und einem anderen Zielobjekt die gleiche Form haben.A target object of a learning image is preferably to be designed in such a way that target objects of a multiplicity of learning images contain parts which have the same shape in one target object and another target object.

Rückblickend auf 7 wird die Beschreibung des ersten Einstellschrittes fortgesetzt.Looking back on 7th the description of the first setting step is continued.

Der Steuerrechner 22 registriert die Position des säulenartigen Abschnitts 44 auf der Grundlage der Positionsinformation, die die Position des säulenartigen Abschnitts 44 angibt, die vom Bildverarbeitungsrechner 30 bestimmt wurde.The tax calculator 22nd registers the position of the columnar section 44 based on the position information indicating the position of the columnar portion 44 indicates that from the image processing computer 30th was determined.

Lernbilder der säulenartigen Abschnitte 44 werden bevorzugt, um Bilder von zwei der säulenartigen Abschnitte 44 einzuschließen, die sich an beiden Enden der Probentafel 43 befinden. Der Bildverarbeitungsrechner 30 erkennt die beiden säulenartigen Abschnitte 44, die sich an beiden Enden der Probentafel 43 befinden, getrennt von den anderen säulenartigen Abschnitten 44, auf der Grundlage des Maschinenlernmodells M, das unter Verwendung der Lerndaten, die diese Lernbilder enthalten, erzeugt wird. Der Steuerrechner 22 kann aus den Positionen der erkannten säulenartigen Abschnitte an den Enden eine Neigung des Probenstückhalters P berechnen. Der Steuerrechner 22 kann die Koordinatenwerte der Position des Ziels auf der Grundlage der berechneten Neigung korrigieren.Learning pictures of the columnar sections 44 are preferred to take pictures of two of the columnar sections 44 include, which are at both ends of the sample panel 43 are located. The image processing computer 30th recognizes the two columnar sections 44 that are at both ends of the sample panel 43 separate from the other columnar sections 44 , based on the machine learning model M. generated using the learning data including these learning images. The tax calculator 22nd an inclination of the sample piece holder can be determined from the positions of the recognized columnar portions at the ends P to calculate. The tax calculator 22nd can correct the coordinate values of the position of the target based on the calculated inclination.

Schritt S30: Der Steuerrechner 22 steuert das optische System 14 zur Bestrahlung mit fokussiertem Ionenstrahl zur Bearbeitung der Probe S.step S30 : The tax calculator 22nd controls the optical system 14th for irradiation with a focused ion beam for processing the sample S. .

(Schritt zur Aufnahme des Probenstücks)(Step for picking up the specimen)

13 ist eine Zeichnung zur Veranschaulichung eines Beispiels für den Schritt des Aufnehmens des Probenstücks in der ersten Ausführungsform. Der hier verwendete Begriff „Aufnehmen“ bezieht sich auf die Trennung und Extraktion des Probenstücks Q von der Probe S durch Bearbeitung mit einem fokussierten Ionenstrahl und durch die Nadel. 13th Fig. 13 is a drawing showing an example of the step of receiving the sample piece in the first embodiment. As used herein, the term “pick up” refers to the separation and extraction of the specimen Q from the sample S. by machining with a focused ion beam and through the needle.

Schritt S40: Der Steuerrechner 22 stellt die Position der Probe ein. Der Steuerrechner 22 verwendet den Probentischantriebsmechanismus 13, um den Probentisch 12 so zu bewegen, dass das Probenstück Q, das ein Ziel ist, in ein von einem geladenen Teilchenstrahl abgedecktes Sichtfeld eintritt. Für die Bewegung verwendet der Steuerrechner 22 eine relative Positionsbeziehung zwischen der Referenzmarke Ref und dem Probenstück Q. Der Steuerrechner 22 führt die Positionierung des Probenstücks Q aus, nachdem der Probentisch 12 bewegt wurde.step S40 : The tax calculator 22nd adjusts the position of the sample. The tax calculator 22nd uses the stage drive mechanism 13th to the sample table 12th move so that the sample piece Q , which is a target, enters a field of view covered by a charged particle beam. The control computer uses for the movement 22nd a relative positional relationship between the reference mark Ref and the sample piece Q . The tax calculator 22nd guides the positioning of the specimen Q off after the sample table 12th was moved.

Schritt S50: Der Steuerrechner 22 führt die Bewegung der Nadel 18 aus.step S50 : The tax calculator 22nd guides the movement of the needle 18th out.

Die vom Steuerrechner 22 ausgeführte Verarbeitung für die Bewegung der Nadel 18 wird unter Bezugnahme auf 14 beschrieben. 14 ist eine Zeichnung zur Veranschaulichung eines Beispiels für die Verarbeitung der Bewegung der Nadel 18 in der ersten Ausführungsform. Die Schritte S510 bis S540 von 14 entsprechen dem Schritt S50 von 13.The one from the tax computer 22nd executed processing for the movement of the needle 18th is made with reference to 14th described. 14th Fig. 13 is a drawing showing an example of processing the movement of the needle 18th in the first embodiment. The steps S510 to S540 from 14th correspond to the step S50 from 13th .

Schritt S510: Der Steuerrechner 22 führt eine Nadelbewegung (Grobeinstellung) aus, bei der die Nadel 18 durch den Nadelantriebsmechanismus 19 bewegt wird.step S510 : The tax calculator 22nd performs a needle movement (coarse adjustment) during which the needle 18th by the needle drive mechanism 19th is moved.

Schritt S520: Der Steuerrechner 22 erkennt die Spitze der Nadel 18. Der Steuerrechner 22 überträgt die Absorptionsstrom-Bilddaten, die die Nadel 18 als Ziel enthalten, an den Bildverarbeitungsrechner 30.step S520 : The tax calculator 22nd recognizes the point of the needle 18th . The tax calculator 22nd transmits the absorption current image data that the needle 18th included as a target to the image processing computer 30th .

Die Bestimmungsbildgewinnungseinheit 303 erhält ein SIM-Bild und ein REM-Bild vom Bildverarbeitungsrechner 30 als Bestimmungsbild. Die Bestimmungseinheit 304 bestimmt als Zielposition die Position der Nadel 18, die in dem von der Bestimmungsbildgewinnungseinheit 303 erhaltenen Bestimmungsbild enthalten ist, basierend auf dem maschinellen Lernmodell M. Die Bestimmungseinheit 304 gibt die Positionsinformation, die die bestimmte Position der Nadel 18 angibt, an den Steuerrechner 22 aus.The destination image acquisition unit 303 receives a SIM image and an SEM image from the image processing computer 30th as a destination picture. The unit of determination 304 determines the position of the needle as the target position 18th , which in that of the destination image acquisition unit 303 obtained determination image is included, based on the machine learning model M. . The unit of determination 304 gives the position information indicating the specific position of the needle 18th indicates to the control computer 22nd out.

Der Steuerrechner 22 führt als Nächstes eine Nadelbewegung (Feineinstellung) aus, bei der die Nadel 18 durch den Nadelantriebsmechanismus 19 bewegt wird, basierend auf der Positionsinformation, die die vom Bildverarbeitungsrechner 30 bestimmte Position der Nadel 18 angibt.The tax calculator 22nd next performs a needle movement (fine-tuning) in which the needle 18th by the needle drive mechanism 19th is moved based on the position information received from the image processing computer 30th specific position of the needle 18th indicates.

Die Nadel 18 und Lernbilder der Nadel 18, die bei der Erstellung des Maschinenlernmodells M verwendet werden sollen, werden unter Bezugnahme auf 16 bis 19 beschrieben.The needle 18th and learning pictures of the needle 18th involved in creating the machine learning model M. are to be used with reference to 16 to 19th described.

16 ist eine Zeichnung zur Veranschaulichung eines Beispiels von REM-Bilddaten, das die Spitze der Nadel 18 in der ersten Ausführungsform enthält. 17 ist eine Zeichnung zur Veranschaulichung eines Beispiels von SIM-Bilddaten, das die Spitze der Nadel 18 in der ersten Ausführungsform enthält. 16 Fig. 13 is a drawing to show an example of SEM image data showing the tip of the needle 18th in the first embodiment. 17th Fig. 13 is a drawing showing an example of SIM image data that the tip of the needle 18th in the first embodiment.

18 ist eine Zeichnung zur Veranschaulichung eines Beispiels für die Spitze der Nadel 18 in der ersten Ausführungsform. In 18 ist als Beispiel für die Nadel 18 eine Nadel B1 aus einer Neigungsrichtung mit der Neigung eines vorbestimmten Winkels in Bezug auf die vertikale Richtung des Probentischs 12 dargestellt. 18th Fig. 13 is a drawing showing an example of the tip of the needle 18th in the first embodiment. In 18th is as an example of the needle 18th a needle B1 from an inclination direction having the inclination of a predetermined angle with respect to the vertical direction of the sample stage 12th shown.

19 ist eine Zeichnung zur Veranschaulichung eines Beispiels für Lernbilder der Nadel 18 in der ersten Ausführungsform. Ein Lernbild Y31, ein Lernbild Y32 und ein Lernbild Y33 werden für das Lernen der Position der Spitze der Nadel 18 verwendet. Im Lernbild Y31, im Lernbild Y32 und im Lernbild Y33 sind die Informationen, die die Position der Spitze der Nadel 18 angeben, als Kreis dargestellt. Die Dicke der Nadelspitze variiert im Lernbild Y31, im Lernbild Y32 und im Lernbild Y33. Die Form der Nadelspitze hingegen ist im Lernbild Y31, im Lernbild Y32 und im Lernbild Y33 gleich. 19th Fig. 13 is a drawing showing an example of learning images of the needle 18th in the first embodiment. A learning picture Y31 , a learning picture Y32 and a learning picture Y33 be used for learning the position of the tip of the needle 18th used. In the learning picture Y31 , in the learning picture Y32 and in the learning image Y33 are the information indicating the position of the tip of the needle 18th indicated, shown as a circle. The thickness of the needle tip varies in the learning image Y31 , in the learning picture Y32 and in the learning image Y33 . The shape of the needle tip, on the other hand, is shown in the learning image Y31 , in the learning picture Y32 and in the learning image Y33 equal.

Die tatsächliche Dicke der Spitze der Nadel 18 wird durch Reinigung verändert. Bei der Schablonenanpassung des Standes der Technik führt ein Unterschied in der Nadelspitzendicke in einigen Fällen zu einer erfolglosen Bestimmung der Position der Nadelspitze. Im Maschinenlernmodell M hingegen werden z.B. Nadelspitzenformen als Merkmalsmenge gelernt, weil das Maschinenlernmodell M auf der Grundlage des Maschinenlernens generiert wird, das Lernbilder einschließlich der Spitze der Nadel 18 verwendet. Die Ladungsträgerstrahlvorrichtung 10 ist daher in der Genauigkeit der Bestimmung der Nadelspitze verbessert, selbst wenn ein Unterschied in der Nadelspitzendicke besteht.The actual thickness of the tip of the needle 18th is changed by cleaning. In the template adaptation of the prior art, a difference in the needle point thickness leads in some cases to an unsuccessful determination of the position of the needle point. In the machine learning model M. on the other hand, needle point shapes, for example, are learned as a feature set because the machine learning model M. based on the machine learning is generated the learning images including the tip of the needle 18th used. The charged beam device 10 is therefore improved in the accuracy of the determination of the needle point even if there is a difference in the needle point thickness.

Details der Verarbeitung, bei der der Bildverarbeitungsrechner 30 die Position der Spitze der Nadel 18 bestimmt, sind unter Bezugnahme auf 15 beschrieben. 15 ist eine Zeichnung zur Veranschaulichung eines Beispiels der Verarbeitung zur Bestimmung der Position der Nadelspitze in der ersten Ausführungsform. Die in 15 dargestellte Verarbeitung zur Bestimmung der Nadelspitzenposition wird in Schritt S520 von 14 ausgeführt.Details of the processing in which the image processing computer 30th the position of the tip of the needle 18th intended are referring to 15th described. 15th Fig. 13 is a drawing showing an example of the processing for determining the position of the needle tip in the first embodiment. In the 15th processing for determining the needle tip position is shown in step S520 from 14th executed.

Schritt S5210: Die Bestimmungseinheit 304 bestimmt auf der Grundlage des Maschinenlernmodells M als Zielposition die Position der Spitze der Nadel 18, die in dem Bestimmungsbild enthalten ist, das von der Bestimmungsbildgewinnungseinheit 303 erhalten wird.step S5210 : The unit of determination 304 determined on the basis of the machine learning model M. the position of the tip of the needle as the target position 18th contained in the destination image obtained by the destination image extraction unit 303 is obtained.

Schritt S5220: Die Bestimmungseinheit 304 bestimmt, ob die Position der Spitze der Nadel 18 erfolgreich bestimmt wurde. Wenn festgestellt wird, dass die Position der Spitze der Nadel 18 erfolgreich bestimmt wurde (Schritt S5220: JA), gibt die Bestimmungseinheit 304 die Positionsinformation, die die ermittelte Position der Spitze der Nadel 18 anzeigt, an den Steuerrechner 22 aus und beendet die Verarbeitung zur Bestimmung der Nadelspitzenposition. Wenn festgestellt wird, dass die Position der Spitze der Nadel 18 nicht erfolgreich bestimmt wurde (Schritt S5220: NEIN), führt die Bestimmungseinheit 304 dagegen die Verarbeitung von Schritt S5230 aus.step S5220 : The unit of determination 304 determines whether the position of the tip of the needle 18th has been successfully determined. When it is found that the position of the tip of the needle 18th has been successfully determined (step S5220 : YES), gives the determination unit 304 the position information indicating the determined position of the tip of the needle 18th indicates to the control computer 22nd and ends the processing for determining the needle tip position. When it is found that the position of the tip of the needle 18th was not successfully determined (step S5220 : NO), the determining unit performs 304 on the other hand, the processing from step S5230.

Der Fall, in dem die Position der Spitze der Nadel 18 nicht bestimmt werden kann, ist z.B. ein Fall, in dem die Position der Spitze der Nadel 18 nicht genau bestimmt werden kann, weil ein Probenstückfragment, das durch Ausschneiden des Probenstücks Q erzeugt wird und an der Spitze der Nadel 18 haftet. 20 ist eine Zeichnung zur Veranschaulichung eines Beispiels eines Probenstücks Q2, das an der Spitze einer Nadel B2 in der ersten Ausführungsform anhaftet. The case where the position of the tip of the needle 18th cannot be determined, for example, is a case where the position of the tip of the needle 18th cannot be accurately determined because a specimen fragment obtained by cutting out the specimen Q is generated and at the tip of the needle 18th adheres. 20th Fig. 13 is a drawing for illustrating an example of a sample piece Q2 that is at the tip of a needle B2 adhered in the first embodiment.

In der folgenden Beschreibung kann ein Fall, in dem die Position der Spitze der Nadel 18 nicht bestimmt werden kann, als „abnormaler Fall“ bezeichnet werden.In the following description, there may be a case where the position of the tip of the needle 18th cannot be determined as an "abnormal case".

Schritt S5230: Die Bestimmungseinheit 304 ermittelt, ob bei der aktuellen Verarbeitung der Aufnahmepositionbestimmung eine Fremdmaterialerkennung durchgeführt wurde. Wenn festgestellt wird, dass die Fremdmaterialerkennung ausgeführt wurde (Schritt S5230: JA), führt die Bestimmungseinheit 304 die Verarbeitung von Schritt S5240 aus. Wenn festgestellt wird, dass die Fremdmaterialerkennung nicht ausgeführt wurde (Schritt S5230: NEIN), führt die Bestimmungseinheit 304 dagegen die Verarbeitung von Schritt S5250 aus.step S5230 : The unit of determination 304 determines whether foreign material detection has been performed in the current processing of the recording position determination. When it is determined that foreign material detection has been performed (step S5230 : YES), performs the determination unit 304 the processing of step S5240 out. If it is determined that foreign material detection has not been performed (step S5230 : NO), the determining unit performs 304 on the other hand, the processing from step S5250.

Schritt S5240: Die Bestimmungseinheit 340 veranlasst den Steuerrechner 22, die automatisierte MS zu stoppen. Die Bestimmungseinheit 304 gibt ein Stoppsignal zum Stoppen der automatisierten MS an den Steuerrechner 22 aus. Die Bestimmungseinheit 304 beendet dann die Verarbeitung der Nadelspitzenpositionsbestimmung.step S5240 : The unit of determination 340 initiates the control computer 22nd to stop the automated MS. The unit of determination 304 gives a stop signal to stop the automated MS to the control computer 22nd out. The unit of determination 304 then ends the processing of the needle tip position determination.

Schritt S5250: Die Bestimmungseinheit 304 bestimmt, basierend auf dem maschinellen Lernmodell M, ein Fremdmaterial, das in dem Bestimmungsbild enthalten ist, das von der Bestimmungsbildgewinnungseinheit 303 erhalten wird. Der Begriff „Fremdmaterial“ bezieht sich hier auf einen Teil des Probenstücks Q, der an der Spitze der Nadel 18 anhaftet.step S5250 : The unit of determination 304 determined based on the machine learning model M. , a foreign matter contained in the determination image obtained by the determination image extraction unit 303 is obtained. The term “foreign material” here refers to a part of the specimen Q who is at the tip of the needle 18th adheres.

Lernbilder zur Bestimmung eines abnormalen Falles durch maschinelles Lernen werden unter Bezugnahme auf 21 beschrieben. 21 ist eine Zeichnung zur Veranschaulichung eines Beispiels von Lernbildern für anormale Fälle in der ersten Ausführungsform. In jedem von einem Lernbild Y41, einem Lernbild Y42, einem Lernbild Y43, einem Lernbild Y44, einem Lernbild Y45 und einem Lernbild Y46 haftet an der Nadel (ein Nadal B41, ein Nadal B42, ein Nadal B43, ein Nadal B44, ein Nadal B45 oder ein Nadal B46) spitze ein Teilprobenstück (ein Probenstück Q41, ein Probenstück Q42, ein Probenstück Q43, ein Probenstück Q44, ein Probenstück Q45 oder ein Probenstück Q46).Learning images for determining an abnormal case by machine learning are described with reference to FIG 21 described. 21 Fig. 13 is a drawing showing an example of learning images for abnormal cases in the first embodiment. In each of a learning image Y41 , a learning picture Y42 , a learning picture Y43 , a learning picture Y44 , a learning picture Y45 and a learning image Y46 adheres to the needle (a nadal B41 , a Nadal B42 , a Nadal B43 , a Nadal B44 , a Nadal B45 or a Nadal B46 ) tip a partial sample (a sample Q41 , a sample piece Q42 , a sample piece Q43 , a sample piece Q44 , a sample piece Q45 or a sample piece Q46 ).

Schritt S5260: Die Bestimmungseinheit 304 ermittelt, ob ein Fremdmaterial erfolgreich ermittelt wurde. Wenn festgestellt wird, dass ein Fremdmaterial erfolgreich ermittelt wurde (Schritt S5260: JA), führt die Bestimmungseinheit 304 die Verarbeitung von Schritt S5270 aus. Wenn festgestellt wird, dass ein Fremdmaterial nicht erfolgreich ermittelt wurde (Schritt S5260: NEIN), führt die Bestimmungseinheit 304 dagegen die Verarbeitung von Schritt S5240 aus.step S5260 : The unit of determination 304 determines whether a foreign material has been successfully identified. If it is determined that a foreign material has been successfully detected (step S5260 : YES), performs the determination unit 304 the processing of step S5270 out. If it is determined that a foreign material has not been successfully detected (step S5260 : NO), the determining unit performs 304 on the other hand the processing of step S5240 out.

Schritt S5270: Die Bestimmungseinheit 304 veranlasst den Steuerrechner 22, das Fremdmaterial zu entfernen. Die Bestimmungseinheit 304 gibt ein Steuersignal zur Veranlassung der Durchführung der Entfernung des Fremdmaterials an den Steuerrechner 22 aus. Die Bestimmungseinheit 304 führt dann die Verarbeitung von Schritt S5210 erneut aus. Das heißt, die Bestimmungseinheit 304 bestimmt die Position der Spitze der Nadel 18, von der das Fremdmaterial entfernt wurde.step S5270 : The unit of determination 304 initiates the control computer 22nd to remove the foreign matter. The unit of determination 304 gives a control signal to cause the removal of the foreign material to be carried out to the control computer 22nd out. The unit of determination 304 then performs the processing of step S5210 off again. That is, the determining unit 304 determines the position of the tip of the needle 18th from which the foreign material was removed.

Die Entfernung des Fremdmaterials besteht darin, den Teil des Probenstücks Q, der an der Spitze der Nadel 18 anhaftet, durch Reinigung der Nadel 18 zu entfernen. 22 ist eine Ansicht zur Veranschaulichung eines Beispiels für die Entfernung des Fremdmaterials in der ersten Ausführungsform. Bei der in 22 dargestellten Entfernung des Fremdmaterials wird ein Verarbeitungsrahmen FR6 zur Reinigung der Nadel 18 aufgestellt, um ein Fremdmaterial Q6 auf einer Nadel B6 zu entfernen.The removal of the foreign matter consists in removing the part of the specimen Q who is at the tip of the needle 18th adheres by cleaning the needle 18th to remove. 22nd Fig. 13 is a view showing an example of removal of the foreign matter in the first embodiment. At the in 22nd A processing frame FR6 is used for cleaning the needle 18th placed to a foreign material Q6 on a needle B6 to remove.

Rückblickend auf 14 wird die Beschreibung der Vorgehensweise beim Bewegen der Nadel 18 fortgesetzt.Looking back on 14th becomes the description of the procedure for moving the needle 18th continued.

Schritt S530: Der Steuerrechner 22 erkennt die Aufnahmeposition des Probenstücks Q. Der Steuerrechner 22 sendet ein SIM-Bild und ein REM-Bild, die das Probenstück Q als Ziel enthalten, an den Bildverarbeitungsrechner 30.step S530 : The tax calculator 22nd recognizes the pick-up position of the specimen Q . The tax calculator 22nd sends a SIM picture and a SEM picture showing the sample piece Q included as a target to the image processing computer 30th .

Die Verarbeitung, bei der der Bildverarbeitungsrechner 30 die Aufnahmeposition bestimmt, wird unter Bezugnahme auf 23 beschrieben.The processing in which the image processing computer 30th the recording position is determined with reference to FIG 23 described.

23 ist eine Zeichnung zur Veranschaulichung eines Beispiels für die Verarbeitung der Aufnahmepositionsbestimmung in der ersten Ausführungsform. Die Verarbeitung von Schritt S5310 bis zur Verarbeitung von Schritt S5370, die in 23 dargestellt ist, entspricht der Verarbeitung von Schritt S530 von 14. 23 Fig. 13 is a drawing to show an example of the recording position determination processing in the first embodiment. Processing of step S5310 up to the processing of step S5370 , in the 23 corresponds to the processing of step S530 from 14th .

Schritt S5310: Die Bestimmungseinheit 304 bestimmt die Aufnahmeposition des Probenstücks Q, das in dem Bestimmungsbild enthalten ist, das von der Bestimmungsbildgewinnungseinheit 303 erhalten wird, basierend auf dem Schablonenabgleich. Beim Schablonenabgleich verwendet die Bestimmungseinheit 304 die Schablone T, die in der Speichereinheit 305 gespeichert ist.step S5310 : The unit of determination 304 determines the pick-up position of the specimen Q contained in the destination image obtained by the destination image extraction unit 303 is obtained based on the template matching. The determination unit uses the template comparison 304 the stencil T that are in the storage unit 305 is stored.

Schritt S5320: Die Bestimmungseinheit 304 ermittelt, ob die Aufnahmeposition des Probenstücks Q aufgrund des Schablonenabgleichs erfolgreich ermittelt wurde. Die Bestimmungseinheit 304 bestimmt, dass die Aufnahmeposition erfolgreich ermittelt wurde, wenn die Punktzahl des Schablonenabgleichs gleich oder größer als ein vorgegebener Wert ist.step S5320 : The unit of determination 304 determines whether the receiving position of the specimen Q was successfully determined based on the template comparison. The unit of determination 304 determines that the recording position has been successfully determined if the score of the template comparison is equal to or greater than a specified value.

Wenn festgestellt wird, dass die Aufnahmeposition erfolgreich bestimmt wurde (Schritt S5320: JA), gibt die Bestimmungseinheit 304 die Positionsinformation, die die ermittelte Aufnahmeposition anzeigt, an den Steuerrechner 22 aus und beendet die Verarbeitung der Aufnahmepositionsbestimmung. Wenn festgestellt wird, dass die Aufnahmeposition nicht erfolgreich bestimmt wurde (Schritt S5320: NEIN), führt die Bestimmungseinheit 304 die Verarbeitung von Schritt S5330 aus.If it is determined that the shooting position has been successfully determined (step S5320 : YES), gives the determination unit 304 the position information indicating the determined recording position to the control computer 22nd and ends the processing of the recording position determination. If it is determined that the shooting position has not been determined successfully (step S5320 : NO), the determining unit performs 304 the processing of step S5330 out.

Schritt S5330: Die Bestimmungseinheit 304 wählt ein Maschinenlernmodell M-j aus, das zur Bestimmung der Aufnahmeposition verwendet werden soll. Die Bestimmungseinheit 304 wählt aus den im Maschinenlernmodell M enthaltenen Maschinenlernmodellen, die jeweils mit M-i bezeichnet sind (i=1, 2...N: N ist die Anzahl der Modelle), ein Maschinenlernmodell M-j für die Bestimmung der Aufnahmeposition aus. In einem in der ersten Ausführungsform gegebenen Beispiel identifiziert die Bestimmungseinheit 304 Modelle, die bei der aktuellen Bestimmungsverarbeitung der Aufnahmeposition unter den im Maschinenlernmodell M enthaltenen Modellen des Maschinenlernens, die jeweils mit M-i bezeichnet sind (i=1, 2...N: N ist die Anzahl der Modelle), nicht ausgewählt werden, und wählt jeweils ein Modell nach dem anderen aus den identifizierten Modellen in einer vorgegebenen Reihenfolge aus. Die vorgegebene Reihenfolge ist z.B. die aufsteigende Reihenfolge der Indexnummer i des Maschinenlernmodells M-i.step S5330 : The unit of determination 304 selects a machine learning model Mj to be used to determine the pick-up position. The unit of determination 304 selects from those in the machine learning model M. contained machine learning models, which are each designated with Mi (i = 1, 2 ... N: N is the number of models), a machine learning model Mj for determining the recording position. In an example given in the first embodiment, the determining unit identifies 304 Models that in the current pickup position determination processing are among those in the machine learning model M. contained models of machine learning, each designated by Mi (i = 1, 2 ... N: N is the number of models), are not selected, and selects one model after the other from the identified models in a predetermined order out. The specified order is, for example, the ascending order of the index number i of the machine learning model Mi.

Schritt S5340: Die Bestimmungseinheit 304 bestimmt die Aufnahmeposition auf der Grundlage des ausgewählten Maschinenlernmodells M-j. Die Verarbeitung dieser Bestimmung ist identisch mit der Verarbeitung in Schritt S20 und anderen oben beschriebenen Schritten, bei denen die Bestimmungseinheit 304 die Position eines Ziels bestimmt.step S5340 : The unit of determination 304 determines the pickup position based on the selected machine learning model Mj. The processing of this determination is identical to the processing in step S20 and other steps described above in which the determining unit 304 determines the position of a target.

Schritt S5350: Die Bestimmungseinheit 304 bestimmt, ob die Aufnahmeposition des Probenstücks Q erfolgreich auf der Grundlage des ausgewählten Maschinenlernmodells M-j bestimmt wurde.step S5350 : The unit of determination 304 determines whether the receiving position of the specimen Q has been successfully determined based on the selected machine learning model Mj.

Wenn festgestellt wird, dass die Aufnahmeposition erfolgreich bestimmt wurde (Schritt S5350: JA), gibt die Bestimmungseinheit 304 die Positionsinformation, die die ermittelte Aufnahmeposition anzeigt, an den Steuerrechner 22 aus und beendet die Verarbeitung der Aufnahmepositionsbestimmung. Wenn festgestellt wird, dass die Aufnahmeposition nicht erfolgreich ermittelt wurde (Schritt S5350: NEIN), führt die Bestimmungseinheit 304 dagegen die Verarbeitung von Schritt S5360 aus.If it is determined that the shooting position has been successfully determined (step S5350 : YES), gives the determination unit 304 the position information indicating the determined recording position to the control computer 22nd and ends the processing of the recording position determination. If it is determined that the shooting position has not been successfully determined (step S5350 : NO), the determining unit performs 304 on the other hand, the processing from step S5360.

Schritt S5360: Die Bestimmungseinheit 304 stellt fest, ob jedes im Maschinenlernmodell M-i (i=1, 2...N: N ist die Anzahl der Modelle) enthaltene Maschinenlernmodell M verwendet wurde. Wenn festgestellt wird, dass jedes Maschinenlernmodell verwendet wurde (Schritt S5360: JA), führt die Bestimmungseinheit 304 die Verarbeitung von Schritt S5370 aus. Wenn hingegen festgestellt wird, dass nicht jedes maschinelle Lernmodell verwendet wurde (Schritt S5360: NEIN), führt die Bestimmungseinheit 304 die Verarbeitung von Schritt S5330 erneut aus.step S5360 : The unit of determination 304 determines whether each machine learning model contained in the machine learning model Mi (i = 1, 2 ... N: N is the number of models) M. was used. If it is established that each machine learning model has been used (step S5360 : YES), performs the determination unit 304 the processing of step S5370 out. If, on the other hand, it is found that not every machine learning model has been used (step S5360 : NO), the determining unit performs 304 the processing of step S5330 off again.

Schritt S5370: Die Bestimmungseinheit 304 veranlasst den Steuerrechner 22, die automatisierte MS zu stoppen. Die Bestimmungseinheit 304 gibt ein Stoppsignal zum Stoppen der automatisierten MS an den Steuerrechner 22 aus. Die Bestimmungseinheit 304 beendet dann die Verarbeitung der Aufnahmepositionsbestimmung.step S5370 : The unit of determination 304 initiates the control computer 22nd to stop the automated MS. The unit of determination 304 gives a stop signal to stop the automated MS to the control computer 22nd out. The unit of determination 304 then terminates the processing of the recording position determination.

Das Probenstück Q und die Lernbilder des Probenstücks Q, die bei der Erstellung des Maschinenlernmodells M verwendet werden sollen, werden unter Bezugnahme auf 24 und 25 beschrieben.
24 ist eine Zeichnung zur Veranschaulichung eines Beispiels von SIM-Bilddaten, das das Probenstück Q in der ersten Ausführungsform enthält. In 24 ist ein Probenstück Q71 als Beispiel für das Probenstück Q dargestellt, zusammen mit einem Kreis, der die Aufnahmeposition anzeigt.
The sample piece Q and the learning images of the sample Q involved in creating the machine learning model M. are to be used with reference to 24 and 25th described.
24 Fig. 13 is a drawing showing an example of SIM image data that the sample piece Q in the first embodiment. In 24 is a specimen Q71 as an example of the sample piece Q shown, along with a circle that indicates the shooting position.

25 ist eine Zeichnung zur Veranschaulichung eines Beispiels für Lernbilder des Probenstücks Q in der ersten Ausführungsform. Ein Lernbild Z11, ein Lernbild Z12 und ein Lernbild Z13 dienen zum Lernen der Aufnahmeposition des Probenstücks Q. Im Lernbild Z11, im Lernbild Z12 und im Lernbild Z13 sind die Informationen, die die Aufnahmeposition des Probenstücks Q angeben, als Kreis dargestellt. Die Größe und Oberflächenform des Probenstücks variieren im Lernbild Z11, im Lernbild Z12 und im Lernbild Z13. Die Form des Probenstücks an der Aufnahmeposition ist dagegen im Lernbild Z11, im Lernbild Z12 und im Lernbild Z13 gleich. 25th Fig. 13 is a drawing showing an example of learning images of the sample piece Q in the first embodiment. A learning picture Z11 , a learning picture Z12 and a learning picture Z13 are used to learn the pick-up position of the specimen Q . In the learning picture Z11 , in the learning picture Z12 and in the learning image Z13 are the information indicating the pick-up position of the specimen Q indicated, shown as a circle. The size and surface shape of the specimen vary in the learning image Z11 , in the learning picture Z12 and in the learning image Z13 . On the other hand, the shape of the specimen at the receiving position is in the learning image Z11 , in the learning picture Z12 and in the learning image Z13 equal.

Die tatsächliche Oberflächenform eines Probenstücks variiert von einem Probenstück zum anderen. Beim Schablonenabgleich des Standes der Technik führt ein Unterschied in der Oberflächenform des Probenstücks in einigen Fällen zu einer erfolglosen Bestimmung der Aufnahmeposition des Probenstücks. Beim Maschinenlernmodell M hingegen werden z.B. die Formen des Probenstücks Q an der Aufnahmeposition als Merkmalsmenge gelernt, weil das Maschinenlernmodell M auf der Grundlage des Maschinenlernens erzeugt wird, das Lernbilder verwendet, die die Aufnahmeposition des Probenstücks Q einschließen. Die Ladungsträgerstrahlvorrichtung 10 ist daher in der Genauigkeit der Bestimmung der Aufnahmeposition des Probenstücks Q verbessert, selbst wenn ein Unterschied in der Oberflächenform des Probenstücks besteht.The actual surface shape of a specimen varies from one specimen to another. In the template matching of the prior art, a difference in the surface shape of the sample piece leads to an unsuccessful determination of the receiving position of the sample piece in some cases. With the machine learning model M. on the other hand, for example, the shapes of the specimen Q learned at the recording position as a feature set because the machine learning model M. is generated based on the machine learning that uses learning images that indicate the pickup position of the specimen Q lock in. The charged beam device 10 is therefore in the accuracy of determining the receiving position of the specimen Q improved even if there is a difference in the surface shape of the specimen.

In dem in 23 dargestellten Schritt S5330 kann die Reihenfolge, in der die Maschinenlernmodelle bei der Verarbeitung der Auswahl eines Modells M-j für die Bestimmung des Ziels aus den im Modell M enthaltenen Maschinenlernmodelle, die jeweils mit M-i bezeichnet sind (i=1, 2...N: N ist die Anzahl der Modelle), ausgewählt werden, geändert werden. Wenn z.B. der Bildverarbeitungsrechner 30 zum ersten Mal die Verarbeitung zur Bestimmung des Ziels ausführt (die Aufnahmeposition im Beispiel von 23), können die Maschinenlernmodelle in der oben genannten vorgegebenen Reihenfolge ausgewählt werden, und bei der Verarbeitung des zweiten Mals und der folgenden Male kann die Reihenfolge geändert werden, je nachdem, ob das Ziel in der vorherigen Verarbeitung erfolgreich bestimmt wurde.In the in 23 illustrated step S5330 can be the order in which the machine learning models when processing the selection of a model Mj for determining the target from those in the model M. included machine learning models, each designated with Mi (i = 1, 2 ... N: N is the number of models), selected, changed. If, for example, the image processing computer 30th executes the processing to determine the destination for the first time (the shooting position in the example of 23 ), the machine learning models can be selected in the above predetermined order, and the order can be changed in the processing of the second and subsequent times, depending on whether the target is successfully determined in the previous processing.

Wenn z.B. das Ziel erfolgreich auf der Grundlage eines Maschinenlernmodells M-k in der vorherigen Verarbeitung der Zielbestimmung bestimmt wurde, kann die Bestimmungseinheit 304 einen Platz in der Reihenfolge des Maschinenlernmodells M-k als ersten Platz in der Reihenfolge setzen, aus den im Maschinenlernmodell M enthaltenen Maschinenlernmodellen, die jeweils mit M-i bezeichnet werden (i=1, 2...N: N ist die Anzahl der Modelle). Als weiteres Beispiel kann die Bestimmungseinheit 304 den Platz in der Reihenfolge des Maschinenlernmodells M-k um eine vorgegebene Zahl (z.B. eins) erhöhen. Wenn das Ziel in der vorhergehenden Verarbeitung der Zielbestimmung auf der Grundlage des Maschinenlernmodells M-m nicht erfolgreich bestimmt wurde, kann die Bestimmungseinheit 304 andererseits die Stelle in der Reihenfolge des Maschinenlernmodells M-m als letzte Stelle in der Reihenfolge festlegen. Als weiteres Beispiel kann die Bestimmungseinheit 304 die Stelle in der Reihenfolge des Maschinenlernmodells M-m um eine vorgegebene Zahl (z.B. eins) herabsetzen.For example, when the destination has been successfully determined based on a machine learning model Mk in the previous destination determination processing, the determining unit 304 set a place in the order of the machine learning model Mk as the first place in the order out of those in the machine learning model M. included machine learning models, each designated with Mi (i = 1, 2 ... N: N is the number of models). As a further example, the determining unit 304 Increase the space in the order of the machine learning model Mk by a predetermined number (for example one). If the destination has not been successfully determined in the previous processing of the destination determination based on the machine learning model Mm, the determination unit may 304 on the other hand, set the position in the order of the machine learning model Mm as the last position in the order. As a further example, the determining unit 304 decrease the position in the order of the machine learning model Mm by a predetermined number (for example one).

Bei der in 23 dargestellten Verarbeitung der Zielbestimmung kann die Lerneinheit 302, wenn das Ziel nicht erfolgreich bestimmt wurde, nachdem alle im Maschinenlernmodell M enthaltenen Maschinenlernmodelle, die jeweils mit M-i (i=1, 2...N: N ist die Anzahl der Modelle) bezeichnet sind, verwendet wurden, Maschinenlernen neu durchführen, indem sie das Bestimmungsbild, für das das Ziel nicht erfolgreich bestimmt wurde, in die Lernbilder aufnimmt, um dadurch das Maschinenlernmodell M zu aktualisieren. In diesem Fall fügt z.B. die Lerneinheit 302 das Bestimmungsbild, für das das Ziel nicht erfolgreich bestimmt wurde, zu den Lerndaten hinzu und führt das Maschinenlernen neu aus, um dadurch das Maschinenlernmodell M zu aktualisieren.At the in 23 The learning unit can process the target determination illustrated 302 if the target has not been successfully determined after all in the machine learning model M. contained machine learning models, each denoted by Mi (i = 1, 2... N: N is the number of models), have been used, perform machine learning anew by converting the determination image for which the target was not successfully determined into takes up the learning images, thereby creating the machine learning model M. to update. In this case, for example, adds the learning unit 302 adds the determination image for which the target has not been successfully determined to the learning data and re-executes the machine learning to thereby create the machine learning model M. to update.

Die Aktualisierung des Maschinenlernmodells M bezieht sich auf das Hinzufügen eines Modells, das als Ergebnis neu ausgeführten Lernens erhalten wurde, zum Maschinenlernmodell M. Als ein weiteres Beispiel kann sich die Aktualisierung des Maschinenlernmodells M darauf beziehen, eines der Vielzahl von Modellen, die im Maschinenlernmodell M enthalten sind, durch das Modell zu ersetzen, das als Ergebnis neu ausgeführten Lernens erhalten wurde.The update of the machine learning model M. refers to adding a model obtained as a result of newly performed learning to the machine learning model M. . As a Another example can be the update of the machine learning model M. refer to one of the variety of models included in the machine learning model M. are to be replaced with the model obtained as a result of newly performed learning.

Der Zeitpunkt für die Aktualisierung des Maschinenlernmodells M durch die Lerneinheit 302 ist z.B. der Zeitpunkt jeder vorgegebenen Anzahl von Tagen. Die Lerneinheit 302 aktualisiert das Maschinenlernmodell M z.B. alle sieben Tage. Die Lerneinheit 302 kann das Maschinenlernmodell M aktualisieren, wenn der Bildverarbeitungsrechner 30 eine Operation zur Aktualisierung des Maschinenlernmodells M vom Benutzer der Ladungsträgerstrahlvorrichtung 10 erhält.The time to update the machine learning model M. through the learning unit 302 is, for example, the time of any given number of days. The learning unit 302 updates the machine learning model M. e.g. every seven days. The learning unit 302 can do the machine learning model M. update when the image processing computer 30th an operation to update the machine learning model M. by the user of the charge carrier beam device 10 receives.

Nach der Aktualisierung des Maschinenlernmodells M kann die Lerneinheit 302 die Genauigkeit der Bestimmung auf der Grundlage des aktualisierten Maschinenlernmodells M berechnen. In diesem Fall wird z.B. ein Testbildsatz vorab in der Speichereinheit 305 gespeichert. Der Testbildsatz besteht aus einer Vielzahl von Bildern, einschließlich eines Bildes eines Ziels desselben Typs wie der Typ des Ziels, das im Bestimmungsbild enthalten ist (die Aufnahmeposition im Beispiel von 23). Der Testbildsatz kann vom Benutzer des Ladungsteilchenstrahlgerätes 10 aus dem im Voraus in der Speichereinheit 305 gespeicherten Testbildsatz geändert werden.After updating the machine learning model M. can do the learning unit 302 the accuracy of the determination based on the updated machine learning model M. to calculate. In this case, for example, a test image set is stored in advance in the storage unit 305 saved. The test image set consists of a plurality of images including an image of a target of the same type as the type of target contained in the destination image (the shooting position in the example of 23 ). The test image set can be obtained by the user of the charged particle beam device 10 from the in advance in the storage unit 305 saved test image set can be changed.

Beispielsweise veranlasst die Lerneinheit 302 die Bestimmungseinheit 304, auf der Grundlage des Maschinenlernmodells M vor der Aktualisierung die Ziele zu bestimmen, die in den im Testbildsatz enthaltenen Bildern enthalten sind, und berechnet die Genauigkeit der Bestimmung auf der Grundlage der Ergebnisse der Bestimmung. Die Lerneinheit 302 veranlasst als Nächstes die Bestimmungseinheit 304, auf der Grundlage des Maschinenlernmodells M nach der Aktualisierung die Ziele zu bestimmen, die in den im Testbildsatz enthaltenen Bildern enthalten sind, und berechnet die Genauigkeit der Bestimmung auf der Grundlage der Ergebnisse der Bestimmung. Die Lerneinheit 302 berechnet z.B. als Genauigkeit der Bestimmung ein Verhältnis der Bilder, für die das Ziel erfolgreich bestimmt wurde, zu den Bildern, die im Testbildsatz enthalten sind. Wenn sich die Genauigkeit der Bestimmung des Maschinenlernmodells M nach der Aktualisierung so verbessert hat, dass sie höher ist als die des Maschinenlernmodells M vor der Aktualisierung, ersetzt die Lerneinheit 302 das in der Speichereinheit 305 gespeicherte Maschinenlernmodells M durch das aktualisierte Maschinenlernmodells M. Wenn sich die Genauigkeit der Bestimmung des Maschinenlernmodells M nach der Aktualisierung nicht so verbessert hat, so dass sie höher ist als die des Maschinenlernmodells M vor der Aktualisierung, verwirft die Lerneinheit 302 dagegen das Maschinenlernmodells M nach der Aktualisierung.For example, initiates the learning unit 302 the determination unit 304 , based on the machine learning model M. determine the targets included in the images in the test image set prior to updating, and calculate the accuracy of the determination based on the results of the determination. The learning unit 302 next causes the determining unit 304 , based on the machine learning model M. after the update, determine the targets included in the images included in the test image set and calculate the accuracy of the determination based on the results of the determination. The learning unit 302 calculates, for example, a ratio of the images for which the target was successfully determined to the images contained in the test image set as the accuracy of the determination. If the accuracy of the determination of the machine learning model M. has improved so much after the update that it is higher than that of the machine learning model M. before the update, replaces the lesson 302 that in the storage unit 305 stored machine learning model M. through the updated machine learning model M. . If the accuracy of the determination of the machine learning model M. has not improved so much after the update that it is higher than that of the machine learning model M. before updating, discards the lesson 302 on the other hand the machine learning model M. after the update.

Das Maschinenlernmodells M kann vom Benutzer selbst generiert werden. In diesem Fall bedient der Benutzer z.B. den Bildverarbeitungsrechner 30, um das Maschinenlernmodells M zu erzeugen. Der Benutzer bereitet Lernbilder im Voraus vor. Die Lerndatenerfassungseinheit 301 erhält die vom Benutzer im Voraus vorbereiteten Lernbilder. Die im Voraus vorbereiteten Lernbilder werden z.B. durch die Aufnahme eines SIM-Bildes und eines REM-Bildes mit Hilfe der Ladungsträgerstrahlvorrichtung erzeugt. Es ist zu bevorzugen, dass die hier im Voraus vorbereiteten Lernbilder erzeugt werden, indem ein Parameter, der sich auf das Bild bezieht, in einem Bereich geändert wird, der einem Bereich ähnlich ist, in dem der Parameter geändert wird, wenn die Ladungsträgerstrahlvorrichtung 10 tatsächlich ein SIM-Bild oder ein REM-Bild als Bestimmungsbild erzeugt. Der Parameter, der sich auf das Bild bezieht, umfasst z.B. einen Kontrast, eine Helligkeit, eine Vergrößerung, einen Fokus und einen Strahlzustand.The machine learning model M. can be generated by the user himself. In this case, the user operates the image processing computer, for example 30th to get the machine learning model M. to create. The user prepares learning images in advance. The learning data acquisition unit 301 receives the learning images prepared in advance by the user. The training images prepared in advance are generated, for example, by recording a SIM image and an SEM image with the aid of the charge carrier beam device. It is preferable that the learning images prepared here in advance are generated by changing a parameter related to the image in an area similar to an area in which the parameter is changed when the charged carrier beam device 10 actually generates a SIM image or an SEM image as the destination image. The parameter relating to the image includes, for example, a contrast, a brightness, a magnification, a focus and a beam state.

Wenn der Benutzer die Lernbilder im Voraus vorbereitet, ist es nicht wünschenswert, dass das Verhältnis eines bestimmten Bildtyps in einer Vielzahl von Bildern, die in den Lernbildern enthalten sind, größer ist als das Verhältnis der anderen Bildtypen. Wenn der Benutzer die Lernbilder im Voraus vorbereitet, ist es vorzuziehen, dass die Lernbilder eine Mehrzahl von Bildtypen enthalten, so dass die Anzahl der Mehrzahl der Bildtypen gleich groß ist. Die Bildtypen unterscheiden sich in diesem Fall z.B. durch den oben erwähnten, auf das Bild bezogenen Parameter.If the user prepares the learning images in advance, it is not desirable that the ratio of a certain type of image in a plurality of images included in the learning images is larger than the ratio of the other types of images. When the user prepares the learning images in advance, it is preferable that the learning images include a plurality of types of images so that the number of the plurality of types of images is the same. In this case, the image types differ, for example, through the above-mentioned parameter related to the image.

Das Lernbild kann ein Pseudo-Bild enthalten, das später beschrieben wird.The learning image may include a pseudo-image which will be described later.

Wenn das Maschinenlernmodell M vom Benutzer generiert wird, wird die Eignung des Lernbildes, das beim Maschinenlernen verwendet werden soll, vom Benutzer bestimmt. In diesem Fall kann der Benutzer erklärbare AI (XAI) bei der Bestimmung der Angemessenheit des Lernbildes verwenden. In der XAI erklärt das Maschinenlernmodell einen Prozess der Durchführung der Bestimmung. Die Lerneinheit 302 bestimmt, basierend auf der XAI, im Prozess der Bestimmung der Position des Ziels in einem Bild, das das Ziel durch das Maschinenlernmodell M einschließt, einen Bereich, der als Merkmalspunkt verwendet wurde, der die Position des Ziels im Bild angibt. Die Lerneinheit 302 verwendet, wie die XAI, z.B. die schichtweise Relevanzausbreitung (LRP) oder andere derartige Methoden. Der Benutzer bestimmt die Angemessenheit des Lernbildes, indem er den Bereich, der als Merkmalspunkt verwendet wurde, visuell überprüft, der durch die Lerneinheit 302 bestimmt wird.If the machine learning model M. is generated by the user, the suitability of the learning image to be used in machine learning is determined by the user. In this case, the user can use Explainable AI (XAI) in determining the adequacy of the learning image. In the XAI, the machine learning model explains a process of performing the determination. The learning unit 302 determines, based on the XAI, in the process of determining the position of the target in an image, that the target is determined by the machine learning model M. includes an area that has been used as a feature point indicating the position of the target in the image. The learning unit 302 used, like the XAI, e.g. the layered relevance propagation (LRP) or other such methods. The user determines the appropriateness of the learning image by visually checking the area that has been used as the feature point which is covered by the learning unit 302 is determined.

Unter Bezugnahme auf 26 bis 29 wird nun die Bestimmung der Angemessenheit des Lernbildes auf der Grundlage der XAI beschrieben. 26 ist eine Zeichnung zur Veranschaulichung eines Beispiels für das Lernbild Y5 in der ersten Ausführungsform. Die Lernbilder Y5 enthalten ein Bild Y51 bis zu einem Bild Y54. Das Bild Y51 bis zum Bild Y54 kann ein beliebiges Bild sein, wie z.B. ein REM-Bild, ein SIM-Bild oder ein Pseudo-Bild, das später beschrieben wird. Das Bild Y51 zum Bild Y54 enthält jeweils eine Nadel B41 zu einer Nadel B44. In einem Maschinenlernmodell M5, das auf der Grundlage der Lernbilder Y5 gelernt wurde, wird das Maschinenlernen ausgeführt, indem die Bedingung gestellt wird, dass ein Bereich R41 bis zu einem Bereich R44 Bereiche sind, die jeweils die Nadelspitze im Bild Y51 bis zum Bild Y54 anzeigen. In 26 ist die Form der Bereiche R41 bis R44 jeweils eine Ellipse als Beispiel.With reference to 26th to 29 The determination of the adequacy of the learning image based on the XAI will now be described. 26th Fig. 13 is a drawing showing an example of the learning image Y5 in the first embodiment. The learning pictures Y5 contain a picture Y51 up to a picture Y54 . The picture Y51 up to the picture Y54 can be any image such as an SEM image, a SIM image, or a pseudo-image which will be described later. The picture Y51 to the picture Y54 contains one needle each B41 to a needle B44 . In a machine learning model M5 that is based on the learning images Y5 has been learned, machine learning is carried out by making the condition that an area R41 up to an area R44 Areas are each the needle tip in the picture Y51 up to the picture Y54 Show. In 26th is the shape of the areas R41 to R44 an ellipse each as an example.

27 ist eine Zeichnung zur Veranschaulichung eines Beispiels für ein Bild I1, das in der ersten Ausführungsform hinzugefügt werden soll. Das hinzuzufügende Bild I1 ist ein Lernbild, das zu den Lernbildern Y5 hinzugefügt werden soll, und ist ein Bild, für das die Angemessenheit zu bestimmen ist, ob das Bild zu den Lernbildern Y5 hinzugefügt werden soll. Das hinzuzufügende Bild I1 enthält als Beispiel das Bild einer Nadel. Das hinzuzufügende Bild I1 kann ein beliebiges Bild sein, z.B. ein REM-Bild, ein SIM-Bild oder ein später beschriebenes Pseudo-Bild. 27 Fig. 13 is a drawing showing an example of an image I1 to be added in the first embodiment. The image to be added I1 is a learning image that goes with the learning images Y5 is to be added, and is a picture for which the appropriateness is to be determined whether the picture is to the learning pictures Y5 should be added. The image to be added I1 contains the picture of a needle as an example. The image to be added I1 can be any image, for example an SEM image, a SIM image or a pseudo-image described later.

28 und 29 sind jeweils eine Zeichnung zur Veranschaulichung eines Beispielbildes, für das in der ersten Ausführungsform ein Merkmalspunkt festgelegt wird. In 28 ist ein Bild O1 dargestellt, in dem, wenn die Position der Nadelspitze, die in dem in 27 dargestellten Bild I1 enthalten ist und hinzugefügt werden soll, z.B. auf der Grundlage eines Maschinenlernmodells M1 als Maschinenlernmodell M bestimmt wird, ein Bereich R1 gezeigt wird, der vom Maschinenlernmodell M1 als Merkmalspunkt verwendet wurde. In 29 ist ein Bild 02 dargestellt, in dem, wenn die Position der Nadelspitze, die in dem in 27 dargestellten Bild I1 enthalten ist und hinzugefügt werden soll, z.B. auf der Grundlage eines Maschinenlernmodells M2 als Maschinenlernmodell M bestimmt wird, ein Bereich R21 und ein Bereich R22, die vom Maschinenlernmodell M2 als Merkmalspunkte verwendet wurden, dargestellt sind. Das Maschinenlernmodell M1 und das Maschinenlernmodell M2 werden jeweils durch Ausführen des Maschinenlernens auf der Grundlage der Lernbilder Y5 erzeugt. 28 and 29 are each a drawing to illustrate an example image for which a feature point is set in the first embodiment. In 28 is a picture O1 shown in which, if the position of the needle tip indicated in the in 27 shown image I1 is included and is to be added, e.g. on the basis of a machine learning model M1 as a machine learning model M. is determined an area R1 that is shown by the machine learning model M1 was used as a feature point. In 29 is a picture 02 shown in which, if the position of the needle tip indicated in the in 27 shown image I1 is included and is to be added, e.g. on the basis of a machine learning model M2 as a machine learning model M. is determined an area R21 and an area R22 that from the machine learning model M2 used as feature points are shown. The machine learning model M1 and the machine learning model M2 are each performed by performing machine learning based on the learning images Y5 generated.

Aus dem Bild O1 geht hervor, dass das Maschinenlernmodell M1 eine Bestimmung mit der Verwendung des Bereichs R1 als Merkmalspunkt durchführt. Die Fläche R1 entspricht der Position der Nadelspitze. Wie oben beschrieben, ist in den Lernbildern Y5 in 26 der Bereich dargestellt, der die Nadelspitze anzeigt, und das hinzuzufügende Bild I1 muss daher dem Maschinenlernmodell M1 nicht hinzugefügt werden. In diesem Fall stellt der Benutzer fest, dass es nicht angebracht ist, das hinzuzufügende Bild I1 zu den Lernbildern Y5 hinzuzufügen.From the picture O1 shows that the machine learning model M1 a provision with the use of the area R1 performs as a feature point. The area R1 corresponds to the position of the needle tip. As described above, is in the learning pictures Y5 in 26th shows the area showing the tip of the needle and the image to be added I1 must therefore follow the machine learning model M1 cannot be added. In this case, the user finds that it is inappropriate to use the image to be added I1 to the learning pictures Y5 to add.

Aus dem Bild 02 geht hervor, dass das maschinelle Lernmodell M2 eine Bestimmung mit der Verwendung des Bereichs R21 und des Bereichs R22 als Merkmalspunkte durchführt. Der Bereich R21 entspricht der Position der Nadelspitze. Der Bereich R22 entspricht der Position der Nadelspitze, während der Bereich R22 einer anderen Position der Nadel als der Spitze entspricht. Wenn das hinzuzufügende Bild I1 beim Lernen des Maschinenlernmodells M2 verwendet wird, indem die Bedingung gestellt wird, dass der Bereich R22 der Position der Nadel mit Ausnahme der Spitze entspricht, wird erwartet, dass verhindert wird, dass die Position der Nadel mit Ausnahme der durch den Bereich R22 angezeigten Spitze als Nadelspitze bestimmt wird. In diesem Fall bestimmt der Benutzer, dass es angebracht ist, das Bild I1 als Lernbilder Y5 hinzuzufügen.From the picture 02 shows that the machine learning model M2 a provision with the use of the area R21 and the area R22 performs as feature points. The area R21 corresponds to the position of the needle tip. The area R22 corresponds to the position of the needle tip while the area R22 corresponds to a different position of the needle than the point. When the image to be added I1 when learning the machine learning model M2 is used by making the condition that the area R22 Corresponding to the position of the needle other than the tip, it is expected to prevent the position of the needle other than through the area R22 indicated tip is determined as the needle tip. In this case, the user determines that it is appropriate to the image I1 as learning images Y5 to add.

Bei der in 23 dargestellten Verarbeitung der Zielbestimmung wird ein Fallbeispiel beschrieben, bei dem, wenn das Ziel in Schritt S5310 aufgrund des Schablonenabgleichs nicht erfolgreich bestimmt wurde, der Bildverarbeitungsrechner 30 aus den im Maschinenlernmodell M enthaltenen Maschinenlernmodellen, die jeweils mit M-i (i=1, 2) bezeichnet sind, ein Maschinenlernmodell M-j auswählt, das für die Zielbestimmung verwendet werden soll...N: N ist die Anzahl der Modelle), d.h. ein Beispiel für den Fall, dass ein Wiederholungsversuch ausgeführt wird, die vorliegende Erfindung aber nicht darauf beschränkt ist. Der Bildverarbeitungsrechner 30 kann die Bestimmung auf der Grundlage des Schablonenabgleichs und die Bestimmung auf der Grundlage des Maschinenlernmodells M parallel ausführen und ein Ergebnis auswählen, das als Ergebnis der Bestimmung des Ziels als geeignet bestimmt wurde.At the in 23 A case study will be described in which, when the target has not been successfully determined in step S5310 due to the template matching, the image processing computer will be described 30th from those in the machine learning model M. contained machine learning models, each denoted by Mi (i = 1, 2), selects a machine learning model Mj to be used for target determination ... N: N is the number of models), ie an example for the case that a retry is carried out, but the present invention is not limited thereto. The image processing computer 30th may make the determination based on the template matching and the determination based on the machine learning model M. execute in parallel and select a result determined to be appropriate as a result of determining the target.

Rückblickend auf 14 wird die Beschreibung der Vorgehensweise beim Bewegen der Nadel 18 fortgesetzt.Looking back on 14th becomes the description of the procedure for moving the needle 18th continued.

Schritt S540: Der Steuerrechner 22 bewegt die Nadel 18 in die erfasste Aufnahmeposition. step S540 : The tax calculator 22nd moves the needle 18th into the recorded position.

Mit dem Abschluss der oben beschriebenen Schritte beendet der Steuerrechner 22 die Verarbeitung der Bewegung der Nadel 18.With the completion of the steps described above, the control computer ends 22nd processing the movement of the needle 18th .

Rückblickend auf 13 wird die Beschreibung des Schrittes der Probenstückaufnahme fortgesetzt.Looking back on 13th the description of the sample pick-up step continues.

Schritt S60: Der Steuerrechner 22 verbindet die Nadel 18 und das Probenstück Q. Der Steuerrechner 22 verwendet einen Abscheidefilm für die Verbindung.step S60 : The tax calculator 22nd connects the needle 18th and the sample piece Q . Of the Tax calculator 22nd uses a separating film for the connection.

Schritt S70: Der Steuerrechner 22 trennt die Probe S und das Probenstück Q durch Verarbeitung. 30 veranschaulicht, wie die Trennung durch Bearbeitung durchgeführt wird, und ist ein Zeichnung zur Veranschaulichung einer Schnittverarbeitungsposition T1, an der die Probe S und der Stützteil Qa des Probenstücks Q in SIM-Bilddaten in der ersten Ausführungsform der vorliegenden Erfindung geschnitten werden.step S70 : The tax calculator 22nd separates the sample S. and the sample piece Q through processing. 30th Fig. 11 illustrates how the separation is performed by machining, and is a drawing for explaining a cut processing position T1 at which the sample S. and the support part Qa of the specimen Q can be cut into SIM image data in the first embodiment of the present invention.

Schritt S80: Der Steuerrechner 22 evakuiert die Nadel 18. Der Steuerrechner 22 erkennt die Position der Spitze der Nadel 18 auf die gleiche Weise wie bei der Verarbeitung der Bewegung der Nadel 18 aus Schritt S50, um die Nadel 18 zu bewegen und zu evakuieren.step S80 : The tax calculator 22nd evacuates the needle 18th . The tax calculator 22nd detects the position of the tip of the needle 18th in the same way as when processing the movement of the needle 18th off step S50 to the needle 18th to move and evacuate.

Schritt S90: Der Steuerrechner 22 bewegt den Probentisch 12. Der Steuerrechner 22 steuert den Probentischantriebsmechanismus 13, um den Probentisch 12 so zu bewegen, dass der spezifische säulenartige Teil 44, der im oben beschriebenen Schritt S20 registriert wurde, in einen Beobachtungsfeldbereich eintritt, der von einem Ladungsträgerstrahl abgedeckt wird.step S90 : The tax calculator 22nd moves the sample stage 12th . The tax calculator 22nd controls the stage drive mechanism 13th to the sample table 12th move so that the specific columnar part 44 that is in the above step S20 was registered, enters an observation field area which is covered by a charge carrier beam.

(Schritt zur Montage des Probenstücks)(Step to assemble the sample piece)

31 ist eine Zeichnung zur Veranschaulichung eines Beispiels für den Montageschritt des Probenstücks in der ersten Ausführungsform. Der Montageschritt des Probenstücks ist ein Schritt des Transports des entnommenen Probenstücks Q zum Probenstückhalter P. 31 Fig. 13 is a drawing showing an example of the assembling step of the sample piece in the first embodiment. The test piece assembling step is a step of transporting the removed test piece Q to the sample holder P .

Schritt S100: Der Steuerrechner 22 bestimmt eine Transportposition des Probenstücks Q. Der Steuerrechner 22 bestimmt als Transportposition den spezifischen säulenartigen Abschnitt 44, der im oben beschriebenen Schritt S20 registriert wurde.step S100 : The tax calculator 22nd determines a transport position of the sample piece Q . The tax calculator 22nd determines the specific columnar section as the transport position 44 that is in the above step S20 was registered.

Schritt S110: Der Steuerrechner 22 erkennt die Position der Nadel 18. Der Steuerrechner 22 erkennt die Position der Spitze der Nadel 18 auf die gleiche Weise wie im oben beschriebenen Schritt S520.step S110 : The tax calculator 22nd detects the position of the needle 18th . The tax calculator 22nd detects the position of the tip of the needle 18th in the same way as in the above step S520 .

Schritt S120: Der Steuerrechner 22 bewegt die Nadel 18. Der Steuerrechner 22 bewegt mit dem Nadelantriebsmechanismus 19 die Nadel 18 in die in Schritt S100 ermittelte Transportposition der Probe Q. Der Steuerrechner 22 stoppt die Nadel 18 mit einem vorbestimmten Spalt, der zwischen dem säulenartigen Abschnitt 44 und dem Probenstück Q vorhanden ist.step S120 : The tax calculator 22nd moves the needle 18th . The tax calculator 22nd moved with the needle drive mechanism 19th the needle 18th in the in step S100 determined transport position of the sample Q . The tax calculator 22nd stops the needle 18th with a predetermined gap between the columnar portion 44 and the specimen Q is available.

Schritt S130: Der Steuerrechner 22 verbindet das mit der Nadel 18 verbundene Probenstück Q mit dem säulenartigen Abschnitt 44.step S130 : The tax calculator 22nd connects that with the needle 18th connected specimen Q with the columnar section 44 .

Schritt S140: Der Steuerrechner 22 trennt die Nadel 18 und das Probenstück Q.step S140 : The tax calculator 22nd separates the needle 18th and the sample piece Q .

Der Steuerrechner 22 führt die Trennung durch, indem er einen Abscheidefilm DM2 schneidet, der die Nadel 18 und das Probenstück Q verbindet.The tax calculator 22nd performs the separation by making a separation film DM2 who cuts the needle 18th and the sample piece Q connects.

Schritt S150: Der Steuerrechner 22 evakuiert die Nadel 18. Der Steuerrechner 22 bewegt mit dem Nadelantriebsmechanismus 19 die Nadel 18 um eine vorbestimmte Strecke vom Probenstück Q weg.step S150 : The tax calculator 22nd evacuates the needle 18th . The tax calculator 22nd moved with the needle drive mechanism 19th the needle 18th by a predetermined distance from the specimen Q path.

Schritt S160: Der Steuerrechner 22 bestimmt, ob die nächste Probennahme durchgeführt werden soll. Die Ausführung der nächsten Probennahme soll die Probennahme derselben Probe S von einer anderen Stelle aus fortsetzen. Die Anzahl der zu beprobenden Stücke wird im Voraus bei der Registrierung von Schritt S10 festgelegt, und der Steuerrechner 22 überprüft diese Daten, um festzustellen, ob die nächste Probennahme durchgeführt werden soll. Wenn festgestellt wird, dass die nächste Probennahme durchgeführt werden soll, kehrt der Steuerrechner 22 zu Schritt S50 zurück, um die nachfolgenden Schritte in der oben beschriebenen Weise fortzusetzen, um so die Probennahmearbeit auszuführen. Wenn andererseits festgestellt wird, dass die nächste Probennahme nicht ausgeführt werden soll, beendet der Steuerrechner 22 den Ablauf der Schrittfolge der automatisierten MS.step S160 : The tax calculator 22nd determines whether the next sample should be taken. The execution of the next sampling should be sampling the same sample S. continue from another point. The number of pieces to be sampled is determined in advance when registering from step S10 set, and the tax calculator 22nd reviews this data to determine if the next sample should be taken. If it is determined that the next sampling should be carried out, the control computer returns 22nd to step S50 to continue the subsequent steps in the manner described above so as to carry out the sampling work. On the other hand, if it is determined that the next sampling should not be carried out, the control computer terminates 22nd the sequence of steps of the automated MS.

In der ersten Ausführungsform wird ein Beispiel für einen Fall beschrieben, in dem die Lerndaten eine Kombination aus einem Lernbild und Informationen sind, die die Position eines Ziels im Lernbild angeben. Die Lerndaten sind jedoch nicht darauf beschränkt. Die Lerndaten können, abgesehen von einem Lernbild, Parameterinformationen enthalten, d.h. Informationen, die den Typ einer Probe angeben, Abtastparameter (Beschleunigungsspannungen und dergleichen des optischen Systems 14 für die Bestrahlung mit fokussiertem Ionenstrahl und des optischen Systems 15 für die Bestrahlung mit Elektronenstrahl), die Anzahl der Benutzungen der Nadel 18 nach der Durchführung der Reinigung der Nadel 18, ob ein Fremdmaterial an der Spitze der Nadel 18 haftet, und dergleichen.In the first embodiment, an example will be described of a case where the learning data is a combination of a learning image and information indicating the position of a target in the learning image. However, the learning data is not limited to this. The learning data may contain parameter information other than a learning image, that is, information indicating the type of a sample, scanning parameters (acceleration voltages and the like of the optical system 14th for irradiation with a focused ion beam and the optical system 15th for irradiation with electron beam), the number of uses of the needle 18th after performing needle cleaning 18th whether there is any foreign material at the tip of the needle 18th adheres, and the like.

In diesem Fall wird ein maschinelles Lernmodell M1 generiert, indem Maschinenlernen auf der Grundlage des Lernbildes und der Parameterinformationen ausgeführt wird. Die Bestimmungseinheit 304 erhält die Parameterinformationen vom Steuerrechner 22 zusätzlich zu den Bilddaten eines SIM-Bildes und eines REM-Bildes, um dadurch die Position des Zieles im Bild auf der Grundlage der Bilddaten, der Parameterinformationen und des Maschinenlernmodells M1 zu bestimmen.In this case it becomes a machine learning model M1 generated by performing machine learning based on the learning image and the parameter information. The unit of determination 304 receives the parameter information from the control computer 22nd in addition to the image data of a SIM image and an SEM image to thereby determine the position of the target in the image on the basis of the image data, the parameter information and the machine learning model M1 to determine.

Die Parameterinformationen können ferner die oben beschriebenen Richtungsinformationen enthalten. Wenn die Lerndaten die Richtungsinformation enthalten, wird das maschinelle Lernmodell M1 durch das Lernen der Beziehung zwischen einem Ziel und einer Richtung, in der das Ziel betrachtet wird (Richtung definiert mit dem Probentisch 12 als Referenz), generiert, und die Bestimmungseinheit 304 ist daher nicht verpflichtet, die Richtungsinformation bei der Bestimmung der Position des Ziels zu verwenden.The parameter information can also contain the direction information described above. When the learning data contains the direction information, the machine learning model becomes M1 by learning the relationship between a target and a direction in which the target is viewed (direction defined with the sample table 12th as reference), generated, and the determination unit 304 is therefore not required to use the directional information in determining the position of the target.

Wie oben beschrieben, führt der Rechner (in der ersten Ausführungsform der Steuerrechner 22) eine Positionssteuerung in Bezug auf ein zweites Ziel (in der ersten Ausführungsform die säulenartigen Abschnitte 44, die Nadel 18 und das Probenstück Q) durch, basierend auf dem Ergebnis der Positionsbestimmung, bei der der Bildverarbeitungsrechner 30 die Position des zweiten Ziels (in der ersten Ausführungsform die säulenartigen Abschnitte 44, die Nadel 18 und das Probenstück Q) bestimmt, auf der Grundlage eines Maschinenlernmodells (in der ersten Ausführungsform das maschinelle Lernmodell M1) und auf der Grundlage der zweiten Information einschließlich des zweiten Bildes (in der ersten Ausführungsform SIM-Bilder und REM-Bilder der säulenartigen Abschnitte 44, der Nadel 18 und des Probenstücks Q). Der Bildverarbeitungsrechner 30 und der Steuerrechner 22 können in einen integriert werden, um in die Ladungsträgerstrahlvorrichtung 10 aufgenommen zu werden.As described above, the computer (in the first embodiment, the control computer 22nd ) position control with respect to a second target (in the first embodiment, the columnar portions 44 , the needle 18th and the sample piece Q ) based on the result of the position determination in which the image processing computer 30th the position of the second target (in the first embodiment, the columnar sections 44 , the needle 18th and the sample piece Q ) is determined based on a machine learning model (the machine learning model in the first embodiment M1 ) and based on the second information including the second image (SIM images and SEM images of the columnar portions in the first embodiment 44 , the needle 18th and the specimen Q ). The image processing computer 30th and the tax calculator 22nd can be integrated into one to get into the charged beam device 10 to be included.

(Zweite Ausführungsform)(Second embodiment)

Eine zweite Ausführungsform der vorliegenden Erfindung wird im Folgenden unter Bezugnahme auf die Zeichnungen ausführlich beschrieben.A second embodiment of the present invention will be described in detail below with reference to the drawings.

Bei der zweiten Ausführungsform wird ein Fall beschrieben, in dem ein Pseudo-Bild, das entsprechend dem Typ eines Ziels erzeugt wurde, als Lernbild verwendet wird, und ein zu verwendendes Maschinenlernmodell wird auf der Grundlage des Typs des Ziels ausgewählt.In the second embodiment, a description will be given of a case where a pseudo-image generated according to the type of a target is used as a learning image, and a machine learning model to be used is selected based on the type of the target.

Die Ladungsträgerstrahlvorrichtung 10 wird gemäß der zweiten Ausführungsform als „Ladungsträgerstrahlvorrichtung 10a“ und der Bildverarbeitungsrechner 30 in der zweiten Ausführungsform als „Bildverarbeitungsrechner 30a“ bezeichnet.The charged beam device 10 is according to the second embodiment as “charged carrier beam device 10a” and the image processing computer 30th referred to as “image processing computer 30a” in the second embodiment.

32 ist eine Zeichnung zur Veranschaulichung eines Beispiels für eine Konfiguration des Bildverarbeitungsrechners 30a in der zweiten Ausführungsform. Vergleicht man den Bildverarbeitungsrechner 30a (32) in der zweiten Ausführungsform mit dem Bildverarbeitungsrechner 30 (6) in der ersten Ausführungsform, so unterscheidet sich der Bildverarbeitungsrechner 30a dadurch, dass der Bildverarbeitungsrechner 30a eine lernende Bilderzeugungseinheit 306a, eine Klassifizierungseinheit 307a, ein Maschinenlernmodell M1a und ein klassifikatorisches Lernmodell M2a enthält. Die Funktionen der anderen Komponenten in der zweiten Ausführungsform sind die gleichen wie die der Komponenten in der ersten Ausführungsform. Beschreibungen derselben Funktionen wie in der ersten Ausführungsform werden hier weggelassen, und die Beschreibung der zweiten Ausführungsform konzentriert sich auf die Unterschiede zur ersten Ausführungsform. 32 Fig. 13 is a drawing showing an example of a configuration of the image processing computer 30a in the second embodiment. If you compare the image processing computer 30a ( 32 ) in the second embodiment with the image processing computer 30th ( 6th ) in the first embodiment, the image processing computer differs 30a in that the image processing computer 30a a learning image generation unit 306a , a classification unit 307a , a machine learning model M1a and a classificatory learning model M2a. The functions of the other components in the second embodiment are the same as those of the components in the first embodiment. Descriptions of the same functions as the first embodiment will be omitted here, and the description of the second embodiment will focus on the differences from the first embodiment.

Eine Steuereinheit 300a umfasst neben der Lerndatengewinnungseinheit 301 die Lerneinheit 302, die Bestimmungsbildgewinnungseinheit 303 und die Bestimmungseinheit 304, die Lernbilderzeugungseinheit 306a und die Klassifizierungseinheit 307a.A control unit 300a includes the learning data acquisition unit 301 the learning unit 302 , the destination image acquisition unit 303 and the determining unit 304 , the learning image generation unit 306a and the classification unit 307a .

Die Lernbilderzeugungseinheit 306a erzeugt ein Pseudo-Bild PI als Lernbild. In der zweiten Ausführungsform ist das Pseudo-Bild PI ein Bild, das aus einem SIM-Bild und einem REM-Bild erzeugt wird, die im Voraus durch Bestrahlung eines Ziels mit einem Ladungsträgerstrahl erhalten werden. Die Lernbild-Erzeugungseinheit 306a erzeugt das Pseudo-Bild PI z.B. auf der Basis von „bare ware“ BW und einem Musterbild PT.The learning image generation unit 306a creates a pseudo-image PI as a learning image. In the second embodiment, the pseudo-picture is PI an image formed from a SIM image and an SEM image obtained in advance by irradiating a target with a charged carrier beam. The learning image generation unit 306a generates the pseudo-image PI eg on the basis of “bare ware” BW and a sample image PT.

Die „bare ware“ BW ist ein Bild, bei dem ein Oberflächenmuster eines Ziels entfernt wird, um die Form des Ziels anzuzeigen. Die „bare ware“ BW wird bevorzugt als eine Vielzahl von Bildern verwendet, die sich in Größe, Kontrast, Fokus oder Ähnlichem voneinander unterscheiden und eine Vielzahl von Zielformen anzeigen. Die „bare ware“ BW ist ein Bild, das mit Hilfe von Bildsoftware gezeichnet wurde, im Gegensatz zu SIM-Bildern und REM-Bildern.The "bare ware" BW is an image in which a surface pattern of a target is removed to show the shape of the target. The “bare ware” BW is preferably used as a large number of images that differ from one another in size, contrast, focus or the like and display a large number of target shapes. The "bare ware" BW is an image that was drawn with the help of image software, in contrast to SIM images and SEM images.

Das Musterbild PT ist ein Bild, das ein Muster anzeigt, das der internen Struktur eines Ziels entspricht. Das Musterbild PT kann ein SIM-Bild oder ein REM-Bild sein, das durch Bestrahlung mit einem Ladungsträgerstrahl erhalten wird, oder ein Bild, das mit Hilfe von Bildsoftware gezeichnet wird.The pattern image PT is an image that displays a pattern that corresponds to the internal structure of a target. The pattern image PT can be a SIM image or an SEM image obtained by irradiation with a charge carrier beam, or an image drawn with the aid of image software.

Die Lernbild-Erzeugungseinheit 306a erzeugt das Pseudo-Bild PI unter Verwendung eines Pseudo-Bild-Erzeugungsalgorithmus, indem sie ein zufälliges Rauschen zu einem Muster hinzufügt, das durch das Musterbild PT angezeigt wird und der internen Struktur eines Ziels entspricht, und das Muster auf der „bare ware“ BW überlagert.The learning image generation unit 306a generates the pseudo-image PI using a pseudo-image generation algorithm by adding a random noise to a pattern indicated by the pattern image PT and corresponding to the internal structure of a target and superimposing the pattern on the bare ware BW.

In der zweiten Ausführungsform wird ein Beispiel für einen Fall beschrieben, in dem die Lernbilderzeugungseinheit 306a das Pseudo-Bild PI als Lernbild des Probenstücks Q erzeugt, aber die zweite Ausführungsform ist nicht darauf beschränkt. Die Lernbilderzeugungseinheit 306a kann das Pseudo-Bild PI als Lernbild der Nadel 18 oder der säulenartigen Abschnitte 44 erzeugen. Die Lernbild-Erzeugungseinheit 306a kann auch das Pseudo-Bild PI für einen Fall erzeugen, in dem ein Teil des Probenstücks Q an der Spitze der Nadel 18 anhaftet, als Lernbild für den oben beschriebenen abnormalen Fall.In the second embodiment, an example of a case where the learning image generation unit is described will be described 306a the pseudo-image PI when Learning image of the sample Q is generated, but the second embodiment is not limited to this. The learning image generation unit 306a can be the pseudo-image PI as a learning image of the needle 18th or the columnar sections 44 produce. The learning image generation unit 306a can also use the pseudo-image PI for a case where a part of the specimen Q at the tip of the needle 18th adheres as a learning image for the abnormal case described above.

Die Lernbilderzeugungseinheit 306a kann im Lernbild das SIM-Bild und das REM-Bild in der ersten Ausführungsform enthalten, die im Voraus durch Bestrahlung des Ziels mit einem Ladungsträgerstrahl wie oben beschrieben erhalten werden. Das heißt, die Lernbilderzeugungseinheit 306a kann das Pseudo-Bild PI allein verwenden oder das Pseudo-Bild PI in Kombination mit dem SIM-Bild und dem REM-Bild als Lernbild verwenden.The learning image generation unit 306a may include, in the learning image, the SIM image and the SEM image in the first embodiment obtained in advance by irradiating the target with a charged carrier beam as described above. That is, the learning image generation unit 306a can be the pseudo-image PI use alone or the pseudo-image PI Use in combination with the SIM image and the SEM image as a learning image.

Die Lerneinheit 302 generiert das maschinelle Lernmodell M1a im maschinellen Lernen, indem sie als Merkmalsmengen die Oberflächenform des Ziels und das Muster der internen Struktur des Ziels aus dem Lernbild, das von der Lernbilderzeugungseinheit 306a erzeugt wurde, extrahiert.The learning unit 302 generates the machine learning model M1a in the machine learning by taking as feature quantities the surface shape of the target and the pattern of the internal structure of the target from the learning image generated by the learning image generation unit 306a is extracted.

Eine Methode zur Erzeugung des Pseudo-Bildes PI wird unter Bezugnahme auf 33 bis 35 beschrieben.A method of creating the pseudo-image PI is made with reference to 33 to 35 described.

33 ist eine Zeichnung zur Veranschaulichung eines Beispiels für die „bare ware“ BW in der zweiten Ausführungsform. In 33 sind die „bare wäre“ BW1, die „bare wäre“ BW2 und die „bare ware“ BW3 als die „bare ware“ BW des Probenstücks Q dargestellt. Die „bare wäre“ BW1, die „bare wäre“ BW2 und die „bare wäre“ BW3 sind Bilder, in denen Formen des Probenstücks Q in einer Vielzahl von Größen simuliert werden. Ein Bild, das der Nadel 18 entspricht, ist in jeder der „bare ware“ BW1, der „bare ware“ BW2 und der „bare ware“ BW3 als Information über die Aufnahmeposition enthalten. 33 Fig. 13 is a drawing to show an example of the “bare ware” BW in the second embodiment. In 33 are the "bare would" BW1 that "would be bare" BW2 and the "bare goods" BW3 as the "bare ware" BW of the sample Q shown. The "bare would be" BW1 that "would be bare" BW2 and the "bare would be" BW3 are pictures showing shapes of the specimen Q can be simulated in a variety of sizes. An image that of the needle 18th is in each of the "bare goods" BW1 , the "bare ware" BW2 and the "bare goods" BW3 contained as information about the recording position.

34 ist eine Zeichnung zur Veranschaulichung eines Beispiels für das Musterbild PT in der zweiten Ausführungsform. In 34 ist ein Benutzerbeispiel U1 als Musterbild PT dargestellt. Das Benutzerbeispiel U1 ist ein Bild, das entsprechend dem Typ des Probenstücks Q vorbereitet wurde, das von einem Benutzer der Ladungsträgerstrahlvorrichtung 10a verarbeitet werden soll. In der Benutzerprobe U1 werden Muster gezeichnet, die den Arten von Materialien entsprechen, die eine Vielzahl von Schichten eines mehrschichtigen Probenstücks bilden. 34 Fig. 13 is a drawing showing an example of the pattern image PT in the second embodiment. In 34 is a user example U1 shown as a sample image PT. The user example U1 is an image that corresponds to the type of the specimen Q has been prepared by a user of the charged carrier beam device 10a should be processed. In the user sample U1 patterns are drawn corresponding to the types of materials that make up a plurality of layers of a multi-layer specimen.

35 ist eine Zeichnung zur Veranschaulichung eines Beispiels für das Pseudo-Bild PI in der zweiten Ausführungsform. In 35 sind ein Pseudo-Bild PI1, ein Pseudo-Bild PI2 und ein Pseudo-Bild PI3, die auf der Grundlage der „bare ware“ BW1, der „bare ware“ BW2 und der „bare ware“ BW3 von 33 und auf der Benutzerstichprobe U1 von 34 erzeugt wurden, als Pseudo-Bild PI dargestellt. In dem Pseudo-Bild PI1, dem Pseudo-Bild PI2 und dem Pseudo-Bild PI3 wird das durch die Benutzerprobe U1 angezeigte interne Strukturmuster den Formen des Probenstücks Q einer Vielzahl von Größen überlagert. 35 Fig. 13 is a drawing showing an example of the pseudo-picture PI in the second embodiment. In 35 are a pseudo-image PI1 , a pseudo-image PI2 and a pseudo-image PI3 which are based on the "bare ware" BW1 , the "bare ware" BW2 and the "bare goods" BW3 from 33 and on the user sample U1 from 34 were generated as a pseudo-image PI shown. In the pseudo-picture PI1 , the pseudo-image PI2 and the pseudo-image PI3 becomes that through the user sample U1 internal structure patterns displayed correspond to the shapes of the specimen Q superimposed a variety of sizes.

Unter Rückgriff auf 32 wird die Beschreibung der Konfiguration des Bildverarbeitungsrechners 30a fortgesetzt.Having recourse to 32 is the description of the configuration of the image processing computer 30a continued.

Die Klassifizierungseinheit 307a klassifiziert ein Bestimmungsbild, das von der Bestimmungsbildgewinnungseinheit 303 erhalten wurde, auf der Grundlage des Klassifizierungs-Nutzungs-Lernmodells M2a. Das Klassifizierungs-Nutzungs-Lernmodell M2a ist ein Modell zur Auswahl eines Modells aus einer Vielzahl von Modellen, die im Maschinenlernmodell M1a enthalten sind, das für die Bestimmung durch die Bestimmungseinheit 304 in Übereinstimmung mit dem Typ eines Ziels verwendet werden soll. Die in diesem Fall in dem Modell M1a des Maschinenlernens enthaltenen mehreren Modelle unterscheiden sich voneinander nicht nur durch den Satz von Lerndaten, der für die Erzeugung des Modells verwendet wurde, sondern auch durch den Algorithmus des maschinellen Lernens.The classification unit 307a classifies a destination image obtained by the destination image extraction unit 303 was obtained based on the classification usage learning model M2a. The classification usage learning model M2a is a model for selecting a model from among a plurality of models included in the machine learning model M1a to be determined by the determining unit 304 should be used in accordance with the type of a target. The plural models included in the machine learning model M1a in this case differ from each other not only in the set of learning data used for generating the model but also in the machine learning algorithm.

Das Klassifizierungs-Nutzungs-Lernmodell M2a verknüpft z.B. für jeden Benutzer den Typ des zu bearbeitenden Probenstücks Q und ein Modell, das im Maschinenlernmodell M1a enthalten ist. Das Klassifizierungs-Nutzungs-Lernmodell M2a wird im Voraus auf der Grundlage des Maschinenlernens generiert und in der Speichereinheit 305 gespeichert.The classification / usage learning model M2a links, for example, the type of sample to be processed for each user Q and a model included in the machine learning model M1a. The classification usage learning model M2a is generated in advance based on the machine learning and stored in the storage unit 305 saved.

Die Verarbeitung der Erkennung der Aufnahmeposition des Probenstücks Q wird im Folgenden unter Bezugnahme auf 36 als der Betrieb der automatisierten MS der Ladungsträgerstrahlvorrichtung 10a beschrieben, das das Klassifizierungs-Nutzungs-Lernmodell M2a verwendet. The processing of detecting the receiving position of the specimen Q will be referred to below with reference to 36 than the operation of the automated MS of the charged carrier beam device 10a that uses the classification usage learning model M2a.

36 ist eine Zeichnung zur Veranschaulichung eines Beispiels für die Verarbeitung der Erkennung der Aufnahmeposition in der zweiten Ausführungsform. 36 Fig. 13 is a drawing showing an example of the processing of detecting the pickup position in the second embodiment.

Schritt S310: Die Klassifizierungseinheit 307a klassifiziert ein Bestimmungsbild, das von der Bestimmungsbildgewinnungseinheit 303 erhalten wurde, auf der Grundlage des Klassifizierungs-Nutzungs-Lernmodells M2a.step S310 : The classification unit 307a classifies a destination image obtained by the destination image extraction unit 303 was obtained based on the classification usage learning model M2a.

Schritt S320: Die Klassifizierungseinheit 307a wählt auf der Grundlage des Klassifizierungsergebnisses ein Maschinenlernmodell aus einer Vielzahl von Modellen, die im Maschinenlernmodell M1a enthalten sind, aus, das für die Bestimmung durch die Bestimmungseinheit 304 verwendet werden soll. Die Klassifizierungseinheit 307a kann auf der Grundlage des Klassifizierungsergebnisses als Algorithmus, der von der Bestimmungseinheit 304 für die Bestimmung verwendet werden soll, einen Schablonenabgleich auswählen.step S320 : The classification unit 307a chooses based on the Classification result from a machine learning model from a plurality of models that are contained in the machine learning model M1a, which is for the determination by the determination unit 304 should be used. The classification unit 307a can be based on the classification result as an algorithm used by the determining unit 304 to be used for the determination, select a template comparison.

Schritt S330: Die Bestimmungseinheit 304 bestimmt die Aufnahmeposition des Probenstücks Q, das im Bestimmungsbild enthalten ist, das von der Bestimmungsbildgewinnungseinheit 303 erhalten wird, auf der Grundlage des von der Klassifizierungseinheit 307a ausgewählten Maschinenlernmodells. In Schritt S330 führt die Bestimmungseinheit 304 die oben beschriebene Verarbeitung der Aufnahmepositionsbestimmung von 23 durch.step S330 : The unit of determination 304 determines the pick-up position of the specimen Q contained in the destination image obtained by the destination image extraction unit 303 is obtained based on that from the classification unit 307a selected machine learning model. In step S330 leads the determination unit 304 the above-described processing of the recording position determination of 23 by.

Die Klassifizierung durch die Klassifizierungseinheit 307a ist ein Beispiel für eine dritte Bestimmung zur Auswahl der Bestimmungsart. Anstelle des Schablonenabgleichs aus Schritt S5310 von 23 kann die Bestimmung auf der Grundlage des Maschinenlernens unter Verwendung eines der zahlreichen Modelle durchgeführt werden, die im Modell M1a des Maschinenlernens enthalten sind. Die Klassifizierungseinheit 307a wählt daher eine Bestimmungsart (einen Algorithmus) für mindestens eine der ersten Bestimmung (z.B. die Bestimmung in Schritt S5310) oder der zweiten Bestimmung (z.B. die Bestimmung in Schritt S5340) aus, basierend auf dem Ergebnis der dritten Bestimmung zur Auswahl einer Bestimmungsart (eines Algorithmus).The classification by the classification unit 307a is an example of a third determination for selecting the type of determination. Instead of the template matching from step S5310 of FIG 23 For example, the determination based on the machine learning may be made using one of the various models included in the machine learning model M1a. The classification unit 307a therefore, selects a determination mode (algorithm) for at least one of the first determination (e.g., the determination in step S5310) or the second determination (e.g., the determination in step S5340) based on the result of the third determination for selecting a determination mode (algorithm ).

Schritt S340: Die Bestimmungseinheit 304 bestimmt, ob die Aufnahmeposition des Probenstücks Q erfolgreich bestimmt wurde. Wenn festgestellt wird, dass die Aufnahmeposition erfolgreich ermittelt wurde (Schritt S340: JA), gibt die Bestimmungseinheit 304 die Positionsinformation, die die ermittelte Aufnahmeposition angibt, an den Steuerrechner 22 aus und beendet die Verarbeitung der Aufnahmepositionsbestimmung. Wenn festgestellt wird, dass die Aufnahmeposition nicht erfolgreich bestimmt wurde (Schritt S340: NEIN), führt die Bestimmungseinheit 304 dagegen die Verarbeitung von Schritt S350 aus.step S340 : The unit of determination 304 determines whether the receiving position of the specimen Q has been successfully determined. If it is determined that the shooting position has been successfully determined (step S340 : YES), gives the determination unit 304 the position information indicating the determined recording position to the control computer 22nd and ends the processing of the recording position determination. If it is determined that the shooting position has not been determined successfully (step S340 : NO), the determining unit performs 304 on the other hand the processing of step S350 out.

Schritt S350: Die Bestimmungseinheit 304 veranlasst den Steuerrechner 22, die automatisierte MS zu stoppen. Die Bestimmungseinheit 304 gibt ein Stoppsignal zum Stoppen der automatisierten MS an den Steuerrechner 22 aus. Die Bestimmungseinheit 304 beendet dann die Verarbeitung der Aufnahmepositionsbestimmung.step S350 : The unit of determination 304 initiates the control computer 22nd to stop the automated MS. The unit of determination 304 gives a stop signal to stop the automated MS to the control computer 22nd out. The unit of determination 304 then terminates the processing of the recording position determination.

Die oben beschriebenen Ausführungsformen befassen sich mit einem Beispiel für den Fall, dass die Bestimmungseinheit 304 die zweite Bestimmung durchführt, wenn die erste Bestimmung bei der Bestimmung der Position eines Ziels fehlschlägt. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt. Die Bestimmungseinheit 304 kann die zweite Bestimmung auch nach erfolgreicher erster Bestimmung durchführen, um die Position des Ziels auf der Grundlage sowohl des Ergebnisses der ersten Bestimmung als auch des Ergebnisses der zweiten Bestimmung zu bestimmen.The above-described embodiments deal with an example when the determining unit 304 makes the second determination when the first determination fails in determining the location of a target. However, the present invention is not limited to this. The unit of determination 304 may perform the second determination even after the first determination is successful, in order to determine the position of the target based on both the result of the first determination and the result of the second determination.

Beispielsweise kann die Bestimmungseinheit 304 die Position einer Zielscheibe auf der Grundlage des Schablonenabgleichs bestimmen, anschließend die Position der Zielscheibe auf der Grundlage des Maschinenlernens bestimmen und, wenn die durch die Ergebnisse der ersteren Bestimmung und der letzteren Bestimmung angegebenen Positionen übereinstimmen, bestimmen, dass die durch die Bestimmungsergebnisse angegebene Position die Position des Ziels ist.For example, the determination unit 304 determine the position of a target based on the template matching, then determine the position of the target based on the machine learning, and when the positions indicated by the results of the former determination and the latter determination match, determine that the position indicated by the determination results is the Position of the target is.

Die Bestimmungseinheit 304 kann eine vierte Bestimmung durchführen, so dass die Position des Ziels auf der Grundlage des Ergebnisses der vierten Bestimmung gesteuert wird, die auf der Grundlage mindestens eines der Ergebnisse der ersten Bestimmung oder des Ergebnisses der zweiten Bestimmung ausgewählt wird. Ein spezifisches Beispiel für diesen Fall wird im Folgenden beschrieben.The unit of determination 304 may make a fourth determination so that the position of the target is controlled based on the result of the fourth determination selected based on at least one of the results of the first determination and the result of the second determination. A specific example in this case is described below.

Beispielsweise kann die Bestimmungseinheit 304 auf der Grundlage des Ergebnisses der zuletzt durchgeführten Bestimmung eine Bestimmungsmethode für die nächste Bestimmung der Position eines Ziels auswählen. Wenn die Auswahl einer Bestimmungsmethode für die nächste Bestimmung der Position eines Ziels auf dem Ergebnis der beim letzten Mal ausgeführten Bestimmung basieren soll, kann die Bestimmungseinheit 304 das Ergebnis der ersten beim letzten Mal ausgeführten Bestimmung und das Ergebnis der zweiten beim letzten Mal ausgeführten Bestimmung überprüfen, um z.B. herauszufinden, dass die erste Bestimmung eine geringere Präzision aufweist als die zweite Bestimmung. In diesem Fall kann die Bestimmungseinheit 304 bei der nächsten Bestimmung die zweite Bestimmung zuerst ausführen.For example, the determination unit 304 select a determination method for the next determination of the position of a target based on the result of the last determination made. When the selection of a determination method for the next determination of the position of a target is to be based on the result of the determination carried out last time, the determination unit may 304 check the result of the first determination carried out last time and the result of the second determination carried out last time in order to find out, for example, that the first determination has a lower precision than the second determination. In this case, the determining unit 304 for the next determination, carry out the second determination first.

Die Bestimmungseinheit 304 kann auch einen Bestimmungstyp auswählen, der als Typ der ersten Bestimmung oder der zweiten Bestimmung verwendet wird, die beim nächsten Mal ausgeführt wird, basierend auf dem Typ der zuletzt ausgeführten Bestimmung.The unit of determination 304 may also select a determination type to be used as the type of the first determination or the second determination to be made next time based on the type of the most recently made determination.

Die Bestimmungseinheit 304 kann auf der Grundlage des Ergebnisses der zweiten Bestimmung, die in Abhängigkeit vom Ergebnis der ersten Bestimmung des letzten Mals ausgeführt wird,
den Typ der ersten Bestimmung auswählen, der als Typ der Bestimmung verwendet werden soll, die beim nächsten Mal ausgeführt wird. Beispielsweise kann die Bestimmungseinheit 304 den Typ einer Schablone auswählen, der beim Schablonenabgleich verwendet werden soll, basierend auf der Präzision der auf Maschinenlernen basierenden Bestimmung, die ausgeführt wird, wenn der Schablonenabgleich fehlschlägt.
The unit of determination 304 can be based on the result of the second determination carried out depending on the result of the first determination of the last time,
select the type of first determination to be used as the type of determination that will be carried out the next time. For example, the determination unit 304 select the type of template to use in template matching based on the precision of the machine learning-based determination that will be performed when template matching fails.

Die Bestimmungseinheit 304 kann den Typ der zweiten Bestimmung auswählen, der als Typ der Bestimmung verwendet werden soll, die beim nächsten Mal auf der Grundlage des Ergebnisses der zweiten Bestimmung des letzten Mals ausgeführt wird. Beispielsweise kann die Bestimmungseinheit 304 kontinuierlich einen Typ aus den Typen der zweiten Bestimmung verwenden, bis die Genauigkeit der zweiten Bestimmung in den nachfolgenden Bestimmungsrunden auf einen vorbestimmten Wert oder darunter fällt, und, wenn die Genauigkeit der zweiten Bestimmung auf einen vorbestimmten Wert oder darunter fällt, den Typ der zweiten Bestimmung ändern. In diesem Fall kann
die Bestimmungseinheit 304 z.B. kontinuierlich ein Modell aus einer Vielzahl von Modellen des Maschinenlernens verwenden, bis die Bestimmungsgenauigkeit auf der Grundlage dieses Modells in den nachfolgenden Bestimmungsrunden auf einen vorbestimmten Wert oder darunter fällt, und das Maschinenlernmodell ändern, wenn die Bestimmungsgenauigkeit auf der Grundlage dieses Modells auf den vorbestimmten Wert oder darunter fällt.
The unit of determination 304 can select the type of the second determination to be used as the type of determination to be carried out next time based on the result of the second determination of the last time. For example, the determination unit 304 continuously use one of the types of the second determination until the accuracy of the second determination falls to a predetermined value or below in the subsequent determination rounds, and when the accuracy of the second determination falls to a predetermined value or below, the type of the second determination to change. In this case it can
the determination unit 304 For example, continuously use one of a plurality of machine learning models until the determination accuracy based on this model falls to a predetermined value or below in subsequent rounds of determination, and change the machine learning model when the determination accuracy based on this model drops to the predetermined value or falls below.

Die Position eines Ziels kann somit gesteuert werden auf der Grundlage von: dem Ergebnis der vierten Bestimmung, die von der Bestimmungseinheit 304 auf der Grundlage mindestens eines der Ergebnisse der ersten Bestimmung oder des Ergebnisses der zweiten Bestimmung ausgewählt wird; und Informationen, die ein durch Bestrahlung mit einem geladenen Teilchenstrahl erhaltenes Bild umfassen.The position of a target can thus be controlled based on: the result of the fourth determination made by the determining unit 304 is selected based on at least one of the results of the first determination or the result of the second determination; and information including an image obtained by irradiating a charged particle beam.

Bei der in 36 dargestellten Verarbeitung zur Erkennung der Aufnahmeposition wird ein Fallbeispiel beschrieben, bei dem im Schritt S320 das für die Bestimmung zu verwendende Maschinenlernmodell aus der Vielzahl der im Maschinenlernmodell M1a enthaltenen Modelle aufgrund des Ergebnisses der Klassifizierung des Bestimmungsbildes ausgewählt wird, die vorliegende Erfindung aber nicht darauf beschränkt ist. Das für die Bestimmung zu verwendende Maschinenlernmodell kann auf der Grundlage einer für das Ergebnis der Klassifizierung des Bestimmungsbildes berechneten Punktzahl ausgewählt werden.At the in 36 A case example is described in which in step S320 the machine learning model to be used for the determination is selected from the plurality of models contained in the machine learning model M1a based on the result of the classification of the determination image, but the present invention is not limited thereto. The machine learning model to be used for the determination can be selected on the basis of a score calculated for the result of the classification of the determination image.

Beispielsweise berechnet die Klassifizierungseinheit 307a nach der Klassifizierung des Bestimmungsbildes, das von der Bestimmungsbildgewinnungseinheit 303 auf der Grundlage des Klassifizierungs-Nutzungs-Lernmodells M2a erhalten wurde, einen Score (als „Klassifizierungspunktzahl“ bezeichnet) für das Ergebnis der Klassifizierung. Die Klassifizierungseinheit 307a berechnet die Punktzahl, indem sie z.B. eine nachträgliche Wahrscheinlichkeit für das Ergebnis der Klassifizierung berechnet. Die Klassifizierungseinheit 307a berechnet das Klassifizierungsergebnis als numerischen Wert mit einem Wert in einem vorgegebenen Bereich von z.B. 0 Punkten bis 100 Punkten. Wenn der berechnete Klassifizierungswert gleich oder größer als ein vorbestimmter Wert ist, wählt die Klassifizierungseinheit 307a auf der Grundlage des Klassifizierungsergebnisses das für die Bestimmung durch die Bestimmungseinheit 304 zu verwendende Maschinenlernmodell aus der Vielzahl der im Maschinenlernmodell M1a enthaltenen Modelle aus.For example, the classification unit calculates 307a after the classification of the destination image obtained by the destination image extraction unit 303 was obtained based on the classification usage learning model M2a, a score (referred to as “classification score”) for the result of classification. The classification unit 307a calculates the score by, for example, calculating a subsequent probability for the result of the classification. The classification unit 307a calculates the classification result as a numerical value with a value in a specified range from, for example, 0 points to 100 points. When the calculated classification value is equal to or greater than a predetermined value, the classification unit selects 307a based on the classification result, that for the determination by the determining unit 304 machine learning model to be used from the large number of models contained in the machine learning model M1a.

Wenn die berechnete Klassifizierungspunktzahl kleiner als der vorgegebene Wert ist, wählt die Klassifizierungseinheit 307a andererseits zusätzlich zum Maschinenlernmodell auf der Grundlage des Klassifizierungsergebnisses ein Maschinenlernmodell aus der Vielzahl der im Modell M1a des Maschinenlernens enthaltenen Modelle aus, das einer Klassifizierung entspricht, die dem Ergebnis der Klassifizierung ähnlich ist. Das heißt, die Klassifizierungseinheit 307a wählt eine Vielzahl von Maschinenlernmodellen aus der Vielzahl der im Maschinenlernmodell M1a enthaltenen Modelle aus. Die Bestimmungseinheit 304 bestimmt auf der Grundlage der Vielzahl der von der Klassifizierungseinheit 307a ausgewählten Maschinenlernmodelle die Position des Ziels, das im Bestimmungsbild für jedes der Vielzahl der maschinellen Lernmodelle enthalten ist. Die Bestimmungseinheit 304 vergleicht die Ergebnisse der Bestimmung unter der Vielzahl der Maschinenlernmodelle miteinander. Die Bestimmungseinheit 304 berechnet z.B. eine Punktzahl (als „Positionsbestimmungspunktzahl“ bezeichnet) für jedes der Bestimmungsergebnisse und wählt ein Ergebnis mit der höchsten Positionsbestimmungspunktzahl als Ergebnis der Bestimmung der Position des Ziels aus. Die Positionsbestimmungspunktzahl ist eine Punktzahl für die Bestimmung der Position des Ziels auf der Grundlage des Maschinenlernmodells M.If the calculated classification score is less than the predetermined value, the classification unit selects 307a on the other hand, in addition to the machine learning model based on the classification result, a machine learning model from the plurality of models contained in the machine learning model M1a that corresponds to a classification that is similar to the result of the classification. That is, the classification unit 307a selects a large number of machine learning models from the large number of models contained in the machine learning model M1a. The unit of determination 304 determined based on the plurality of by the classification unit 307a selected machine learning models, the position of the target contained in the destination image for each of the plurality of machine learning models. The unit of determination 304 compares the results of the determination among the plurality of machine learning models with each other. The unit of determination 304 For example, calculates a score (referred to as a "positioning score") for each of the determination results and selects a result with the highest positioning score as the result of determining the position of the target. The positioning score is a score for determining the position of the target based on the machine learning model M. .

Für die Bestimmung der Position des Ziels durch die Bestimmungseinheit 304 kann im Voraus ein Schwellenwert des Positionsbestimmungsergebnisses festgelegt werden. Der Schwellenwert des Positionsbestimmungsergebnisses wird vom Benutzer des Ladungsträgerstrahlvorrichtung 10 zu einem Zeitpunkt, bevor die Bestimmungseinheit 304 die Position des Ziels bestimmt, im Voraus festgelegt. In diesem Fall bestimmt die Bestimmungseinheit 304 bei der Bestimmung, ob die Position des Ziels erfolgreich bestimmt wurde, zusätzlich zu der Frage, ob die Position des Ziels erfolgreich bestimmt wurde, ob die Positionsbestimmungspunktzahl gleich oder größer als der Schwellenwert ist. Wenn festgestellt wird, dass die Position des Ziels erfolgreich bestimmt wurde, und wenn der Positionsbestimmungspunktzahl gleich oder größer als der Schwellenwert ist, bestimmt die Bestimmungseinheit 304, dass die Position des Ziels erfolgreich bestimmt wurde. Selbst in dem Fall, dass festgestellt wird, dass die Position des Ziels erfolgreich bestimmt wurde, bestimmt die Bestimmungseinheit 304, dass die Position des Ziels nicht erfolgreich bestimmt wurde, wenn die Positionsbestimmungspunktzahl nicht gleich oder größer als der Schwellenwert ist.For the determination of the position of the target by the determining unit 304 a threshold value of the position determination result can be set in advance. The threshold value of the position determination result is set by the user of the charged carrier beam device 10 at a time before the determining unit 304 the position of the target determined, set in advance. In this case, the determining unit determines 304 in determining whether the position of the target was successfully determined, in addition to whether the position of the target was successfully determined, whether the positioning score is equal to or greater than the threshold. When it is determined that the position of the target has been successfully determined and the position determination score is equal to or greater than the threshold value, the determination unit determines 304 that the target's location has been successfully determined. Even in the event that it is determined that the position of the target has been successfully determined, the determining unit determines 304 indicates that the target's position was not successfully determined if the positioning score is not equal to or greater than the threshold.

Wenn im Voraus bekannt ist, dass die Position des Ziels in einem bestimmten Bereich liegt, kann der Bereich der Koordinaten, die die Position des Ziels im Ergebnis der Bestimmung der Position des Ziels angeben, begrenzt werden. Der Bereich der Koordinaten wird vom Benutzer der Ladungsträgerstrahlvorrichtung 10 zu einem Zeitpunkt im Voraus festgelegt, bevor die Bestimmungseinheit 304 die Position des Ziels bestimmt. In diesem Fall bestimmt die Bestimmungseinheit 304 bei der Bestimmung, ob die Position des Ziels erfolgreich bestimmt wurde, erst dann, wenn festgestellt wird, dass die Position des Ziels erfolgreich bestimmt wurde, die Positionsbestimmungspunktzahl gleich oder größer als der Schwellenwert ist und die Koordinaten, die die Position des Ziels angeben, innerhalb des im Voraus festgelegten Bereichs liegen, bestimmt die Bestimmungseinheit 304, dass die Position des Ziels erfolgreich bestimmt wurde. Selbst in einem Fall, in dem festgestellt wird, dass die Position des Ziels erfolgreich bestimmt wurde, wenn der Positionsbestimmungswert kleiner als der Schwellenwert ist oder wenn die Koordinaten, die die Position des Ziels angeben, außerhalb des im Voraus festgelegten Bereichs liegen, stellt die Bestimmungseinheit 304 fest, dass die Position des Ziels nicht erfolgreich bestimmt wurde.When it is known in advance that the position of the target is within a certain range, the range of coordinates indicating the position of the target as a result of determining the position of the target can be limited. The area of the coordinates is determined by the user of the charged carrier beam device 10 set at a time in advance before the determining unit 304 determines the position of the target. In this case, the determining unit determines 304 in determining whether the position of the target has been successfully determined, only when it is determined that the position of the target has been successfully determined, the positioning score is equal to or greater than the threshold value, and the coordinates indicating the position of the target are within of the predetermined range is determined by the determining unit 304 that the target's location has been successfully determined. Even in a case where it is determined that the position of the target has been successfully determined, when the position determination value is smaller than the threshold value or when the coordinates indicating the position of the target are outside the predetermined range, the determination unit determines 304 found that the target's location was not successfully determined.

Die oben beschriebenen Ausführungsformen befassen sich mit einem Beispiel für einen Fall, in dem die Ladungsträgerstrahlvorrichtung 10 oder 10a zwei optische Systeme zur Bestrahlung mit Ladungsträgerstrahlen enthält, nämlich das optische System 14 zur Bestrahlung mit fokussierten Ionenstrahlen und das optische System 15 zur Bestrahlung mit Elektronenstrahlen. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt. Die Vorrichtung zur Bestrahlung mit geladenen Teilchen kann ein optisches System zur Bestrahlung mit einem geladenen Teilchenstrahl umfassen. In diesem Fall wird ein Bestimmungsbild, das durch Bestrahlung mit einem geladenen Teilchenstrahl aus dem optischen System zur Bestrahlung mit einem geladenen Teilchenstrahl erhalten wird, bevorzugt, um z.B. zusätzlich zu dem Ziel einen Schatten eines Ziels einzuschließen. Das Ziel ist in diesem Fall die Nadel 18.The above-described embodiments deal with an example of a case where the charged carrier beam device 10 or 10a contains two optical systems for irradiation with charge carrier beams, namely the optical system 14th for irradiation with focused ion beams and the optical system 15th for irradiation with electron beams. However, the present invention is not limited to this. The device for irradiation with charged particles can comprise an optical system for irradiation with a charged particle beam. In this case, a determination image obtained by irradiating a charged particle beam from the charged particle beam irradiation optical system is preferable in order to include, for example, a shadow of a target in addition to the target. The target in this case is the needle 18th .

Der Schatten der Nadel 18 ist ein Phänomen, das auftritt, wenn sich die Nadel 18 einer Oberfläche des Probenstücks Q unter Beobachtung aus einer Neigungsrichtung mit der Neigung eines vorbestimmten Winkels in Bezug auf die vertikale Richtung des Probentischs 12 nähert, weil die sich nähernde Nadel 18 die Ankunft von Sekundärelektronen (oder Sekundärionen) blockiert, die von einem Teil der Oberfläche des Probenstücks Q erzeugt werden, das sich nahe der Nadel 18 am Erfasser 16 befindet. Das Phänomen tritt stärker hervor, wenn der Abstand zwischen der Nadel 18 und der Oberfläche des Probenstücks Q näher ist. Der Schatten im Bestimmungsbild hat dementsprechend einen höheren Leuchtdichtewert, wenn der Abstand zwischen der Nadel 18 und der Oberfläche des Probenstücks Q näher ist.The shadow of the needle 18th is a phenomenon that occurs when the needle is 18th a surface of the specimen Q while observing from an inclined direction with the inclination of a predetermined angle with respect to the vertical direction of the sample stage 12th approaching because the approaching needle 18th blocks the arrival of secondary electrons (or secondary ions) from part of the surface of the specimen Q that is near the needle 18th at the recorder 16 is located. The phenomenon becomes more pronounced when the distance between the needle 18th and the surface of the specimen Q is closer. The shadow in the destination image accordingly has a higher luminance value when the distance between the needle 18th and the surface of the specimen Q is closer.

Der Bildverarbeitungsrechner 30 führt zusätzlich zu der Bestimmung, bei der aus dem Bestimmungsbild die Position der Spitze der Nadel 18 in Form von zweidimensionalen Koordinaten im Bestimmungsbild bestimmt wird, eine Berechnung des Abstandes zwischen der Spitze der Nadel 18 und der Oberfläche des Probenstückes Q auf der Grundlage des Leuchtdichtewertes des Schattens der Nadel 18 durch. Der Bildverarbeitungsrechner 30 bestimmt also aus dem Bestimmungsbild die Position der Spitze der Nadel 18 in Form von dreidimensionalen Koordinatenwerten.The image processing computer 30th additionally leads to the determination of the position of the tip of the needle from the determination image 18th is determined in the form of two-dimensional coordinates in the determination image, a calculation of the distance between the tip of the needle 18th and the surface of the specimen Q based on the luminance value of the shadow of the needle 18th by. The image processing computer 30th thus determines the position of the tip of the needle from the determination image 18th in the form of three-dimensional coordinate values.

Der Steuerrechner 22 und einige Komponenten des Bildverarbeitungsrechners 30 bzw. 30a, z.B. die Lerndatengewinnungseinheit 301, die Lerneinheit 302, die Bestimmungsbildgewinnungseinheit 303, die Bestimmungseinheit 304, die Lernbilderzeugungseinheit 306a und die Klassifizierungseinheit 307a, können in den oben beschriebenen Ausführungsformen durch einen Rechner implementiert werden. In diesem Fall kann eine Steuerfunktion davon durch Aufzeichnung eines Programms zur Implementierung der Steuerfunktion auf einem rechnerlesbaren Aufzeichnungsmedium und durch Lesen und Ausführen des auf dem Aufzeichnungsmedium aufgezeichneten Programms auf einem Rechnersystem implementiert werden. Das hier verwendete „Rechnersystem“ ist ein in den Steuerrechner 22 oder den Bildverarbeitungsrechner 30 oder 30a eingebautes Rechnersystem, das ein Betriebssystem sowie Peripheriegeräte und andere Arten von Hardware umfasst. Das „rechnerlesbare Aufzeichnungsmedium“ bezieht sich auf ein tragbares Medium, z.B. eine flexible Platte, eine magnetooptische Platte, ein ROM oder eine CD-ROM, oder auf ein in das Rechnersystem eingebautes Speichergerät, z.B. eine Festplatte. Beispiele für ein „rechnerlesbares Aufzeichnungsmedium“ können auch ein Element umfassen, das so konfiguriert ist, dass es das Programm für eine kurze Zeit dynamisch hält, wie in einer Kommunikationsleitung, die verwendet wird, wenn das Programm über das Internet oder andere Netzwerke oder eine Telefonleitung oder andere Kommunikationsverbindungen übertragen wird, und ein Element, das so konfiguriert ist, dass es das Programm für eine feste Zeitdauer hält, wie in einem flüchtigen Speicher innerhalb eines Rechnersystems, das in diesem Fall als Server oder Client dient. Das oben beschriebene Programm kann so gestaltet sein, dass nur einige der beschriebenen Funktionen durch das Programm implementiert werden, oder so, dass das Programm mit einem anderen, bereits im Rechnersystem aufgezeichneten Programm kombiniert wird, um die beschriebenen Funktionen zu implementieren.The tax calculator 22nd and some components of the image processing computer 30th or. 30a , for example the learning data acquisition unit 301 , the learning unit 302 , the destination image acquisition unit 303 , the determination unit 304 , the learning image generation unit 306a and the classification unit 307a , can be implemented by a computer in the embodiments described above. In this case, a control function thereof can be implemented by recording a program for implementing the control function on a computer-readable recording medium and reading and executing the program recorded on the recording medium on a computer system. The "computer system" used here is one in the control computer 22nd or the image processing computer 30th or 30a built-in computer system that includes an operating system as well as peripheral devices and other types of hardware. The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM or a CD-ROM, or a storage device built into the computer system, such as a hard disk. Examples of a "computer readable recording medium" may also include an element configured to dynamically hold the program for a short period of time, such as in a communication line used when the program is over the Internet or other networks or a telephone line or other communication links is transmitted, and an element that is configured to hold the program for a fixed period of time, such as in a volatile memory within a computer system, which in this case serves as a server or client. The program described above can be designed in such a way that only some of the functions described are implemented by the program, or in such a way that the program is combined with another program already recorded in the computer system in order to implement the functions described.

Der Steuerrechner 22 und einige oder alle Komponenten des Bildverarbeitungsrechners 30 oder 30a in den oben beschriebenen Ausführungsformen können als LSI-Schaltung (Large Scale Integration) oder als ähnliche integrierte Schaltung ausgeführt sein.The tax calculator 22nd and some or all of the components of the image processing computer 30th or 30a in the above-described embodiments can be implemented as an LSI circuit (Large Scale Integration) or as a similar integrated circuit.

Der Steuerrechner 22 und die Funktionsblöcke des Bildverarbeitungsrechners 30 oder 30a können als einzelne Prozessoren konfiguriert werden, oder einige oder alle davon können integriert werden, um als ein Prozessor konfiguriert zu werden. Eine für die Implementierung zu verwendende integrierte Schaltung ist nicht auf LSI beschränkt, und es kann eine dedizierte Schaltung oder ein Allzweckprozessor verwendet werden. Wenn aufgrund des Fortschritts in der Halbleitertechnologie eine Technologie zur Integration in eine integrierte Schaltung auftaucht, die LSI ersetzt, kann eine durch diese Technologie erhaltene integrierte Schaltung verwendet werden.The tax calculator 22nd and the functional blocks of the image processing computer 30th or 30a can be configured as individual processors, or some or all of them can be integrated to be configured as a processor. An integrated circuit to be used for implementation is not limited to LSI, and a dedicated circuit or a general-purpose processor can be used. When an integrated circuit technology replacing LSI appears due to the progress in semiconductor technology, an integrated circuit obtained by this technology can be used.

Während oben eine detaillierte Beschreibung mindestens einer Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf die Zeichnungen gegeben wurde, ist die konkrete Ausgestaltung der vorliegenden Erfindung nicht auf die oben beschriebenen beschränkt, und es können verschiedene Konstruktionsänderungen und dergleichen vorgenommen werden, ohne vom Geist der vorliegenden Erfindung abzuweichen.While a detailed description of at least one embodiment of the present invention has been given with reference to the drawings, the concrete configuration of the present invention is not limited to those described above, and various design changes and the like can be made without departing from the spirit of the present invention .

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • JP 2019102138 [0002]JP 2019102138 [0002]
  • JP 2016157671 [0003, 0004]JP 2016157671 [0003, 0004]

Claims (4)

Ladungsträgerstrahlvorrichtung, die so konfiguriert ist, dass sie automatisch ein Probenstück aus einer Probe herstellt, wobei die Ladungsträgerstrahlvorrichtung folgendes aufweist: ein optisches System zur Bestrahlung mit einem Ladungsträgerstrahl, das so konfiguriert ist, dass es einen Ladungsträgerstrahl anstrahlt; einen Probentisch, der so konfiguriert ist, dass er die Probe, die auf den Probentisch platziert wird, bewegt; eine Probenstück-Transporteinheit, die so konfiguriert ist, dass sie das Probenstück, das von der Probe getrennt und extrahiert wurde, hält und befördert; eine Halterbefestigungsbasis, die so konfiguriert ist, dass sie einen Probenstückhalter hält, zu dem das Probenstück transportiert wird; und einen Rechner, der so konfiguriert ist, dass er die Steuerung einer Position in Bezug auf ein Ziel durchführt, basierend auf: einem Ergebnis einer zweiten Bestimmung über die Position, die in Abhängigkeit von einem Ergebnis der ersten Bestimmung über die Position ausgeführt wird; und Informationen einschließlich eines Bildes, das durch Bestrahlung mit dem Ladungsträgerstrahl erhalten wird.A charged carrier beam device configured to automatically produce a specimen from a sample, the charged carrier beam device comprising: a charged beam irradiation optical system configured to irradiate a charged beam; a sample table configured to move the sample placed on the sample table; a sample piece transport unit configured to hold and transport the sample piece that has been separated and extracted from the sample; a holder attachment base configured to hold a specimen holder to which the specimen is transported; and a computer configured to perform position control with respect to a target based on: a result of a second position determination made in response to a result of the first position determination; and information including an image obtained by irradiating the charged carrier beam. Ladungsträgerstrahlvorrichtung nach Anspruch 1, wobei die erste Bestimmung eine Bestimmung ist, die auf einem Schablonenabgleich basiert, bei der eine Schablone über das Ziel verwendet wird, und wobei die zweite Bestimmung eine Bestimmung ist, die auf einem Maschinenlernmodell basiert, bei dem eine zweite Information einschließlich eines zweiten Bildes eines zweiten Ziels gelernt wird.Charge carrier beam device according to Claim 1 wherein the first determination is a determination based on template matching using a template about the target, and wherein the second determination is a determination based on a machine learning model in which a second piece of information including a second image of a second goal is learned. Ladungsträgerstrahlvorrichtung nach Anspruch 1 oder 2, wobei der Rechner so konfiguriert ist, dass er eine Bestimmungsart für mindestens eine der ersten Bestimmung oder der zweiten Bestimmung auswählt, basierend auf einem Ergebnis der dritten Bestimmung zur Auswahl einer Bestimmungsart.Charge carrier beam device according to Claim 1 or 2 wherein the computer is configured to select a determination type for at least one of the first determination and the second determination based on a result of the third determination for selecting a determination type. Ladungsträgerstrahlvorrichtung nach Anspruch 1, wobei der Rechner so konfiguriert ist, dass er eine Steuerung der Position durchführt, basierend auf: einem Ergebnis einer vierten Bestimmung, die basierend auf mindestens einem Ergebnis der ersten Bestimmung oder dem Ergebnis der zweiten Bestimmung ausgewählt wird; und der Information einschließlich des Bildes, das durch Bestrahlung mit dem Ladungsträgerstrahl erhalten wird.Charge carrier beam device according to Claim 1 wherein the calculator is configured to perform position control based on: a result of a fourth determination selected based on at least one of a result of the first determination and the result of the second determination; and the information including the image obtained by irradiating the charged carrier beam.
DE102020212010.2A 2019-09-25 2020-09-24 CARRIER JET DEVICE Pending DE102020212010A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019173889 2019-09-25
JP2019-173889 2019-09-25
JP2020-047470 2020-03-18
JP2020047470A JP7391735B2 (en) 2019-09-25 2020-03-18 Charged particle beam device

Publications (1)

Publication Number Publication Date
DE102020212010A1 true DE102020212010A1 (en) 2021-03-25

Family

ID=74846691

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020212010.2A Pending DE102020212010A1 (en) 2019-09-25 2020-09-24 CARRIER JET DEVICE

Country Status (2)

Country Link
CN (1) CN112563101A (en)
DE (1) DE102020212010A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105910855B (en) * 2015-02-19 2020-09-04 日本株式会社日立高新技术科学 Charged particle beam device
JP2018106832A (en) * 2016-12-22 2018-07-05 株式会社日立ハイテクサイエンス Charged particle beam device and control method
JP6885576B2 (en) * 2017-01-19 2021-06-16 株式会社日立ハイテクサイエンス Charged particle beam device
JP6931214B2 (en) * 2017-01-19 2021-09-01 株式会社日立ハイテクサイエンス Charged particle beam device

Also Published As

Publication number Publication date
CN112563101A (en) 2021-03-26

Similar Documents

Publication Publication Date Title
WO2020157249A1 (en) Processing image data sets
DE10354752B4 (en) Method and device for the automatic equalization of single-channel or multi-channel images
DE102009001910A1 (en) Method and device for generating three-dimensional image data
EP2156790A1 (en) Allocation of x-ray markers to picture markers depicted in an x-ray picture
DE102012217761B4 (en) Process for avoiding artifacts in serial block face imaging
EP2596472B1 (en) Mosaic image generation
DE102020211900A1 (en) CARRIER JET DEVICE
DE102014211657A1 (en) Improving the reproducibility of the focus height in an image inspection system
JP7391735B2 (en) Charged particle beam device
DE102019133685A1 (en) Information processing system and procedures
DE112016003308B4 (en) Charged particle beam apparatus and method of alignment adjustment of a sample platform
DE112012002145T5 (en) Charged particle beam device and sample preparation method
DE102020211688A1 (en) PARTICLE BEAM IRRADIATION DEVICE
DE102020126610A1 (en) MICROSCOPY SYSTEM AND METHOD FOR GENERATION OF TRAINING DATA
DE102021101439A1 (en) MICROSCOPY SYSTEM AND METHOD OF ROTATIONAL CHECKING OF A MICROSCOPE CAMERA
DE102020212010A1 (en) CARRIER JET DEVICE
DE112015006181B4 (en) Charged particle beam device, alignment method for charged particle beam device, alignment program and storage medium
DE102023115998A1 (en) SYSTEM AND METHOD FOR HIGH-SPEED AUTOFOCUSING OF A MICROSCOPE
DE68905190T2 (en) METHOD FOR AUTOMATING THE CORRELATION OF THE SERIAL LAYERS OBSERVED IN THE MICROSCOPE.
DE102021109820B3 (en) Method for operating a particle beam microscopy system, particle beam microscopy system and computer program product
DE102020211903A1 (en) DEVICE WITH FOCUSED ION BEAM
DE102018211873B4 (en) Processing methods for microelectromechanical systems and processing equipment for microelectromechanical systems
DE112021008418T5 (en) Method for providing position information for locating a target position in a microscopic sample, method for examining and/or processing such a target position and means for carrying out these methods
DE112020001773T5 (en) USE OF ABSOLUTE Z HEIGHT VALUES FOR SYNERGY BETWEEN TOOLS
DE102021125575A1 (en) Microscopy system and method for instance segmentation