DE102021101704A1 - Bilderzeugungssystem - Google Patents

Bilderzeugungssystem Download PDF

Info

Publication number
DE102021101704A1
DE102021101704A1 DE102021101704.1A DE102021101704A DE102021101704A1 DE 102021101704 A1 DE102021101704 A1 DE 102021101704A1 DE 102021101704 A DE102021101704 A DE 102021101704A DE 102021101704 A1 DE102021101704 A1 DE 102021101704A1
Authority
DE
Germany
Prior art keywords
image
model
dimension
learning
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021101704.1A
Other languages
English (en)
Inventor
Takeshi Ohmori
Yutaka Okuyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of DE102021101704A1 publication Critical patent/DE102021101704A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B15/00Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons
    • G01B15/04Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/56Measuring geometric parameters of semiconductor structures, e.g. profile, critical dimensions or trench depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

Es ist ein System vorgesehen, das eine Lerndatenbank für ein Lernmodell in kurzer Zeit bildet. Das System erzeugt ein Bild, wobei ein Strukturbild durch Bildverarbeitung einem tatsächlichen Bild ähnlich gemacht wird. Ein oder mehrere Prozessoren erhalten ein erstes Strukturbild und ein vom ersten Strukturbild verschiedenes zweites Strukturbild. Der eine oder die mehreren Prozessoren erzeugen mehrere Zwischenstrukturbilder, die eine Zwischenstruktur zwischen dem ersten Strukturbild und dem zweiten Strukturbild angeben. Der eine oder die mehreren Prozessoren erzeugen ein Bild, indem jedes der mehreren Zwischenstrukturbilder durch Bildverarbeitung einem tatsächlichen Bild ähnlich gemacht wird.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft die Bilderzeugung und insbesondere die Erzeugung eines Bilds, wobei ein Strukturbild einem tatsächlichen Bild ähnelt.
  • Beschreibung des Stands der Technik
  • In den letzten Jahren wurden zur Verbesserung von Halbleitervorrichtungen neue Materialien eingeführt, und es wurden gleichzeitig die Strukturen der Halbleitervorrichtungen massiver und komplizierter. Zusätzlich erfordert die Verarbeitung einer hochentwickelten Halbleitervorrichtung eine Genauigkeit im Nanometerbereich. Daher muss eine Halbleiterverarbeitungsvorrichtung verschiedene Materialtypen zu verschiedenen Formen mit hoher Genauigkeit verarbeiten können, und es ist unvermeidlich, dass eine solche Vorrichtung eine große Anzahl von Steuerparametern (Eingangsparametern) aufweist.
  • Andererseits müssen zum ausreichenden Verbessern der Leistungsfähigkeit der Halbleiterverarbeitungsvorrichtung einige bis einige zehn Eingangsparameter bestimmt werden. Ferner weist ein Prozess mehrere Schritte auf, wobei die Eingangsparameter für jeden Schritt geändert werden müssen. Daher ist es recht schwierig, eine Kombination von Eingangsparametern zu bestimmen, wodurch ein Zielverarbeitungsergebnis erhalten werden kann. Deshalb nehmen die Entwicklungskosten infolge der langfristigen Entwicklung der Verarbeitungsbedingungen zu. Ferner nimmt die Anzahl der eine hohe Schwierigkeit aufweisenden Schritte zu, und es mangelt an ausgezeichneten Ingenieuren, die ausreichende Kenntnisse und Fähigkeiten haben, um die zunehmende Anzahl schwieriger Schritte auszuführen.
  • Ferner werden zur Beurteilung eines Verarbeitungsergebnisses der Querschnitt einer Probe nach der Verarbeitung und kritische Abmessungen erhalten. Die Messung ist jedoch infolge der Miniaturisierung und der Komplexität der Halbleitervorrichtungsstruktur schwierig. Es ist eine Bestimmung der Messposition mit einer Genauigkeit auf dem Nanometerniveau erforderlich, und es nehmen ferner die Anzahl der Messpunkte zur Beurteilung der statistischen Streuung der Messabmessungen und die für die Messung benötigte Zeit zu.
  • Wie vorstehend beschrieben, muss die Leistungsfähigkeit der Halbleiterverarbeitungsvorrichtung automatisch verbessert werden und muss ein Ingenieur, der die Leistungsfähigkeit der Halbleiterverarbeitungsvorrichtung verbessert, unterstützt werden.
  • Zum Lösen des erwähnten Problems schlägt JP-A-2018-49936 (Patentliteratur 1) ein Verfahren zum automatischen Suchen nach einer optimalen Verarbeitungsbedingung vor. Dadurch kann die Anzahl der Schritte in jeder Stufe gegenüber einem Verfahren aus dem Stand der Technik, das auf Versuch und Irrtum von Ingenieuren beruht, verringert werden.
  • JP-A-2012-68138 (Patentliteratur 2) und JP-A-2002-350127 (Patentliteratur 3) sind Dokumente aus dem Stand der Technik, welche eine Abmessungsmessung auf der Grundlage eines Querschnittsbilds eines Musters offenbaren. In Patentliteratur 2 wird eine Konturlinie anhand eines Luminanzwerts eines Bilds erhalten, werden Koordinatenwerte von zwei Punkten in einem oberen und einem unteren Teil eines Musterquerschnitts verwendet und wird eine Signalkomponente eines einem Rasterelektronenmikroskop(SEM)-Querschnittsbild eigenen weißen Schattenabschnitts von Hand entfernt, wodurch die Messgenauigkeit eines Seitenwandwinkels verbessert wird. In Patentliteratur 3 wird ein Kantenpunkt anhand einer Änderung eines Luminanzwerts eines SEM-Querschnittsbilds erhalten und wird eine sich jeder Seite eines Musters nähernde gerade Linie bestimmt, wodurch die Abhängigkeit von einem Bediener bei der Messung des Winkels und der Länge jeder Seite verringert wird.
  • Ein Rasterelektronenmikroskop (SEM) wird gewöhnlich zur Beobachtung eines Querschnittsbilds einer feinen Struktur verwendet. Für eine sehr genaue und schnelle Abmessungsextraktion aus dem SEM-Bild muss eine teilweise oder vollständige Automatisierung ausgeführt werden. Zu ihrer Implementation könnte eine Bilderkennungstechnologie unter Verwendung eines maschinellen Lernens, insbesondere von Deep Learning, verwendet werden. Dabei treten zwei Probleme auf, nämlich (1) das Bilden der Lerndatenbank und (2) das Erlernen des Modells und das Entwickeln eines Verfahrens, um es zu erlernen.
  • Bildung einer Lerndatenbank
  • Beim Lernen eines Abmessungsextraktionsmodells muss eine Beziehung zwischen dem SEM-Bild und einer Abmessungsextraktionsposition erlernt werden. Daher sind als Lerndaten das SEM-Bild und Daten zur Festlegung der Abmessungsextraktionsposition erforderlich. Beispiele der die Abmessungsextraktionsposition festlegenden Daten sind eine Strukturkonturlinie im SEM-Bild, eine Flächenspezifikation für jede Struktur und Messpositionskoordinaten.
  • Weil die Abmessungsmessverarbeitung von SEM-Bildern heutzutage jedoch im Allgemeinen von Hand geschieht, wird auch die Präparation der Lerndaten unvermeidlich von Hand ausgeführt, so dass eine Arbeitszeit erforderlich ist, die der Abmessungsmessung gleicht oder diese überschreitet. Bei einer lediglich grundlegenden Abmessungsextraktion nimmt die Anzahl der für die Beurteilung des Verarbeitungsergebnisses benötigten Messpunkte pro Bild mit zunehmender Komplexität der Querschnittsstruktur hochentwickelter Vorrichtungen zu, so dass von Hand ausgeführte Abmessungsextraktionen eine Grenze erreichen. Daher besteht ein Bedarf an einem Verfahren und einem System, wodurch eine Lerndatenbank in einer kurzen Zeit gebildet werden kann.
  • Lernmodell und Verfahren zu seiner Bildung
  • Bei der Extraktion von Abmessungen aus einem SEM-Bild durch ein anhand der erwähnten Lerndatenbank erlerntes Abmessungsextraktionsmodell muss eine Bilderkennungsleistung implementiert werden, die der visuellen Beobachtung gleicht oder besser als diese ist. Bei einem diesem Zweck dienenden Bilderkennungsverfahren ist die Anwendung einer maschinelles Lernen, insbesondere Deep Learning, verwendenden Bilderkennungstechnologie vorstellbar.
  • Wenngleich die in den Patentdokumenten 2 und 3 offenbarten Verfahren die Abhängigkeit vom Bediener etwas verringern können, treten Messabweichungen durch die Abhängigkeit vom Bediener auf, weil der Betrieb durch visuelle Beobachtung erfolgt. Zusätzlich wird dabei Arbeitszeit in Anspruch genommen, weil die Messung geschieht, während Bilder nacheinander einzeln betrachtet werden. Ferner können sich selbst bei Bildern, bei denen sich aus Linien/Zwischenräumen bestehende Einheitsmuster wiederholen, menschliche Fehler zu statistischen Abweichungen von Messwerten bei den Verarbeitungsvariationen addieren, weil die Messungen für jedes einzelne Muster erfolgen.
  • Ferner ist, wenn im Laufe der Ableitung von Bedingungen Messstellen gefunden werden, die wichtiger als ursprünglich geplante Positionen sind, eine erneute Messung des gesamten Bilds erforderlich. Dies erfordert sehr viel Messzeit, so dass die erneute Messung in der Praxis nicht möglich sein kann.
  • Ferner ist die Messung von Abmessungen bei SEM-Querschnittsbildern schwierig, wenn dabei Helligkeitsunterschiede für die jeweiligen Bilder auftreten, tiefe Strukturen vorhanden sind, die für die Messung von Abmessungen nicht notwendig sind, und Begrenzungen von Übergängen zwischen verschiedenen Materialtypen, deren Abmessungen zu messen sind, unklar sind. Daher muss bei den Verfahren aus den Patentdokumenten 2 und 3, die auf einem Kantenerkennungsverfahren unter Verwendung eines Luminanzwerts beruhen, eine Parameterabstimmung von Schwellen oder dergleichen für die jeweiligen Bilder ausgeführt werden oder müssen die Positionen von Übergängen visuell bestimmt und spezifiziert werden. Zur Implementation einer automatischen Messung, wobei keine Einstellung durch visuelle Beobachtung erforderlich ist, muss eine Kontur eines Objekts extrahiert werden, indem an Stelle einer lokalen Luminanzverteilung ein Gebiet des jeweiligen Objekts im Bild erkannt wird.
  • KURZFASSUNG DER ERFINDUNG
  • Ein Aspekt der Erfindung besteht darin, eine Lerndatenbank zu bilden, die für die Erzeugung eines Lernmodells in einem kurzen Zeitraum benötigt wird.
  • Ein Aspekt der Erfindung sieht ein System vor, das ein Bild erzeugt, wobei ein Strukturbild durch Bildverarbeitung einem tatsächlichen Bild ähnlich gemacht wird. Das System weist eine oder mehrere Speichervorrichtungen und einen oder mehrere Prozessoren auf, die gemäß einem in der einen oder in den mehreren Speichervorrichtungen gespeicherten Programm arbeiten. Der eine oder die mehreren Prozessoren erhalten ein erstes Strukturbild und ein vom ersten Strukturbild verschiedenes zweites Strukturbild. Der eine oder die mehreren Prozessoren erzeugen mehrere Zwischenstrukturbilder, die eine Zwischenstruktur zwischen dem ersten Strukturbild und dem zweiten Strukturbild angeben. Der eine oder die mehreren Prozessoren erzeugen ein Bild, indem jedes der mehreren Zwischenstrukturbilder durch Bildverarbeitung einem tatsächlichen Bild ähnlich gemacht wird.
  • Gemäß repräsentativen Ausführungsformen der Erfindung kann eine Lerndatenbank eines Lernmodells in einem kurzen Zeitraum gebildet werden. Von den vorstehend beschriebenen verschiedene Probleme, Konfigurationen und Wirkungen werden anhand der folgenden Beschreibung von Ausführungsformen verständlich werden.
  • Figurenliste
  • Es zeigen:
    • 1 eine erste Ausführungsform der Erfindung, wobei es sich um ein schematisches Diagramm eines Verfahrens zur Bildung einer Datenbank eines Strukturbilds und eines Erzeugungsbilds und zum Lernen eines Strukturerfassungsmodells zum Erhalten von Strukturinformationen anhand des Erzeugungsbilds handelt,
    • 2 die erste Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein Beispiel des Strukturbilds, eines Referenzbilds und des Erzeugungsbilds zeigt,
    • 3A die erste Ausführungsform der Erfindung, wobei es sich um ein schematisches Diagramm der Strukturbilderfassung anhand eines tatsächlichen Bilds durch das Strukturerfassungsmodell, der Datenbankbildung und der Abmessungserfassung anhand einer Strukturbilds durch ein Abmessungsextraktionsmodell handelt,
    • 3B die erste Ausführungsform der Erfindung, worin ein schematisches Diagramm eines Beispiels einer Abmessungsextraktionsposition dargestellt ist,
    • 4 eine zweite Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein Verfahren zur Präparation von Strukturbilddaten zeigt,
    • 5 die zweite Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein Verfahren zur Präparation der Strukturbilddaten zeigt,
    • 6 die zweite Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein Verfahren zur Präparation der Strukturbilddaten zeigt,
    • 7 die zweite Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein Verfahren zur Präparation der Strukturbilddaten zeigt,
    • 8A eine dritte Ausführungsform der Erfindung, wobei es sich um ein schematisches Diagramm eines Verfahrens zur Ableitung von Vorrichtungsverarbeitungsbedingungen unter Verwendung verschiedener Datenbanken handelt,
    • 8B die dritte Ausführungsform der Erfindung, wobei es sich um ein schematisches Diagramm eines Verfahrens zur Ableitung von Vorrichtungsverarbeitungsbedingungen unter Verwendung verschiedener Datenbanken handelt,
    • 9 eine vierte Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein Beispiel eines Strukturbilds, eines Referenzbilds und eines Erzeugungsbilds eines Metallmaterials oder dergleichen zeigt,
    • 10 eine fünfte Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein Beispiel der Konfiguration eines Halbleiterherstellungssystems zeigt,
    • 11 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein Beispiel der Konfiguration einer Verarbeitungsbedingungs-Suchvorrichtung zeigt,
    • 12 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Blockdiagramm handelt, das eine Hardwarekonfiguration einer Abmessungsmessvorrichtung zeigt,
    • 13 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein Beispiel eines semantischen Segmentierungsmodells zeigt,
    • 14 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein Beispiel eines Objekterkennungsmodells zeigt,
    • 15 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Flussdiagramm handelt, worin die Abmessungsmessvorrichtung eine Abmessung auf der Grundlage eines Eingangsbilds misst,
    • 16 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Flussdiagramm handelt, worin die Verarbeitungsbedingungs-Suchvorrichtung nach einer Verarbeitungsbedingung sucht,
    • 17 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Beispiel eines Eingangsdatensatzes (Querschnittsbilds) handelt,
    • 18 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Beispiel eines Abmessungsmesspunkts handelt,
    • 19 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein Koordinatensystem eines Begrenzungskästchens zeigt,
    • 20 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Beispiel zur Beschreibung für das Erlernen des Objekterkennungsmodells verwendeter Annotationsdaten handelt,
    • 21 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Beispiel für das Erlernen eines semantischen Segmentierungsmodells verwendeter Annotationsdaten handelt,
    • 22 die fünfte Ausführungsform der Erfindung, wobei es sich um eine Tabelle handelt, die eine Entsprechung zwischen einem Label-Namen, einer Label-Nummer und einer Farbe in den zum Erlernen des semantischen Segmentierungsmodells verwendeten Annotationsdaten zeigt,
    • 23 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Beispiel einer während eines Lernschritts dargestellten GUI-Bildschirmdarstellung handelt,
    • 24 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Beispiel eines Testbilds zum Messen einer Abmessung handelt,
    • 25 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein durch Eingeben des Testbilds in ein erlerntes Objekterkennungsmodell erhaltenes Objekterkennungsergebnis zeigt,
    • 26 die fünfte Ausführungsform der Erfindung, wobei es sich um eine Tabelle handelt, die Koordinaten von Begrenzungskästchen zeigt, die durch Eingeben des Testbilds in das erlernte Objekterkennungsmodell erhalten wurden,
    • 27 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein durch Eingeben des Testbilds in ein erlerntes semantisches Segmentierungsmodell erhaltenes Ergebnis der semantischen Segmentierung zeigt,
    • 28 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das Begrenzungskästchen und Abmessungsmessergebnisse auf dem Testbild zeigt,
    • 29 die fünfte Ausführungsform der Erfindung, wobei es sich um eine Tabelle handelt, die für jedes Muster gemessene Abmessungswerte zeigt,
    • 30 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Beispiel einer beim Vorhersage- und Messschritt dargestellten GUI-Bildschirmdarstellung handelt,
    • 31 die fünfte Ausführungsform der Erfindung, wobei es sich um ein Beispiel einer bei einem Zielform-Suchschritt dargestellten GUI-Bildschirmdarstellung handelt,
    • 32 eine sechste Ausführungsform der Erfindung, wobei es sich um ein Flussdiagramm handelt, worin eine Abmessungsmessvorrichtung eine Abmessung auf der Grundlage eines Eingangsbilds misst,
    • 33 die sechste Ausführungsform der Erfindung, wobei es sich um ein Beispiel eines für das Lernen eines ersten semantischen Segmentierungsmodells, das eine Konturlinie erkennt, verwendeten Annotationsbilds handelt,
    • 34 die sechste Ausführungsform der Erfindung, wobei es sich um eine Tabelle handelt, die eine Entsprechung zwischen einem Label-Namen, einer Label-Nummer und einer Farbe im für das Erlernen eines ersten semantischen Segmentierungsmodells verwendeten Annotationsbild zeigt,
    • 35 die sechste Ausführungsform der Erfindung, wobei es sich um ein Beispiel für das Erlernen eines Merkmalspunkte erkennenden zweiten semantischen Segmentierungsmodells verwendeter Annotationsdaten handelt,
    • 36 die sechste Ausführungsform der Erfindung, wobei es sich um eine Tabelle handelt, die eine Entsprechung zwischen einem Label-Namen, einer Label-Nummer und einer Farbe in den zum Erlernen des zweiten semantischen Segmentierungsmodells verwendeten Annotationsdaten zeigt,
    • 37 die sechste Ausführungsform der Erfindung, wobei es sich um ein Beispiel einer während eines Lernschritts dargestellten GUI-Bildschirmdarstellung handelt,
    • 38 die sechste Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein durch Eingeben eines Testbilds in das erlernte erste semantische Segmentierungsmodell erhaltenes Ergebnis einer Konturlinienerkennung zeigt,
    • 39 die sechste Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein durch Eingeben eines Testbilds in das erlernte zweite semantische Segmentierungsmodell erhaltenes Ergebnis einer Merkmalspunkterkennung zeigt,
    • 40 die sechste Ausführungsform der Erfindung, wobei es sich um ein Diagramm handelt, das ein Verfahren zum Erhalten von Koordinaten anderer Merkmalspunkte, die für eine Abmessungsmessung auf der Grundlage von Koordinaten erkannter Merkmalspunkte erforderlich sind, zeigt,
    • 41 die sechste Ausführungsform der Erfindung, wobei es sich um ein Beispiel einer während eines Vorhersage- und Messschritts dargestellten GUI-Bildschirmdarstellung handelt,
    • 42 die sechste Ausführungsform der Erfindung, wobei es sich um ein Beispiel einer während eines Formvergleichsschritts dargestellten GUI-Bildschirmdarstellung handelt,
    • 43 eine siebte Ausführungsform der Erfindung, wobei es sich um ein Blockdiagramm handelt, das ein Konfigurationsbeispiel einer Bilderzeugungsvorrichtung zeigt,
    • 44 die siebte Ausführungsform der Erfindung, wobei es sich um ein Flussdiagramm der Ausgabe eines Erzeugungsbilds unter Verwendung eines Strukturbilds als Eingabe durch die Bilderzeugungsvorrichtung handelt, und
    • 45 die siebte Ausführungsform der Erfindung, wobei es sich um ein Beispiel einer GUI-Bildschirmdarstellung handelt, wenn das Strukturbild in die Bilderzeugungsvorrichtung eingegeben wird und das Erzeugungsbild davon ausgegeben wird.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Ausführungsformen der Erfindung werden nachstehend mit Bezug auf die anliegenden Figuren beschrieben. Nachstehend wird eine Technologie zur Erzeugung von Lerndaten für ein Lernmodell zur Erfassung eines Merkmalsbetrags oder einer Merkmalsabmessung anhand eines Verarbeitungsergebnis-Beobachtungsbilds beschrieben. Es wird ein Halbleiterherstellungssystem mit einer Funktion oder einem System zum Suchen von Verarbeitungsbedingungen einer Vorrichtung durch Lernen des erfassten Merkmalsbetrags oder der erfassten Merkmalsabmessung beschrieben.
  • In der folgenden Beschreibung werden ein Verfahren zur Bildung einer Lerndatenbank in einem kurzen Zeitraum, der für die Erzeugung eines Abmessungsextraktionsmodells anhand eines Rasterelektronenmikroskop(SEM)-Bilds erforderlich ist, unter Verwendung einer Bilderkennungstechnologie durch maschinelles Lernen, insbesondere durch Deep Learning, und ein Messverfahren, das die Abmessungsmesszeit verkürzt und durch automatisches Messen einer vorgegebenen Abmessung vom SEM-Bild unter Verwendung eines Abmessungsextraktionsmodells keinen durch einen Bediener hervorgerufenen Fehler aufweist, beschrieben.
  • [Erste Ausführungsform]
  • 1 zeigt einen Umriss eines Datenbank-Bildungsverfahrens für ein Strukturbild und ein Erzeugungsbild und für das Lernen eines Strukturerfassungsmodells zum Erhalten von Strukturinformationen anhand des Erzeugungsbilds.
  • (Datenbankbildung für das Strukturbild und das Erzeugungsbild)
  • Ein Strukturbild 1000A ist beispielsweise ein Beobachtungsbild, das den Querschnitt einer von einer Vorrichtung verarbeiteten Probe zeigt. Insbesondere gibt das Strukturbild 1000A eine Konturlinie jeder Struktur in einem Querschnittsbild jedes Strukturbereichs an. Diese können beispielsweise in einer Linienansicht oder einer Farbansicht dargestellt werden (siehe 1000A1 und 1000A2 in 2). Allgemeine Zeichensoftware und Malsoftware kann zur Erzeugung der Strukturbilds verwendet werden. Das Strukturbild 1000A kann auch unter Verwendung von CAD-Software erzeugt werden.
  • Ein Bilderzeugungsmodell (oder Stilwandlungsmodell) 1000 erzeugt ein Erzeugungsbild 1000B unter Bezugnahme auf ein Referenzbild (oder Stilbild) 1000C auf der Grundlage des Strukturbilds 1000A. Das Erzeugungsbild 1000B ähnelt einem tatsächlichen Beobachtungsbild (tatsächlichen Bild) und wird durch Extrahieren von Stilinformationen aus dem Referenzbild 1000C und Widerspiegeln eines Stils im Strukturbild 1000A erzeugt.
  • Spezifische Beispiele des Erzeugungsbilds 1000B umfassen ein Kamerabild, ein Bild eines optischen Mikroskops und ein Elektronenmikroskopbild. Als Referenzbild 1000C wird beispielsweise ein typisches Beispiel eines Zielbeobachtungsbilds verwendet.
  • Das Bilderzeugungsmodell 1000 wird beispielsweise durch ein neuronales Netz gebildet und kann ein Modell verwenden, bei dem ein Datensatz für das Erlernen eines Bilderkennungsmodells vorab erlernt wird. Alternativ kann, wenn es einen Datensatz für ein Strukturbild und ein einem Zielerzeugungsbild ähnliches tatsächliches Bild (ein dem Erzeugungsbild 1000B entsprechendes tatsächliches Bild) gibt, ein Bilderzeugungsmodell unter Verwendung des Datensatzes gebildet werden. Weil das Bilderzeugungsmodell ein Bild ohne ein Referenzbild erzeugen kann, kann das Erzeugungsbild in diesem Fall ohne das Referenzbild anhand des Strukturbilds erzeugt werden.
  • Durch Erzeugen mehrerer Strukturbilder 1000A und Eingeben der Strukturbilder in das Bilderzeugungsmodell 1000 können mehrere Erzeugungsbilder 1000B erhalten werden. Das Strukturbild 1000A und das Erzeugungsbild 1000B werden in einer Datenbank 1001 gespeichert. Wenn die mehreren Strukturbilder 1000A erzeugt werden, können Zahlendaten, Vektordaten oder dergleichen, welche die Struktur definieren, automatisch erzeugt werden, während mit einer zufälligen oder konstanten Breite oder einer konstanten Rate geändert wird. Alternativ kann ein spezifisches Strukturbild manuell erzeugt werden.
  • Wenn die Qualität des durch das Bilderzeugungsmodell 1000 erzeugten Erzeugungsbilds 1000B unzureichend ist, kann die Leuchtkraft oder der Kontrast durch Ausführen einer Bildfilterverarbeitung am Erzeugungsbild 1000B korrigiert werden.
  • Als von der vorliegenden Ausführungsform verschiedenes Verfahren, das einen Datensatz des Strukturbilds und des Erzeugungsbilds erhält, kann zum direkten Erhalten des Strukturbilds anhand des dem Erzeugungsbild 1000B entsprechenden tatsächlichen Bilds ein Verfahren erwogen werden, bei dem ein anhand eines Bilddatensatzes für allgemeine Zwecke erlerntes Modell verwendet wird. Zum Erhalten sehr genauer Konturinformationen und Flächeninformationen, die für die Messung von Merkmalsabmessungen im Bild erforderlich sind, ist die Genauigkeit eines solchen erlernten Modells jedoch gewöhnlich unzureichend. Dies liegt daran, dass ein Konturabschnitt einen recht kleinen Teil der Gesamtzahl der Pixel des Bilds ausmacht und dass es selbst bei einem Deep Learning durch das neuronale Netz schwierig ist, die Konturinformationen mit hoher Genauigkeit auf einem Ausgangsbild zu zeichnen.
  • Als ein von der Ausführungsform der vorliegenden Anmeldung verschiedenes Verfahren ist eine Konturextraktionsverarbeitung für das tatsächliche Bild denkbar. Wie vorstehend mit Bezug auf JP-A-2012-68138 und JP-A-2002-350127 beschrieben wurde, ist jedoch eine Parameterabstimmung einer Schwelle oder dergleichen erforderlich oder muss eine Schnittstellenposition durch visuelle Beobachtung spezifiziert werden und nimmt die Präparation des Datensatzes eine lange Zeit in Anspruch.
  • Dementsprechend verwendet die Ausführungsform der vorliegenden Anmeldung ein Verfahren, bei dem ein Strukturbild (Strukturinformationen) eingegeben wird, ein entsprechendes Erzeugungsbild erzeugt wird und ein Strukturerfassungsmodell durch Lernen eines Datensatzes aus einem Paar aus dem Strukturbild und dem Erzeugungsbild erzeugt wird.
  • <Lernen eines Strukturerfassungsmodells zum Erhalten von Strukturinformationen anhand des Erzeugungsbilds>
  • Ein Strukturerfassungsmodell 1010 zum Erhalten des Strukturbilds anhand des Erzeugungsbilds kann unter Verwendung der Datenbank 1001 eines Paars des Strukturbilds und des Erzeugungsbilds zum Erlernen eines Strukturerfassungsmodells 1010 erzeugt werden. Beim Lernen werden dabei ein Erzeugungsbild 1010A als Eingangsdaten des Strukturerfassungsmodells 1010 und ein Strukturbild 1010B als Ausgangsdaten verwendet. Das Erzeugungsbild 1010A wird als Erzeugungsbild 1000B erzeugt, und das Strukturbild 1010B wird als Strukturbild 1000A erzeugt.
  • Bei einem von der Ausführungsform der vorliegenden Anmeldung verschiedenen Verfahren kann das Strukturerfassungsmodell 1010 durch Erzeugen eines dem Erzeugungsbild 1010A ähnlichen tatsächlichen Bilds und eine Struktur davon zeigender Annotationsdaten erlernt werden. Wie vorstehend beschrieben, sind jedoch zum Erhalten des tatsächlichen Bilds eine Verarbeitung mit einer tatsächlichen Vorrichtung und eine SEM-Beobachtung eines Querschnittsbilds und zusätzlich die Struktur zeigende Annotationsdaten erforderlich, wobei die Präparation der Lerndaten viel Zeit in Anspruch nimmt.
  • Insbesondere beträgt, wenn ein Datensatz bei einer feinen Verarbeitung für eine Halbleitervorrichtung erfasst wird, die Erfassungsgeschwindigkeit etwa 5 bis 10 Sätze pro Tag für die Verarbeitung mit der Vorrichtung, die SEM-Beobachtung und die Erzeugung des Annotationsdatensatzes. Falls beispielsweise 5 Sätze pro Tag erfasst werden oder die Anzahl der für ein ausreichendes Verbessern der Genauigkeit des Strukturerfassungsmodells erforderlichen Datensätze 100 beträgt, werden 20 Tage für die Präparation der Lerndaten benötigt.
  • Bei einem Verfahren gemäß der Ausführungsform der vorliegenden Anmeldung ist es möglich, das erlernte Bilderzeugungsmodell zu verwenden und das Strukturbild automatisch zu erzeugen, weil der Lerndatensatz des Strukturerfassungsmodells 1010 erzeugt wird. Deshalb ist die Bilderzeugung des Lerndatensatzes längstens innerhalb von Minuten und im kürzesten Fall innerhalb 1 Sekunde abgeschlossen. Die einzige verbleibende benötigte Prozedur ist das Erlernen des Strukturerfassungsmodells 1010, das in wenigen Minuten, gewöhnlich in wenigen Stunden bis zu einem Tag ausgeführt wird. Verglichen mit einem Fall, in dem ein tatsächliches Bild verwendet wird, kann das Verfahren gemäß der Ausführungsform der vorliegenden Anmeldung die Verarbeitung um das 20 bis 500Fache oder mehr beschleunigen (wenn die Zeit für das Erlernen des Strukturerfassungsmodells kürzer als 1 Stunde ist).
  • 2 zeigt ein spezifisches Beispiel des Strukturbilds, des Referenzbilds und des Erzeugungsbilds. Die Erzeugungsbilder 1000B11 und 1000B12 sind SEM-Beobachtungsbilder eines einer feinen Verarbeitung unterzogenen Probenquerschnitts. Ein Referenzbild 1000C1 ist ein Beispiel eines Referenzbilds des SEM-Beobachtungsbilds des der feinen Verarbeitung unterzogenen Probenquerschnitts. Die Strukturbilder 1000A21 und 1000A22 sind Linienansichten, die eine Struktur durch Konturlinien im Querschnittsbild zeigen. Die Strukturbilder 1000A11 und 1000A12 zeigen schematisch Farbansichten, worin die Strukturfläche im Querschnittsbild gefärbt ist. In der vorliegenden Patentschrift sind Farben verschiedener Strukturflächen der Farbansichten in Mustern unterschiedlicher einfarbiger Bereiche dargestellt.
  • Das Strukturbild 1000A11 oder 1000A21 wird in das Bilderzeugungsmodell 1000 eingegeben, und das Bilderzeugungsmodell 1000 erzeugt das Erzeugungsbild 1000B11, das den Stil des Referenzbilds 1000C aufweist. Zusätzlich wird das Strukturbild 1000A12 oder 1000A22 in das Bilderzeugungsmodell 1000 eingegeben und erzeugt das Bilderzeugungsmodell 1000 das Erzeugungsbild 1000B12, das den Stil des Referenzbilds 1000C aufweist.
  • 3A zeigt einen Umriss eines Verfahrens zum Erzeugen eines Strukturbilds auf der Grundlage eines tatsächlichen Bilds und zum Erhalten von Abmessungsdaten anhand des Strukturbilds. In 3A ist ein tatsächliches Bild 1020A ein Beobachtungsbild eines Querschnitts der durch die Vorrichtung bearbeiteten Probe. Das Verfahren erhält ein Strukturbild 1020B auf der Grundlage des tatsächlichen Bilds 1020A. Das tatsächliche Bild 1020 A und das anhand des tatsächlichen Bilds erhaltene Strukturbild 1020B werden in einer Datenbank 1021 gespeichert. Ferner erhält das Verfahren Abmessungsdaten 1030B anhand eines durch das tatsächliche Bild erhaltenen Strukturbilds 1030A.
  • Das Strukturerfassungsmodell 1020 ist das Strukturerfassungsmodell 1010 nach dem Lernen. Durch Eingeben des tatsächlichen Bilds 1020A in das Strukturerfassungsmodell 1020 wird das Strukturbild 1020B als Ausgabe erhalten. Die Datenbank 1021 wird durch einen Datensatz des tatsächlichen Bilds 1020A und seines Strukturbilds 1020B erzeugt.
  • Ferner wird das in der Datenbank 1021 gespeicherte Strukturbild 1020B als Strukturbild 1030A in das Abmessungsextraktionsmodell 1030 eingegeben. Das Abmessungsextraktionsmodell 1030 extrahiert die Zielabmessungsdaten 1030B als Merkmalsbetrag oder Merkmalsabmessung im Strukturbild 1030A. Das Abmessungsextraktionsmodell 1030 ist ein erlerntes Modell zum Extrahieren der Abmessungsdaten 1030B aus dem Eingangsstrukturbild 1030A. Ein Verfahren zum Erlernen des Abmessungsextraktionsmodells wird später in der fünften und der sechsten Ausführungsform beschrieben.
  • 3B zeigt eine schematische Ansicht 1031B eines Beispiels einer Abmessungsextraktionsposition. Das Abmessungsextraktionsmodell 1030 kann automatisch beispielsweise Breitenabmessungen (i), (ii) und (iii) und Tiefenabmessungen (iv) und (v) messen.
  • Indem den in den 1 und 3A dargestellten Prozeduren gefolgt wird, kann eine Lerndatenbank erzeugt werden, die benötigt wird, um automatisch in kurzer Zeit eine Abmessung aus einem tatsächlichen Bild zu extrahieren, und kann die Abmessung daraus extrahiert werden.
  • [Zweite Ausführungsform]
  • Als zweite Ausführungsform wird ein Verfahren zum Erzeugen mehrerer Strukturbilder in kurzer Zeit bei der Bildung der Datenbank des Strukturbilds und des Erzeugungsbilds, wie mit Bezug auf 1 beschrieben, erklärt.
  • 4 zeigt ein Verfahren zur Erzeugung mehrerer Strukturbilder, die als Zwischenbilder dienen, anhand zweier repräsentativer Strukturbilder. Zuerst werden zwei repräsentative Bilder A1041 und A'1042 erzeugt. Gemäß einer spezifizierten Entsprechung werden mehrere Bilder als Zwischenbilder 1043 erzeugt, wenn das repräsentative Bild A1041 vom repräsentativen Bild A1041 zum repräsentativen Bild A'1042 geändert wird. Ein solches Verfahren zur Bildverarbeitung wird als Morphing bezeichnet.
  • Insbesondere kann der Benutzer durch Spezifizieren von Winkeln, Liniensegmenten und Bögen eine Änderung von einer Struktur (repräsentatives Bild A1041) zu einer anderen Struktur (repräsentatives Bild A'1042) festlegen, wodurch eine Struktur gebildet wird, die den beiden Strukturbildern entspricht. Zur Spezifikation der entsprechenden Struktur können eine spezifische Position eines Liniensegments und eines Bogens, ihrer beiden Enden und dergleichen spezifiziert werden.
  • 5 zeigt einen Fall, in dem eine repräsentative Struktur A'1052 eine gewünschte Zielform der Probe bei der Verarbeitung in der Vorrichtung ist. Bei einem typischen Beispiel eines Prozesses zum Suchen nach einer Vorrichtungsverarbeitungsbedingung wird zur Implementation der Zielform der von der Vorrichtung verarbeiteten Probe zuerst eine Form, die sich von der Zielform unterscheidet, erhalten, wobei, wenn die Suche gut verläuft, allmählich eine Form erhalten wird, die nahe bei der Zielform liegt.
  • Falls daher ein Strukturbild 1053, das ein Zwischenbild zwischen einem repräsentativen Bild A1051 und einem Bild einer Zielform 1052 ist, vorab durch Morphing präpariert wird, kann ein entsprechendes Erzeugungsbild erzeugt werden. Zusätzlich kann das durch Erlernen des Erzeugungsbilds und des Strukturbilds erhaltene Strukturerfassungsmodell 1020 gebildet werden. Daher kann das Strukturerfassungsmodell 1020 gebildet werden, das Strukturen mit hoher Genauigkeit für tatsächliche Bilder extrahieren kann, die wahrscheinlich während des Suchens nach der Zielform erhalten werden.
  • 6 zeigt ein Beispiel, bei dem ein Strukturbild eines tatsächlichen Bilds, das der Zielform am nächsten liegt, unter den erfassten tatsächlichen Bildern als repräsentatives Bild A' festgelegt wird. Ein Bild 1062 zeigt ein Beispiel des Strukturbilds des der Zielform am nächsten kommenden tatsächlichen Bilds. Ein Strukturbild 1063, das ein Zwischenbild zwischen dem repräsentativen Bild A1061 und dem Strukturbild 1062 ist, kann vorab durch Morphing präpariert werden.
  • Daher kann das Strukturerfassungsmodell 1020 gebildet werden, das Strukturen mit hoher Genauigkeit für tatsächliche Bilder extrahieren kann, die wahrscheinlich während des Suchens nach der Zielform erhalten werden. Wenngleich es möglich ist, ein Strukturbild für ein tatsächliches Bild, das der Zielform am nächsten liegt, manuell zu erzeugen, wie mit Bezug auf 3A dargestellt ist, kann der für das Erzeugen des Strukturbilds erforderliche Zeitraum durch automatisches Erfassen eines Strukturbilds anhand eines tatsächlichen Bilds unter Verwendung des Strukturerfassungsmodells 1020, das bisher erlernt wurde, verkürzt werden.
  • Die Nähe, d. h. die Differenz (oder Ähnlichkeit) zwischen der Zielform und dem tatsächlichen Bild, kann unter Verwendung der Summe der Fehler jedes Merkmalsbetrags oder jeder Merkmalsabmessung der Zielform und des tatsächlichen Bilds beurteilt werden. Der Fehler kann unter Verwendung einer Differenz, eines Absolutwerts, eines quadratischen Fehlers oder dergleichen der jeweiligen Parameter berechnet werden. Je kleiner der Fehler ist, desto näher ist das tatsächliche Bild der Zielform.
  • 7 zeigt ein Beispiel eines repräsentativen Bilds zur Implementation einer Entsprechung mit einem tatsächlichen Bild, das wahrscheinlich zu erfassen ist, und einer hohen Genauigkeit der Strukturextraktion. Insbesondere wird das Strukturbild 1062, das anhand des tatsächlichen Bilds erzeugt wurde, das der Zielform unter den erfassten tatsächlichen Bildern am nächsten liegt, als das repräsentative Bild A festgelegt und wird das Strukturbild 1052 der Zielform als das repräsentative Bild A' festgelegt.
  • Wenn nach der Vorrichtungsverarbeitungsbedingung zur Implementation der Zielform gesucht wird und die Suche erfolgreich ist, ist es ziemlich wahrscheinlich, dass eine zwischen der erfassten besten Form und der Zielform liegende Form erhalten wird. Daher ist es durch vorab geschehendes Präparieren eines Zwischenbilds 1073, das den Formen entspricht, möglich, eine Entsprechung mit dem tatsächlichen Bild zu erzielen, das wahrscheinlich erfasst wird, und eine hohe Genauigkeit der Strukturextraktion zu erreichen.
  • Das repräsentative Bild A und das repräsentative Bild A', die in den 4 und 7 dargestellt sind, können durch Austauschen der beiden festgelegt werden, um die Strukturen zu bestimmen, welche die beiden Enden bilden, wenn das Bild der Zwischenstruktur erzeugt wird. Wie vorstehend beschrieben, wird das Bild der Zwischenstruktur anhand der beiden Strukturbilder erzeugt und wird ein Erzeugungsbild, das dem Strukturbild und dem tatsächlichen Bild ähnelt, als Datenbank gebildet. Durch die Verwendung des dem tatsächlichen Bild ähnelnden Erzeugungsbilds kann die Beziehung zwischen dem Strukturbild und dem tatsächlichen Bild erlernt werden, ohne dass das tatsächliche Bild erhalten wird. Zusätzlich wird, wenn nach einer Zielverarbeitungsform gesucht wird, indem eines von zwei verschiedenen Strukturbildern als das Strukturbild festgelegt wird, das der Form entspricht, die der Zielform unter den erfassten tatsächlichen Bildern am nächsten liegt, und das andere als die Zielform festgelegt wird, die Genauigkeit der Strukturerfassung anhand des tatsächlichen Bilds verbessert, indem vorab das Bild aufgenommen wird, das wahrscheinlich tatsächlich in den Lerndaten erhalten wird.
  • [Dritte Ausführungsform]
  • Als dritte Ausführungsform wird ein Verfahren zum Optimieren einer Vorrichtungsverarbeitungsbedingung zum Erhalten einer Zielform unter Verwendung eines Lernmodells und einer Datenbank, die durch das mit Bezug auf die 1 und 3 beschriebene Verfahren gebildet wurden, beschrieben. Ein Umriss davon ist in den 8A und 8B dargestellt. Eine Datenbank 1101 weist eine Vorrichtungsbedingung 1100A und ein tatsächliches Bild 1100B1, das ein Querschnittsbild einer unter Verwendung der Vorrichtungsbedingung bearbeiteten Probe ist, auf, welche allmählich während des Suchens nach der Zielform akkumuliert werden. Die Datenbank 1101 weist ein anhand des tatsächlichen Bilds 1100B1 erhaltenes Strukturbild auf. Die Strukturbilder 1100B2 und 1100B3 sind Beispiele des Strukturbilds. Ferner weist die Datenbank 1101 aus dem Strukturbild extrahierte Abmessungsdaten 1100B4 auf.
  • Wie vorstehend beschrieben, kann zum Erhalten der Strukturbilder 1100B2 und 1100B3 anhand des tatsächlichen Bilds 1100B1 das Strukturerfassungsmodell 1020 verwendet werden. Die Abmessungsdaten 1100B4 können einen manuell anhand des tatsächlichen Bilds 1100B1 gemessenen Wert verwenden, und es können auch die anhand der Strukturbilder 1100B2 und 1100B3 unter Verwendung des Abmessungsextraktionsmodells 1030 erhaltenen Abmessungsdaten 1100B4 verwendet werden.
  • Durch Bilden eines Lernmodells 1110, das eine Beziehung zwischen der Vorrichtungsbedingung 1100A und anderen Daten 1100B1 bis 1100B4 offenbart, kann nach der Vorrichtungsbedingung zum Erhalten der Zielform gesucht werden. Wenn die Vorrichtungsbedingung und die Abmessungsdaten als Ein- und Ausgabe des Lernmodells ausgewählt werden, sind die Eingabe und die Ausgabe numerische Parameter und wird ein Regressionsmodell mit mehreren Eingaben und Ausgaben gebildet.
  • Wenn die Vorrichtungsbedingung und das tatsächliche Bild oder das Strukturbild alternativ als Ein- und Ausgabe des Lernmodells ausgewählt werden, wird ein Lernmodell gebildet, das eine Beziehung zwischen dem numerischen Parameter der Vorrichtungsbedingung und dem Bild offenbart. Spezifische Beispiele des Modells sind ein faltendes neuronales Netz und ein generatives adversarielles Netz.
  • Diese Lernmodelle können zum Suchen nach einer optimalen Vorrichtungsbedingung 1110A für das Erhalten einer Zielform 1110B verwendet werden. Beim Suchverfahren ist es durch Eingeben einer großen Anzahl von Vorrichtungsbedingungssätzen und Schätzen der Abmessungsdaten oder der tatsächlichen Bildform möglich, die Vorrichtungsbedingung auszuwählen, die geschätzt wird, um die Abmessungsdaten oder die tatsächliche Bildform, die der Zielform am nächsten liegt, zu erhalten. Alternativ kann das Schätzen der Vorrichtungsbedingung zum Erreichen der Zielform als Umkehrproblem gelöst werden.
  • Wenngleich bei diesen Lernmodellen die Vorrichtungsbedingung 1100A als Eingabe verwendet wird und die anderen Daten 1100B1 bis 1100B4 als Ausgabe verwendet werden, ist es auch möglich, ein Lernmodell durch Umkehren der Eingabe und Ausgabe und Suchen nach der optimalen Vorrichtungsbedingung zu bilden.
  • [Vierte Ausführungsform]
  • Gemäß den vorstehenden Ausführungsformen wird der Fall der Verarbeitung der Probe als Beispiel beschrieben. Merkmale der vorliegenden Offenbarung können auf die Querschnittsinspektion eines Objekts bei einer Verschlechterungserkennung als weiteres Beispiel angewendet werden. Wenn die Ermüdung oder Alterung eines Metalls oder von Beton beurteilt wird, wird sein Querschnitt beobachtet. Daher kann ein Erzeugungsbild durch Erzeugen eines Strukturbilds, das Risse, Defekte, Korrosion und Bereiche des Querschnitts mit geänderten Eigenschaften angibt, und Verwenden eines entsprechenden Referenzbilds erzeugt werden.
  • 9 zeigt ein Strukturbild 1200A1, ein Referenzbild 1200C1 und ein Erzeugungsbild 1200B1 mit zwei Phasenstrukturen von Inseln und eines Grenzbereichs jeder Insel als Beispiel für ein Metallmaterial. 9 zeigt ferner ein Strukturbild 1210A1, ein Referenzbild 1210C1 und ein Erzeugungsbild 1210B1 mit Rissen.
  • Durch die gleiche Prozedur wie gemäß der ersten Ausführungsform kann das Strukturbild anhand des tatsächlichen Bilds erhalten werden und können die Abmessungsdaten des Strukturbilds, d. h. die Merkmalsstärke oder die Merkmalsabmessung der Risse, der Defekte, der Korrosion und der Bereiche mit geänderten Eigenschaften, erfasst werden. Bei einem die Phasenstruktur aufweisenden Beispiel, beispielsweise einem Inselbereich, werden die maximale Breite der jeweiligen Inseln (die Breite zwischen zwei Punkten, die auf einer Begrenzungslinie, welche die Insel bildet, am weitesten voneinander entfernt liegen), die Anzahl der Inseln und der Abstand zwischen zwei Inseln (der kürzeste Abstand zwischen Punkten auf Begrenzungslinien zweier Inseln, die einander gegenüberstehen, oder der Durchschnittswert der kürzesten Abstände usw.) als Abmessungsdaten verwendet.
  • Bei einem Beispiel, bei dem Risse existieren, werden beispielsweise die Fläche der Risse, die Anzahl der Risse und die Breite der Risse (der kürzeste Abstand zwischen Punkten auf Begrenzungslinien der beiden gegenüberstehenden Begrenzungen, welche die Risse bilden, oder der Durchschnittswert der kürzesten Abstände und dergleichen) als Abmessungsdaten verwendet. Auf diese Weise können die Merkmale der vorliegenden Offenbarung auf verschiedene Typen der Bildverarbeitung angewendet werden.
  • [Fünfte Ausführungsform]
  • Nachstehend werden ein Abmessungsextraktionsmodell und ein Verfahren zum Lernen von diesem detailliert anhand der fünften und sechsten Ausführungsform beschrieben. Gemäß der fünften Ausführungsform werden zwei Typen von Bilderkennungstechnologien verwendet, nämlich ein semantisches Segmentierungsmodell (erstes Bilderkennungsmodell) zur Extraktion einer Koordinate einer Begrenzungslinie zwischen einer Bearbeitungsstruktur und einem Hintergrund und einer Begrenzungslinie einer Grenzfläche zwischen zwei Materialtypen und ein Objekterkennungsmodell (zweites Bilderkennungsmodell) zum Erkennen einer Koordinate eines Einheitsmusters. Das semantische Segmentierungsmodell entspricht einem Strukturerfassungsmodell gemäß den vorstehenden Ausführungsformen.
  • In einem vorbereitenden Lernschritt werden beim semantischen Segmentierungsmodell ein Querschnitts-SEM-Bild als Eingangsdaten und ein Annotationsbild, das für jeweilige Gebiete farbcodiert ist, als Ausgangsdaten als Lehrerdaten angegeben, um eine Form des Gebiets zu erlernen. Bei einem Objekterkennungsmodell werden das Querschnitts-SEM-Bild als Eingangsdaten und Annotationsdaten, welche Koordinaten eines Einheitsmusters beschreiben (durch ein das Muster umgebendes rechteckiges Begrenzungskästchen spezifiziert), als Ausgangsdaten als Lehrerdaten angegeben, um eine Einheitsmusterform zu erlernen.
  • In einem Vorhersageschritt werden für ein gegebenes Eingangsbild ein durch Farbcodieren der jeweiligen Gebiete unter Verwendung des erlernten semantischen Segmentierungsmodells erhaltenes Bild geschätzt und Koordinaten eines Einheitsmusters unter Verwendung des erlernten Objekterkennungsmodells geschätzt.
  • In einem Messschritt werden Koordinaten einer Gebietsbegrenzung, die anhand des farbcodierten Bilds für die jeweiligen Gebiete erhalten wird, für die jeweiligen Muster unter Verwendung der Einheitsmusterkoordinaten unterteilt und Koordinaten von Merkmalspunkten, die für die Abmessungsmessung erforderlich sind, erhalten, so dass eine Abmessung eines gewünschten Punkts automatisch gemessen wird.
  • 10 ist ein Diagramm, das ein Beispiel einer Systemkonfiguration eines Halbleiterherstellungssystems zeigt. Ein Halbleiterherstellungssystem 10 weist eine Verarbeitungsbedingungs-Suchvorrichtung 100, eine Eingabevorrichtung 103, eine Ausgabevorrichtung 114, eine Verarbeitungsvorrichtung 111, eine Beurteilungsvorrichtung 112, eine Abmessungsmessvorrichtung 200 und eine Ein- und Ausgabevorrichtung 206 auf. Ein Benutzer kann ein Zielverarbeitungsergebnis (eine Verarbeitungsform) und einen in der Verarbeitungsvorrichtung 111 verwendeten Parameter 101 auswählen, das Zielverarbeitungsergebnis und den Parameter 101 durch die Eingabevorrichtung 103 eingeben und die optimale Verarbeitungsbedingung 102, die eine Zielverarbeitungsform angibt, von der Ausgabevorrichtung 114 ausgeben.
  • Die Verarbeitungsbedingungs-Suchvorrichtung 100 empfängt die Zielverarbeitungsform 101 von der Eingabevorrichtung 103, sucht nach einer Verarbeitungsbedingung, bei der die Verarbeitungsvorrichtung 111 die Zielverarbeitungsform optimal erhalten kann, und gibt die gesuchte Verarbeitungsbedingung an die Ausgabevorrichtung 114 aus.
  • Die Eingabevorrichtung 103 weist eine Eingabeschnittstelle in der Art einer GUI und eine Speichermedium-Lesevorrichtung in der Art eines Kartenlesers auf und gibt Daten in die Verarbeitungsbedingungs-Suchvorrichtung 100 ein. Nicht nur vom Benutzer empfängt die Eingabevorrichtung 103 auch einen Abmessungsmesswert von der Ein- und Ausgabevorrichtung 206 und gibt den Wert in die Verarbeitungsbedingungs-Suchvorrichtung 100 ein. Die Eingabevorrichtung 103 ist beispielsweise eine Tastatur, eine Maus, ein Berührungsfeld oder eine Speichermedium-Lesevorrichtung.
  • Die Ausgabevorrichtung 114 zeigt die von der Verarbeitungsbedingungs-Suchvorrichtung 100 übergebene Verarbeitungsbedingung dem Benutzer als optimale Verarbeitungsbedingung 102. Für die Anzeige kommen beispielsweise eine Anzeige auf einem Bildschirm oder ein Schreiben in eine Datei in Frage. Die Ausgabevorrichtung 114 ist beispielsweise ein Bildschirm, ein Drucker oder eine Speichermedium-Schreibvorrichtung.
  • Die Verarbeitungsvorrichtung 111 verarbeitet einen Halbleiter oder eine Halbleitervorrichtung, die einen Halbleiter aufweist. Die Verarbeitungsinhalte der Verarbeitungsvorrichtung 111 sind nicht besonders beschränkt. Beispielsweise sind eine Lithographievorrichtung, eine Filmbildungsvorrichtung und eine Musterverarbeitungsvorrichtung enthalten. Die Lithographievorrichtung umfasst beispielsweise eine Belichtungsvorrichtung, eine Elektronenstrahl-Zeichnungsvorrichtung und eine Röntgenstrahl-Zeichnungsvorrichtung. Die Filmbildungsvorrichtung umfasst beispielsweise eine Chemische-Dampfabscheidung(CVD)-, eine Physikalische-Dampfabscheidung(PVD)-, eine Dampfabscheidungsvorrichtung, eine Sputtervorrichtung und eine thermische Oxidationsvorrichtung. Die Musterverarbeitungsvorrichtung umfasst beispielsweise eine Nassätzvorrichtung, eine Trockenätzvorrichtung, eine Elektronenstrahl-Verarbeitungsvorrichtung und eine Laserverarbeitungsvorrichtung. Die Verarbeitungsvorrichtung 111 verarbeitet den Halbleiter oder die Halbleitervorrichtung auf der Grundlage der von der Verarbeitungsbedingungs-Suchvorrichtung 100 eingegebenen Verarbeitungsbedingung und übergibt den Halbleiter oder die Halbleitervorrichtung an die Beurteilungsvorrichtung 112.
  • Die Beurteilungsvorrichtung 112 erfasst einen Querschnitt des von der Verarbeitungsvorrichtung 111 verarbeiteten Halbleiters oder der davon verarbeiteten Halbleitervorrichtung und nimmt ein Querschnittsbild 208 als Verarbeitungsergebnis auf. Die Beurteilungsvorrichtung 112 umfasst eine Verarbeitungsabmessungsmessvorrichtung unter Verwendung eines SEMs, eines Transmissionselektronenmikroskops (TEMs) und einer optischen Überwachungseinrichtung. Ein Teil des von der Verarbeitungsvorrichtung 111 verarbeiteten Halbleiters oder der davon verarbeiteten Halbleitervorrichtung kann als Fragment entnommen werden, und das Fragment kann zur Beurteilungsvorrichtung 112 transportiert und gemessen werden. Das aufgenommene Querschnittsbild 208 wird an die Ein- und Ausgabevorrichtung 206 übergeben.
  • Die Abmessungsmessvorrichtung 200 weist eine Zentralverarbeitungseinheit 201, eine Modelllerneinheit 202, eine Modellschätzeinheit 203, eine Abmessungsmesseinheit 204 und eine Datenbank 205 auf. Die Abmessungsmessvorrichtung 200 empfängt eine Merkmalspunkt- und eine Abmessungsdefinition, eine Vergrößerung, einen Lerndatensatz 209 und das Querschnittsbild 208 über die eingegebene Ein- und Ausgabevorrichtung 206, misst eine vorgegebene Abmessung anhand des Querschnittsbilds 208 und gibt die Abmessung an die Ein- und Ausgabevorrichtung 206 aus.
  • Die Ein- und Ausgabevorrichtung 206 weist eine Ein- und Ausgabeschnittstelle in der Art einer GUI und eine Speichermedium-Lesevorrichtung in der Art eines Kartenlesers auf und gibt die Merkmalspunkt- und Abmessungsdefinition, die Vergrößerung und den Lerndatensatz 209 in die Abmessungsmessvorrichtung 200 ein. Die Ein- und Ausgabevorrichtung 206 empfängt das Querschnittsbild 208 von der Beurteilungsvorrichtung 112 und übergibt das Querschnittsbild 208 an die Zentralverarbeitungseinheit 201. Die Ein- und Ausgabevorrichtung 206 umfasst beispielsweise eine Tastatur, eine Maus, einen Bildschirm, ein Berührungsfeld und eine Speichermedium-Lesevorrichtung und zeigt den von der Abmessungsmessvorrichtung 200 übergebenen Abmessungswert dem Benutzer oder überträgt den Abmessungswert direkt zur Eingabevorrichtung 103. Wenn der Abmessungswert dem Benutzer gezeigt wird, wird dieser beispielsweise auf dem Bildschirm angezeigt, in eine Datei geschrieben oder dergleichen.
  • 11 ist ein Diagramm, das ein Beispiel einer Systemkonfiguration der Verarbeitungsbedingungs-Suchvorrichtung 100 zeigt. Die Verarbeitungsbedingungs-Suchvorrichtung 100 weist eine Zentralverarbeitungseinheit 104, eine Datenbank 105, eine Anfängliche-Verarbeitungsbedingungen-Festlegungseinheit 106, eine Zielfestlegungseinheit 107, eine Modelllerneinheit 108, eine Verarbeitungsbedingungs-Sucheinheit 109, eine Vorrichtungssteuereinheit 110 und eine Konvergenzbestimmungseinheit 113 auf.
  • 12 ist ein Blockdiagramm, das eine Hardwarekonfiguration der Abmessungsmessvorrichtung 200 zeigt. Die Abmessungsmessvorrichtung 200 misst eine Abmessung anhand des über die Ein- und Ausgabevorrichtung 206 von der Beurteilungsvorrichtung 112 eingegebenen Querschnittsbilds 208 und gibt ein Messergebnis an die Ein- und Ausgabevorrichtung 206 aus. Die Abmessungsmessvorrichtung 200 weist einen Prozessor 116, eine Kommunikationsschnittstelle 115, einen ROM 117 und einen RAM 118 auf. Die Kommunikationsschnittstelle 115 verbindet den Prozessor 116 und die externe Ein- und Ausgabevorrichtung 206. Der Prozessor 116 verbindet die Kommunikationsschnittstelle 115, den ROM 117 und den RAM 118. Ein durch den Prozessor 116 ausgeführtes Verarbeitungsprogramm ist im ROM 117 gespeichert. Lerndaten, ein Lernmodell, eine Merkmalspunkt- und eine Abmessungsdefinition, eine Vergrößerung und dergleichen sind im RAM 118 gespeichert.
  • Entsprechend der in 10 dargestellten Abmessungsmessvorrichtung 200 ist die Datenbank 205 im ROM 117 und im RAM 118 gespeichert und sind die Modelllerneinheit 202, die Modellschätzeinheit 203 und die Abmessungsmesseinheit 204 als im ROM 117 und im RAM 118 gespeicherte Programme und Parameter installiert.
  • 13 zeigt ein Beispiel einer Konfiguration eines von der Modelllerneinheit 202 und der Modellschätzeinheit 203 der Abmessungsmessvorrichtung 200 verwendeten semantischen Segmentierungsmodells. Beim Beispiel wird ein neuronales Netz 20 verwendet. Die Erfindung ist jedoch nicht darauf beschränkt, und es kann ein Maschinenlernmodell in der Art eines Entscheidungsbaums verwendet werden. Mit Pixelinformationen, die in eine Eingangsschicht eingegeben werden und sequenziell zu einer Zwischenschicht und einer Ausgangsschicht übertragen und berechnet werden, gibt das neuronale Netz eine Label-Nummer eines Gebiets, zu dem jedes Pixel gehört, von der Ausgangsschicht aus. In der Zwischenschicht werden eine Faltungsschicht, eine Pooling-Schicht und dergleichen über viele Schichten wiederholt. Die spezifische Schichtstruktur hängt vom verwendeten Modell ab. Während des Lernens werden Parameter der Zwischenschicht angepasst, so dass der Fehler zwischen dem Label jeder Pixelausgabe und Annotationsdaten, welche die korrekte Antwort bilden, minimiert wird.
  • 14 zeigt ein Beispiel einer Konfiguration eines von der Modelllerneinheit 202 und der Modellschätzeinheit 203 der Abmessungsmessvorrichtung 200 verwendeten Objekterkennungsmodells. Beim Beispiel wird ein neuronales Netz 30 verwendet. Die Erfindung ist jedoch nicht darauf beschränkt, und es können andere Modelle in der Art eines Schablonenvergleichs verwendet werden. Mit Pixelinformationen, die in eine Eingangsschicht eingegeben werden und sequenziell zu einer Zwischenschicht und einer Ausgangsschicht übertragen und berechnet werden, gibt das neuronale Netz eine Label-Nummer eines in einem Bild enthaltenen Objekts und Koordinatenwerte eines Begrenzungskästchens über die Ausgangsschicht aus. In der Zwischenschicht werden eine Faltungsschicht, eine Pooling-Schicht und dergleichen über viele Schichten wiederholt. Die spezifische Schichtstruktur hängt vom verwendeten Modell ab. Während des Lernens werden Parameter der Zwischenschicht angepasst, so dass der Fehler zwischen der Label-Nummer des Objekts, den ausgegebenen Koordinatenwerten des Begrenzungskästchens und Annotationsdaten, welche die korrekte Antwort bilden, minimiert wird.
  • 15 ist ein Flussdiagramm, das von der Abmessungsmessvorrichtung 200 ausgeführt wird, bis eine geforderte Abmessung von einem Eingangsbild gemessen wird.
  • Zuerst wird vorab der in die Abmessungsmessvorrichtung 200 einzugebende Lerndatensatz 209 erzeugt. Der Lerndatensatz erzeugt zusätzlich zum die Eingangsdaten aufweisenden Querschnitts-SEM-Bild einen Satz von Annotationsbildern 209, worin Annotationsdaten 209, die Koordinaten eines Begrenzungskästchens beschreiben, das ein Einheitsmuster für das Objekterkennungsmodell umgibt, wobei es sich um die Ausgangsdaten handelt, für jedes Gebiet des semantischen Segmentierungsmodells farbcodiert sind, und der Lerndatensatz wird durch die Ein- und Ausgabevorrichtung 206 eingegeben (Schritt S100). Der eingegebene Lerndatensatz wird in der Datenbank 205 gespeichert.
  • Als nächstes überträgt die Zentralverarbeitungseinheit 201 den Lerndatensatz und ein Modell von der Datenbank 205 zur Modelllerneinheit 202 und führt ein Lernen von zwei Modellen durch die Modelllerneinheit 202 aus (Schritt S101). Parameter der gelernten Modelle werden in der Datenbank 205 gespeichert. In der folgenden Beschreibung wird ein neuronales Netz, das eine Faltungsschicht und eine Pooling-Schicht aufweist, als Modell verwendet. Ein Maschinenlernmodell in der Art eines Entscheidungsbaums kann auch als semantisches Segmentierungsmodell verwendet werden, und ein Maschinenlernmodell in der Art eines Schablonenvergleichs kann auch als Objekterkennungsmodell verwendet werden.
  • Als nächstes wird im Vorhersageschritt ein Testbild, dessen Abmessung zu messen ist, von der Ein- und Ausgabevorrichtung 206 eingegeben (Schritt S104). Gleichzeitig werden eine Definition 209 eines Merkmalspunkts, die für die Abmessungsmessung erforderlich ist, und die Definition 209 einer zu messenden Abmessung über die Ein- und Ausgabevorrichtung 206 in der Datenbank 205 gespeichert (Schritte S102 und S103). Die Vergrößerung des Eingangsbilds wird durch den Namen des das Bild speichernden Verzeichnisses bestimmt. Falls die Vergrößerung beispielsweise 100k ist, wird angenommen, dass der Verzeichnisname 100k ist. Vergrößerungsinformationen der jeweiligen Bilder werden in der Datenbank 205 gespeichert. Die Zentralverarbeitungseinheit 201 übergibt die Modelle und Parameter von der Datenbank 205 an die Modellschätzeinheit 203, übergibt das eingegebene Testbild und führt eine Schätzung durch die Modellschätzeinheit 203 aus (Schritt S105) und erhält eine Begrenzungskästchenkoordinate als Mustererkennungsergebnis und ein semantisches Segmentierungsbild (Schritt S106).
  • Als nächstes übergibt die Zentralverarbeitungseinheit 201 im Messschritt die Begrenzungskästchenkoordinate und das semantische Segmentierungsbild an die Abmessungsmesseinheit 204 und erhält Koordinaten einer Begrenzungslinie auf der Grundlage des semantischen Segmentierungsbilds. Als nächstes werden die Begrenzungslinienkoordinaten für jedes Muster unterteilt, werden Koordinaten von Merkmalspunkten durch Aufrufen der in der Datenbank 205 gespeicherten Merkmalspunktdefinition erhalten und werden Hauptabmessungen durch Aufrufen der Abmessungsdefinition berechnet (Schritt S107). Weil die Einheit der erhaltenen Abmessung die Anzahl der Pixel ist, wird die in der Datenbank 205 gespeicherte Vergrößerung abgerufen und in eine tatsächliche Abmessung umgewandelt (Schritt S108). Ein gemessener Abmessungswert wird an die Ein- und Ausgabevorrichtung 206 ausgegeben, und Begrenzungslinien-Koordinatendaten für die jeweiligen Muster werden in der Datenbank 205 gespeichert (Schritt S109).
  • Ferner werden, wenn ein Abmessungsmesspunkt neu hinzuzufügen ist, die Definition 209 des neuen Merkmalspunkts, die für die Abmessungsmessung benötigt wird, und die Definition 209 des neuen Abmessungsmesspunkts durch die Ein- und Ausgabevorrichtung 206 eingegeben und in der Datenbank 205 gespeichert (Schritte S110 und S111).
  • Als nächstes wird festgestellt, ob ein neuer Abmessungsmesspunkt spezifiziert wird (Schritt S112), und falls keine Spezifikation vorliegt, wird die Abmessungsmessverarbeitung übersprungen. Falls eine Spezifikation vorliegt, werden Koordinatendaten der Begrenzungslinie für jedes in der Datenbank 205 gespeicherte Muster ausgelesen, um die Abmessung zu berechnen (Schritt S114), und nach einer Maßstabswandlung zur tatsächlichen Abmessung (Schritt S115) wird ein gemessener Abmessungswert an die Ein- und Ausgabevorrichtung 206 ausgegeben (Schritt S116).
  • Hier wird, wenn es gewünscht ist, nach einer Verarbeitungsform zu suchen, ein Zielabmessungswert eingegeben (Schritt S117). Die Zentralverarbeitungseinheit 201 stellt fest, ob eine Formsuche spezifiziert ist (Schritt S118). Falls keine Spezifikation vorliegt, beendet die Zentralverarbeitungseinheit 201 die Abmessungsmessverarbeitung (Schritt S119). Falls eine Spezifikation vorliegt, werden alle Abmessungswerte des in der Datenbank 205 gespeicherten Bilds gesucht (Schritt S120) und wird eine der Eingangsabmessung nahe kommende Form an die Ein- und Ausgabevorrichtung 206 ausgegeben (Schritt S121). Demgemäß endet die Verarbeitung (Schritt S122).
  • 16 ist ein Flussdiagramm zur Bestimmung einer optimalen Verarbeitungsbedingung der Verarbeitungsvorrichtung 111 auf der Grundlage eines von der Verarbeitungsbedingungs-Suchvorrichtung 100 im Halbleiterherstellungssystem 10 erhaltenen Zielverarbeitungsergebnisses (Zielausgabeparameterwerts).
  • Zuerst werden in Bezug auf die von der Verarbeitungsvorrichtung 111 ausgeführte Verarbeitung ein Zielverarbeitungsergebnis (Zielausgabeparameterwert) als Ziel und der als Parameter zum Steuern der Verarbeitungsvorrichtung 111 ausgewählte Eingangsparameter 101 von der Eingabevorrichtung 103 zur Zielverarbeitungseinheit 104 übertragen (Schritt S200).
  • Als nächstes speichert die Zentralverarbeitungseinheit 104 den empfangenen Zielausgabeparameterwert und den ausgewählten Eingangsparameter (Verarbeitungsbedingungsparameter) in der Datenbank 105 und übergibt den ausgewählten Eingangsparameter an die Anfängliche-Verarbeitungsbedingung-Festlegungseinheit 106. Die Anfängliche-Verarbeitungsbedingung-Festlegungseinheit 106 liest auf der Grundlage des übergebenen Eingangsparameters Daten eines festlegbaren Bereichs des Eingangsparameters aus der Datenbank 105 und legt automatisch eine anfängliche Verarbeitungsbedingung fest (S201). Die Zentralverarbeitungseinheit 104 speichert die festgelegte anfängliche Verarbeitungsbedingung in der Datenbank 105 und übergibt die anfängliche Verarbeitungsbedingung an die Vorrichtungssteuereinheit 110.
  • Die Vorrichtungssteuereinheit 110 überträgt die anfängliche Verarbeitungsbedingung zur Verarbeitungsvorrichtung 111. Alternativ kann der Benutzer die von der Vorrichtungssteuereinheit 110 ausgegebene anfängliche Verarbeitungsbedingung in die Verarbeitungsvorrichtung 111 eingeben. Die Verarbeitungsvorrichtung 111 führt eine Verarbeitung entsprechend der eingegebenen Anfangsbedingung aus, führt eine Beurteilung durch die Beurteilungsvorrichtung 112 aus und übergibt das Querschnittsbild 208, welches das Beurteilungsergebnis ist, über die Ein- und Ausgabevorrichtung 206 an die Abmessungsmessvorrichtung 200. Der von der Abmessungsmessvorrichtung 200 erhaltene Abmessungswert (Zielausgabeparameterwert) wird über die Ein- und Ausgabevorrichtung 206 in die Eingabevorrichtung 103 eingegeben. Die Zentralverarbeitungseinheit 104 empfängt ein anfängliches Verarbeitungsergebnis von der Eingabevorrichtung 103 (Schritt S202). Die Zentralverarbeitungseinheit 104 übergibt die anfängliche Verarbeitungsbedingung und das anfängliche Verarbeitungsergebnis an die Konvergenzbestimmungseinheit 113.
  • Die Konvergenzbestimmungseinheit 113 vergleicht das anfängliche Verarbeitungsergebnis mit dem Zielverarbeitungsergebnis und stellt fest, ob das Ergebnis innerhalb der vorgegebenen Genauigkeit gegen das Zielverarbeitungsergebnis konvergiert (Schritt S203). Falls dies der Fall ist, wird die gegen das Zielverarbeitungsergebnis konvergierte anfängliche Verarbeitungsbedingung an die Ausgabevorrichtung 114 übergeben und gibt die Ausgabevorrichtung 114 die anfängliche Verarbeitungsbedingung als optimale Verarbeitungsbedingung 102 aus (Schritt S210).
  • Die Konvergenz des Ausgangsparameterwerts (Verarbeitungsergebnisses) kann unter Verwendung der Summe der Quadrate des Fehlers zwischen dem Zielausgangsparameterwert und dem Ausgangsparameterwert für alle zu verwendenden Ausgangsparameter bestimmt werden und ist durch Formel 1 gegeben. i = 1 NP ( x i y i ) 2 W i
    Figure DE102021101704A1_0001
  • Hier ist NP die Gesamtzahl der verwendeten Ausgangsparameter, ist xi ein i-ter Zielausgangsparameterwert, ist yi ein i-ter Ausgangsparameterwert (tatsächlicher Wert) und ist Wi ein durch den Benutzer für jeden Ausgangsparameter spezifiziertes Gewicht.
  • Falls andererseits keine Konvergenz stattfindet, wird ein Befehl zum Fortsetzen der Verarbeitung von der Konvergenzbestimmungseinheit 113 zur Zentralverarbeitungseinheit 104 gesendet und erzeugt die Zentralverarbeitungseinheit 104 anfängliche Lerndaten einschließlich der anfänglichen Verarbeitungsbedingung (anfänglicher Eingangsparameterwert) und des anfänglichen Verarbeitungsergebnisses (anfänglichen Ausgangsparameterwerts) in der Datenbank 105 (Schritt S204).
  • Als nächstes liest die Zentralverarbeitungseinheit 104 den Zielausgangsparameterwert (das Zielverarbeitungsergebnis) und die anfänglichen Lerndaten aus der Datenbank 105 und übergibt sie an die Zielfestlegungseinheit 107. Die Zielfestlegungseinheit 107 legt ein Zielverarbeitungsergebnis (einen Zielausgangsparameterwert) fest (Schritt S205). Der festgelegte Zielausgangsparameterwert wird an die Zentralverarbeitungseinheit 104 übergeben und in der Datenbank 105 gespeichert. Die Zielfestlegungseinheit 107 wählt beste Daten (Ausgangsparameterwert (tatsächlichen Wert)), die dem Zielausgangsparameterwert am nächsten liegen, aus den existierenden Lerndaten aus und legt den Zielausgangsparameterwert durch Interpolieren zwischen dem besten Ausgangsparameterwert und dem Zielausgangsparameterwert zu dieser Zeit fest. Wenngleich die Anzahl der festzulegenden Ziele beliebig sein kann, solange sie eins oder größer ist, ist es in Hinblick auf die Effizienz wünschenswert, eine Vielzahl von Zielen, beispielsweise etwa 4 bis 5 Ziele, festzulegen.
  • Als nächstes liest die Zentralverarbeitungseinheit 104 die anfänglichen Lerndaten aus der Datenbank 105 und sendet die anfänglichen Lerndaten zur Modelllerneinheit 108. Die Modelllerneinheit 108 erlernt ein Schätzmodell, das sich auf den Eingangsparameterwert (die Verarbeitungsbedingung) und den Ausgangsparameterwert (das Verarbeitungsergebnis) bezieht (Schritt S206). Als Schätzmodell kann ein neuronales Netz, eine Support Vector Machine, ein Kernel-Verfahren oder dergleichen verwendet werden. Das erlernte Schätzmodell wird an die Verarbeitungsbedingungs-Sucheinheit 109 übergeben.
  • Als nächstes verwendet die Verarbeitungsbedingungs-Sucheinheit 109 das von der Modelllerneinheit 108 übergebene Schätzmodell und eine aus der Datenbank 105 gelesene Randbedingung für den Eingangsparameter, um nach einem aus der Datenbank 105 gelesenen Zielausgangsparameterwert und einer Verarbeitungsbedingung für den Zielausgangsparameterwert zu suchen (Schritt S207). Weil im Schätzmodell die Verarbeitungsbedingung eingegeben und das Verarbeitungsergebnis ausgegeben wird, können zur reversiblen Bestimmung der Verarbeitungsbedingung anhand des Verarbeitungsergebnisses verschiedene Verfahren zur Suche einer optimalen Lösung in der Art eines Simulated-Annealing-Verfahrens und eines genetischen Algorithmus verwendet werden. Die Verarbeitungsbedingungs-Sucheinheit 109 übergibt die gesuchte Verarbeitungsbedingung (den Zieleingangsparameterwert) an die Vorrichtungssteuereinheit 110 und speichert die Verarbeitungsbedingung über die Zentralverarbeitungseinheit 104 in der Datenbank 105.
  • Die Vorrichtungssteuereinheit 110 überträgt die übergebene Verarbeitungsbedingung (den Zieleingangsparameterwert) zur Verarbeitungsvorrichtung 111. Alternativ kann der Benutzer die von der Vorrichtungssteuereinheit 110 ausgegebene Verarbeitungsbedingung in die Verarbeitungsvorrichtung 111 eingeben. Die Verarbeitungsvorrichtung 111 führt eine Verarbeitung entsprechend der eingegebenen Anfangsbedingung aus, führt eine Beurteilung durch die Beurteilungsvorrichtung 112 aus und übergibt das Querschnittsbild 208, welches das Beurteilungsergebnis ist, über die Ein- und Ausgabevorrichtung 206 an die Abmessungsmessvorrichtung 200. Der von der Abmessungsmessvorrichtung 200 erhaltene Abmessungswert (Zielausgabeparameterwert) wird über die Ein- und Ausgabevorrichtung 206 in die Eingabevorrichtung 103 eingegeben. Die Zentralverarbeitungseinheit 104 empfängt das Verarbeitungsergebnis (den Zielausgangsparameterwert) von der Eingabevorrichtung 103 (Schritt S208). Die Zentralverarbeitungseinheit 104 übergibt die Verarbeitungsbedingung (den Zieleingangsparameterwert) und das Verarbeitungsergebnis (den Zielausgangsparameterwert) an die Konvergenzbestimmungseinheit 113.
  • Die Konvergenzbestimmungseinheit 113 vergleicht das Verarbeitungsergebnis (den Ausgangsparameterwert (tatsächlichen Wert)) mit dem Zielverarbeitungsergebnis (dem Zielausgangsparameterwert) und stellt fest, ob das Verarbeitungsergebnis innerhalb der vorgegebenen Genauigkeit gegen das Zielverarbeitungsergebnis konvergiert (Schritt S209). Falls dies der Fall ist, wird die gegen das Zielverarbeitungsergebnis konvergierte Verarbeitungsbedingung an die Ausgabevorrichtung 114 übergeben und gibt die Ausgabevorrichtung 114 die anfängliche Verarbeitungsbedingung als optimale Verarbeitungsbedingung 102 aus (Schritt S210).
  • Andererseits wird, falls keine Konvergenz auftritt, ein Befehl zum Fortsetzen der Verarbeitung von der Konvergenzbestimmungseinheit 113 zur Zentralverarbeitungseinheit 104 gesendet, addiert die Zentralverarbeitungseinheit 104 einen Satz aus der Verarbeitungsbedingung (dem Eingangsparameterwert) und dem Verarbeitungsergebnis (dem Ausgangsparameterwert (tatsächlichen Wert)) für ein neu gesuchtes Zielverarbeitungsergebnis und dem Zielverarbeitungsergebnis als zusätzliche Lerndaten zum Lerndatensatz der Datenbank 105, so dass der Lerndatensatz aktualisiert wird (Schritt S204).
  • Nachstehend wird der Schätzprozess von der Erzeugung und Aktualisierung des Lerndatensatzes (Schritt S204) bis zur Konvergenzbestimmung (Schritt S209) wiederholt, bis das Verarbeitungsergebnis gegen das Zielverarbeitungsergebnis konvergiert. Auf diese Weise wird die optimale Verarbeitungsbedingung zur Implementation des Zielverarbeitungsergebnisses autonom gesucht.
  • Der Verarbeitungsfluss des gesamten Halbleiterherstellungssystems 10, einschließlich der Verarbeitungsbedingungs-Suchvorrichtung 100 und der Abmessungsmessvorrichtung 200, wurde vorstehend beschrieben.
  • Nachstehend wird beispielhaft ein Fall beschrieben, in dem die Verarbeitungsvorrichtung 111 eine Ätzvorrichtung ist. 17 zeigt ein Beispiel eines Querschnitts-SEM-Bilds, das ein Eingangsdatensatz im Lerndatensatz ist. Die Größe des Bilds ist 1280 x 960 Pixel. Die Probe ist eine Grabenstruktur, in der sich Einheitsmuster von Linien/Zwischenräumen wiederholen, und sie weist drei Gebiete eines Hintergrunds 300, einer Maske 301 und eines Substrats 302 auf. Eine Aufnahmebedingung ist dem unteren linken Teil des Bilds überlagert, und ein Maßstab ist dem unteren rechten Teil des Bilds überlagert.
  • 18 zeigt ein Beispiel eines Abmessungsmesspunkts. In diesem Beispiel weist der Abmessungsmesspunkt fünf Teile auf, nämlich (1) L1: Breite 305 der oberen Maskenfläche, (2) L2: Breite 306 der Maske/Substrat-Grenzfläche, (3) L3: Breite 307 des schmälsten Abschnitts des Substrats, (4) L4: Maskenhöhe 308 und (5) L5: Grabentiefe 309. Die Breite 305 der oberen Maskenfläche ist als Intervall zwischen zwei Spitzenpositionen mit einer konvexen Form definiert. Wenn die Form nur eine Spitzenposition aufweist, ist die Breite auf 0 gesetzt. Sieben Punkte A bis G in der Figur sind für die Abmessungsmessung verwendete Merkmalspunkte auf einer Begrenzungslinie, und es werden Punkte verwendet, die nur anhand Begrenzungsliniendaten eindeutig definiert werden können. Beispielsweise sind A und B Spitzenpunkte auf der oberen Maskenfläche. Die Definition der Merkmalspunkte A bis G und die Entsprechung zwischen den Abmessungen L1 bis L5 und den Merkmalspunkten A bis G (L1: A, B, L2: C, D usw.) werden vom Benutzer durch die Ein- und Ausgabevorrichtung 206 eingegeben und in der Datenbank 205 gespeichert. Insbesondere wird ein die Definition des Merkmalspunkts und die Definition der Abmessung beschreibendes Skript gespeichert. Die Anzahl und die Positionen der Merkmalspunkte und die Messabmessungen werden entsprechend der Struktur des Messziels geeignet festgelegt.
  • 19 ist ein Diagramm, das die in Annotationsdaten, die von den Annotationsdaten, welche den Ausgangsdatensatz im Lerndatensatz bilden, dem Objekterkennungsmodell gegeben sind, beschriebene Definition der Koordinaten des Begrenzungskästchens zeigt. Ein Label-Name „Muster“ ist für ein durch eine Maske und einen Teil des Substrats gebildetes Gebiet, wobei es sich um eine in der Zeichnung dargestellte Einheitsstruktur einer Linien-/Zwischenraumwiederholung, die von einem Rahmen (einem Begrenzungskästchen) umgeben ist, handelt, definiert. Bei diesem Beispiel hat das Label nur einen Typ und ist die Label-Nummer 0. Es gibt in 19 fünf Muster. Die Koordinaten der Begrenzungskästchen haben im oberen linken Teil des Bilds den Ursprung, eine in horizontaler Richtung verlaufende X-Achse und eine in vertikaler Richtung verlaufende Y-Achse. Die Begrenzung der Begrenzungskästchen in Y-Achsenrichtung ist mit einem Spielraum von einigen Pixeln auf jeweilige Positionen gelegt, so dass der obere Teil der Maske und der Grabenboden ganz eingeschlossen sind. Weil das Begrenzungskästchen rechteckig ist, können zwei Koordinaten im oberen linken und unteren rechten Teil angegeben werden, um die Position zu spezifizieren.
  • 20 ist ein Ausschnitt eines Beispiels zur Beschreibung der 19 entsprechenden Annotationsdaten. Es sind nur Hauptbestandteile extrahiert. Wenngleich die Daten in diesem Beispiel in einem XML-Format beschrieben sind, kann ein beliebiges vom verwendeten Objekterkennungsmodell angenommenes Format verwendet werden. Der Name eines eine Bilddatei speichernden Verzeichnisses ist in Tags <Verzeichnis> bis </Verzeichnis> beschrieben, und der Name der Bilddatei ist in Tags <Dateiname> bis </Dateiname> beschrieben. Die Tags <Objekt> bis </Objekt> sind Stellen, an denen sich auf das Begrenzungskästchen beziehende Informationen beschrieben sind, und sie wiederholen sich mit der Anzahl der im Bild enthaltenen Begrenzungskästchen. Die Tags <Name> bis </Name> in den Tags <Objekt> bis </Objekt> sind Stellen, an denen Label-Namen spezifiziert sind. Vier in Tags <Begrenzungskästchen> bis </Begrenzungskästchen> beschriebene Zahlenwerte sind die Koordinaten des oberen linken und des unteren rechten Punkts eines ersten Begrenzungskästchens. Annotationsdaten können manuell oder unter Verwendung eines erlernten Objekterkennungsmodells erzeugt werden.
  • 21 zeigt ein Beispiel der Annotationsdaten für ein semantisches Segmentierungsmodell unter den Annotationsdaten, die einen Ausgangsdatensatz im Lerndatensatz bilden. Die Annotationsdaten können unter Verwendung zweckgebundener Software manuell erzeugt werden oder unter Verwendung des erlernten semantischen Segmentierungsmodells erzeugt werden. Die Daten sind ein für jedes Gebiet farbcodiertes Bild. Hier weist das Gebiet jede Schicht, die einen Querschnitt der zu messenden Halbleitervorrichtung bildet, und einen vom Querschnitt der Halbleitervorrichtung verschiedenen Hintergrund auf. Dieses Beispiel weist drei Gebiete eines Hintergrunds 310, einer Maske 311 als jeweilige Schicht, die den Querschnitt der Halbleitervorrichtung bildet, und eines Substrats 312 auf. Die Label-Namen der drei Gebiete sind „Hintergrund“, „Maske“ und „Substrat“, und die Farben sind schwarz, grau und weiß.
  • 22 zeigt eine Entsprechung zwischen den Label-Namen, den Label-Nummern und den Farben, die in der Datenbank 205 gespeichert ist. Wenngleich die jedem Label gegebene Label-Nummer und die diesem gegebene Farbe beliebig sind, müssen die Label-Nummer und die Farbe in der Abmessungsmessvorrichtung 200 festgelegt werden.
  • 23 zeigt ein Beispiel einer bei der Ausführung des Lernschritts auf der Ein- und Ausgabevorrichtung 206 angezeigten GUI-Bildschirmdarstellung. Die Bildschirmdarstellung weist ein Eingangsdatenfenster 323, ein Annotationsdatenfenster 331 und ein Endgerätefenster 339 auf. Im Eingangsdatenfenster 323 wird ein Verzeichnis, worin der Eingangsdatensatz des Lerndatensatzes gespeichert ist, durch eine Ladetaste 320 ausgewählt. Eine im Eingangsdatenfenster 323 anzuzeigende Bilddatei wird durch eine Wähltaste 321 ausgewählt. Ein Anzeigeergebnis wird durch eine Löschtaste 322 gelöscht. Der ausgewählte Verzeichnisname und der ausgewählte Dateiname werden in den Zellen 324 und 325 dargestellt. Das ausgewählte Bild wird im Bildfenster 326 dargestellt.
  • Im Annotationsdatenfenster 331 wird das semantische Segmentierungsmodell oder das Objekterkennungsmodell durch eine Modelltaste 328 ausgewählt. Der im Annotationsdatenfenster 331 dargestellte Datentyp hängt vom ausgewählten Modell ab. Das die Annotationsdaten aufweisende Verzeichnis wird auch automatisch entsprechend dem Modell ausgewählt. 23 zeigt ein Beispiel eines Falls, in dem das semantische Segmentierungsmodell ausgewählt wird. Eine in einem Fenster 334 darzustellende Probe wird durch eine Wähltaste 329 spezifiziert. Der Verzeichnisname und der Dateiname der ausgewählten Probe werden in den Zellen 332 und 333 dargestellt. Ein Annotationsbild wird im Fenster 334 dargestellt, und eine Entsprechungstabelle der Label-Namen, der Label-Nummern und der Farben wird in einer Tabelle 335 dargestellt.
  • Im Endgerätefenster 339 wird das Erlernen des von der Modelltaste 328 ausgewählten Modells durch eine Starttaste 336 eingeleitet. Im Endgerätefenster 339 werden der Fortschritt der Berechnung und das Endergebnis als Nachrichten dargestellt. Eine Stopptaste 337 kann zur Unterbrechung der Berechnung, selbst wenn diese im Verlauf ist, verwendet werden. Ein erlerntes Modell als Berechnungsergebnis wird automatisch gespeichert.
  • 24 zeigt ein Beispiel eines Testbilds, dessen Abmessung zu messen ist. Wie vorstehend beschrieben, ist im Testbild eine Kontur einer unnötigen tiefen Struktur dargestellt. Die Struktur ist bei der Abmessungsmessung zu ignorieren.
  • 25 zeigt ein durch Eingeben des in 24 dargestellten Testbilds in das erlernte Objekterkennungsmodell und Ausführen der Vorhersage erhaltenes Ergebnis. Zusammen mit den Label-Namen der erkannten Objekte werden Begrenzungskästchenkoordinaten durch schwarze Rahmen angegeben. Beim Beispiel aus 25 werden vier Muster erkannt.
  • 26 zeigt Koordinatenwertdaten der 25 entsprechenden Begrenzungskästchen, die nach der Vorhersage automatisch in der Datenbank 205 gespeichert werden.
  • 27 zeigt ein durch Eingeben des in 24 dargestellten Testbilds in das erlernte semantische Segmentierungsmodell und Ausführen der Vorhersage erhaltenes Ergebnis. Die Farbe jedes Gebiets folgt der in 22 festgelegten Entsprechung, so dass der Hintergrund schwarz ist, die Maske grau ist und das Substrat weiß ist.
  • Weil die Koordinaten der Begrenzungslinien der Gebiete aus 27 erhalten werden, werden die Begrenzungslinienkoordinaten für jedes Begrenzungskästchen unter Verwendung der Koordinatenwerte der in 26 dargestellten Begrenzungskästchen ausgeschnitten. Für die Abmessungsmessung benötigte Koordinaten der Merkmalspunkte A bis G werden auf der Grundlage der Koordinaten der ausgeschnittenen Begrenzungslinie jedes Begrenzungskästchens erhalten, und es werden die Abmessungen L1 bis L5 erhalten. Auf diese Weise wird die Abmessung automatisch für jedes Muster auf der Grundlage des Eingangsbilds gemessen.
  • 28 zeigt ein Beispiel, bei dem die gemessenen Abmessungswerte auf dem ursprünglichen Eingangsbild dargestellt werden und die erkannten Begrenzungskästchenpositionen auch als Rechtecke dargestellt sind.
  • 29 zeigt Messergebnisse aus 28. Bei den fünf Abmessungen L1 bis L5 werden auch statistische Werte (Durchschnittswert, Standardabweichung) berechnet und zusätzlich zu den Werten für jedes Muster dargestellt. Die Ergebnisse werden automatisch in der Datenbank 205 gespeichert, und die Durchschnittswerte werden an die Ein- und Ausgabevorrichtung 206 ausgegeben.
  • 30 zeigt ein Beispiel einer auf der Ein- und Ausgabevorrichtung 206 dargestellten GUI-Bildschirmdarstellung bei der Ausführung der Vorhersage- und Messschritte. Die Bildschirmdarstellung weist ein Eingangsdatenfenster 345 und ein Vorhersage- und Messergebnisfenster 353 auf. Im Eingangsdatenfenster 345 wird ein eine Entsprechung zwischen den Merkmalspunkten und der Abmessung definierendes Skript durch eine Definiertaste 340 gelesen. Die Lesedefinition wird in einer Definitionstabelle 349 dargestellt. Als nächstes wird durch nacheinander einzeln erfolgendes Auswählen von Testbildern durch eine Manuell-Taste 341 ausgewählt, ob eine Vorhersage und eine Messung auszuführen sind, oder es wird durch eine Batch-Taste 342 ein Verzeichnis spezifiziert, das die Testbilder aufweist, und spezifiziert, dass eine Vorhersage und Messung für alle Bilder im Verzeichnis auf einmal auszuführen sind. Indem bewirkt wird, dass der Verzeichnisname mit der Vergrößerung des Bilds übereinstimmt, können Informationen über die Vergrößerung anhand des Verzeichnisnamens erhalten werden. Der ausgewählte Verzeichnisname und der ausgewählte Dateiname werden in den Zellen 346 und 347 dargestellt. Das ausgewählte Testbild wird in einem Bildfenster 350 dargestellt. Wenn der Batch ausgewählt wird, werden der Dateiname und das Bild eines ersten Testbilds in der Zelle 347 und im Bildfenster 350 dargestellt. Die Vorhersage und die Abmessungsmessung werden unter Verwendung zweier erlernter Modelle durch eine Starttaste 343 ausgeführt. Ein Berechnungsergebnis wird automatisch gespeichert. Ein Anzeigeergebnis wird durch eine Löschtaste 344 gelöscht.
  • Im Vorhersage- und Messergebnisfenster 353 wird ein Originalbild, dessen Ergebnis darzustellen ist, durch eine Ladetaste 351 ausgewählt. Der Verzeichnisname und der Dateiname des ausgewählten Bilds werden in den Zellen 354 und 355 dargestellt. Ein Ergebnis der semantischen Segmentierung wird in einem Fenster 356 dargestellt, und ein Objekterkennungsergebnis wird in einem Fenster 357 dargestellt. In einem Endergebnisfenster 358 wird ein Bild dargestellt, bei dem ein Abmessungswert im ursprünglichen Bild dargestellt ist, und werden ein gemessener Abmessungswert und ein statistischer Wert in einer Zahlentabelle 359 dargestellt.
  • 31 zeigt ein Beispiel einer auf der Ein- und Ausgabevorrichtung 206 gezeigten GUI-Bildschirmdarstellung, wenn ein Suchschritt ausgeführt wird, bei dem eine Form, die einer gewünschten Abmessung nahekommt, aus der Datenbank 205 gesucht wird, und es sind darin ein Zielfenster 360 und ein Suchergebnisfenster 363 enthalten. Im Zielfenster 360 wird ein Zielabmessungswert in eine Zielstrukturzelle 361 eingegeben. Die Definitionen der Abmessungen L1 bis L5 sind in einem Definitionsfenster 362 dargestellt.
  • Im Suchergebnisfenster 363 wird das Suchen durch eine Suchtaste 364 ausgeführt. Suchergebnisse werden in ansteigender Reihenfolge des Fehlers sortiert und angezeigt, und ein Verzeichnisname 366, ein Dateiname 367, ein einen Abmessungswert beschreibendes Bild 368 und ein Abmessungsdurchschnittswert 369 werden dargestellt.
  • [Sechste Ausführungsform]
  • Wenngleich gemäß der fünften Ausführungsform das semantische Segmentierungsmodell als erstes Bilderkennungsmodell verwendet wird und das Objekterkennungsmodell als zweites Bilderkennungsmodell verwendet wird, ist das Abmessungsmessverfahren nicht auf die Kombination beschränkt. Gemäß einer sechsten Ausführungsform wird ein Verfahren beschrieben, bei dem zwei Typen semantischer Segmentierungsmodelle verwendet werden. Gemäß der sechsten Ausführungsform werden ein erstes semantisches Segmentierungsmodell zur Erkennung einer Konturlinie und ein zweites semantisches Segmentierungsmodell zur Erkennung eines Merkmalspunkts verwendet. Gemäß der sechsten Ausführungsform wird hauptsächlich eine Merkmalspunktextraktion unter Verwendung eines Bilderkennungsmodells beschrieben, und es wird auf die Beschreibung der gleichen Punkte wie bei der ersten Ausführungsform verzichtet.
  • 32 ist ein Flussdiagramm zur Messung einer Abmessung auf der Grundlage einer Bildeingabe durch einen vorhergehenden Lernschritt, die von der Abmessungsmessvorrichtung 200 ausgeführt wird.
  • Zuerst wird der für die Abmessungsmessung benötigte Merkmalspunkt 209 definiert und durch die Ein- und Ausgabevorrichtung 206 in der Datenbank 205 gespeichert (Schritt S300). Diese Verarbeitung erfolgt vor einem Lernschritt.
  • Als nächstes wird für das semantische Segmentierungsmodell (das erste Bilderkennungsmodell) ein Annotationsbild erzeugt, das in eine für die Abmessungsmessung benötigte Konturlinie und andere Gebiete unterteilt ist, und wird für das zweite semantische Segmentierungsmodell (das zweite Bilderkennungsmodell) ein Annotationsbild erzeugt, das in für die Abmessungsmessung benötigte Merkmalspunkte und andere Gebiete unterteilt ist, und die Bilder werden durch die Ein- und Ausgabevorrichtung 206 eingegeben (Schritt S302).
  • Als nächstes übergibt die Zentralverarbeitungseinheit 201 den Lerndatensatz an die Modelllerneinheit 202 und führt die Modelllerneinheit 202 das Erlernen der Modelle aus (Schritt S303). In der folgenden Beschreibung wird ein Fall beschrieben, bei dem ein neuronales Netz mit einer faltenden Schicht als Modell verwendet wird, wobei auch ein Maschinenlernmodell in der Art eines Entscheidungsbaums verwendet werden kann.
  • Als nächstes wird ein Testbild, dessen Abmessung zu messen ist, aus der Beurteilungsvorrichtung 112 ausgelesen (Schritt S304). Die Zentralverarbeitungseinheit 201 übergibt das Bild an die Modelllerneinheit 202, führt eine Schätzung durch die Modellschätzeinheit 203 aus (Schritt S305) und erhält zwei Typen semantischer Segmentierungsbilder (Schritt S306).
  • Als nächstes wird die Entsprechungsbeziehung 209 zwischen Merkmalspunkten und Abmessungsmesspunkten durch die Ein- und Ausgabevorrichtung 206 eingegeben und in der Datenbank 205 gespeichert (Schritt S301).
  • Als nächstes erhält die Abmessungsmesseinheit 204 Merkmalspunktkoordinaten auf der Konturlinie auf der Grundlage der beiden Typen semantischer Segmentierungsbilder, berechnet eine Hauptabmessung und erhält Koordinatendaten der gesamten Konturlinie (Schritt S307). Anschließend wird die erhaltene Abmessung in eine tatsächliche Abmessung umgewandelt (Schritt S308). Der gemessene Abmessungswert wird an die Ein- und Ausgabevorrichtung 206 ausgegeben, und die Koordinatendaten der Konturlinie werden in der Datenbank 205 gespeichert (Schritt S309).
  • Ferner werden, wenn es erwünscht ist, Verarbeitungsformen zu vergleichen, zwei zu vergleichende Proben spezifiziert (Schritt S310). Anschließend wird festgestellt, ob es eine Spezifikation eines Formvergleichs gibt (Schritt S311). Falls es keine Spezifikation gibt, wird die Abmessungsmessverarbeitung beendet (Schritt S312). Falls eine Spezifikation vorliegt, werden die in der Datenbank 205 gespeicherten Konturliniendaten und Abmessungswerte gelesen und wird das Vergleichsergebnis an die Ein- und Ausgabevorrichtung 206 ausgegeben (Schritt S313). Dadurch wird die Verarbeitung beendet (Schritt S314).
  • Nachstehend wird beispielhaft ein Fall beschrieben, in dem die Verarbeitungsvorrichtung 111 eine Ätzvorrichtung ist. 33 zeigt ein Beispiel von Annotationsdaten, die eine Konturlinie lehren, welche einem Eingangsdatenbild des Lerndatensatzes aus 17 entspricht. Das Gebiet weist zwei Gebiete aus einem Hintergrund 400 und einer Konturlinie 401 auf. Die Label-Namen sind „Hintergrund“ und „Kontur“, und die Label-Nummern sind 0 und 1. 34 zeigt eine Entsprechung zwischen einem Label-Namen, einer Label-Nummer und einer Farbe. Wenngleich die jedem Label gegebene Label-Nummer und die diesem gegebene Farbe beliebig sind, müssen die Label-Nummer und die Farbe in der Abmessungsmessvorrichtung 200 festgelegt werden.
  • 35 zeigt ein Beispiel von Annotationsdaten, die dem Eingangsdatenbild des Lerndatensatzes aus 17 entsprechende Positionen von Merkmalspunkten lehren. Von den sieben in 18 als Merkmalspunkte dargestellten Punkten A bis G sind vier Punkte A411, C412, E413 und G414 als Label festgelegt und ist 35 ein für jedes der fünf Label farbcodiertes Bild einschließlich des Hintergrunds 410. Weil andere drei Merkmalspunkte B, D und F unter Annahme einer Symmetrie aus A, C und E erhalten werden, sind die drei Merkmalspunkte B, D und F nicht im Label enthalten. Wie nachstehend beschrieben wird, ist es durch Erhalten der Merkmalspunkte A, C und E auf der Grundlage der Merkmalspunkte B, D, F und der Konturlinie möglich, zu gewährleisten, dass die Merkmalspunkte B, D und F und die Merkmalspunkte A, C und E Merkmalspunkte für ein Einheitsmuster ohne eine visuelle Beobachtung sind. 36 zeigt eine Entsprechung zwischen einem Label-Namen, einer Label-Nummer und einer Farbe. Wenngleich die jedem Label gegebene Label-Nummer und die diesem gegebene Farbe beliebig sind, müssen die Label-Nummer und die Farbe in der Abmessungsmessvorrichtung 200 festgelegt werden.
  • 37 zeigt ein Beispiel einer bei der Ausführung des Lernschritts auf der Ein- und Ausgabevorrichtung 206 angezeigten GUI-Bildschirmdarstellung. Die Bildschirmdarstellung weist das Eingangsdatenfenster 323, das Annotationsdatenfenster 331 und das Endgerätefenster 339 auf. Im Eingangsdatenfenster 323 wird durch die Ladetaste 320 ein Verzeichnis ausgewählt, in dem eine Eingangsbilddatei gespeichert ist. Eine darzustellende Bilddatei wird durch die Wähltaste 321 ausgewählt. Ein Anzeigeergebnis wird durch die Löschtaste 322 gelöscht. Der ausgewählte Verzeichnisname und der ausgewählte Dateiname werden in den Zellen 324 und 325 dargestellt. Das ausgewählte Bild wird im Bildfenster 326 dargestellt.
  • Im Annotationsdatenfenster 331 wird entweder das semantische Segmentierungsmodell für die Konturlinie (das erste semantische Segmentierungsmodell) oder das semantische Segmentierungsmodell für Merkmalspunkte (das zweite semantische Segmentierungsmodell) durch eine Modelltaste 415 ausgewählt. Der im Annotationsdatenfenster 331 dargestellte Datentyp hängt vom ausgewählten Modell ab. Das die Annotationsdaten aufweisende Verzeichnis wird auch automatisch entsprechend dem Modell ausgewählt. 37 zeigt ein Beispiel eines Falls, in dem das semantische Segmentierungsmodell für die Konturlinie ausgewählt wird. Eine im Fenster darzustellende Probe wird durch die Wähltaste 329 spezifiziert. Der Verzeichnisname und der Dateiname der ausgewählten Probe werden in den Zellen 324 und 325 dargestellt. Ein Annotationsbild wird im Fenster 334 dargestellt, und eine Entsprechungstabelle eines Label-Namens, einer Label-Nummer und einer Farbe wird in der Tabelle 335 dargestellt.
  • Im Endgerätefenster 339 wird das Erlernen des von der Modelltaste 415 ausgewählten Modells durch die Starttaste 336 eingeleitet. Im Endgerätefenster 339 werden der Fortschritt der Berechnung und ein Endergebnis als Nachrichten dargestellt. Die Stopptaste 337 kann zur Unterbrechung der Berechnung, selbst wenn diese im Verlauf ist, verwendet werden. Ein Modellparameter als Berechnungsergebnis wird automatisch gespeichert.
  • 38 zeigt ein Bild des Erkennungsergebnisses der durch Eingeben des in 24 dargestellten Testbilds in das erste erlernte semantische Segmentierungsmodell und Ausführen der Vorhersage erhaltenen Konturlinie. Gleichzeitig werden die Koordinaten der Konturlinie erhalten.
  • 39 zeigt ein Bild der Erkennungsergebnisse der durch Eingeben des in 24 dargestellten Testbilds in das zweite erlernte semantische Segmentierungsmodell und Ausführen der Vorhersage erhaltenen Merkmalspunkte A, C, E und G. Gleichzeitig werden auch die Koordinaten der Merkmalspunkte erhalten. Weil sich die Koordinaten der Merkmalspunkte nicht notwendigerweise auf der in 38 erhaltenen Konturlinie befinden, werden Punkte auf der Konturlinie in 38, die den in 39 erhaltenen Merkmalspunktkoordinaten am nächsten liegen, als Merkmalspunktkoordinaten verwendet.
  • 40 ist ein Diagramm, das ein Verfahren zum Erhalten der entsprechenden Merkmalspunkte B, D und F anhand der Merkmalspunkte A, C und E zeigt. Ein entsprechender Punkt weist die gleiche Y-Koordinate wie ein ursprünglicher Punkt und die kleinste Differenz der X-Koordinate auf, so dass es sich dabei um einen Punkt auf der nächstgelegenen Konturlinie handelt. Gemäß der fünften Ausführungsform werden die Begrenzungslinienkoordinaten für die jeweiligen Muster unterteilt. Gemäß der sechsten Ausführungsform ist die Unterteilung nicht erforderlich, weil die Koordinaten der beiden ein Paar bildenden Punkte bekannt sind. Durch die Definition der Koordinaten der erhaltenen sieben Merkmalspunkte und der aus der Datenbank 205 abgerufenen Merkmalspunkte und Abmessungen wird eine vorgegebene Abmessung berechnet. Auf diese Weise wird die Abmessung automatisch anhand des Eingangsbilds gemessen.
  • 41 zeigt ein Beispiel einer auf der Ein- und Ausgabevorrichtung 206 dargestellten GUI-Bildschirmdarstellung bei der Ausführung der Vorhersage- und Messschritte. Die Bildschirmdarstellung weist das Eingangsdatenfenster 345 und das Vorhersage- und Messergebnisfenster 353 auf. Im Eingangsdatenfenster 345 wird ein Skript, das eine Entsprechung zwischen dem Merkmalspunkt und der Abmessung definiert, durch die Definiertaste 340 ausgewählt und gelesen. Die gelesene Definition wird in der Definitionstabelle 349 dargestellt. Als nächstes wird durch nacheinander einzeln erfolgendes Auswählen der Testbilder durch die Manuell-Taste 341 ausgewählt, ob eine Vorhersage und eine Messung auszuführen sind, oder es wird durch die Batch-Taste 342 ein Verzeichnis spezifiziert, das die Testbilder aufweist, und spezifiziert, dass eine Vorhersage und Messung für alle Bilder im Verzeichnis auf einmal auszuführen sind. Indem bewirkt wird, dass der Verzeichnisname mit der Vergrößerung des Bilds übereinstimmt, können Informationen über die Vergrößerung anhand des Verzeichnisnamens erhalten werden. Der ausgewählte Verzeichnisname und der ausgewählte Dateiname werden in den Zellen 346 und 347 dargestellt. Das ausgewählte Testbild wird im Bildfenster 350 dargestellt. Wenn der Batch ausgewählt wird, werden der Dateiname und das Bild eines ersten Testbilds in der Zelle 347 und im Bildfenster 350 dargestellt. Die Vorhersage und die Abmessungsmessung werden unter Verwendung zweier erlernter Modelle durch die Starttaste 343 ausgeführt. Ein Berechnungsergebnis wird automatisch gespeichert. Ein Anzeigeergebnis wird durch die Löschtaste 344 gelöscht.
  • Im Vorhersage- und Messergebnisfenster 353 wird ein Originalbild, dessen Ergebnis darzustellen ist, durch die Ladetaste 351 ausgewählt. Der Verzeichnisname und der Dateiname des ausgewählten Bilds werden in den Zellen 354 und 355 dargestellt. Das Ergebnis der semantischen Segmentierung für die Konturlinie wird in einem Fenster 416 dargestellt, und das Ergebnis der semantischen Segmentierung für den Merkmalspunkt wird in einem Fenster 417 dargestellt. Im Endergebnisfenster 358 wird ein Bild dargestellt, bei dem ein Abmessungswert im ursprünglichen Bild dargestellt ist, und werden ein gemessener Abmessungswert und ein statistischer Wert in der Zahlentabelle 359 dargestellt.
  • 42 zeigt ein Beispiel einer GUI-Bildschirmdarstellung, die an der Ein- und Ausgabevorrichtung 206 dargestellt wird, wenn ein Vergleichsschritt ausgeführt wird, bei dem die Formen zweier Bilder verglichen werden. Die Bildschirmdarstellung weist ein Eingangsdatenfenster 423 und ein Vergleichsergebnisfenster 436 auf. Im Eingangsdatenfenster 423 wird ein erstes zu vergleichendes Bild durch eine Laden-1-Taste 420 ausgewählt und wird ein zweites Bild durch eine Laden-2-Taste 421 ausgewählt. Der Verzeichnisname und der Dateiname des ausgewählten ersten Bilds werden in den Zellen 424 und 425 dargestellt, und der Verzeichnisname und der Dateiname des zweiten ausgewählten Bilds werden in den Zellen 426 und 427 dargestellt. Die beiden ausgewählten Bilder werden in den Bildfenstern 428 und 429 dargestellt. Für die beiden ausgewählten Bilder extrahierte Konturlinienbilder werden aus der Datenbank 205 gelesen und in den Konturlinienfenstern 430 und 431 dargestellt.
  • Das Vergleichsergebnisfenster 436 stellt ein Fenster 437, worin Konturlinien überlagert sind, und eine Tabelle 438, die den Durchschnittswert der Abmessungswerte zweier Bilder und ihre Differenz zeigt, dar. Eine Autotaste 432 dient dem automatischen Einstellen der beiden Konturlinien 430 und 431, so dass die oberen Maskenflächen in vertikaler Richtung übereinstimmen und die Zentren der Gräben in horizontaler Richtung übereinstimmen. Wenn die automatische Einstellung fehlschlägt oder eine manuelle Einstellung erwünscht ist, drückt der Benutzer eine Manuell-Taste 433 und zieht das Bild mit einer Maus, um die Position einzustellen. In der Tabelle 438 werden die für die beiden Bilder gemessenen Abmessungswerte aus der Datenbank 205 gelesen, und ihre Differenzen werden berechnet und dargestellt. Ein überschriebenes Konturlinienbild und der Zahlenwert der Tabelle werden durch eine Speichertaste 434 in der Datenbank 205 gespeichert.
  • Die Erfindung ist nicht auf die vorstehend beschriebenen Ausführungsformen beschränkt und schließt verschiedene Modifikationen und gleichwertige Konfigurationen ein, die innerhalb des Grundgedankens der Ansprüche liegen. Beispielsweise wurden die vorstehend beschriebenen Ausführungsformen detailliert beschrieben, um die Erfindung einfach verständlich zu machen, und ist die Erfindung nicht notwendigerweise auf jene beschränkt, die alle beschriebenen Konfigurationen aufweisen.
  • Ein Teil einer Konfiguration einer bestimmten Ausführungsform kann durch eine Konfiguration einer anderen Ausführungsform ersetzt werden. Eine Konfiguration einer anderen Ausführungsform kann zu einer Konfiguration einer bestimmten Ausführungsform hinzugefügt werden. Ferner kann eine andere Konfiguration zu einem Teil einer Konfiguration jeder Ausführungsform hinzugefügt werden, daraus entnommen werden oder dadurch ersetzt werden. Beispielsweise wurde das semantische Segmentierungsmodell gemäß der fünften Ausführungsform als ein Beispiel der Ausgabe eines Bilds beschrieben, wobei jede den Querschnitt der Halbleitervorrichtung bildende Schicht als Gebiet farbcodiert ist. Gemäß der sechsten Ausführungsform kann jedoch das Merkmalspunkte ausgebende semantische Segmentierungsmodell verwendet werden. In diesem Fall ist es jedoch erforderlich, anders als beim Beispiel gemäß der sechsten Ausführungsform alle Merkmalspunkte (Merkmalspunkte A bis G beim Beispiel gemäß der sechsten Ausführungsform) auszugeben.
  • [Siebte Ausführungsform]
  • Ein Halbleiterherstellungssystem, woran eine Bilderzeugungsvorrichtung angebracht ist, kann mit der gleichen Konfiguration versehen werden wie gemäß der fünften Ausführungsform. Insbesondere kann die in den 10 und 12 dargestellte Abmessungsmessvorrichtung 200 durch eine Bilderzeugungsvorrichtung ersetzt werden. Eine Bilderzeugungsvorrichtung 2000 kann dafür ausgelegt werden, eine Verarbeitung in der Art einer Erzeugung eines Strukturbilds und einer Erzeugung eines Erzeugungsbilds (unter Verwendung eines Referenzbilds, falls erforderlich) anhand des Strukturbilds, wie in den Ausführungsformen eins bis vier beschrieben, auszuführen.
  • 43 zeigt ein Beispiel einer logischen Konfiguration der Bilderzeugungsvorrichtung 2000. Die Bilderzeugungsvorrichtung 2000 kann durch einen oder mehrere Computer gebildet sein, die einen oder mehrere Prozessoren und eine oder mehrere Speichervorrichtungen aufweisen, wie bei der in 12 dargestellten Abmessungsmessvorrichtung 200. Wenn ein oder mehrere Prozessoren gemäß einem Programm arbeiten, können verschiedene Funktionen und Prozeduren der Bilderzeugungsvorrichtung 2000 implementiert werden. In der Bilderzeugungsvorrichtung 2000 ist die Eingabe von der Beurteilungsvorrichtung 112 unnötig.
  • Ähnlich der Abmessungsmessvorrichtung 200 weist die Bilderzeugungsvorrichtung 2000 die Zentralverarbeitungseinheit 201, die Modelllerneinheit 202 und die Datenbank 205 auf. Eine Bilderzeugungseinheit 2040 ist an Stelle eines Abschnitts, der sowohl die Modellschätzeinheit 203 als auch die Abmessungsmesseinheit 204 der Abmessungsmessvorrichtung 200 aufweist, bereitgestellt. Die Bilderzeugungseinheit 2040 erzeugt ein Bild, das ähnlich einem tatsächlichen Beobachtungsbild, welches einem Strukturbild entspricht, geschätzt wird. Eine Funktion der Modellschätzeinheit 203 kann von einer Funktion der Bilderzeugungseinheit 2040 getrennt werden.
  • Wenn ein Lerndatensatz als Ersatz für den Teil verwendet wird, der sowohl die Modellschätzeinheit 203 als auch die Abmessungsmesseinheit 204 der Abmessungsmessvorrichtung 200 aufweist, verwendet die Bilderzeugungseinheit 2040 einen Lerndatensatz, der einen Datensatz eines Strukturbilds und eines tatsächlichen Bilds aufweist, an Stelle des Lerndatensatzes 209.
  • Wie in der ersten Ausführungsform beschrieben, ist das Lernen des Bilderzeugungsmodells 1000 mit der Modelllerneinheit 202 nicht erforderlich, wenn das erlernte Bilderzeugungsmodell 1000 verwendet wird. Das Bilderzeugungsmodell 1000 kann durch Speichern der erlernten Modelldaten oder einer ausführbaren Datei in der Datenbank 205 oder einem externen Datenspeicherbereich und Laden der Daten des erlernten Modells oder der ausführbaren Datei betrieben werden.
  • Zusätzlich kann ein Benutzer, wenn der Lerndatensatz für das Bilderzeugungsmodell 1000 vorliegt, den Lerndatensatz vorab in der Datenbank 205 speichern und kann die Modelllerneinheit 202 das erlernte Bilderzeugungsmodell 1000 unter Verwendung des Lerndatensatzes bilden.
  • Ein Referenzbild wird in der Datenbank 205 oder im externen Datenspeicherbereich gespeichert und während der Bilderzeugung durch das Bilderzeugungsmodell 1000 verwendet.
  • Die Bilderzeugungsvorrichtung 2000 empfängt ein Strukturbild oder ein Strukturbild und ein Referenzbild, die beispielsweise durch die Ein- und Ausgabevorrichtung 206 eingegeben werden, gibt diese Bilder in das Bilderzeugungsmodell 1000 ein und gibt ein Erzeugungsbild aus, speichert das Erzeugungsbild in der Datenbank 205 und gibt das Erzeugungsbild an die Ein- und Ausgabevorrichtung 206 aus.
  • Die Ein- und Ausgabevorrichtung 206 weist eine Ein- und Ausgabeschnittstelle in der Art einer GUI und eine Speichermedium-Lesevorrichtung in der Art eines Kartenlesers auf und gibt einen Lerndatensatz in die Bilderzeugungsvorrichtung 2000 ein.
  • Die Ein- und Ausgabevorrichtung 206 umfasst beispielsweise eine Tastatur, eine Maus, einen Bildschirm, ein Berührungsfeld oder die Speichermedium Lesevorrichtung. Das von der Bilderzeugungsvorrichtung 2000 übergebene Erzeugungsbild wird dem Benutzer gezeigt. Wenn das Bild dem Benutzer gezeigt wird, führt die Ein- und Ausgabevorrichtung 206 beispielsweise die Darstellung auf einem Bildschirm oder das Schreiben in eine Datei aus.
  • Die Bilderzeugungsvorrichtung 2000 erhält das Strukturbild oder das Strukturbild und das Referenzbild beispielsweise durch die Ein- und Ausgabevorrichtung 206 und erzeugt das Erzeugungsbild auf der Grundlage der Bilder und gibt es an die Ein- und Ausgabevorrichtung 206 aus.
  • Die Bilderzeugungsvorrichtung 2000 weist den Prozessor 116, die Kommunikationsschnittstelle 115, den ROM 117 und den RAM 118 auf. Die Kommunikationsschnittstelle 115 verbindet den Prozessor 116 und die externe Ein- und Ausgabevorrichtung 206. Der Prozessor 116 verbindet die Kommunikationsschnittstelle 115, den ROM 117 und den RAM 118. Ein durch den Prozessor 116 ausgeführtes Verarbeitungsprogramm ist im ROM 117 gespeichert. Lerndaten, ein Lernmodell, ein Strukturbild, ein Referenzbild und dergleichen werden im RAM 118 gespeichert.
  • Die Datenbank 205 wird im ROM 117 und im RAM 118 gespeichert, und die Modelllerneinheit 202 und die Bilderzeugungseinheit 2040 können durch den Prozessor 116 implementiert werden, der entsprechend im ROM 117 und im RAM 118 gespeicherten Programmen und Parametern arbeitet.
  • Die in der Bilderzeugungsvorrichtung 2000 verwendete Konfiguration des Bilderzeugungsmodells gleicht der beispielsweise mit Bezug auf 13 beschriebenen Konfiguration. Im Bilderzeugungsmodell ist jedes Pixel von Strukturbilddaten eine Eingabe und ist jedes Pixel von Erzeugungsbilddaten eine Ausgabe. Wenngleich 13 ein Beispiel zeigt, bei dem das neuronale Netz 20 verwendet wird, ist die Erfindung nicht darauf beschränkt, und es kann auch ein Maschinenlernmodell in der Art eines Entscheidungsbaums verwendet werden.
  • Das Halbleiterherstellungssystem 10 kann die Abmessungsmessvorrichtung 200 und die Bilderzeugungsvorrichtung 2000 aufweisen. Nachdem das Strukturbild und der Datensatz des Erzeugungsbilds durch die Bilderzeugungsvorrichtung 2000 in der Datenbank gespeichert wurden, kann das Lernmodell der Abmessungsmessvorrichtung 200 gebildet werden und kann die Abmessungsmessung unter Verwendung der Daten als Lerndaten ausgeführt werden. Ein Teil der Funktionen der Bilderzeugungsvorrichtung 2000, der Abmessungsmessvorrichtung 200 und der Verarbeitungsbedingungs-Suchvorrichtung 100 oder all diese Funktionen können in eine andere Vorrichtung aufgenommen werden.
  • 44 ist ein Flussdiagramm einer von der Bilderzeugungsvorrichtung 2000 ausgeführten Ausgabe eines Erzeugungsbilds unter Verwendung eines Strukturbilds als Eingabe.
  • Wenn ein Bilderzeugungsmodell erlernt wird, erzeugt der Benutzer vorab einen in die Bilderzeugungsvorrichtung 2000 einzugebenden Lerndatensatz. Der Lerndatensatz weist beispielsweise ein Erzeugungsbild auf, das so erzeugt wurde, dass die Eingangsdaten ein Strukturbild sind und die Ausgangsdaten ein einem tatsächlichen Beobachtungsbild ähnliches Bild sind. Der Benutzer gibt den Lerndatensatz über die Ein- und Ausgabevorrichtung 206 ein (Schritt S300). Der eingegebene Lerndatensatz wird in der Datenbank 205 gespeichert.
  • Als nächstes überträgt die Zentralverarbeitungseinheit 201 den Lerndatensatz und ein Bilderzeugungsmodell von der Datenbank 205 zur Modelllerneinheit 202 und führt das Erlernen des Bilderzeugungsmodells durch die Modelllerneinheit 202 aus (Schritt S301). Die Parameter des erlernten Bilderzeugungsmodells werden in der Datenbank 205 gespeichert. Wenn das zuvor erlernte Bilderzeugungsmodell verwendet wird, werden die Schritte S300 und S301 übersprungen.
  • Der Benutzer gibt das Strukturbild über die Ein- und Ausgabevorrichtung 206 ein (Schritt S302). Wie mit Bezug auf 2 beschrieben, können allgemeine Zeichensoftware und Malsoftware für die Erzeugung des Strukturbilds verwendet werden. Das Strukturbild kann auch unter Verwendung von CAD-Software erzeugt werden.
  • Zur Eingabe des Strukturbilds, wie in den 4 bis 7 beschrieben, kann ein Verfahren verwendet werden, bei dem zwei repräsentative Strukturbilder registriert werden (Schritt S303) und mehrere dazwischen liegende Strukturbilder erzeugt werden (Schritt S304). Der Benutzer gibt zwei repräsentative Bilder über die Ein- und Ausgabevorrichtung 206 und Informationen für das Morphing ein. Die Bilderzeugungseinheit 2040 erzeugt ein Zwischenbild durch Morphing anhand der beiden repräsentativen Bilder und Benutzerspezifikationsinformationen.
  • Bei der Bilderzeugung anhand des Strukturbilds (Schritt S305) verwendet die Bilderzeugungseinheit 2040 das in Schritt 301 erlernte Bilderzeugungsmodell oder das vorab erlernte Bilderzeugungsmodell als das Bilderzeugungsmodell. Als Strukturbild werden das in Schritt 302 registrierte Bild oder das in Schritt 303 registrierte Bild und das in Schritt 304 erzeugte Zwischenbild verwendet. Alternativ können all diese Strukturbilder als Strukturbild verwendet werden. Die Bilderzeugungseinheit 2040 speichert das Strukturbild und das Erzeugungsbild in einer Datenbank (Schritt S306). Das Strukturbild kann in der Datenbank gespeichert werden, wenn es registriert wird.
  • Die in Schritt S306 gespeicherten Daten werden als mit Bezug auf 15 beschriebener Lerndatensatz verwendet (Schritt S100).
  • Insbesondere wird, wie mit Bezug auf 3A dargestellt, durch Eingeben des tatsächlichen Bilds in das Strukturerfassungsmodell das Strukturbild ausgegeben und werden dieses tatsächliche Bild und das Strukturbild in der Datenbank registriert. Als nächstes werden Abmessungsdaten durch Eingeben des Strukturbilds in das Abmessungsextraktionsmodell ausgegeben. Das Verfahren zum Erlernen des Strukturerfassungsmodells und des Abmessungserfassungsmodells entspricht dem mit Bezug auf das Flussdiagramm aus 15 beschriebenen Verfahren.
  • 45 zeigt ein Beispiel einer GUI-Bildschirmdarstellung, wenn die Bilderzeugungsvorrichtung 2000 ein Strukturbild erzeugt und ein Erzeugungsbild bei Eingabe des Strukturbilds ausgibt. In dieser GUI spezifiziert der Benutzer zuerst zwei repräsentative Strukturbilder. Die spezifizierten repräsentativen Strukturbilder werden auf der GUI dargestellt. Zusätzlich werden die repräsentativen Strukturbilder und ein unter Verwendung der repräsentativen Strukturbilder erzeugtes Zwischenbild dargestellt. Diese Strukturbilder werden an einem Zwischenbild-Speicherziel gespeichert.
  • Wenn das Erzeugungsbild auf der Grundlage der Strukturbilder erzeugt wird, kann der Benutzer in der GUI wählen, ob das gespeicherte Zwischenstrukturbild und repräsentative Strukturbilder zu verwenden sind oder ein getrennt erzeugtes Strukturbild zu verwenden ist. Ferner kann der Benutzer unter Bezugnahme auf ein Referenzbild ein Verfahren zum Erzeugen des Erzeugungsbilds oder ein Verfahren zur Verwendung eines unter Verwendung eines Lernstrukturbilds und eines Lernerzeugungsbilds erlernten Bilderzeugungsmodells wählen.
  • Wenn das Referenzbild verwendet wird, spezifiziert der Benutzer ein zu verwendendes Referenzbild. Zu dieser Zeit wird das spezifizierte Referenzbild auf der GUI dargestellt. Wenn das Bilderzeugungsmodell zu erlernen ist, spezifiziert der Benutzer das Lernstrukturbild und das Lernerzeugungsbild, die für das Lernen zu verwenden sind.
  • Nach der vorstehenden Prozedur wird die Bilderzeugung durch Drücken einer Bilderzeugungstaste ausgeführt und wird ein Erzeugungsbild auf der GUI dargestellt. Zusätzlich kann der Benutzer das Speicherziel des Erzeugungsbilds spezifizieren.
  • Wie vorstehend beschrieben wurde, können durch Messen der Merkmalsabmessung des anhand des tatsächlichen Bilds unter Verwendung des Abmessungsextraktionsmodells erhaltenen Strukturbilds, wodurch die vorgegebene Merkmalsabmessung erhalten werden kann, automatisch Datenbanken von Vorrichtungsbedingungen beim Erhalten des tatsächlichen Bilds, des tatsächlichen Bilds, des anhand des tatsächlichen Bilds erhaltenen Strukturbilds und der Merkmalsabmessung gebildet werden. Zusätzlich kann das Lernmodell, welches das der Vorrichtungsbedingung entsprechende Strukturbild ausgibt, durch die Verwendung dieser Datenbanken gebildet werden und kann die Vorrichtungsbedingung, welche die Zielform implementiert, unter Verwendung des Lernmodells geschätzt werden.
  • Teile der Konfigurationen, Funktionen, Verarbeitungseinheiten, der vorstehend beschriebenen Verarbeitungsverfahren und dergleichen oder diese alle können durch Hardware implementiert werden, beispielsweise durch Entwurf mit einer integrierten Schaltung, oder durch Software implementiert werden, wobei ein Prozessor ein Programm, das jede Funktion implementiert, interpretiert und ausführt. Informationen in der Art eines Programms, einer Tabelle und einer Datei, wodurch die jeweiligen Funktionen implementiert werden, können in einer Speichervorrichtung in der Art eines Speichers, einer Festplatte und eines Halbleiterlaufwerks (einer SSD) oder einem nichtflüchtigen Aufzeichnungsmedium in der Art einer Chipkarte (IC-Karte), einer SD-Karte und einer Digital Versatile Disc (DVD) gespeichert werden.
  • Steuerlinien und Informationslinien geben an, was als für die Erklärung notwendig angesehen wird, und es sind in den Produkten nicht alle Steuerlinien und Informationslinien dargestellt. In der Praxis kann davon ausgegangen werden, dass fast alle Konfigurationen miteinander verbunden sind.
  • Repräsentative Beispiele von Aspekten der Offenbarung werden nachstehend zusätzlich zu den in den Ansprüchen dargelegten Konfigurationen beschrieben.
  • Ein Aspekt der Offenbarung sieht eine Abmessungsmessvorrichtung vor, die eine Abmessung einer Halbleitervorrichtung mit einem sich wiederholenden Muster anhand eines Querschnittsbilds der Halbleitervorrichtung misst. Die Abmessungsmessvorrichtung weist Folgendes auf: einen Prozessor, einen Speicher und ein Abmessungsmessprogramm, das im Speicher gespeichert ist und eine Abmessung der Halbleitervorrichtung misst, wenn es durch den Prozessor ausgeführt wird. Das Abmessungsmessprogramm weist eine Modellschätzeinheit und eine Abmessungsmesseinheit auf. Die Modellschätzeinheit gibt durch ein erstes Bilderkennungsmodell ein gelabeltes Bild aus, in dem das Querschnittsbild für jedes Gebiet gelabelt ist, und sie gibt durch ein zweites Bilderkennungsmodell Koordinaten aus, wobei sich das sich wiederholende Muster bildende Einheitsmuster jeweils im Querschnittsbild befindet. Die Abmessungsmesseinheit erhält Koordinaten mehrerer vorab für jedes Einheitsmuster definierter Merkmalspunkte unter Verwendung des gelabelten Bilds und der Koordinaten, an denen sich die Einheitsmuster befinden, und misst eine als Abstand zwischen zwei vorgegebenen Punkten aus den mehreren Merkmalspunkten definierte Abmessung.
  • Ferner sieht ein anderer Aspekt der Offenbarung eine Abmessungsmessvorrichtung vor, die eine Abmessung einer Halbleitervorrichtung mit einem sich wiederholenden Muster anhand eines Querschnittsbilds der Halbleitervorrichtung misst. Die Abmessungsmessvorrichtung weist Folgendes auf: einen Prozessor, einen Speicher und ein Abmessungsmessprogramm, das im Speicher gespeichert ist und eine Abmessung der Halbleitervorrichtung misst, wenn es durch den Prozessor ausgeführt wird. Das Abmessungsmessprogramm weist eine Modellschätzeinheit und eine Abmessungsmesseinheit auf. Die Modellschätzeinheit gibt durch ein erstes Bilderkennungsmodell ein erstes gelabeltes Bild aus, in dem das Querschnittsbild in eine Konturlinie und einen Hintergrund gelabelt ist, und sie gibt durch ein zweites Bilderkennungsmodell ein zweites gelabeltes Bild aus, in dem das Querschnittsbild in einen Hintergrund und eine erste Anzahl von Merkmalspunkten, die in einem das sich wiederholende Muster bildenden Einheitsmuster definiert sind, gelabelt ist. Die Abmessungsmesseinheit verwendet Koordinaten der Konturlinie vom ersten gelabelten Bild und Koordinaten der ersten Anzahl von Merkmalspunkten vom zweiten gelabelten Bild, um eine zweite Anzahl von Merkmalspunkten zu erhalten, und misst eine als Abstand zwischen einem vorgegebenen Punkt der ersten Anzahl von Merkmalspunkten und einem vorgegebenen Punkt der zweiten Anzahl von Merkmalspunkten definierte Abmessung.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2018049936 A [0006]
    • JP 2012068138 A [0007, 0029]
    • JP 2002350127 A [0007, 0029]

Claims (10)

  1. System, das ein Bild erzeugt, wobei ein Strukturbild durch Bildverarbeitung einem tatsächlichen Bild ähnlich gemacht wird, wobei das System Folgendes aufweist: eine oder mehrere Speichervorrichtungen und einen oder mehrere Prozessoren, die gemäß einem in der einen oder in den mehreren Speichervorrichtungen gespeicherten Programm arbeiten, wobei der eine oder die mehreren Prozessoren Folgendes ausführen: Erhalten eines ersten Strukturbilds und eines vom ersten Strukturbild verschiedenen zweiten Strukturbilds, Erzeugen mehrerer Zwischenstrukturbilder, die eine Zwischenstruktur zwischen dem ersten Strukturbild und dem zweiten Strukturbild angeben, und Erzeugen eines Bilds, indem jedes der mehreren Zwischenstrukturbilder durch Bildverarbeitung einem tatsächlichen Bild ähnlich gemacht wird.
  2. System nach Anspruch 1, wobei der eine oder die mehreren Prozessoren ein Bild erzeugen, wobei jedes der mehreren Zwischenstrukturbilder dem tatsächlichen Bild auf der Grundlage eines Referenzbilds ähnelt.
  3. System nach Anspruch 1 oder 2, wobei entweder das erste Strukturbild oder das zweite Strukturbild einer Zielform entspricht.
  4. System nach Anspruch 1 oder 2, wobei entweder das erste Strukturbild oder das zweite Strukturbild einer Form entspricht, die einer Zielform in einem erfassten tatsächlichen Bild am nächsten liegt.
  5. System nach Anspruch 1 oder 2, wobei das erste Strukturbild einer Form entspricht, die einer Zielform in einem erfassten tatsächlichen Bild am nächsten liegt, und das zweite Strukturbild der Zielform entspricht.
  6. System nach Anspruch 1 oder 2, wobei der eine oder die mehreren Prozessoren die mehreren Zwischenstrukturbilder durch Ändern eines Strukturbilds vom ersten zum zweiten Strukturbild entsprechend einer spezifizierten Entsprechung erzeugen.
  7. System nach Anspruch 1 oder 2, wobei der eine oder die mehreren Prozessoren Folgendes ausführen: Bilden einer Datenbank, welche die mehreren Zwischenstrukturbilder und ein Bild, wobei jedes der mehreren Zwischenstrukturbilder dem tatsächlichen Bild ähnelt, aufweist, Bilden eines Strukturerfassungsmodells, das ein Strukturbild anhand eines eingegebenen tatsächlichen Bilds ausgibt, unter Verwendung der Datenbank und Erzeugen eines neuen Strukturbilds anhand eines neuen tatsächlichen Bilds unter Verwendung des Strukturerfassungsmodells.
  8. System nach Anspruch 7, wobei der eine oder die mehreren Prozessoren eine vorgegebene Merkmalsabmessung im neuen Strukturbild unter Verwendung eines Abmessungsextraktionsmodells, das die Merkmalsabmessung extrahiert, messen.
  9. System nach Anspruch 8, wobei der eine oder die mehreren Prozessoren Folgendes ausführen: Bilden eines Lernmodells, das ein einer Eingabevorrichtungsbedingung entsprechendes Strukturbild ausgibt, unter Verwendung einer Datenbank, welche die gemessene Merkmalsabmessung, das neue Strukturbild und das neue tatsächliche Bild und eine Vorrichtungsbedingung zur Verarbeitung einer Probe, anhand derer das neue tatsächliche Bild erhalten wird, aufweist, und Schätzen einer Vorrichtungsbedingung zum Implementieren einer Zielform unter Verwendung des Lernmodells.
  10. Verfahren für ein System zum Erzeugen eines Bilds, wobei ein Strukturbild durch Bildverarbeitung einem tatsächlichen Bild ähnlich gemacht wird, wobei das Verfahren Folgendes aufweist: Erhalten eines ersten Strukturbilds und eines vom ersten Strukturbild verschiedenen zweiten Strukturbilds durch das System, Erzeugen mehrerer Zwischenstrukturbilder, die eine Zwischenstruktur zwischen dem ersten Strukturbild und dem zweiten Strukturbild angeben, durch das System und Erzeugen eines Bilds, indem jedes der mehreren Zwischenstrukturbilder durch Bildverarbeitung einem tatsächlichen Bild ähnlich gemacht wird, durch das System.
DE102021101704.1A 2020-02-05 2021-01-26 Bilderzeugungssystem Pending DE102021101704A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-17613 2020-02-05
JP2020017613A JP7288870B2 (ja) 2020-02-05 2020-02-05 画像を生成するシステム

Publications (1)

Publication Number Publication Date
DE102021101704A1 true DE102021101704A1 (de) 2021-08-05

Family

ID=76853561

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021101704.1A Pending DE102021101704A1 (de) 2020-02-05 2021-01-26 Bilderzeugungssystem

Country Status (5)

Country Link
US (1) US11663713B2 (de)
JP (1) JP7288870B2 (de)
KR (1) KR102502486B1 (de)
DE (1) DE102021101704A1 (de)
TW (1) TWI773063B (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113240767B (zh) * 2021-06-10 2022-11-29 河北华电沽源风电有限公司 一种输电线路通道异常裂缝样本生成方法及系统
JP7233592B1 (ja) 2021-10-22 2023-03-06 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7403108B2 (ja) * 2021-10-28 2023-12-22 株式会社 Sai 建屋内構造物認識システム及び建屋内構造物認識方法
KR20240003985A (ko) * 2022-07-04 2024-01-11 삼성전자주식회사 이미지 처리 방법 및 시스템
CN117940738A (zh) 2022-08-26 2024-04-26 株式会社日立高新技术 计算机系统、尺寸测量方法以及半导体装置制造系统
JP7369316B1 (ja) * 2023-02-27 2023-10-25 株式会社安部日鋼工業 コンクリートを認証コードとする、識別システムおよび識別方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002350127A (ja) 2001-05-29 2002-12-04 Seiko Instruments Inc ディスプレイ顕微鏡画像を用いたパターン測定方法及び測定システム
JP2012068138A (ja) 2010-09-24 2012-04-05 Toppan Printing Co Ltd パターン画像測定方法及びパターン画像測定装置
JP2018049936A (ja) 2016-09-21 2018-03-29 株式会社日立製作所 探索装置および探索方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013122022A1 (ja) * 2012-02-14 2013-08-22 株式会社 日立ハイテクノロジーズ 画像評価装置及びパターン形状評価装置
JP5948262B2 (ja) * 2013-01-30 2016-07-06 株式会社日立ハイテクノロジーズ 欠陥観察方法および欠陥観察装置
JP6731370B2 (ja) * 2017-03-27 2020-07-29 株式会社日立ハイテク 画像処理システム及び画像処理を行うためのコンピュータープログラム
JP6821048B2 (ja) * 2017-10-06 2021-01-27 富士フイルム株式会社 画像処理装置、学習済みモデル生成方法、及び評価装置
JP7002949B2 (ja) 2018-01-22 2022-01-20 株式会社日立ハイテク 画像評価方法及び画像評価装置
KR20210010897A (ko) * 2018-06-15 2021-01-28 에이에스엠엘 네델란즈 비.브이. 기계 학습 기반 역 광 근접 보정 및 공정 모델 캘리브레이션
CN112424826A (zh) * 2018-07-13 2021-02-26 Asml荷兰有限公司 基于机器学习的图案分组方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002350127A (ja) 2001-05-29 2002-12-04 Seiko Instruments Inc ディスプレイ顕微鏡画像を用いたパターン測定方法及び測定システム
JP2012068138A (ja) 2010-09-24 2012-04-05 Toppan Printing Co Ltd パターン画像測定方法及びパターン画像測定装置
JP2018049936A (ja) 2016-09-21 2018-03-29 株式会社日立製作所 探索装置および探索方法

Also Published As

Publication number Publication date
KR20210099998A (ko) 2021-08-13
TW202142833A (zh) 2021-11-16
JP2021124933A (ja) 2021-08-30
US20210241436A1 (en) 2021-08-05
US11663713B2 (en) 2023-05-30
JP7288870B2 (ja) 2023-06-08
KR102502486B1 (ko) 2023-02-23
TWI773063B (zh) 2022-08-01

Similar Documents

Publication Publication Date Title
DE102021101704A1 (de) Bilderzeugungssystem
DE10317917B4 (de) System und Verfahren zum Umgrenzen und Klassifizieren von Regionen innerhalb einer graphischen Abbildung
DE19521346C2 (de) Bilduntersuchungs/-Erkennungsverfahren, darin verwendetes Verfahren zur Erzeugung von Referenzdaten und Vorrichtungen dafür
DE19507780B4 (de) Vorrichtung zur verteilten Bildverarbeitung
DE69535098T2 (de) Verfahren und -vorrichtung zur Suche von Bildern in einer Datenbank
DE10157958B4 (de) Bildverarbeitungsverfahren und-vorrichtung
WO2020157249A1 (de) Verarbeitung von bilddatensätzen
DE3505331C2 (de) Verfahren und Gerät zur Vermessung des bei der Eindringhärteprüfung in einer Probe hinterlassenen Eindrucks
DE10000364A1 (de) Mermalbasierende Feststellung von Fehlern
DE102018119682A1 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und nicht-vorübergehendes computerlesbares speichermedium
DE10346690B4 (de) Verfahren und Vorrichtung zum Detektieren eines Linearobjekts
DE102019133685A1 (de) Informationsverarbeitungssystem und -verfahren
DE10354752A1 (de) Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern
WO2002021427A2 (de) Auswerten von kantenrichtungsinformation
DE102007013971A1 (de) Verfahren und Vorrichtung zur Ermittlung einer Zellkontur einer Zelle
DE102007040070A1 (de) Bilddichteumwandlungsverfahren, Bildverbesserungsverarbeitungseinrichtung und dafür geeignetes Programm
DE60217748T2 (de) Verfahren und Gerät zur Anzeige eines Bildraumes
DE112010002677T5 (de) Verfahren und vorrichtung zum bestimmen einer formübereinstimmung in drei dimensionen
DE102010025953A1 (de) Positionsmessvorrichtung und -verfahren
DE102005025220B4 (de) Gerät, Verfahren und Programm zum Beseitigen von Poren
DE102006045416A1 (de) Bildverarbeitungsvorrichtung
DE19951146A1 (de) Verfahren zum Reduzieren des Rauschens in einem durch Abbildung erhaltenen Signal
DE69023106T2 (de) Kenndatenauswahlverfahren für Datenverarbeitungssystem.
DE102006003422A1 (de) Muster-Festlegungsverfahren und Muster-Festlegungsvorrichtung
DE102008012152A1 (de) Verfahren und Vorrichtung zur Charakterisierung der Formation von Papier

Legal Events

Date Code Title Description
R012 Request for examination validly filed