DE102022207075A1 - Verfahren und Vorrichtung zur Produktionsprozessoptimierung anhand ermittelter Korrelationen zwischen ersten und zweiten Messungen aus Produktionsprozessen - Google Patents

Verfahren und Vorrichtung zur Produktionsprozessoptimierung anhand ermittelter Korrelationen zwischen ersten und zweiten Messungen aus Produktionsprozessen Download PDF

Info

Publication number
DE102022207075A1
DE102022207075A1 DE102022207075.5A DE102022207075A DE102022207075A1 DE 102022207075 A1 DE102022207075 A1 DE 102022207075A1 DE 102022207075 A DE102022207075 A DE 102022207075A DE 102022207075 A1 DE102022207075 A1 DE 102022207075A1
Authority
DE
Germany
Prior art keywords
measurements
significance
correlation
values
production
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022207075.5A
Other languages
English (en)
Inventor
Eric Sebastian Schmidt
Stefan Patrick Lindt
Jonas Bergdolt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022207075.5A priority Critical patent/DE102022207075A1/de
Priority to US18/349,150 priority patent/US20240012877A1/en
Priority to CN202310841635.3A priority patent/CN117391486A/zh
Publication of DE102022207075A1 publication Critical patent/DE102022207075A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06395Quality analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/20Sequence of activities consisting of a plurality of measurements, corrections, marking or sorting steps

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Operations Research (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Economics (AREA)
  • Artificial Intelligence (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Strategic Management (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • Marketing (AREA)
  • Computing Systems (AREA)
  • General Factory Administration (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Abstract

Verfahren zum Ermitteln von Korrelationen zwischen ersten Messungen und zweiten Messungen nach jeweils unterschiedlichen Produktionsschritten zur Optimierung der Produktionsschritte, umfassend folgende Schritte: Mehrmaliges Wiederholen (S12) folgender Schritte:Ziehen (S13) zufälliger Stichproben aus der Menge von Messungen (0) und Berechnen (S14) einer Korrelationsmatrix (C_i) zwischen den ersten - und den zweiten Messungen enthalten in der zufällig gezogenen Stichprobe. Nachdem die Wiederholungen (S12) abgeschlossen wurden, wird eine mittlere Korrelationsmatrix (C_m) über die Korrelationsmatrizen (C_i) und eine Standardvarianzmatrix (C_σ) der Korrelationsmatrizen ermittelt. Dann folgt ein Ermitteln (S17) der Signifikanzwerte anhand einer Division von absoluten Wert der mittleren Korrelationsmatrix (C_m) elementweise mit den absoluten Werten der Standardvarianzmatrix (C_σ). Abhängig von den Signifikanzwerten kann einer der Produktionsschritte angepasst werden.

Description

  • Die Erfindung betrifft ein Verfahren zum Ermitteln von Korrelationen zwischen ersten Messungen und zweiten Messungen aus unterschiedlichen Produktionsprozessen und deren Verwendung zum Optimieren von Produktionsprozessen, sowie eine Vorrichtung und ein Computerprogramm, welche das Verfahren ausführen und ein maschinenlesbares Speichermedium.
  • Stand der Technik
  • Derzeit basiert eine Analyse korrelierter Prozessschritte zwischen Halbleiterprozessen hauptsächlich auf Expertenwissen, da herkömmliche Methoden bei sehr kleinen, spärlichen und überspezifizierten Datensätzen unzuverlässig sind. Diese Eigenschaft der spärlichen Daten kann darauf zurückgeführt werden, dass bei der Überwachung der Prozesse ein Stichprobenmechanismus verwendet wird, um die Testzeit zu verkürzen und somit die Zykluszeit der einzelnen Wafer zu verringern. Herkömmliche Ansätze des maschinellen Lernens versagen jedoch bei einer sehr hohen Anzahl fehlender Werte in Kombination mit der sehr niedrigen Abtastrate.
  • Vorteile der Erfindung
  • Die gegenwärtige Erfindung ermöglicht eine Analyse kleiner, spärlicher und überspezifizierter Datensätze, um Abhängigkeiten aufzudecken.
  • Ergebnisse der gegenwärtigen Erfindung können dann verwendet werden, um den Herstellungsprozess in der Halbleiterproduktion zu verbessern und besser zu verstehen. Damit können sowohl bestehende Erfahrungen quantitativ validieren als auch neue Abhängigkeiten zwischen bspw. Inline- und PCM-Messungen aufdeckt werden. Dies ermöglicht eine schnellere und effektivere Kontrolle und Abstimmung der Produktionsparameter abhängig von den Ergebnissen der Abhängigkeitsanalyse, was zu einem schnelleren Hochlauf neuer Produkte oder einer höheren Ausbeute bei bereits in Produktion befindlichen Produkten führt.
  • Weitere Aspekte der Erfindung sind Gegenstand der nebengeordneten Ansprüche. Vorteilhafte Weiterbildungen sind Gegenstand der abhängigen Ansprüche.
  • Offenbarung der Erfindung
  • In einem ersten Aspekt betrifft die Erfindung ein computerimplementiertes Verfahren zum Ermitteln von Korrelationen zwischen ersten Messungen und zweiten Messungen, wobei die ersten Messungen nach einem ersten Produktionsschritt eines Objektes oder Mehrzahl von Objekten und die zweiten Messungen nach einem dem ersten insbesondere unmittelbar nachfolgenden zweiten Produktionsschritt des Objektes/der Objekte erfasst wurden. Das Objekt kann ein herzustellendes Produkt sein, wie beispielsweise ein Halbleiterelement. Die Produktionsschritte können unterschiedliche Herstellungsprozess in der Halbleiterproduktion sein.
  • Das Verfahren beginnt mit einem Bereitstellen einer Menge von Messungen, unterteilt in erste Messungen und zweite Messungen und eine Anzahl von Stichproben. Daraufhin folgt ein mehrmaliges Wiederholen der Schritte des Ziehen zufälliger Stichproben und Berechnen einer Korrelationsmatrix, bis ein Abbruchkriterium erfüllt wird. Im Schritt des Ziehens zufälliger Stichproben wird aus der Menge von Messungen die Stichproben gezogen. Im Schritt des Berechnens der Korrelationsmatrix wird zwischen den ersten und zweiten Messungen enthalten in der der zufällig gezogenen Stichprobe eine Korrelationsmatrix ermittelt.
  • Nachdem die Wiederholungen abgeschlossen wurden, wird eine mittlere Korrelationsmatrix über alle Korrelationsmatrizen, die bei der Mehrzahl der Wiederholungen ermittelt wurden, ermittelt. Unter der mittleren Korrelationsmatrix kann eine Korrelationsmatrix verstanden werden, die per Mittelwertberechung über die ermittelten Korrelationsmatrizen der Wiederholungen ermittelt wurde. Daraufhin folgt ein Ermitteln einer Standardvarianzmatrix der ermittelten Korrelationsmatrizen, die bei der Mehrzahl der Wiederholungen ermittelt wurden. Daraufhin folgt ein Ermitteln der Signifikanzwerte anhand einer elementweisen Division von absoluten Wert der mittleren Korrelationsmatrix mit den absoluten Werten der Standardvarianzmatrix. Die Signifikanzwerte charakterisieren eine Korrelation der ersten Messungen mit den zweiten Messungen. Die Signifikanzwerte können in Form einer Matrix vorliegen.
  • Es wird vorgeschlagen, dass die ersten und zweiten Messungen jeweils eine Mehrzahl von unterschiedlichen Messungen (Messtypen) umfassen, wobei das mehrmalige Wiederholen der Schritte des Ziehen zufälliger Stichproben und Berechnen einer Korrelationsmatrix und die anschließenden Schritte zum Ermitteln der Signifikanzwerte für jede der Kombinationen der unterschiedlichen Messungen der ersten und zweiten Messungen ausgeführt wird.
  • Weiterhin wird vorgeschlagen, dass ein Signifikanzschwellwert vorgegeben ist, wobei diejenigen ersten Messungen der Menge von Messungen mit einem Signifikanzwert kleiner als dem Signifikanzschwellwert aus der Menge der Messungen entfernt werden und diejenigen zweiten Messungen, deren zugehörige erste Messungen entfernt wurden, auch entfernt werden. Unter einer zugehörigen Messung kann diejenige zweite Messung verstanden werden, welche am gleichen Objekt wie die erste Messung ausgeführt wurde. Dann wird eine Explainable Boosting Machine (EBM) auf der reduzierten Menge von Messungen trainiert. Dann wird eine Korrelation zwischen den ersten und zweiten Messungen abhängig von einer Marginalisierung des trainierten Explainable Boosting Machine ermittelt wird. Dieses Vorgehen hat den Vorteil, dass noch präzisere Abhängigkeiten der ersten Messungen auf die zweiten Messungen aufgefunden werden können.
  • Weiterhin wird vorgeschlagen, dass die ersten Messungen Inline- Messungen und die zweiten Messungen PCM-Messungen sind. Vorteilhaft hierbei ist, dass sowohl bestehende Erfahrungen quantitativ validiert als auch neue Abhängigkeiten zwischen Inline- und PCM-Parametern aufdeckt werden können. Dadurch können die Produktionsparameter schneller und effektiver kontrolliert und eingestellt werden, was zu einem schnelleren Hochlauf neuer Produkte oder einer höheren Ausbeute bei bereits produzierten Produkten führt. Damit eignet sich das Verfahren besonders für die Herstellung von Halbleiterbauelementen.
  • Weiterhin wird vorgeschlagen, dass abhängig von den Signifikanzwerten oder Korrelation aus dem EBM einer der Produktionsschritte angepasst wird. Vorzugsweise wird abhängig von den Signifikanzwerten, d.h. Korrelationen der ersten und zweiten Messungen, oder Korrelation aus dem EBM und abhängig von einer vorzugsweise vorgegebenen zu erzielenden zweiten Messung der erste Produktionsprozess oder/und der zweite Produktionsprozess angepasst, sodass anhand des angepassten Produktionsprozesses die zu erzielende zweite Messung im Wesentlichen erzielt werden kann. Denkbar ist, dass die zu erzielende zweite Messung ein Sollmesswert oder ein Toleranzbereich für die zweite Messung ist. Besonders bevorzugt werden anhand der Signifikanzwerten oder Korrelation aus dem EBM erste Messungen ausgewählt, die besonders stark mit der zu erzielenden zweiten Messung korrelieren. Dann kann abhängig von den ausgewählten ersten Messungen der erste Produktionsprozess oder/und der zweite Produktionsprozess entsprechend angepasst werden, welche die ausgewählten ersten Messungen beeinflussen.
  • In weiteren Aspekten betrifft die Erfindung eine Vorrichtung sowie ein Computerprogramm, die jeweils eingerichtet sind, die obigen Verfahren auszuführen und ein maschinenlesbares Speichermedium, auf dem dieses Computerprogramm gespeichert ist.
  • Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. In den Zeichnungen zeigen:
    • 1 schematisch ein Flussdiagramm einer Ausführungsform der Erfindung;
    • 2 schematisch ein Ausführungsbeispiel zur Steuerung eines wenigstens teilautonomen Roboters;
    • 2 schematisch ein Ausführungsbeispiel zur Steuerung eines Fertigu ngssystems;
    • 3 schematisch eine Trainingsvorrichtung.
  • Beschreibung der Ausführungsbeispiele
  • Bei der Herstellung von Halbleiterwafern werden die Wafer nach verschiedenen Produktionsschritten getestet, wobei nach Abschluss eines ersten Produktionsschrittes Inline Messungen, auch als Inline-Qualitätskontrollen bekannt, und nach Abschluss eines zweiten Produktionsschrittes PCM Messungen durchgeführt werden. Wenn die Prozessingenieure wissen, wie die PCM- von den Inline-Werten abhängen, können sie den Herstellungsprozess der einzelnen Produktionsschritten so abstimmen, dass optimale Ergebnisse erzielt werden.
  • Die Inline-Messungen sind sehr spärlich, da nicht jeder Test auf allen Wafern durchgeführt wird. Es werden also Stichproben ausgeführt, was unter anderem dazu führen kann, dass über 90% der Beobachtungen fehlen. Ferner ist es mit klassische Imputationsmethoden sind möglich, fehlende Messungen zu schätzen. Bekannte Ansätze des maschinellen Lernens sind nicht in der Lage, mit Eingabevektoren mit leeren Einträgen umzugehen. Erschwerend kommt hinzu, dass vor allem in einer Anlaufphase neuer Produkte oft überspezifiziert sind und nur eine kleine Anzahl von Beobachtungen enthalten. Ein kleiner Datensatz macht es schwierig, ein zuverlässiges Modell zu lernen. Überspezifikationen erschweren die Suche nach wahren, zugrundeliegenden Abhängigkeiten, führen zu übermäßigem Vertrauen in Statistiken und Modelle und datengesteuerte Merkmalsauswahl führt zu p-hacking/data dredging.
  • 1 zeigt schematisch ein Flussdiagramm eines Verfahrens 20, welches mit den eben genannte Problem umgehen kann und es insbesondere ermöglicht, signifikante Korrelationen in kleineren Datensätzen zu identifizieren.
  • Das Verfahren beginnt mit Schritt S11. In diesem Schritt erfolgt ein Bereitstellen bzw. Erhalten einer Menge von Messungen 0, unterteilt in erste Messungen nach einem ersten Produktionsschritt und zweite Messungen nach einem zweiten Produktionsschritt, eine Anzahl von Bootstrap-Stichproben n_bootstrap und eine Anzahl von Beobachtungen in jeder Bootstrap-Stichprobe als Bruchteil der ursprünglichen Stichprobengröße fraction_samples. Die Anzahl der Stichproben umfasst zumindest 100, insbesondere 2500, erste Messungen.
  • In einer bevorzugten Ausführungsform sind die ersten und zweiten Messungen Inline- und PCM-Messungen.
  • Nachdem Schritt S11 abgeschlossen wurde, folgt ein mehrmaliges Wiederholen S12 bis ein Schleifenindex i inkrementell den Werte n_bootstrap erreicht hat. Beim Wiederholen werden die Schritte S13 und S14 wiederholt nacheinander ausgeführt. In Schritt S13 erfolgt ein Ziehen zufälliger Stichproben aus der Menge von Messungen 0. Der Umfang der gezogenen Stichprobe sollte fraction_samples x len(0) sein.
  • In Schritt S14 erfolgt ein Berechnen einer Korrelationsmatrix C_i zwischen den ersten - und den zweiten Messungen enthalten in der der gezogenen Bootstrap-Stichprobe.
  • Nachdem die Wiederholung S12 abgeschlossen wurde, folgt Schritt S15. Hierbei wird eine mittlere Korrelationsmatrix C_m über alle Korrelationsmatrizen C_i aus Schritt S14 über alle Wiederholungen n_bootstrap ermittelt.
  • Danach folgt in Schritt S16 ein Berechnen der Standardvarianzmatrix C_σ der Korrelationsmatrizen aus Schritt S14 über alle Wiederholungen n_bootstrap.
  • Danach folgt in Schritt S17 ein Berechnen eines Signifikanzwertes: |C_m/C_σ|, wobei die Division und der absolute Wert elementweise verstanden werden.
  • Abschließend kann eine Ausgabe für jede Kombination von ersten und zweiten Messung einen Signifikanzwert für ihre Korrelation ausgegeben werden. D.h. der Signifikanzwert charakterisiert eine Korrelation dieser Messungen.
  • In jeder Iteration erzeugt das obige Verfahren eine Bootstrap-Stichprobe aus dem ursprünglichen Datensatz (= Menge von Messungen 0) und berechnet die Kovarianzen. Die Größe der gezogenen Stichproben, stellt einen Kompromiss zwischen Verzerrung und Varianz dar. Durch die Wahl kleinerer Stichprobengrö-ßen werden die Bootstrap-Stichproben unabhängiger, d. h. sie haben nicht unbedingt dieselbe Verzerrung wie der Gesamtdatensatz, allerdings weisen die kleineren Stichproben eine größere Varianz in ihren Statistiken auf. Bevorzugt wird als Heuristik eine Stichprobengröße gewählt, die halb so groß ist wie der Datensatz. Prinzipiell lässt sich durch eine größere Anzahl an Stichproben auch das Problem der Varianz bei geringeren Stichprobengrößen mitigieren.
  • Nachdem alle Iterationen in S12 durchgeführt wurden, liegt eine Schätzung der Verteilung jeder Kovarianz vor. So können Statistiken wie Mittelwert und Standardabweichung der empirischen Kovarianz Verteilungen berechnet werden.
  • Der Signifikanzwert ist als Bootstrap-Mittelwert geteilt durch die Bootstrap-Standardabweichung der jeweiligen Korrelation definiert. Da die Korrelation eine Mittelwertbildung über Zufallsvariablen beinhaltet, kann erwartet werden, dass ihre Verteilung gemäß dem zentralen Grenzwertsatz asymptotisch normalverteilt ist. Daraus kann abgeleitet werden, dass wenn eine einzelne Korrelation auf Signifikanz getestet wird, liegt eine 95 % Sicherheit vor, dass sie nicht Null ist, wenn der Signifikanzwert größer gleich zweit ist. Wenn jedoch viele Korrelationen gleichzeitig verarbeitet werden (z.B. 2.500), kann eine Korrektur des Signifikanzwertes vorgenommen werden. Vorzugweise erfolgt die Korrektur des Signifikanzwertes mittels einer Bonferroni-Korrektur. Bei einer Bonferroni-Korrektur wird ein höherer Signifikanzwert vorliegen, bspw. ein Signifikanzwert größer gleich 4 für 2.500 Korrelationen. Da die Bonferroni-Korrektur konservativ ist, kann für das eben angeführte Beispiel auch ein niedriger Schwellenwert gleich 3 gewählt werden.
  • In einer weiteren Ausführungsform der Erfindung kann das ausgegebene Ergebnis der Signifikanzwerte des Verfahrens 20 genutzt werden, um eine Analyse zu vertiefen und zu versuchen, Abhängigkeiten zu modellieren.
  • Beispielsweise ist eine Vorhersage von PCM-Messungen anhand der spärlichen Inline-Daten nahezu unmöglich. Zwar sind die Inline-Messungen größtenteils leer, was darauf hindeutet, dass keine verlässlichen Vorhersagen getroffen werden können, aber die Erfinder haben herausgefunden, dass dennoch etwas über die Beziehung zwischen Inline-Messungen und deren zugehörigen PCM-Messungen herausgefunden werden kann.
  • Bei der Modellierung werden vorzugweise Explainable Boosting Machines (EBM) verwendet, d. h. interpretierbare Glaskastenmodelle, die ein tieferes Verständnis dessen ermöglichen, was die Modellvorhersage beeinflusst. Sie berechnen den marginalen Einfluss jedes Eingangsmerkmals auf das Ziel, was sie für unseren Anwendungsfall besonders geeignet macht. Außerdem kann ein baumbasierte EBM verwendet werden, welches es ermöglicht, mit fehlenden Werten in der Eingabe umzugehen.
  • Um die Abhängigkeiten zwischen den ersten und zweiten Messreihen zu modellieren, können die ausgegebenen Signifikanzwerte des Verfahrens 20 wie folgt verwendet werden.
  • Zuerst erfolgt ein Bereitstellen von ersten Messungen X, zweiten Messungen y und einem Signifikanzschwellwert T.
  • Anschließend folgt ein Berechnen der Signifikanzwerte aller Korrelationen zwischen ersten und zweiten Messungen nach Verfahren 20 oder die Signifikanzwerte werden gemäß Verfahren 20 bereitgestellt.
  • Anschließend folgt ein Löschen aller ersten Messungen aus X mit einem Signifikanzwert kleiner als T.
  • Anschließend folgt ein Löschen von zweiten Messungen, deren zugehörige ersten Messungen gelöscht wurden.
  • Anschließend kann eine Skalierung der ersten Messungen erfolgen. Die Skalierung kann z. B. mit einer Min-Max-Skalierung erfolgen.
  • Anschließend kann ein Imputieren fehlender Werte mit Werten außerhalb des Beobachtungs-/Mess-bereichs (z. B. -0,1) erfolgen.
  • Anschließend folgt ein Trainieren eines erklärbaren Boosting-Maschinenregressors mit einem Entscheidungsbaum als Basis-Schätzer. Zum Trainieren kann auf bekannte Verfahren zum Training von EBM zurück gegriffen werden, z.B. siehe Veröffentlichung der Autoren Yin Lou , Rich Caruana, Giles Hooker, Johannes Gehrke, „Accurate Intelligible Models with Pairwise Interactions" KDD'13, August 11-14, 2013, Chicago, Illinois, USA | August 2013, Published by ACM.
  • Anschließend kann eine Re-skalierung der Ergebnisse auf die ursprüngliche Skala der Eingabedaten erfolgen.
  • Abschließend kann eine Abhängigkeitsanalyse ausgegeben werden. Hierfür kann eine Marginalisierung über zumindest Intervalle der Messbereiche der ersten Messungen anhand des trainierten EBM ermittelt werden, um einen präziseren Signifikanzwertes, insbesondere Abhängigkeitswert, zu erhalten. Die Abhängigkeitsanalyse kann auch basierend auf den einzelnen Funktionen des EBM ausgegeben werden, da EBM inherent interpretierbar sind. Der finale Predictor des EBM ist als pred = f1(feature1) + ... + fn(featuren) darstellbar, wobei die implizit gelernten Funktionen f1, ..., fn als (nicht-lineare) Abhängigkeit zwischen jeweiligen feature1,...featuren und pred verstanden werden können.
  • Die sich daraus ergebenden Abhängigkeiten können dann zur Optimierung von Produktionsschritten verwendet werden und ermöglichen in der Anlaufphase neuer Produktionslinien eine schnellere und fundiertere Versuchsplanung (Design of Experiment, DoE) bei der Abstimmung der Maschinen.
  • Ist beispielsweise eine der zweiten Messungen außerhalb eines spezifizierten oder tolerierbaren Bereichs, kann anhand der Signifikanzwerte bestimmt werden, welche erste Messungen mit dieser zweiten Messung am stärksten korrelieren.
  • Aus diesen ersten korrelierenden Messungen kann dann abgeleitet werden, inwieweit ein Produktionsprozess, welcher einen Einfluss auf die ersten korrelierenden Messungen hat, angepasst werden muss. Diese Anpassung kann bspw. durch eine Anpassung von Prozessparameter erfolgen, vorzugsweise, indem diese Prozessparameter ein Steuerungssystem entsprechend angepasst werden.
  • Denkbar ist auch, dass die Anpassung der Prozessparameter abhängig von einer absoluten Abweichung der zweiten Messung zum spezifizierten oder tolerierbaren Bereich ist und abhängig vom Signifikanzwert erfolgen und optional anhand eines physikalischen Domänenmodells, welches Abhängigkeiten zwischen den Produktionsschritten und Messungen charakterisiert.
  • 2 zeigt ein Ausführungsbeispiel, in dem das Steuerungssystem 40 mit der entsprechenden Prozessparametrisierung zur Ansteuerung einer Fertigungsmaschine 11 eines Fertigungssystems 200 verwendet wird, indem ein diese Fertigungsmaschine 11 steuernder Aktuator 10 angesteuert wird. Bei der Fertigungsmaschine 11 kann es sich beispielsweise um eine Maschine zum Stanzen, Sägen, Bohren, Fräßen und/oder Schneiden handeln oder um eine Maschine, die einen Schritt einer Halbleiterherstellung durchführt, wie chemischen Beschichtungsverfahren, Ätz- und Reinigungsprozessen, physikalische Beschichtungs- und Reinigungsverfahren, Ionenimplantation, Kristallisation oder Temperaturprozesse (Diffusion, Ausheizen, Aufschmelzen etc.), Fotolithografie oder chemischmechanisches Planarisieren.
  • 3 zeigt schematisch eine Trainingsvorrichtung 500 umfasst einen Bereitsteller 51, der aus einem Trainingsdatensatz die Messungen des Schritte S11 bereitstellt. Erste Messungen werden dem zu trainierenden EBM 52 zugeführt, dass hieraus die zweiten Messungen ermittelt. Ausgangsgrößen und Eingangsbilder werden einem Beurteiler 53 zugeführt, der hieraus aktualisierte Hyper-/Parameter ermittelt, die dem Parameterspeicher P übermittelt werden und dort die gegenwärtigen Parameter ersetzen. Der Beurteiler 53 ist eingerichtet, die Optimierung von Parametern des EBM beim Training auszuführen.
  • Die vom Trainingsvorrichtung 500 ausgeführten Verfahren können als Computerprogramm implementiert auf einem maschinenlesbaren Speichermedium 54 hinterlegt sein und von einem Prozessor 55 ausgeführt werden.
  • Der Begriff „Computer“ umfasst beliebige Geräte zur Abarbeitung vorgebbarer Rechenvorschriften. Diese Rechenvorschriften können in Form von Software vorliegen, oder in Form von Hardware, oder auch in einer Mischform aus Software und Hardware.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Yin Lou , Rich Caruana, Giles Hooker, Johannes Gehrke, „Accurate Intelligible Models with Pairwise Interactions“ KDD'13, August 11-14 [0039]

Claims (10)

  1. Verfahren (20) zum Ermitteln von Korrelationen zwischen ersten Messungen und zweiten Messungen, wobei die ersten Messungen nach einem ersten Produktionsschritt und zweiten Messungen nach einem dem ersten nachfolgenden zweiten Produktionsschritt erfasst wurden, umfassend folgende Schritte: Bereitstellen (S11) einer Menge von Messungen (0), unterteilt in erste Messungen und zweite Messungen; mehrmaliges Wiederholen (S12) bis ein Schleifenindex (i) inkrementell einen vorgegebenen Wert erreicht hat, wobei beim Wiederholen folgende Schritte (S13,S14) ausgeführt werden: Ziehen (S13) zufälliger Stichproben aus der Menge von Messungen (0) und Berechnen (S14) einer Korrelationsmatrix (C_i) zwischen den ersten und zweiten Messungen enthalten in der zufällig gezogenen Stichprobe; Nachdem die Wiederholungen (S12) abgeschlossen wurden, wird eine mittlere Korrelationsmatrix (C_m) über eine Mehrzahl von ermittelten Korrelationsmatrizen (C_i) des mehrmalig wiederholten Schritts (S14) ermittelt (S15); Ermitteln (S16) einer Standardvarianzmatrix (C_σ) der ermittelten Korrelationsmatrizen des mehrmalig wiederholten Schritts (S14); und Ermitteln (S17) von Signifikanzwerten zwischen den ersten und zweiten Messungen anhand einer elementweisen Division von absoluten Werten der mittleren Korrelationsmatrix (C_m) mit absoluten Werten der Standardvarianzmatrix (C_σ).
  2. Verfahren nach Anspruch 1, wobei die ersten und zweiten Messungen jeweils eine Mehrzahl von unterschiedlichen Messungen umfassen, wobei das mehrmalige Wiederholen (S12) und die anschließenden Schritte (S16,S17) zum Ermitteln der Signifikanzwerte für jede der Kombinationen der unterschiedlichen Messungen der ersten und zweiten Messungen ausgeführt wird.
  3. Verfahren nach Anspruch 1 oder 2, wobei ein Signifikanzschwellwert (T) vorgegeben ist, wobei diejenigen ersten Messungen der Menge von Messungen mit einem Signifikanzwert kleiner als der Signifikanzschwellwert (T) aus der Menge der Messungen (0) entfernt werden und diejenigen zweiten Messungen, deren zugehörige erste Messung entfernt wurden, auch entfernt werden, wobei eine Explainable Boosting Machine (EBM) auf der reduzierten Menge von Messungen trainiert wird, wobei eine Korrelation zwischen den ersten und zweiten Messungen abhängig von einer Marginalisierung des trainierten Explainable Boosting Machine ermittelt wird.
  4. Verfahren nach Anspruch 3, wobei ein Imputieren fehlender zweiten Messungen mit Messwerten außerhalb eines Messwertebereichs erfolgt.
  5. Verfahren nach einem der Ansprüche 3 oder 4, wobei der Signifikanzschwellwert abhängig von der Anzahl von Stichproben vorgegeben wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei die ersten Messungen Inline- Messungen und die zweiten Messungen PCM-Messungen sind.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei abhängig von der Korrelation oder der Signifikanzwerte der ersten und zweiten Messungen und abhängig von einer zu erzielenden zweiten Messung der erste Produktionsprozess oder/und der zweite Produktionsprozess angepasst wird.
  8. Vorrichtung, welche eingerichtet ist, das Verfahren nach einem der vorhergehenden Ansprüche auszuführen.
  9. Computerprogramm, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren nach Anspruch 1 bis 7 auszuführen.
  10. Maschinenlesbares Speichermedium , auf dem das Computerprogramm nach Anspruch 9 gespeichert ist.
DE102022207075.5A 2022-07-11 2022-07-11 Verfahren und Vorrichtung zur Produktionsprozessoptimierung anhand ermittelter Korrelationen zwischen ersten und zweiten Messungen aus Produktionsprozessen Pending DE102022207075A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102022207075.5A DE102022207075A1 (de) 2022-07-11 2022-07-11 Verfahren und Vorrichtung zur Produktionsprozessoptimierung anhand ermittelter Korrelationen zwischen ersten und zweiten Messungen aus Produktionsprozessen
US18/349,150 US20240012877A1 (en) 2022-07-11 2023-07-09 Method and Apparatus for Production Process Optimization based on Determined Correlations between First and Second Measurements from Production Processes
CN202310841635.3A CN117391486A (zh) 2022-07-11 2023-07-10 确定不同生产过程中的测量值之间的相关性的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022207075.5A DE102022207075A1 (de) 2022-07-11 2022-07-11 Verfahren und Vorrichtung zur Produktionsprozessoptimierung anhand ermittelter Korrelationen zwischen ersten und zweiten Messungen aus Produktionsprozessen

Publications (1)

Publication Number Publication Date
DE102022207075A1 true DE102022207075A1 (de) 2024-01-11

Family

ID=89386952

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022207075.5A Pending DE102022207075A1 (de) 2022-07-11 2022-07-11 Verfahren und Vorrichtung zur Produktionsprozessoptimierung anhand ermittelter Korrelationen zwischen ersten und zweiten Messungen aus Produktionsprozessen

Country Status (3)

Country Link
US (1) US20240012877A1 (de)
CN (1) CN117391486A (de)
DE (1) DE102022207075A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10201804C1 (de) 2002-01-18 2003-10-09 Perceptron Gmbh Verfahren und System zum Vergleichen von Messdaten
DE102019208922A1 (de) 2019-06-19 2020-12-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Kontrollieren eines Produktionsprozesses

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10201804C1 (de) 2002-01-18 2003-10-09 Perceptron Gmbh Verfahren und System zum Vergleichen von Messdaten
DE102019208922A1 (de) 2019-06-19 2020-12-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Kontrollieren eines Produktionsprozesses

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LEE, Dong-Hee [et al.]: A data-driven approach to selection of critical process steps in the semiconductor manufacturing process considering missing and imbalanced data. In: Journal of Manufacturing Systems, Vol. 52, 2019, S. 146-156.
Yin Lou , Rich Caruana, Giles Hooker, Johannes Gehrke, „Accurate Intelligible Models with Pairwise Interactions" KDD'13, August 11-14

Also Published As

Publication number Publication date
CN117391486A (zh) 2024-01-12
US20240012877A1 (en) 2024-01-11

Similar Documents

Publication Publication Date Title
DE10393394B4 (de) Intelligentes integriertes Lithographiesteuerungssystem auf der Grundlage des Produktaufbaus und Ausbeuterückkopplungssystem und Verfahren zu dessen Anwendung
DE102018109835A1 (de) Verfahren und Vorrichtung zum Ermitteln einer Netzkonfiguration eines neuronalen Netzes
DE102018126429A1 (de) Bearbeitungsbedingungsanpassungsvorrichtung und Maschinenlernvorrichtung
DE102005046972A1 (de) Verfahren und System für eine fortschrittliche Prozesssteuerung unter Anwendung einer Kombination aus gewichteten relativen Voreinstellungswerten
DE102021209343A1 (de) Verfahren und Vorrichtung zur Positionsrekonstruktion von Halbleiterbauteilen auf einem Wafer
DE102019210507A1 (de) Vorrichtung und computerimplementiertes Verfahren für die Verarbeitung digitaler Sensordaten und Trainingsverfahren dafür
WO2021259980A1 (de) Training eines künstlichen neuronalen netzwerkes, künstliches neuronales netzwerk, verwendung, computerprogramm, speichermedium und vorrichtung
DE102022207075A1 (de) Verfahren und Vorrichtung zur Produktionsprozessoptimierung anhand ermittelter Korrelationen zwischen ersten und zweiten Messungen aus Produktionsprozessen
DE102017220954A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Ermittlung einer Anomalie
DE102013212889A1 (de) Verfahren und Vorrichtung zum Erstellen einer Regelungfür eine physikalische Einheit
DE102021210393A1 (de) Verfahren und Vorrichtung zum Betreiben eines technischen Systems
WO2018091592A1 (de) Einrichtung und verfahren zur bestimmung der parameter einer regeleinrichtung
DE102019214546B4 (de) Computerimplementiertes Verfahren und Vorrichtung zur Optimierung einer Architektur eines künstlichen neuronalen Netzwerks
DE112020004837T5 (de) Werkzeugsteuerung mit mehrstufigem lstm zur vorhersage von on-wafer-messungen
DE102020206325A1 (de) Computerimplementiertes Verfahren zum Testen eines technischen Systems
DE102020201600A1 (de) Verfahren zum Ermitteln von Prioritäten von Basisereignissen in einer Fehlerbaumanalyse eines technischen Systems
DE102021204550A1 (de) Verfahren zum Erzeugen wenigstens eines Datensatzes zum Trainieren eines Algorithmus maschinellen Lernens
DE102020200849A1 (de) Verfahren und Vorrichtung zur Prozessoptimierung einer Fertigungsprozesskette
DE102022208394A1 (de) Verfahren und Vorrichtung zum Identifizieren von Variablen aus einer Mehrzahl von Variablen, die eine Abhängigkeit von einer vorgegebenen Variable aus der Mehrzahl der Variablen aufweisen
DE102022205141A1 (de) Verfahren und Vorrichtung zur Positionsrekonstruktion von Halbleiterbauteilen auf einem Wafer
DE102019207911A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Vorhersage einer Lernkurve
DE102022209542B4 (de) Sensormesswertanomaliedetektion
DE19948569C2 (de) Verfahren und Anordnung zur rechnergestützten Ermittlung und Auswahl signifikanter Meßgrößen
EP4377706A1 (de) Unsicherheitsabschätzung einer positionsrekonstruktion von halbleiterbauteilen auf einem wafer
DE102021209608A1 (de) Verfahren und Vorrichtung zur Positionsrekonstruktion von Halbleiterbauteilen auf einem Wafer

Legal Events

Date Code Title Description
R163 Identified publications notified