-
Gebiet der vorliegenden Offenbarung
-
Die
vorliegende Offenbarung betrifft im Allgemeinen das Gebiet der Herstellung
von Halbleiterbauelementen und betrifft insbesondere Prozesssteuerungs-
und Überwachungstechniken,
etwa die Fehlererkennung und Klassifizierung für Fertigungsprozesse, wobei
eine erhöhte
Prozessqualität
erreicht werden kann, indem Prozessfehler auf der Grundlage von
Produktionsdaten erkannt werden.
-
Beschreibung des Stands der
Technik
-
Der
heutige globale Markt zwingt Hersteller von Massenprodukten dazu,
diese mit hoher Qualität bei
geringem Preis anzubieten. Es ist daher wichtig, die Ausbeute und
die Prozesseffizienz zur Minimierung der Herstellungskosten zu verbessern.
Dies gilt insbesondere auf dem Gebiet der Halbleiterherstellung,
da es hier wesentlich ist, modernste Technologie mit Massenproduktionsverfahren
zu kombinieren. Es ist daher das Ziel der Halbleiterhersteller,
den Verbrauch von Rohmaterialien und Verbrauchsmaterialien zu verringern,
wobei gleichzeitig die Produktqualität und die Prozessanlagenauslastung
verbessert werden soll. Der zuletzt genannte Aspekt ist insbesondere
wichtig, da in modernen Halbleiterfertigungsstätten Anlagen erforderlich sind,
die äußerst kostenintensiv
sind und den wesentlichen Teil der gesamten Herstellungskosten repräsentieren.
Beispielsweise sind bei der Herstellung moderner integrierter Schaltungen
mehrere hundert einzelne Prozesse erforderlich, um die integrierte
Schaltung fertigzustellen, wobei ein Fehler in einem einzelnen Prozessschritt
zu einem Verlust der ganzen integrierten Schaltung führen kann.
Dieses Problem wird weiter verschärft, wenn die Größe von Substraten
lediglich vergrößert wird,
auf denen eine Vielzahl derartiger integrierter Schaltungen bearbeitet
werden, so dass der Fehler in einem einzelnen Prozessschritt möglicherweise
den Verlust einer sehr großen
Anzahl an Produkten nach sich ziehen kann.
-
Daher
müssen
die diversen Fertigungsphasen gewissenhaft überwacht werden, um eine unerwünschte Verwendung
von Ingenieursleistung, Anlagenbetriebszeit und Rohmaterialien zu
vermeiden. Idealerweise würde
die Wirkung jedes einzelnen Prozessschrittes auf jedes Substrat
durch Messung erkannt und das betrachtete Substrat würde die
weitere Bearbeitung nur dann freigegeben, wenn die erforderlichen
Spezifikationen erfüllt
sind, die wünschenswerterweise
gut verstandene Abhängigkeiten
zur endgültigen
Produktqualität
besitzen. Eine entsprechende Prozesssteuerung ist jedoch nicht praktikabel,
da das Messen der Auswirkungen gewisser Prozesse relativ lange Messzeiten
erfordert, häufig
außerhalb
der Prozesslinie, oder weil sogar eine Zerstörung der Probe erforderlich
ist. Des Weiteren wäre ein
sehr großer
Aufwand im Hinblick auf Zeit und Anlagen auf der Messseite erforderlich,
um die erforderlichen Messergebnisse bereitzustellen. Des Weiteren würde die
Auslastung der Prozessanlage minimiert, da die Anlage lediglich
freigegeben würde,
nachdem das Messergebnis und seine Bewertung verfügbar wird.
Ferner sind viele der komplexen gegenseitigen Abhängigkeiten
der diversen Prozesse typischerweise nicht bekannt, so dass eine
im Voraus stattfindende Festlegung entsprechender Prozessspezifikationen
schwierig ist.
-
Die
Einführung
statistischer Verfahren, was auch als statistische Prozesssteuerung
(SPC) bezeichnet wird, zum Einstellen von Prozessparametern vereinfacht
die obige Problematik wesentlich und ermöglicht eine moderate Auslastung
der Prozessanlagen, wobei auch eine relativ hohe Produktausbeute
erreicht wird. Die statistische Prozesssteuerung beruht auf der Überwachung
des Prozessergebnisses, um damit eine Situation, die außerhalb des
Steuerungsbereichs liegt, zu erkennen, wobei ein ursächlicher
Zusammenhang mit einer äußeren Störung hergestellt
wird. Nach dem Auftreten der Situation, die außerhalb des zulässigen Bereichs
liegt, wird für
gewöhnlich
Einwirkung eines Operators erforderlich, um einen Prozessparameter
so zu verändern,
dass wieder eine Situation im zulässigen Bereich erreicht wird,
wobei der kausale Zusammenhang hilfreich ist, um eine geeignete
Steueraktion auszuwählen.
Dennoch sind insgesamt eine große Anzahl
an Platzhaltersubstraten oder Pilotsubstraten erforderlich, um Prozessparameter
entsprechender Prozessanlagen einzustellen, wobei tolerierbare Parameterverschiebungen
während
des Prozesses berücksichtigt
werden müssen,
wenn eine Prozesssequenz gestaltet wird, da die heutigen Parameterverschiebungen über eine
lange Zeitdauer hinweg erkannt bleiben können oder in nicht effizienter
Weise durch SPC-Techniken kompensiert werden können.
-
In
der jüngeren
Vergangenheit wurde eine Prozesssteuerungsstrategie eingeführt und
diese wird zunehmend verbessert, die eine höhere Effizienz der Prozesssteuerung
ermöglicht,
wünschenswerterweise
auf der Grundlage einzelner Prozessdurchläufe, wobei lediglich eine moderate
Menge an Messdaten erforderlich ist. In dieser Steuerungsstrategie,
die sogenannte fortschrittliche Prozesssteuerung (APC) wird ein
Modell eines Prozesses oder einer Gruppe aus hintereinander in Beziehung
stehender Prozesse erstellt und in einer ge eignet ausgestalteten
Prozesssteuerung eingerichtet. Die Prozessteuerung empfängt ferner
Informationen, die Messdaten vor dem Prozess und/oder Messdaten
nach dem Prozess sowie Informationen enthalten kann, die beispielsweise
mit der Substratgeschichte, der Art des Prozesses oder der Prozesse,
der Produktort, der Prozessanlage, oder Prozessanlagen, in denen die
Produkte zu bearbeiten sind oder bearbeitet wurden, in vorhergehenden
Schritten, das Prozessrezept, das anzuwenden ist, d. h. die Menge
aus erforderlichen Teilschritten für den betrachteten Prozess oder
die Prozesse, wobei möglicherweise
festgelegte Prozessparameter und variable Prozessparameter enthalten
sind, und dergleichen enthält.
Aus dieser Information und dem Prozessmodell bestimmt die Prozesssteuerung
einen Steuerungszustand oder Prozesszustand, der die Wirkung des
Prozesses oder der betrachteten Prozesse auf das spezielle Produkt
beschreibt, wobei das Ermitteln einer geeigneten Parametereinstellung
der variablen Parameter des spezifizierten Prozessrezepts möglich ist,
das an dem betrachteten Substrat auszuführen ist.
-
Obwohl
APC-Strategien deutlich zu einer Ausbeuteverbesserung und/oder zu
einem besseren Leistungsverhalten der Bauelemente und/oder zu einer
Verringerung der Produktionskosten beitragen, besteht dennoch eine
statistische Wahrscheinlichkeit, dass selbst Prozessergebnisse,
die unter Anwendung einer APC-Technik erreicht werden, außerhalb
vordefinierter Wertebereiche liegen, woraus sich Ausbeuteverluste
ergeben. In Fertigungslinien mit Massenproduktionsverfahren können selbst
kurze Verzögerungen
zwischen dem Auftreten einer Situation außerhalb des zulässigen Bereichs,
durch beispielsweise einen Anlagenfehler angezeigt wird, dessen
Erkennung zu substantiellen finanziellen Verlusten führen. Folglich
ist es vorteilhaft, Fehlererkennungs- und Klassifizierungs-(FDC)Techniken
in Verbindung mit anderen Steuerungsstrategien, etwa APC und/oder
SPC einzusetzen, um damit selbst subtile Änderungen der Prozesssequenz
oder des gesamten Prozessablaufs zu erkennen, da eine nicht erkannte
Verschiebung des Prozesses zu einer sehr großen Anzahl von Halbleiterbauelementen
mit unzureichender Qualität
führen
kann.
-
In
konventionellen Fehlererkennungs- und Klassifizierungstechniken
wird eine sehr große
Anzahl an Prozessparametern überwacht
und analysiert, um eine Abweichung von einem Soll-Verhalten der
betrachteten Fertigungsumgebung zu erkennen. Wie zuvor erläutert ist,
sind typischerweise mehrere hundert Prozessschritte für Fertigstellung
komplexer integrierter Schaltungen erforderlich, wobei jeder dieser
Schritte innerhalb spezifizierter Prozessgrenzen zu halten ist,
wobei jedoch die gegenseitige Wechselwirkung der sehr komplexen
Fertigungsprozesse auf das schließlich erreichte elektrische
Verhalten des fertiggestellten Bauelements nicht bekannt ist. Somit kann
selbst eine Abweichung der Vielzahl von Prozessen innerhalb der
spezifizierten Prozessfenster zu einer merklichen Wankung im schließlich erreichten
Prozessergebnis führen.
Aus diesem Grund wird eine Vielzahl von Messschritten typischerweise
in den gesamten Fertigungsablauf eingebunden, wobei aufgrund des
Gesamtdurchsatzes und im Hinblick auf die Datenverarbeitungskapazitäten typischerweise
eine ausgewählte
Anzahl an Bodensubstraten der Messung unterzogen wird, auf deren
Grundlage geeignete Steuerungsmechanismen ausgeführt werden und die Gesamtqualität der Fertigungssequenzen
im Hinblick auf Fehler bewertet wird. Ferner kann auch eine gewisse
Klassifizierung erkannter Fehler auf der Grundlage der stichprobenartigen
Messungen bewerkstelligt werden. Obwohl die jeweiligen Messschritte
auf eine definierte Anzahl an Proben beschränkt sind, erfordert die ständig zunehmende Komplexität des gesamten
Fertigungsprozesses das Überwachen
einer sehr großen
Anzahl an Prozessparametern, etwa die Schichtdicke von kritischen Prozessschichten,
das Gatedielektrikumsmaterial und dergleichen, kritische Abmessungen
von gewissen Schaltungskomponenten, etwa von Gateelektroden, Dotierstoffpegel,
Verspannungspegel, Schichtwiderstände und dergleichen, wobei
viele dieser Prozessparameter für
eine Vielzahl unterschiedlicher Bauteilebenen, beispielsweise für eine Vielzahl
von Metallisierungsebenen und dergleichen zu Überwachen sind. Folglich ist
es sehr schwierig, in zuverlässiger
Weise die Qualität
eines Produktionsprozesses zu bewerten, da das Berücksichtigen
lediglich einer beschränkten
Anzahl an Prozessparametern zu einer weniger aussagekräftigen Abschätzung führen kann, wobei
die gegenseitigen Wechselwirkungen der diversen Prozessschritte
nicht im voraus erkannt sind, während
das Überwachen
einer großen
Anzahl von Prozessparametern komplexe Datenverarbeitungsalgorithmen
erfordert, um damit relevante Parameter und ihre Abweichung vom
Nullwert auf der Grundlage sehr großer Datensätze zu erkennen.
-
Aus
diesem Grunde werden effiziente statistische Datenverarbeitungsalgorithmen
eingesetzt, die deutliche Verringerung der großen Dimensionszahl des Parameterraumes
ermöglichen,
während noch
keine wichtige Information über
die inneren Eigenschaften des gesamten Prozessablaufs im Wesentlichen
verlorengeht, die in den Messdaten in einer mehr oder weniger subtilen
Weise enthalten sind. Zu diesem Zweck werden statistische Algorithmen, etwa
die Analyse der „k” nächsten Nachbarn
(KNN), die Hauptkomponentenanalyse (PCA) und dergleichen als mächtige Werkzeuge
eingesetzt, um eine große
Anzahl von Messdaten hinsichtlich einer großen Anzahl von Parametern zu
bewerten, wodurch ein gewünschter
Grad an Datenreduktion erreicht wird, ohne dass wertvolle Information über die betrachteten
Prozessbedingungen verloren wird. Beispielsweise kann die Hauptkomponentenanalyse
für die
Fehlererkennung und Klassifizierung eingesetzt werden, indem ein „Modell” der betrachteten
Prozesssequenz erstellt wird, in dem geeignet ausgewählte Messdaten,
die als Referenzdaten dienen, verwendet werden, um entsprechende „neue” Parameter
als eine Linearkombination der vielen betrachteten Prozessparameter
zu ermitteln, wobei die neuen Parameter oder Hauptkomponenten entsprechende
Größen repräsentieren,
die den ausgeprägtesten Einfluss
auf die Variabilität
des Prozessergebnisses für
einen gegebenen Satz an Eingangsparametern repräsentieren. Somit kann typischerweise
eine deutlich geringere Anzahl an „neuen” Parametern oder Hauptkomponenten
oder Vektoren des vieldimensionalen Parameterraumes PCA-Formalismus
ermittelt werden, die „überwacht” werden,
um eine Abweichung in aktuellen Messdaten zu erkennen, die den aktuellen
Status des hochdimensionalen Parameterraumes und somit der Prozessbedingungen,
die dem hochdimensionalen Parameterraum entsprechen, beschreiben.
Wenn die anfänglichen
Messdaten, für die
eine entsprechende Datenreduktion ausgeführt ist, als „gute” Daten
betrachtet werden, können
die entsprechenden Transformationen und Korrelations- und Kovarianzkomponenten
als ein Modell für
den betrachteten Prozess oder die Prozesssequenz verwendet werden,
das dann auf andere Messdaten angewendet wird, die den gleichen
Satz an Parametern betreffen, um damit eine Abweichung zwischen
der Modellvorhersage und den aktuellen Messdaten zu bestimmen. Wenn
eine entsprechende Abweichung erkannt wird, werden die Messdaten,
die durch das PCA-Modell bewertet werden, somit als solche bewertet,
die einen Fehlerzustand der Fertigungsumgebung angeben. Eine entsprechende
Abweichung kann auf der Grundlage statistischer Algorithmen bestimmt
werden, so dass das PCA-Modell in Verbindung mit den statistischen
Algorithmen ein effizientes Erkennen und auch Klassifizieren des
Status der Fertigungsumgebung entsprechend verfügbaren Messdaten ermöglicht.
-
Beispielsweise
sind in aufwendigen Fertigungsprozessen, etwa plasmaunterstützten Ätzsequenzen
und dergleichen, eine Vielzahl von Anlagenparametern zu überwachen,
etwa die Durchflussraten von Vorstufengasen, die Hochfrequenzleistung und/oder
die Niederfrequenzleistung, resultierende Vorspannungen, der Druck
in der Anlagenatmosphäre,
der Status gewisser mechanischer Komponenten, die Temperatur und
der Kühlmittelstrom
und dergleichen. Folglich wird eine moderat hohe Anzahl an Anlagen-
oder Prozessparametern kontinuierlich überwacht während der Bearbeitung von Substraten,
um damit die Qualität
der Prozessbedingungen während des
Bearbeiters jedes einzelnen Substrats zu bewerten. Beispielsweise
wird eine vorbestimmte Häufigkeit
zum Nehmen von Messdaten, die die vielen Prozessparameter repräsentieren,
angewendet, um damit die entsprechenden Messdaten zu erhalten, wobei
bewerkstelligt werden kann, indem in geeigneter Weise anlageninterne „Sensoren” oder andere
Messeinrichtungen ausgelesen werden, die mit einer Anlagensteuereinheit
in Verbindung sind. Folglich wird eine moderat große Menge
an Messdaten an das Fehlererkennungssystem übermittelt, um damit eine Einschätzung der
aktuellen Prozessbedingungen in einer gewünschten hohen Zuverlässigkeit
und ohne eine wesentliche Verzögerung
zu erreichen, so dass eine kurzzeitige Reaktion auf abweichende
Situationen möglich
ist, die durch das Fehlererkennungssystem bezeichnet werden. Wie
zuvor erläutert
ist, kann das Fehlererkennungssystem einen oder mehrere „neu definierte” Parameter überwachen,
d. h. entsprechende Linearkombinationen des vieldimensionalen Parameterraums,
beispielsweise durch den PCA-Algorithmus als geeigneten ermittelt
werden, um den aktuellen Status des betrachteten Prozesses zu repräsentieren.
beispielsweise wird ein entsprechender Basisvektor oder eine Basisfunktion
des vieldimensionalen Parameterraumes, der die Richtung der größten Variabilität repräsentiert,
verwendet, um eine abweichende Situation zu erkennen, beispielsweise
indem ein aktueller Wert der Basisfunktion mit einer Referenzfunktion
verglichen wird, die auf der Grundlage „guter” Messergebnisse ermittelt
wurde, wie dies auch zuvor erläutert
ist. Obwohl die Datenreduktionstechniken, etwa die PCA-Technik,
das Bewerten einer großen
Anzahl einzelner Parameter mit subtilen und häufig nicht bekannten gegenseitigen
Wechselwirkungen ermöglichen,
ist die Zuverlässigkeit
des Erkennens von abweichenden Situationen weniger ausgeprägt als erwartet,
da eine Vielzahl „falscher
Alarme” durch
konventionelle Fehlererkennungssysteme ausgelöst wird, während in anderen Fällen ein
hoher Anteil an abweichenden Situationen nicht erkannt wird, durch
die gesamte Produktionsausbeute verringert und die Durchlaufzeiten
von Produkten in komplexen Fertigungslinien für die Herstellung von Mikrostrukturbauelementen
verlängert werden.
-
Die
WO 2008/085706 A1 offenbart
ein Verfahren zur Modellierung einer Verarbeitungsvorrichtung, in
der variable Prozessdatensätze
zum Bestimmen statistischer Daten Verwendung finden.
-
In
der
US 2006/0095232
A1 wird ein Verfahren zur Fehlerdetektion für eine einer
Verarbeitungsvorrichtung beschrieben, in dem ein Verhältnis zwischen
einem Parameter einer Fehlerdetaktionsanalyse und einem detektierten
Fehler bestimmt wird und eine mit dem Parameter assoziierte Gewichtung
vorgenommen wird.
-
Die
WO 2004/003671 A1 offenbart
Verfahren zur Fehlerdetektion für
eine einer Verarbeitungsvorrichtung basierend auf einer Unterteilung
einer Prozesskette in Unterprozesse und dafür berechnete Modelle.
-
Angesichts
der zuvor beschriebenen Situation betrifft die vorliegenden Offenbarung
Techniken und Systeme, in denen die Zuverlässigkeit des Erkennens von
Fehlerbedingungen in komplexen Fertigungsprozessen verbessert wird,
wobei eines oder mehrere der oben erkannten Probleme vermieden oder
zumindest in der Auswirkung reduziert wird.
-
Überblick über die Offenbarung
-
Im
Allgemeinen betrifft die vorliegende Offenbarung Techniken und Systeme,
in denen eine Fehlererkennung und bei Bedarf eine Klassifizierung von
Fehlern in komplexen Fertigungsumgebungen verbessert wird, indem
die Messdatenqualität
der Prozessdaten berücksichtigt
wird, die aufgrund beispielsweise einer deutlichen Änderung
der Datenkommunikationsrate während
des Datenaustausches zwischen einer Prozessanlage und dem Fehlererkennungssystem
beeinträchtigt
werden kann. Es wurde erkannt, dass eine Abweichung der tatsächlichen
Datenrate von einer Soll-Datenrate, die durch prozessanlageninterne
Steuerungsstrategien hervorgerufen wird, einen deutlichen Einfluss
auf die endgültige
Bewertung von Prozessbedingungen auf der Grundlage effizienter Datenreduktionsmechanismen ausüben kann,
die daher häufig
zu fehlerhaften Einschätzungen
von Prozessbedingungen in konventionellen Steuerungsstrategien führen. Folglich
wird in einigen hierin offenbarten anteiligen Aspekten die Datenqualität verwendet,
beispielsweise in Form eines Maßes,
das die Vollständigkeit
eines entsprechenden Messdatensatzes angibt, der Wert der Datenraten
und dergleichen, angewendet, um die Prozessbedingungen „neu zu
bewerten”.
In einigen anschaulichen hierin offenbarten Ausführungsformen wird das entsprechende
Maß, das
die Datenqualität angibt,
etwa die Datenrate und dergleichen, selbst als eine Eingangsvariable
des Datenreduktionsalgorithmus verwendet, so dass der „Beitrag” dieses
Maßes
für die
endgültige
Bewertung durch den Fehlererkennungsmechanismus für eine abschließende Bewertung
der Prozessbedingungen verwendet wird. In diesem Falle kann das
Maß, das
die Datenqualität bezeichnet,
als ein „virtueller
Sensor” des
Prozesses oder der betrachteten Prozessanlage betrachtet werden,
der damit als ein zusätzliches
Kriterium zum Bewerten der aktuellen Prozess- und Anlagenparameter
verwendet werden kann und auch zum endgültigen Entscheiden herangezogen
werden kann, ob eine aktuelle Prozessbedingung unzulässig abweicht oder
nicht.
-
Ein
anschauliches, hierin offenbartes Verfahren betrifft das Überwachen
eines Produktionsprozesses für
die Bearbeitung von Mikrostrukturbauelementen in einer Prozessanlage.
Das Verfahren umfasst das Ausführen
eines Datenkommunikationsprozesses, um mehrere Messdaten zumindest
einige Male während
der Bearbeitung eines Mikrostrukturbauelements von der Prozessanlage
zu einem Fehlererkennungssystem zu übertragen. Das Verfahren umfasst
ferner das Bestimmen eines Datenkommunikationsqualitätsmaßes in dem
Fehlererkennungssystem, wobei das Datenkommunikationsmaß zumindest
den Grad an Vollständigkeit
der Messdaten angibt. Der Grad an Vollständigkeit hängt hierbei von der Menge an
Messdaten ab, die von dem Fehlererkennungssystem empfangen werden.
Des Weiteren umfasst das Verfahren das Ausführen eines Fehlererkennungsprozesses
in dem Fehlererkennungssystem auf der Grundlage der mehreren Messdaten
und des Datenkommunikationsqualitätsmaßes.
-
Ein
noch weiteres anschauliches hierin offenbartes Verfahren betrifft
die Fehlererkennung in einem Halbleiterfertigungsprozess. Das Verfahren umfasst
das Übermitteln
von Messdaten für
jeden von mehreren Prozessparametern des Fertigungsprozesses zu
einem Fehlererkennungssystem. Des Weiteren wird ein Datenreduktionsprozess
in dem Fehlererkennungssystem ausgeführt, in der die mehreren Prozessparametern
als eine Eingangsvariable verwendet wird. Das Verfahren umfasst
ferner das Bestimmen eines Datenratenmaßes (QM1,
.., QMn-1) für einen Datenübermittlungsprozess,
der zum Übermitteln
der Messdaten verwendet wird. Des Weiteren umfasst das Verfahren
das Verwenden des Datenratenmaßes
als eine weitere Eingangsvariable für den Datenreduktionsprozess.
Zusätzlich
umfasst das Verfahren das Bewerten des Halbleiterfertigungsprozesses
unter Anwendung eines Qualitätsmaßes, das durch
den Datenreduktionsprozess auf der Grundlage der Eingangsvariablen
und unter Anwendung eines Datenratenbeitragswertes erhalten wird,
das einen Betrag des Datenratenmaßes zu Qualitätsmaß angibt.
-
Ein
anschauliches hierin offenbartes Fehlererkennungssystem umfasst
eine Schnittstelle, die ausgebildet ist, Messdaten von mindestens
einer Prozessanlage zu empfangen, die zum Bearbeiten eines Substrats
verwendet wird, wobei die Messdaten mehrere Prozessparameter der
mindestens einen Prozessanlage repräsentieren.
-
Das
Fehlererkennungssystem umfasst ferner ein Fehlererkennungsmodul,
das mit der Schnittstelle verbunden und ausgebildet ist, ein Datenübermittlungsqualitätsmaß zu bestimmen,
das zumindest eine Datenrate einer Datenkommunikation der Schnittstelle
angibt, in der die Messdaten empfangen werden. Des Weiteren ist
das Fehlererkennungsmodul ausgebildet, eine Fehlerbedingung der
mindestens einen Prozessanlage auf der Grundlage des Datenübermittlungsqualitätsmaßes und
der Messdaten zu bestimmen.
-
Kurze Beschreibung der Zeichnungen
-
Weitere
Ausführungsformen
der vorliegenden Offenbarung sind in den angefügten Patentansprüchen definiert
und gehen deutlicher aus der folgenden detaillierten Beschreibung
hervor, wenn diese mit Bezug zu den begleitenden Zeichnungen studiert
wird, in denen:
-
1a schematisch
eine konventionelle Fertigungsumgebung zeigt mit einer Prozessanlage, um
Halbleitersubstrate zu bearbeiten, wobei eine Fehlererkennung und
Klassifizierung auf der Grundlage einer konventionellen Strategie
ausgeführt;
-
1b schematisch
den Ablauf zeigt, um den Status eines Fertigungsprozesses unter
Anwendung einer PCA-Technik zu bewerten, um damit eine Fehlerbedingung
zu erkennen, die eine zusätzliche Bewertung
in Hinblick auf beeinträchtigte
Messdatenqualität
gemäß anschaulicher
Ausführungsformen erfordert;
-
1c schematisch
eine entsprechende Tabelle einer Basisfunktion zeigt, die durch
den PCA-Mechanismus erhalten wird, und entsprechende Beiträge von Prozess-
oder Anlagenparametern, die als Basis für die weitere Datenanalyse
verwendet werden können,
um damit Fehlerbedingungen weiter zu bewerten, die durch die Basisfunktion
des PCA-Mechanismus erkannt wurden;
-
1d und 1e schematisch
grafische Darstellungen eines Prozesses für eine detaillierte Datenanalyse
berücksichtigen
von Datenratenproblemen gemäß anschaulicher
Ausführungsformen
zeigen;
-
1f und 1g Graphen
zeigen, die anschaulich das Auftreten von Datenratenabweichungen
(1f) und eine entsprechende Normalverteilung tatsächlicher
Datenraten, die um eine Soll-Datenrate herum verteilt ist (1g)
darstellen;
-
1h schematisch
ein Schema zum Miteinbeziehen eines Kommunikationsqualitätsmaßes im PCA-Mechanismus
unter Anwendung eines entsprechenden Maßes als eine weitere Eingangsvariable
bzw. eines „virtuellen
Sensors” des
betrachteten Prozesses gemäß anschaulicher
Ausführungsformen
zeigt;
-
1i schematisch
ein Schema zeigt, um eine geeignete Eingangsvariable in Form einer. Datenübermittlungsqualitätsmaßzahl auf
Basis entsprechender Zeitmarken übermitteln,
die mit jeweiligen Messdaten gemäß anschaulicher
Ausführungsformen
verknüpft
sind;
-
1j schematisch
ein Fehlererkennungssystem zeigt, das funktionsmäßig mit einer Prozessanlage
verbunden ist, wobei eine verbesserte Fehlererkennung erreicht wird,
in denen virtueller Datenqualitätssensor
gemäß anschaulicher
Ausführungsformen
eingerichtet wird; und
-
1k schematisch
eine Tabelle zeigt, die die Basisfunktion und die entsprechenden
Beiträge der
tatsächlichen
Prozess- oder Anlagenparameter und eines virtuellen Sensors, der
die Messdatenqualität
bezeichnet, gemäß anschaulicher
Ausführungsformen
angibt.
-
Detaillierte Beschreibung
-
Es
ist zu beachten, dass, obwohl die vorliegende Offenbarung mit Bezug
zu den Ausführungsformen
beschrieben ist, wie sie in der folgende detaillierten Beschreibung
zu den Zeichnungen dargestellt sind, die detaillierte Beschreibung
nicht beabsichtigt, die vorliegende Offenbarung auf die speziellen
offenbarten Ausführungsformen
einzuschränken,
sondern die beschriebenen Ausführungsformen
stellen lediglich beispielhaft die diversen Aspekte der vorliegenden
Offenbarung dar, deren Schutzbereich durch die angefügten Patentansprüche definiert
ist.
-
Im
Allgemeinen stellt die vorliegende Offenbarung Techniken und Systeme
bereit, in denen die Zuverlässigkeit
der Fehlererkennung verbessert wird, indem die Datenkommunikationsqualität für Messdaten
berücksichtigt
wird, die von einer oder mehreren Prozessanlagen zu dem Fehlererkennungssystem übertragen
werden. Wie zuvor erläutert ist,
ist typischerweise eine große
Anzahl an Prozess- und Anlagenparametern oder „Sensoren” über die Zeit hinweg beobachtet
werden, wodurch eine moderat große Menge an Messdaten erzeugt
wird. Für eine
effiziente Gesamtprozesssteuerung wird typischerweise eine vordefinierte
Häufigkeit
der Datennahme im Voraus festgelegt, und damit eine gewünschte Zeitabdeckung
der entsprechenden Zeit- und Prozessparameter zu erreichen. Beispielsweise wird
eine Sollabtastrate von 2 Hz oder 0,5 s für spezielle Prozessanlagen
eingesetzt, in denen sehr dynamische Prozesse ausgeführt werden,
etwa Ätzprozesse,
Abscheideprozesse, Einebnungsprozesse und dergleichen. Zur Verbesserung
der Reaktionsfähigkeit
des Fehlererkennungssystems müssen
die entsprechenden Messdaten im Fehlererkennungssystem mit geringer
Verzögerung
zugeführt
werden, um damit die Bearbeitung der Messdaten, beispielsweise im
Hinblick auf das Berechnen des Mittelwertes über die Zeit und dergleichen,
zu ermöglichen,
die wiederum entsprechende Eingangsvariablen für Datenreduktionsmechanismen,
etwa PCA, KNN-Techniken und dergleichen repräsentieren. Andererseits erfordern
komplexe Prozessanlagen typischerweise aufwändige Steuerungsstrategien,
möglicherweise auf
der Grundlage eines übergeordneten
Fabrikverwaltungssystems, so dass auch eine Vielzahl anlageninterner
Aktivitäten
durch das anlageninterne Steuerungssystem gesteuert, und an das übergeordnete
Verwaltungssystem berichtet werden müssen. Folglich wird eine sehr
große
Anzahl an Anlagendaten während
der Bearbeitung von Substraten erzeugt und diese müssen an
externe Quellen übermittelt werden,
etwa das Fehlererkennungssystem, das übergeordnete Fabrikverwaltungssystem,
und dergleichen. Des Weiteren muss das anlageninterne Steuerungssystem
auf den aktuellen Anlagenzu stand reagieren, beispielsweise durch
Initiieren des Substrattransports, das Steuern von Vorstufenmaterialien
und dergleichen, auf der Grundlage eines vorbestimmten Prozessrezepts,
so dass eine sehr dynamische Sequenz aus Aktivitäten, die durch die Steuerung
initiiert werden, von dem anlageninternen Steuerungssystem abgearbeitet
werden muss. Für gewöhnlich besitzen
diese Steuerungseinheit darin eingerichtet eine Steuerungsstrategie,
die den Aktivität
höchste
Priorität
gibt, die direkt der Substratbearbeitung in der Anlage gemäß dem spezifizierten
Rezept verknüpft
sind, während
andererseits die Datenkommunikation von Messdaten mit geringerer
Priorität
gehandhabt wird. Folglich kann das Auslesen der Vielzahl an Messdaten,
die von dem Fehlererkennungssystem angefordert werden, abhängig von dem
aktuellen Anlagenzustand sein und kann aufgrund der anlageninternen
Hierarchie zum Abarbeiten der diversen Anforderungen zu einer ausgeprägten Datenratenvariation
führen,
so dass viele Messdaten mit deutlicher Verzögerung bereitgestellt werden
oder sogar vollständig
verloren gehen. Da derartige Unregelmäßigkeiten beim Datenübertrag
an das Fehlererkennungssystem eine deutliche Variation eines oder
mehrerer Prozessparameter hervorrufen kann, die als Eingangsvariablen
des Datenreduktionsmechanismus dienen, wird gemäß den hierin offenbarten Prinzipien
die Datenkommunikationsqualität
berücksichtigt,
wenn die Qualität
eines Fertigungsprozesses bewertet wird, so dass die Wahrscheinlichkeit
des Erzeugens eines falschen Alarmes oder das Übersehen einer abweichenden
Situation im Vergleich zu konventionellen Strategien verringert wird.
-
In
einigen anschaulichen hierin offenbarten Ausführungsformen wird der Grad
der Datenvollständigkeit,
der sich auf der Grundlage der aktuellen Datenrate, dem Zeitintervall
zwischen aufeinander folgenden Messwerten, die mit einer speziellen
Anlage oder einem Prozessparameter verknüpft sind, und dergleichen ausdrückt, als
ein weiterer Parameter im vieldimensionalen Parameterraum des multivariablen
Datenreduktionsmechanismus verwendet. Beim Erstellen eines geeigneten
Modells des betrachteten Prozesses, wie dies zuvor erläutert ist,
trägt somit auch
der Kommunikationsqualitätsparameter,
der eine Art an „virtuellem
Sensor” des
betrachteten Prozesses repräsentiert,
zu den einen oder den mehreren Basisvektoren oder Basisfunktionen
bei, die die „neuen” Parameter
angeben, die die größte Variabilität in Abhängigkeit
der Eingangsparameter zeigen. Somit kann auch ein entsprechender
Beitrag des Datenqualitätsparameters
auf der Grundlage der erstellten Modelle bestimmt und für eine weitere
Bewertung von Beiträgen
verbleibenden Prozessparameter und von Basisfunktionen, die für die Erkennung
möglicher Kandidaten
für abweichende
Situationen verwendet werden, eingesetzt werden. Unter Anwendung
des Datenqualitätsparameters
als eine Eingangsvariable des Datenreduktionsmechanismus wird eine sehr
effiziente und schnelle Technik in einem Fehlererkennungssystem
eingerichtet, wodurch ein im Wesentlichen unverzögertes Antwortverhalten erreicht
wird, wie es im Erkennen von abweichenden Situationen auf Basis
einzelner Scheiben erwünscht
ist. In anderen anschaulichen Ausführungsformen werden zusätzliche
Datenqualitätsinformationen
aus den Messdaten auf der Grundlage konventioneller Datenreduktionstechniken,
etwa PCA, und dergleichen extrahiert, um damit den Prozessstatus
erneut zu bewerten, der auf der Grundlage der konventionellen Techniken
ermittelt wurde. In diesem Falle wird eine weitere Analyse der Messdaten
auf tieferer Ebene ausgeführt,
um damit Beiträge
der diversen Eingangsvariablen zu bewerten, d. h. der eigentlichen
Prozess- oder Anlagenparameter mit Hinblick auf die Datenintegrität, d. h.
auf den Grad der Vollständigkeit
der Messdaten, im Hinblick auf die Datenrate und dergleichen.
-
Mit
Bezug zu den begleitenden Zeichnungen werden nunmehr weitere anschauliche
Ausführungsformen
detaillierter beschrieben, wobei konventionelle Daten reduktionstechniken
mit Bezug zu 1a erläutert werden.
-
1a zeigt
schematisch eine typische bekannte Fertigungsumgebung 150,
die in einer anschaulichen Ausführungsform
eine Fertigungsumgebung zum Erzeugen von Mikrostrukturbauelementen, etwa
von integrierten Schaltungen, mikromechanischen Systemen, optoelektronischen
Komponenten und dergleichen repräsentiert.
Die Umgebung 150 umfasst mehrere Prozessanlagen und Messanlagen 140,
wobei der Einfachheit halber lediglich eine einzelne Prozessanlage
in 1a gezeigt ist. Die eine oder die mehreren Prozessanlagen 140 werden
verwendet, um mehrere Prozessschritte auszuführen, wobei tatsächliche
Produktionsprozesse in Verbindung mit Messprozessen enthalten sind.
Beispielsweise repräsentiert
die Prozessanlage 140 eine Lithografieanlage, eine Ätzanlage,
Implantationsanlagen, Ausheizanlagen, Abscheideanlagen, CMP-(chemisch
mechanische Polier-)Anlagen und dergleichen, wobei zu beachten ist,
dass eine Vielzahl einzelner Prozessschritte, etwa separate Ätzschritte,
Abscheideschritte, und dergleichen in einzelnen Prozessanlage ausgeführt werden
können, die
mehrere Prozesskammern aufweisen kann, so dass das gewünschte Prozessergebnis
erreicht wird. Folglich ist die Prozessanlage 140 in geeigneter
Weise ausgebildet, Substrate 160 zu empfangen und einen
oder mehrere Prozessschritte unter spezifizierten Prozessbedingungen
auszuführen,
die auf der Grundlage eines speziellen Prozessrezepts eingerichtet
werden. Wie zuvor erläutert
ist, kann sich in komplexen Fertigungssequenzen das Rezept aufgrund
der Bearbeitung unterschiedlicher Arten von Produkten häufig ändern, so
dass ein hohes Maß an Variabilität der Prozessbedingungen
in den Prozessanlagen 140 angetroffen werden kann. Selbst
für ähnliche
Prozessrezepte können
sich die Prozessbedingungen für
die einzelnen Substrate 160 aufgrund von anlagenspezieller
Schwankungen und/oder substratspezifischer Unterschiede ändern, was
zu einem Prozessergebnis führen
kann, das außerhalb
eines spezifizierten Wertebereichs liegt. Aus diesem Grunde wird
typischerweise eine Vielzahl von prozessabhängigen „Sensoren” 141 vorgesehen,
um damit Messergebnisse für
mehrere Prozessparameter zu ermitteln. Zum Beispiel können viele
der Sensoren 141 in Form von anlageninternen Bauelementen
vorgesehen werden, beispielsweise in Form von tatsächlichen
Sensorelementen oder anderen Gerätekomponenten,
die das Bereitstellen entsprechender Messdaten ermöglichen,
die mit dem aktuellen Zustand der Prozessanlage 140 und
einem entsprechenden Prozess oder einer darin ausgeführten Prozesssequenz
verknüpft
ist. Beispielsweise sind die Sensoren 141 mit Prozessparametern
verknüpft, etwa
Gasdurchflussraten der Vorstufengase, der Prozesstemperatur, dem
Prozessdruck, speziellen Spannungen, die in einer plasmagestützten Umgebung
auftreten, der Position von Gerätekomponenten,
deren Status und dergleichen, wobei jeder dieser Parameter einen
mehr oder minder ausgeprägten Einfluss
auf das gesamte Prozessergebnis ausübt. Wie zuvor erläutert ist,
ist die gegenseitige komplexe Wechselwirkung zwischen den diversen
Prozessparametern gegebenenfalls nicht im Voraus bekannt und kann
auch von Prozesszielen, den Prozessrezepten und dergleichen abhängen, wodurch
typischerweise automatisierte Datenreduktions- und -analysetechniken
erforderlich sind, um die Qualität des
aktuellen Prozessstatus in der Anlage 140 zu bewerten.
Die Prozessanlage 140 umfasst typischerweise eine Anlagensteuereinheit 142,
die für
die Handhabung von Substrattransportaktivitäten in der Anlage 140,
für das
Vorbereiten einer oder mehrerer entsprechender Prozesskammern zur
Aufnahme des Substrats und zum Einrichten einer erforderlichen Prozessatmosphäre gemäß dem spezifizierten
Prozessrezept und auch für
das Einhalten entsprechender Prozessparameterwerte entsprechend
dem jeweiligen Sollwert, wie er in den entsprechenden Prozessrezepten
angegeben ist, verantwortlich ist. Folglich muss eine entsprechende
Datenkommunikation 143a, 143b zwischen den diversen
Gerätekomponenten
der Anlage 140, den Sensorelementen 141 und der
Steuereinheit 142 eingerichtet werden, um die Funktion
der Anlage 140 zu steuern und auch die entsprechenden Messdaten
aus den Sensoren 141 auszulesen. Ferner muss die Steuereinheit 142 gegebenenfalls
auch eine Kommunikation 144 mit einem Fehlererkennungssystem 100 initiieren,
das ausgebildet ist, eine abweichende Situation des durch die Prozessanlage 140 ausgeführten Prozesses
zu erkennen und zumindest eine Angabe über eine entsprechende Situation
darzustellen, in dem ein Fehlersignal 101 ausgegeben wird,
das als Grundlage für
weitere Aktionen dienen kann, die beim Erkennen einer unzulässigen Prozessbedingung
durchgeführt
werden.
-
Während des
Betriebes der Prozessanlage 140 in der Fertigungsumgebung 150 werden
daher eine Vielzahl von Substraten 106 der Anlage 140 zugeführt und
durchlaufen einen oder mehrere komplexe Prozessschritte, um schließlich die
Anlage 140 in einem Prozesszustand zu verlassen, dessen
Qualität deutlich
von den Prozessparametern, wie sie durch die Sensoren 141 repräsentiert
sind, abhängt.
Da ein entsprechendes dynamisches Verhalten des Prozesses mit einer
geeigneten Zeitauflösung
zu überwachen
ist, wird eine Sollabfrageintervall für die Sensoren 141 im
Voraus festgelegt, um damit die Messdaten aus den Sensoren 141 mit
einer gewünschten Zeitabdeckung
zu erhalten, um somit das relevante Bewertungen von dem Fehlererkennungssystem 100 zu
erhalten. Durch Verbessern der Zuverlässigkeit der Bewertung, die
durch das Fehlererkennungssystem 100 erstellt wird, und
durch Verringern einer Verzögerung
bei der Bereitstellung des Fehlersignals 101 beim Auftreten
einer abweichenden Situation, kann somit die gesamte Effizienz der
Fertigungsumgebung 150 deutlich angehoben werden. Die Signifikanz
des Fehlersignals 101 kann jedoch von der Datenkommunikation 144 und 143b abhängen, während welcher
die aktuellen Messdaten von der Prozessanlage 140 dem System 100 zugeführt werden, da
bei höheren
Datenübertragungsraten
und einer moderat großen
Anzahl an Prozessparametern, die zu überwachen sind, die Datenkommunikationsressourcen
zu einer entsprechenden Verzögerung
oder zu einem Verlust von Messdaten führen können, was wiederum deutlich
eine reduzierte Zuverlässigkeit des
Fehlersignals 101 bewirken kann.
-
1b zeigt
schematisch ein Prozessschema für
eine Datenreduktionstechnik auf der Grundlage der PCA, die in dem
System 100 eingerichtet ist und die in geeigneter Weise
erweitert wird, um auch ein Maß für das Bewerten
der Datenkommunikationsqualität
zu beinhalten, um damit einen geeigneten zusätzlichen „virtuellen” Prozessparameter
zum Ermitteln des Fehlersignals 101 mit erhöhter Zuverlässigkeit
bereitzustellen, wie dies hierin beschrieben ist. Wie in 1b gezeigt
ist, ist in dem System 100 eine Quelle für „historische” Daten
eingerichtet, beispielsweise sind diese in einer Datenbank 102 gespeichert,
wobei die historischen Daten entsprechende Messwerte repräsentieren,
die von der Prozessanlage 140 für eine Prozesssituation erhalten
wurden, die als „normal” betrachtet
wird. Somit können die
historischen Daten der Datenbank 102 als Referenzdaten
verwendet werden und repräsentieren eine
Vielzahl von Prozessparametern entsprechend einer normalen Prozesssituation.
Diese historischen Daten, d. h. die entsprechenden Rohdaten, können einem
PCA-Modul 103 zugeführt
werden, das ausgebildet ist, ein Modell des Fertigungsprozesses
zu erzeugen, der in der Prozessanlage 140 (siehe 1a) ausgeführt wird.
Während
des Aufbaus eines PCA-Modells werden die Messdaten, die typischerweise
durch eine Datenmatrix repräsentiert
sind, in eine Modellkomponente und eine Restkomponente zerlegt,
wobei die Restkomponenten typischerweise auch als weniger relevante
Komponenten bezeichnet werden. Wie zuvor erläutert ist, wird in einer PCA eine
Transformation bestimmt, die einen vieldimensionalen Parameterraum
in einen entsprechenden neuen Parameterraum abbildet, der eine orthogonale Basis
besitzt, wobei die jeweiligen Basisvektoren so erhalten werden,
dass der erste Basisvektor die Richtung der maximalen Varianz anzeigt,
während
der zweite Basisvektor die Richtung der zweitgrößten Varianz repräsentiert
und so weiter. Durch Auswählen eines
oder nur weniger Basisvektoren oder Komponenten kann somit der Großteil der
Variabilität
der Eingangsdaten berücksichtigt
werden, wodurch die verbleibenden Eigenvektoren als weniger wichtig zum
Bewerten der zugehörigen
Messdaten bewertet werden. Folglich kann durch Auswählen einer
oder lediglich weniger Hauptkomponenten die Anzahl der Dimensionen
des Parameterraums, die Berücksichtigung
finden beim Bewerten des betrachteten Prozesses, deutlich verringert
werden, ohne dass im Wesentlichen relevante Informationen im Hinblick
auf die anfänglich
eingespeisten Messwerte und somit Prozessparameter verloren gehen.
Es sollte beachtet werden, dass aufgrund der „Drehung” der Basisvektoren oder Hauptkomponenten
in dem vieldimensionalen Parameterraum die Hauptkomponenten somit als „neue”-Parameter
betrachtet werden können,
die als Linearkombinationen der zuvor eingespeisten Parameter verstanden
werden. Folglich kann das Modul 103 einen oder mehrere
Basisvektoren oder Eigenvektoren bereitstellen, die auch als Basisfunktionen bezeichnet
werden, wodurch eine Modell 104 des betrachteten Prozesses
erstellt wird. Auf der Grundlage des Modells 104 werden
andere Messdaten auf der Grundlage geeigneter statistischer Konzepte 105 bewertet,
in welchen aktuelle Messdaten 106, die beispielsweise den
Messungen entsprechen, die von den Sensoren 141 der Prozessanlage 140 in 1a erhalten
werden, einer zuvor ermittelten Parametertransformation unterzogen
werden, um einen oder mehrere Vektoren oder Funktionen zu erhalten,
die den entsprechenden Richtungen der Eigenvektoren oder Funktionen
entsprechen, die in dem Modell 104 angegeben sind. Zum
Beispiel wird in einem sehr einfachen Ansatz Differenz zwischen
entsprechenden Funktionen, die auf der Grundlage der aktuellen Messdaten 106 und
der Basisfunktionen des Modells 104 bestimmt wird, ermittelt
und wird als ein Maß zum
Quantifizieren der Qualität
des betrachteten Prozesses verwendet. Somit kann durch geeignetes Festlegen
entsprechender statistischer Grenzen eine Fehlerbedingung in der
Prozessanlage 140 der 1a erkannt
werden und das Fehlersignal 101 wird in geeigneter Weise
gesetzt.
-
1c zeigt
schematisch eine Tabelle, in der ein Fertigungsprozess, beispielsweise
ein Prozess, wie er durch die Prozessanlage 140 in 1a ausgeführt wird,
für eine
Vielzahl von Substraten 160 bewertet wird, beispielsweise
sind diese als Halbleiterscheiben 1 bis r angegeben. Des Weiteren
werden mehrere Prozessparameter, die als Parameter 1, ... Parameter
m bezeichnet sind, als Eingangsvariablen des PCA-Mechanismus verwendet,
wobei in diesem Beispiel die Fehlererkennung nur auf der ersten
Basisfunktion 1 beruht, die, wie zuvor erläutert ist, die Richtung in
dem vieldimensionalen Parameterraum, der durch die Parameter 1,
... m aufgespannt ist, angibt, die der höchsten Varianz entspricht.
In dem gezeigten Beispiel besitzen die Scheiben i und j Werte für die Basisfunktion
1 von 1,1 und 1,4, die eine vordefinierte statistische Grenze in
dem entsprechenden statistischen Merkmal 105 der 1b übersteigen.
Folglich repräsentieren
die Scheiben i und j eine unzulässige
Prozessbedingung und erzeugen somit einen Alarm, der zu speziellen
Aktivitäten
führt,
etwa dem Abschalten der Prozessanlage 140 und dergleichen.
Wie zuvor erläutert
ist, können
entsprechende durch Fehler ausgelöste Aktivitäten zu einer unerwünschten
Zunahme der gesamten Prozesszeit führen, wenn ein oder mehrere
entsprechende Alarm(e) schließlich
als falsche Alarme erkannt werden. Andererseits werden andere Substrate
ggf. tatsächlich
unter unzulässigen
Bedingungen bearbeitet, die sich jedoch nicht in den Werten der
Basisfunktion 1 ausdrücken.
Aufgrund der Komplexität
des Datenreduktionsprozesses, beispielsweise auf der Grundlage der PCA-Technik,
kann eine entsprechende Weiterbewertung nicht in einfacher Weise
auf der Grundlage der diversen Anteile der Parameter 1, ... m der
Basisfunktion 1 ermittelt werden, so dass gemäß einer anschaulichen Ausführungsform
eine Weiterbewertung von zumindest von Substraten A und J auf der Grundlage
einer Messdatenqualität
ausgeführt
wird, wie dies zuvor erläutert
ist. Zu diesem Zweck wird eine detailliertere Analyse der zugehörigen Messdaten
angewendet.
-
1d zeigt
schematisch einen Graphen, der eine in den PCA-Datenreduktionsprozess
verwendete Eingangsvariable zeigt, wie dies zuvor beschrieben ist.
Beispielsweise repräsentiert
die Eingangsvariable, die in 1d angegeben
ist, einen der Parameter 1, ... m, wobei jedoch typischerweise entsprechende
Mittelwerte auf der Grundlage der ursprünglichen Rohdaten definiert
sind. Das heißt,
es werden eine Vielzahl einzelner Messwerte, die auf der Grundlage
der aktuellen Datenrate erhalten werden, bearbeitet, um damit einen
Mittelwert zu bestimmen, der dann als ein Eingangsparameter zum
Definieren des entspre chenden PCA-Modells und der aktuellen Basisfunktion
und zugehöriger
Beiträge
verwendet wird, wie dies beispielsweise in der Tabelle als 1c gezeigt
ist. Beispielsweise sind in 1d entsprechende
Mittelwerte des speziellen Prozessparameters mit zugehörigen statistischen
Grenzen dargestellt, etwa einer Bandbreite von 2,8, wobei die entsprechenden
Mittelwerte für
den betrachteten Parameter außerhalb
der als „normal” betrachteten schmalen
Bandbreite für
die Scheiben i und j dargestellt sind. Das heißt, diese Scheiben zeigen im
Hinblick auf den betrachteten Parameter eine signifikante Abweichung
von dem „normalen” Wertebereich. Zum
Vergleich sind entsprechende Mittelwerte für die Scheiben k und l, die
als unter „normalen” Prozessbedingungen
bearbeitet betrachtet werden können, ebenfalls
gezeigt. Jedoch muss die signifikante Abweichung der speziellen
PCA-Eingangsvariablen
aus 1d weiter bewertet werden, um ein mögliches Datenratenproblem
zu erkennen, das die signifikante Abweichung verursacht haben kann.
Zu diesem Zweck wird die Datenanalyse auf eine weitere tiefere Ebene
ausgedehnt, in der die Zeitauflösung
der Messdaten sichtbar wird.
-
1e zeigt
schematisch die entsprechenden tatsächlichen Messergebnisse für die Scheiben
i, j, k, l, wobei diese Messwerte für das Bestimmen der entsprechenden
Mittelwerte, die in 1c gezeigt sind, verwendet werden.
Der Einfachheit halber sind die entsprechenden Kurven ebenfalls
als Kurven I, J, K und L bezeichnet. Wie aus 1e hervorgeht,
repräsentieren
die Kurven K und L „normale” Prozessbedingungen.
Andererseits zeigt die Kurve I an, dass eine signifikante Abweichung
von der Verteilung der Kurven K und L während der Bearbeitung der Scheibe
i aufgetreten ist, wobei jedoch die entsprechenden einzelnen Messwerte
keine signifikante Störung
während
der Datenübertragung
angeben, da die Anzahl und die Zeitintervalle zwischen aufeinanderfolgenden
einzelnen Messergebnissen im Wesentlichen die gleiche ist wie in
den Kurven I, K und L. Da ernsthaft Probleme während der Datenkommunikation
für die Scheibe
i ausgeschlossen werden können,
repräsentiert
somit die Scheibe i tatsächlich
eine abweichende Situation und daher wird der entsprechende Fehleralarm
als eine echte Fehlersituation erachtet. Andererseits repräsentiert
die Kurve J eine deutlich reduzierte Anzahl an Messdaten, wodurch
angezeigt wird, dass ein signifikanter Verlust an Messdaten aufgetreten
ist, der somit zu einer deutlichen Abweichung des Mittelwertes in 1d für die Scheibe
j beitragen kann. Folglich ist es nicht möglich zu entscheiden, ob die
Scheibe j auf der Grundlage guter oder unzulässiger Prozessbedingungen bearbeitet
wurde. Aufgrund dieser Tatsache wird der Fehleralarm auf der Grundlage
der Scheibe j als ein nicht relevanter Alarm betrachtet und wird
ignoriert. Während
des Fehlererkennungsmechanismus, der den Prozess der 1b–1e repräsen tiert
ist, beispielsweise unter Anwendung des in 1a gezeigten
Fehlererkennungssystems 100, kann somit die Zuverlässigkeit
der Fehlererkennung deutlich verbessert werden, indem die Qualität der Datenkommunikation zwischen
der Prozessanlage 140 und dem System 100 (siehe 1a)
berücksichtigt
wird.
-
Mit
Bezug zu den 1f–1h werden weitere
anschauliche Ausführungsformen
nunmehr beschrieben, in denen eine quantitative Messung oder ein
Maß für die Datenkommunikationsqualität ermittelt
wird, das dann in einigen anschaulichen Ausführungsformen direkt als ein
Eingangsparameter des Datenreduktionsmechanismus verwendet wird,
der in dem entsprechenden Fehlererkennungssystem eingerichtet ist.
-
1f ist
eine Darstellung, in der der Zeitablauf der Datenkommunikation dargestellt
ist. Somit repräsentiert
die horizontale Achse die Zeit während des
Betriebs einer Prozessanlage, etwa der Anlage 140 aus 1a,
wobei eine entsprechende Soll-Abtastrate im voraus gemäß den Prozesserfordernissen festgelegt
werden kann. Das heißt,
während
gewisser regulärer
Zeitintervalle wird ein Messwert für jeden der mehreren Parameter
P1, ... Pm genommen, wobei die Zeitauflösung, d. h. die Abtastrate,
so gewählt
ist, dass eine gewünschte
Abdeckung des betrachteten Prozesses gelingt. Beispielsweise kann eine
Abtastrate von 2 Hz oder ein Zeitintervall von 0,5 Sek. angewendet
werden, wobei zu beachten ist, dass eine beliebige andere Abtastrate
bei Bedarf eingesetzt werden kann. Wie gezeigt, werden zum Zeitpunkt
t1 Messergebnisse für alle Parameter P1, ... Pm erhalten,
während
zum Zeitpunkt t2 der Parameterwert für den Parameter
P1 aufgrund von Datenkommunikationsproblemen verlorengeht, wie dies
zuvor erläutert
ist. In dem dargestellten Beispiel wird der Messwert für den Parameter
Pm zu einer späteren Zeit
aufgrund nunmehr ausreichende Kommunikationsressourcen und dergleichen
erhalten. Ähnlicherweise
können
bei einem oder mehreren Datenpunkt(en) zum Zeitpunkt t3,
t4, t5, t6 etc. ebenfalls ein oder mehrere Unregelmäßigkeiten
in der Datenkommunikation auftreten, beispielsweise kann ein Verlust an
Messdaten oder eine Verzögerung
auftreten.
-
1g zeigt
schematisch eine Verteilung des Maßes, das die Qualität der Datenkommunikation
angibt. In dem gezeigten Beispiel wird die Datenrate als ein geeignetes
Datenkommunikationsqualitätsmaß verwendet,
wobei die Datenrate als die Anzahl an Informationseinheiten definiert
ist, die dem Fehlererkennungssystem mit den diversen Zeitpunkten
t1, t2, t3, ... zugeleitet werden. Es sollte beachtet werden,
dass die Zeitpunkte t1, ... als moderat
kleine Zeitintervalle im Vergleich zu dem Intervall beachtet werden,
das durch die sukzessiven Zeitpunkte t1,
t2 und dergleichen definiert ist. Idealerweise
wird die Datenrate als eine vertikale Linie repräsentiert, die die „Datenratenachse” bei der
Solldatenrate ST schneidet. Aufgrund der entsprechenden Datenkommunikationsprobleme,
wie dies zuvor erläutert
ist, wird die tatsächliche
Datenrate durch eine normal verteilte Kurve, die als SA angegeben
ist, repräsentiert,
so dass in diesem Fall ein geeigneter zusätzlicher oder virtueller Parameter
SA definiert werden kann, der als ein Parameter oder „Sensor” des betrachteten
Prozesses verwendet werden kann, und der explizit die Qualität der Messdaten
wiedergibt, wobei die Qualität
durch Datenkommunikationsstörungen
beeinflusst ist, wie zuvor erläutert
ist. Folglich kann die Liste der Eingangsparameter P1, ... Pm durch
einen zusätzlichen
Parameter SA ergänzt
werden, der die aktuelle Datenrate präsentiert, die mit jedem der
Zeitpunkte t1, ... verknüpft ist. Somit werden in einigen
anschaulichen Ausführungsformen
die diversen Parameterwerte SA als zusätzliche Parameterwerte verwendet
und sind daher ebenfalls während
des Erstellens eines entsprechenden Modells für den betrachteten Prozess
angewendet, wie dies zuvor für
die Parameter 1, ... m im Kontext der 1b–1e erläutert ist.
-
1h zeigt
schematisch das Schema zum Definieren einer Datenkommunikationsqualitätsmaßzahl gemäß weiterer
anschaulicher Ausführungsformen.
Wie gezeigt, besitzt jeder Parameter P1, ..., Pm zugeordnete Messwerte,
die mit einer Zeitmarke verknüpft
sind, die idealerweise identisch ist mit den Zeitpunkten t1, ..., die jedoch, wie zuvor erläutert ist, mit
anderen Zeitpunkten aufgrund des Verlustes von Messergebnissen oder
einer Verzögerung
zusammenhängen
kann. Wie gezeigt, können
einzelne Messergebnisse als MP1, ..., MP2, ...., MPM angegeben werden,
wovon jeder eine zugeordnete Zeitmarke besitzt, die als Zeitmarken
t1, ..., tn dargestellt
sind. Das heißt,
der Index n repräsentiert
eine Gesamtmenge einzelner Messergebnisse, die der Gesamtheit der
Parameter P1, ..., Pm entsprechend. Somit wird in einer anschaulichen
Ausführungsform
ein Datenkommunikationsqualitätsmaß, das als
QM1, ..., QMn-1 angegeben
ist, definiert, indem die Differenz zweier aufeinanderfolgender
Messergebnisse bestimmt wird, die mit dem gleichen Prozessparameter verknüpft sind.
Beispielweise entsprechen die Zeitmarken t1 und
t2 den Zeitmarken zweier aufeinanderfolgender
Messwerte eines spezifizierten Parameters, etwa dem Parameter P1,
so dass das Qualitätsmaß QM1 durch t2 – t1 definiert werden kann. Aus den mehreren
Qualitätsmaßen QM1, ..., QMn-1, die
somit einen weiteren Parameter für
den Datenreduktionsmechanismus repräsentieren, kann ein Qualitätsparameter
definiert werden, beispielsweise indem ein entsprechender Mittelwert
berechnet wird, wie dies in 1h gezeigt
ist. Der entsprechende Mittelwert kann dann als ein Eingangswert
für den
PCA-Algorithmus oder einen anderen Algorithmus zum Bestimmen des
entsprechenden Modells für
den betrachteten Prozess verwendet werden, wie dies zuvor erläutert ist.
-
1i zeigt
schematisch einen Teil der Funktionsblöcke des Systems 100 gemäß anschaulicher
Ausführungsformen,
in denen Datenkommunikationsqualitätsmaßzahlen, etwa die Maßzahlen QM1, ..., QMn-1 aus 1h,
oder entsprechende Datenratenwerte SA (siehe 1g) als
weiterer „Prozessparameter” verwendet
werden. Wie gezeigt, enthält
die Datenbank 102 nunmehr geeignete Datenratenwerte, etwa
wie sie in den 1h oder 1g als Werte
dargestellt sind. Auf der Grundlage dieser Messwerte werden entsprechende
Eingangsvariablen entsprechend den Parametern 1, ..., m ermittelt, wobei
auch ein entsprechender Datenratenparameter 1 und 2a als eine Eingangsvariable
für den PCA-Algorithmus
oder einen anderen Datenreduktionsmechanismus 103 repräsentiert
ist, um beispielsweise einen geeigneten Mittelwert zu definieren,
wie dies zuvor erläutert
ist. Danach liefert der Mechanismus 103 das Modell 104 in
Form einer geeigneten Anzahl an Basisfunktionen, wobei auch die
entsprechenden Beiträge
der Parameter 1, ..., m und des Datenratenparameters 102a eingeschlossen
sind. Somit umfasst das Modell 104 einen Beitrag 104a,
der mit der Datenkommunikationsqualität in Beziehung steht, wie dies
zuvor erläutert
ist.
-
1j zeigt
schematisch die Prozessanlage 140 in der Fertigungsumgebung 150,
wobei das Fehlererkennungssystem 100 darin eingerichtet
den Modellbereich 104a aufweist, der einen virtuellen Sensor
präsentiert,
der die Datenkommunikationsqualität wiedergibt, wie dies auch
zuvor beschrieben ist. Beim Betrieb der Prozessanlage 140 übermitteln
die Prozess- und Anlagensensoren 141, die als reale Sensoren
betrachtet werden, die entsprechenden Messwerte auf der Grundlage
des Datenkommunikationsprozesses 143 zu der Anlagensteuerung 142 und schließlich zu
dem System 100 über
den Kommunikationsprozess 144, wie dies auch zuvor erläutert ist. Folglich
ist in dem System 100 das Modell eingerichtet, das auf
den realen Messungen 106 beruht und den virtuellen Sensorbereich 104a enthält, so dass eine
weitere Bewertung der Basisfunktion auf der Grundlage des entsprechenden
Beitrags möglich
ist, der sich aus dem virtuellen Sensor 104a ergibt.
-
1k zeigt
schematisch eine Tabelle, die auf der Grundlage des Systems 100 ermittelt
wird, wie es in 1j gezeigt ist. Wie gezeigt,
repräsentieren
die Scheiben 1, ..., r das gleiche Beispiel, wie es in der Tabelle
aus 1c gezeigt ist. Somit ist die Basisfunktion 1
zum Bewerten der Qualität
des betrachteten Prozesses eingesetzt, wobei die realen Sensoren
oder Parameter 1, ..., m die gleichen Messergebnisse, wie in dem
zuvor erläuterten
Beispiel ergeben. Folglich besitzen auch die entsprechenden Beiträge ähnliche
Werte, woraus sich kritische Werte der Basisfunktion 1 für die Scheiben
i und j ergeben. Ferner wird auch ein Qualitätsparameter, d. h. ein Parameter entsprechend
dem Modellbereich 104a (siehe 1j) ebenfalls
ermittelt, da dieser Parameter als ein Eingang für den Datenreduktionsmechanismus behandelt
wird, wodurch ebenfalls entsprechende Beiträge zu der Basisfunktion 1 ermittelt
werden. Wie gezeigt, weist der Qualitätsparameter einen moderat hohen
Wert auf, der eine speziell definiere statistische Grenze übersteigt,
wodurch ein signifikanter Anteil an der Basisfunktion 1 angezeigt
wird. Wenn andererseits die Beiträge, die mit den Parametern
1, ..., m verknüpft
sind, innerhalb vordefinierter statistischer Grenzen liegen, ist
der entsprechende Wert der Basisfunktion nicht vertrauenswürdig, da
ein signifikantes Datenkommunikationsproblem aufgetreten ist. In
diesem Fall wird der Fehleralarm, der durch die Scheibe ausgelöst wird,
verworfen. Andererseits liegt der Beitrag des Qualitätsparameters
für die
Scheibe i innerhalb eines zulässigen
Wertebereichs, wodurch ein hohes Maß an Vollständigkeit der entsprechenden
Messwerte angezeigt wird, so dass die Beiträge der verbleibenden realen
Parameter 1, ..., m den unzulässigen
Wert der Basisfunktion 1 hervorgerufen haben, wodurch die Scheibe
i als die Scheibe angegeben wird, die eine unzulässige Prozesssituation erfahren
hat. Somit wird ein tatsächliches
Fehlersignal nur für
die Scheibe i ausgegeben, wodurch die Wahrscheinlichkeit des Erzeugens
eines falschen Alarms deutlich verringert wird. In noch anderen
anschaulichen Ausführungsformen
werden die Beiträge
des Qualitätsparameters
als ein Maß der
Qualität
oder der Vertrauenswürdigkeit
für die
Messdaten, die für die
Fehlererkennungsanalyse verwendet wurden, verwendet. Beispielsweise,
wenn die Eingangsvariablen, d. h. die Mittelwerte der tatsächlichen
Messwerte, nicht stark von den „normalen” Mittelwerten abweichen, führen etwaige
fehlende Messwerte nicht zu einer signifikanten Verschiebung des
Mittelwertes, wobei der Qualitätsparameter
dennoch moderat hohe Werte anzeigt, wie dies beispielsweise für die Scheibe
j gezeigt ist, wodurch ein allgemeines Maß für die Qualität der angewendeten
Messwerte bereitgestellt wird.
-
Es
gilt also: die vorliegende Offenbarung stellt ein System und ein
Verfahren bereit, um die Zuverlässigkeit
von Fehlererkennungssystemen zu verbessern, indem die Qualität des Datenkommunikationsprozesses
berücksichtigt
wird. Beispielsweise kann die Wahrscheinlichkeit des Erzeugens eines
falschen Alarms deutlich verringert werden, da der Einschluss fehlender
oder verzögerter
Messergebnisse auf die Bewertung, die durch gut etablierte Datenreduktionstechniken
erhalten wird, etwa durch PCA, auf der Grundlage des Grades an Messdatenqualität bewertet
wird. In einigen anschaulichen Ausführungsformen wird die Datenkommunikationsqualitätsmaßzahl in
den Fehlererkennungsablauf als Eingangsvariab le eingeführt, wodurch
somit entsprechende Beiträge
erzeugt werden, die effizient mit entsprechenden Beiträgen der
realen Prozessparameter verglichen werden können, um damit quantitativ die
Qualität
der Messergebnisse zu bewerten, wodurch auch eine effiziente Vermeidung
falscher Alarme möglich
ist.
-
Weitere
Modifizierungen und Variationen der vorliegenden Offenbarung werden
für den
Fachmann angesichts dieser Beschreibung offenkundig. Daher ist die
Beschreibung als lediglich anschaulich und für die Zwecke gedacht, dem Fachmann
die allgemeine Art und Weise des Ausführens der hierin offenbarten Prinzipien
zu vermitteln. Selbstverständlich
sind die hierin gezeigten und beschriebenen Formen als die gegenwärtig bevorzugten
Ausführungsformen
zu betrachten.