-
Die Erfindung betrifft ein Verfahren zur Rekonstruktion der Positionen von Halbleiterbauteilen auf einem Wafer, auf welchem diese aufgetragen wurden, nach dem die Halbleiterbauteile aus dem Wafer herausgeschnitten wurden, sowie eine Vorrichtung, welche eingerichtet ist, das Verfahren auszuführen.
-
Stand der Technik
-
Beim Packaging-Prozess von Halbleiterbauteilen (im speziellen von PowerMOS) geht die Rückverfolgbarkeit der Halbleiterbauteilen zu deren ursprünglichen Wafer und deren ursprünglichen Position auf dem Wafer verloren. Konkret bedeutet dies, dass die Position jedes Halbleiterbauteiles auf einem Wafer nicht mehr verfügbar ist, sobald der Wafer zerschnitten bzw. gewürfelt (engl. ,diced' = ein Verfahren, bei dem Halbleiterbauteil vom Wafer getrennt werden) und verpackt wurde. Anbieter von Packaging-Prozessen sind in der Lage zumindest ein grobes Matching zwischen losen Halbleiterbauteilen in der Endprüfung (engl. ,Final Test" = Prüfprozess der Halbleiterbauteile nach der Verpackung) und Halbleiterbauteilen auf dem Wafer in Wafer-Level-Tests (Prüfprozess vor dem Verpacken) anzubieten. Jedoch führt dies immer noch zu mehreren tausend nicht zuordenbaren Halbleiterbauteile zu mehreren Wafern. Da es sich hierbei im Wesentlichen um ein kombinatorisches Problem handelt, ist die Komplexität der Lösung dieser Aufgabe faktoriell, da es n-Fakultät viele verschiedene Möglichkeiten gibt, die Halbleiterbauteile so anzuordnen, dass sie der richtigen Reihenfolge entsprechen, wobei n die Anzahl der Halbleiterbauteile ist.
-
Für ASIC- Halbleiterbauteile gibt es eine Lösung für dieses kombinatorische Problem. Hierfür wird während des Wafer-Level-Tests ein eindeutiger Identifikator im Speicher der ASIC- Halbleiterbauteile gespeichert, der eine Zuordnung der Endprüfung zu dem Wafer-Level Test nach dem Verpacken ermöglicht. Bei Halbleiterbauteilen wie PowerMOS ist dies jedoch aufgrund eines fehlenden Speichers nicht möglich.
-
Vorteile der Erfindung
-
Die Erfindung mit den Merkmalen des unabhängigen Anspruchs 1 hat den Vorteil, dass unter Verwendung eines greedy-Algorithmus besonders effizient eine potenzielle Zuordnung zwischen Halbleiterbauteilen abhängig von Ergebnissen des Wafer-Level-Tests und verpackten Halbleiterbauteilen und abhängig von Ergebnissen der Endprüfung (engl. Final Test) ermittelt wird und dabei ohne nachträglich hinzugefügte Metadaten, wie eindeutige Identifikatoren o.ä., auskommt. Denn aufgrund des greedy-Algorithmus wird eine deutlich geringere Rechen- und Speicherkomplexität erzielt, wodurch keine teure Hardware benötigt wird und die Zuordnung in einem Bruchteil der Rechenzeit ermittelt werden kann. Dies ermöglicht auch die Anwendung für deutlich größeren Mengen von Halbleiterbauteilen, insbesondere ohne eine Fehlerquote zu erhöhen. Die Erfindung erweitert somit den Anwendungsbereich, da durch die gesteigerte Recheneffizient mehr Halbleiterbauteile als bisher zugeordnet werden können.
-
Eine Aufgabe der Erfindung ist es, die Menge der zu verarbeitenden Halbleiterbauteile, um mind. eine Größenordnung zu erhöhen.
-
Die Erfindung hat ferner den Vorteil, dass diese eine Eins-zu-Eins-Zuordnung zwischen Halbleiterbauteilen und deren ursprüngliche Position auf dem Wafer und damit eine bessere Prozesskontrolle (z.B. Ursachenanalyse von Fehlerteilen) ermöglicht.
-
Weitere Aspekte der Erfindung sind Gegenstand der nebengeordneten Ansprüche. Vorteilhafte Weiterbildungen sind Gegenstand der abhängigen Ansprüche.
-
Offenbarung der Erfindung
-
In einem ersten Aspekt betrifft die Erfindung ein insbesondere computerimplementiertes Verfahren zum Ermitteln einer Zuordnungsvorschrift, die Größen aus einer ersten Menge von ersten Größen jeweils Größen aus einer zweiten Menge von zweiten Größen zuordnet. Die Zuordnungsvorschrift kann auf eine eindeutige Weise die ersten Größen den zweiten Größen zuordnen, d.h. dass jeder ersten Größe höchstens eine zweite Größe durch die Zuordnungsvorschrift zugeordnet wird und vorzugsweise auch andersherum. Unter einer Menge kann eine Form einer Zusammenfassung der einzelnen Größen verstanden werden. Vorzugsweise sind die erste und zweite Menge unterschiedliche Mengen, die keine gemeinsame Größe aufweisen. Vorzugsweise ist den Größen der ersten und zweiten Menge jeweils ein Index zugeordnet. Alle Indizes der ersten und zweiten Menge könnten als Indexmengen aufgefasst werden. Also als eine Menge, deren Elemente die Größen der ersten oder zweiten Menge durchindizieren. Die Zuordnungsvorschrift weist dann der ersten Indexmenge jeweils ein Index aus der zweiten Indexmenge zu. Die Zuordnungsvorschrift beschreibt demnach welche erste Größe zu welcher zweiten Größe gehört und vorzugsweise auch andersherum. Die Zuordnungsvorschrift kann als eine Liste oder Tabelle oder ähnlichem vorliegen.
-
Das Verfahren beginnt mit einem Initialisieren der Zuordnungsvorschrift und Bereitstellen der ersten und zweiten Menge. Die initiale Zuordnungsvorschrift kann zufällig oder als eine Identitätszuordnung gewählt werden. Andere initiale Zuordnungsvorschriften sind alternativ denkbar, bspw. eine vorgegebene, bereits teilweise korrekte Zuordnung.
-
Daraufhin folgt ein wiederholtes Ausführen der nachfolgend erläuterten Schritte a)-d). Die Wiederholungen können für eine vorgegebene Anzahl von maximalen Wiederholungen ausgeführt werden oder es kann ein Abbruchkriterium definiert werden, wobei bei Erfüllen des Abbruchkriteriums das Wiederholen abgebrochen wird. Das Abbruchkriterium ist beispielsweise eine min. Änderung der Zuordnungsvorschrift.
- a) Erstellen eines Datensatzes, welcher die ersten Größen und deren jeweils gemäß der Zuordnungsvorschrift zugeordneten zweiten Größen aufweist. Der Datensatz kann auch als Trainingsdatensatz bezeichnet werden, wobei die zugeordneten zweiten Größen sogenannte ,Label" der ersten Größen sind. Es sei angemerkt, dass dieser Schritt optional sein kann, da die nachfolgenden Schritte, die diesen Datensatz verwenden, im Wesentlichen nur die Information der aktuellen Zuordnungsvorschrift zwischen der ersten und zweiten Größen benötigen, die entweder durch den Datensatz oder durch eine aktuelle Zuordnungsvorschrift bereitgestellt werden kann. Die aktuelle Zuordnungsvorschrift ist diejenige Zuordnungsvorschrift, welche zu der gegenwärtigen Wiederholung der Schritte a) - d) vorliegt, also diejenige Zuordnungsvorschrift, welche beim Ausführen des jüngsten Erstellens des Datensatzes verwendet wurde.
- b) Anlernen eines maschinellen Lernsystems derart, dass das maschinelle Lernsystem abhängig von den ersten Größen die jeweils zugeordneten zweiten Größen des Datensatzes ermittelt. Unter einem Anlernen kann verstanden werden, dass Parameter des maschinellen Lernsystem angepasst werden, sodass damit ermittelte Vorhersagen des maschinellen Lernsystem möglichst nahe an den zweiten Größen (,Labels") des Datensatzes liegen. Die Optimierung kann hinsichtlich einer Kostenfunktion erfolgen. Die Kostenfunktion charakterisiert vorzugweise eine math. Differenz zwischen den Ausgaben des maschinellen Lernsystems und den Labeln. Die Optimierung wird vorzugsweise mittels einem Gradientenabstiegsverfahren durchgeführt. Das maschinelle Lernsystem kann ein oder eine Mehrzahl von Entscheidungsbäumen (englisch: decision tree), ein neuronales Netz, eine Support Vector Machine, oder ähnliches sein. Das Anlernen kann so lange ausgeführt werden, bis eine weitere Verbesserung des maschinellen Lernsystems beim Anlernen verschwindend gering ist, also ein zweites Abbruchkriterium erfüllt ist.
- c) Ermitteln einer Menge von Distanzen zwischen Vorhersagen des maschinellen Lernsystems und den zweiten Größen. Die Berechnung der Distanzen kann sukzessive erfolgen, wobei jede Distanz zwischen der Vorhersage des maschinellen Lernsystems und der zweiten Größen gemäß der Zuordnungsvorschrift charakterisiert wird, insbesondere zwischen jeder Größe der zweiten Menge zu allen Vorhersagen des maschinellen Lernsystems. Vorzugsweise erfolgt das Ermitteln der Distanzen in Form einer Kostenmatrix, wobei Einträge der Kostenmatrix eine Distanz zwischen der Vorhersage des maschinellen Lernsystems und der zweiten Größen gemäß der Zuordnungsvorschrift charakterisieren, insbesondere zwischen den Vorhersagen des maschinellen Lernsystems und allen Größen der zweiten Menge. Die Distanz kann mit einer L2 Norm ermittelt werden. Andere Abstandsmaße sind auch denkbar. Die Kostenmatrix kann derart strukturiert sein, dass Zeilen und Spalten jeweils einer ersten Größe bzw. der Vorhersage des maschinellen Lernsystems abhängig von der ersten Größe und einer zweiten Größe zugeordnet sind, wobei die Einträge die Distanz zwischen den jeweiligen zugeordneten Größen der Zeilen und Spalten charakterisieren. Die Einträge, die nicht auf der Diagonalen der Kostenmatrix liegen, können als Transportkosten aufgefasst werden, die aufgewendet werden müssen, um die ersten Größen auf die jeweiligen zweiten Größen der entsprechenden Zeilen/Spalten entgegen der Zuordnungsvorschrift zuzuordnen.
- d) Optimieren der Zuordnungsvorschrift abhängig von der Kostenmatrix, sodass die Zuordnungsvorschrift minimale Gesamtkosten, insbesondere eine minimale Gesamtdistanz, basierend auf den Einträgen der Kostenmatrix erzeugt. Gesamtkosten entsprechen einer Summe derjenigen Einträge der Kostenmatrix, die bei einem Durchführen einer Zuordnung der Größen der ersten Menge zur zweiten Menge gemäß der aktuellen Zuordnungsvorschrift aus der Kostenmatrix benötigt werden. In anderen Worten, es wird die Summe über die Einträge, die abhängig von der Zuordnungsvorschrift aus der Kostenmatrix ausgewählt werden, optimiert, insbesondere minimiert. Es sei angemerkt, dass die Einträge abhängig von der Zuordnungsvorschrift derart gewählt werden, dass gemäß der Zuordnungsvorschrift die Einträge der jeweiligen Spalte und Zeile der Kostenmatrix ausgewählt wird, die den ersten und zweiten Größen zugeordnet sind, die gemäß der Zuordnungsvorschrift zueinander zugeordnet sind.
-
Die Optimierung der Zuordnungsvorschrift wird durch folgende Schritte ausgeführt, die insbesondere iterativ wiederholt werden, bis ein Abbruchkriterium erfüllt ist. Das Abbruchkriterium kann bspw. dadurch definiert sein, dass für alle Vorhersagen des maschinellen Lernsystems die nachfolgenden Schritte ausgeführt wurden:
- i) zufälliges Ziehen einer Vorhersage des maschinellen Lernsystems und Aussuchen derjenigen zweiten Größe, welche gemäß der Kostenmatrix die geringste Distanz zu der gezogenen Vorhersage des maschinellen Lernsystems aufweist. In anderen Worten, es wird anhand der Kostenmatrix diejenige zweite Größe ausgewählt, deren Eintrag in der Kostenmatrix den geringsten Abstand zu der besagten Vorhersage charakterisiert.
- ii) Modifizieren der Zuordnungsvorschrift derart, dass die Zuordnungsvorschrift der ersten Größe, abhängig von welcher die gezogene Vorhersage des maschinellen Lernsystems ermittelt wurde, die ausgewählte zweite Größe zuordnet; und
- iii) Entfernen der der ersten Größe zugeordneten Einträge, abhängig von welcher die gezogene Vorhersage des maschinellen Lernsystems ermittelt wurde, und der der ausgewählten zweite Größe zugeordneten Einträge aus der Kostenmatrix.
-
In jeder Iteration für die Optimierung der Zuordnungsvorschrift wählt das obige Verfahren die geringste Distanz zwischen einer Vorhersage des maschinellen Lernsystems und den zweiten Größen. Da das Verfahren nur eine einzige Zielbeobachtung berücksichtigt, wird das Problem lokal oder gierig (engl. greedy) optimiert. Daher kann gesagt werden, dass eine greedy-Implementierung vorliegt. Das Entfernen der ausgewählten Größen nach dem Modifizieren der Zuordnungsvorschrift hat den vorteilhaften Effekt, dass eine Eins-zu-eins-Zuordnung erzwungen werden kann.
-
Auf diese vorgeschlagene Weise werden die Kosten zwar nicht global, wohl aber lokal minimiert, doch dies ist wesentlich recheneffizienter und es hat sich herausgestellt, dass überraschenderweise hiermit die Qualität der Zuordnungsvorschrift nicht degradiert wird, da die greedy-Implementierung zu ähnlichen Ergebnissen führt. Dies liegt vermutlich daran, dass durch die greedy-Implementierung unabhängig von allen anderen Einträgen der Kostenmatrix die Zuordnungsvorschrift ermittelt wird, wobei die Zeilenindizes der Spaltenminima der Kostenmatrix hinweg mehr oder weniger eindeutig sind.
-
Die in der letzten Wiederholung des Schrittes d) ermittelte Zuordnungsvorschrift ist die finale Zuordnungsvorschrift, welche in einem optionalen Schritt ausgegeben wird.
-
Die Größen können Skalare oder Vektoren wie z.B. eine Zeitreihe sein, insbesondere von einem Sensor erfasst oder indirekt ermittelte Sensordaten sein. Vorzugsweise sind die ersten und zweiten Größen jeweils ein oder eine Mehrzahl von Messergebnissen von einer Messung oder von einer Mehrzahl von unterschiedlichen Messungen, die jeweils an einem Gegenstand einer Mehrzahl von Gegenständen ausgeführt wurden. D.h. jede Größe ist einem der Gegenstände zugeordnet. Beim Schritt des Erstellens des Datensatzes kann für die zweiten Größen auch nur eine vorgebbare Anzahl der Messergebnisse der Mehrzahl der Messergebnisse verwendet werden. Die Zuordnungsvorschrift kann angeben, welche ersten und zweiten Größen Messergebnisse des gleichen Gegenstandes sind. Besonders bevorzugt wurde die zumindest eine Messung der Gegenstände für die ersten Größen zu einem ersten Zeitpunkt und die Messung für die zweiten Größen zu einem zweiten Zeitpunkt ausgeführt, wobei der zweite Zeitpunkt nach dem ersten Zeitpunkt liegt. Der zweite Zeitpunkt kann dann gegeben sein, nachdem die Gegenstände einer Modifikation oder Veränderung unterworfen wurden.
-
Es wird vorgeschlagen, dass eine Stapelgröße (engl. batch-size) vorgegeben ist, wobei beim Ermitteln der Kostenmatrix eine Mehrzahl von zufällig gewählten Vorhersagen des maschinellen Lernsystems ausgewählt werden, wobei die Mehrzahl der zufällig gewählten Vorhersagen des maschinellen Lernsystems der Stapelgröße entspricht, wobei ferner beim Ermitteln der Kostenmatrix die Distanzen zwischen der Mehrzahl der zufällig gezogenen Vorhersagen des maschinellen Lernsystems zu den zweiten Größen ermittelt wird. Der Vorteil ist, dass die Komplexität signifikant reduziert wird (im Vergleich zur bisherigen Implementierung des Ungarischen Algorithmus). Bisher war die Komplexität O(n3), jetzt ist sie O(n*batch size3) = O(n).
-
Es wird weiterhin vorgeschlagen, dass beim Optimieren der Zuordnungsvorschrift basierend auf den Einträgen der Kostenmatrix abhängig von einem gesetzten Bit-Flag ausgewählt wird, ob die Optimierung der Zuordnungsvorschrift mittels der Schritte i) bis iii) oder mittels einem Ungarischen Algorithmus erfolgt. Vorteilhaft hierbei ist, dass ein flexibles Ändern der Optimierung ausgeführt werden kann, bspw. wenn der Ungarische Algorithmus in einem lokalen Minimum stecken geblieben ist und das Bit-Flag daraufhin entsprechend gesetzt wurde.
-
Der Ungarische Algorithmus (engl. Hungarian method), auch Kuhn-Munkres-AIgorithmus genannt, ist ein Algorithmus zum Lösen gewichteter Zuordnungsprobleme.
-
Weiterhin wird vorgeschlagen, dass das maschinelle Lernsystem ein Regressionsmodell ist, welches abhängig von den ersten Größen und Parameter des Regressionsmodells die zweiten Größen ermittelt, wobei beim Anlernen die Parameter des Regressionsmodells angepasst werden.
-
Die Regression dient dazu Beziehungen zwischen einer abhängigen (oft auch erklärte Variable) und einer oder mehreren unabhängigen Variablen (oft auch erklärende Variablen) zu modellieren. Die Regression ist in der Lage eine komplexere Funktion zu parametrisieren, sodass diese Daten nach einem bestimmten mathematischen Kriterium am besten wiedergibt. Beispielsweise berechnet die gewöhnliche Methode der kleinsten Quadrate eine eindeutige Gerade (oder Hyperebene), die die Summe der Abweichungsquadrate zwischen den wahren Daten und dieser Linie (oder Hyperebene), d. h. die Residuenquadratsumme, minimiert.
-
Vorzugsweise ist das Regressionsmodell ein lineares Regressionsmodell, wobei beim Anlernen eine Tikhonov-Regularisierung verwendet wird. Die lineare Regression zielt darauf ab, den quadratischen Regressionsverlust zu minimieren, daher wird vorzugsweise der quadrierte euklidische Abstand als Distanzmaß für die Kostenmatrix gewählt.
-
Weiterhin wird vorgeschlagen, dass die ersten und zweiten Größen ein Produkt bei seiner Herstellung nach unterschiedlichen Herstellprozessschritten charakterisieren. Beispielsweise kann der zweite Zeitpunkt hier gegeben sein, wenn ein Herstellprozessschritt beendet wurde. Das Produkt kann ein beliebiges Produkt hergestellt in einer Fertigungsstätte sein. Vorzugsweise geht beim Herstellen des Produktes die Nachverfolgbarkeit zu seinen vorhergehenden Prozessschritten verloren (sog. „Schüttgut“), beispielsweise wenn es nicht mehr möglich ist, das Produkt aus dem Schüttgut, z.B. Schrauben, einer Produktionscharge direkt zuzuordnen. Denkbar ist, dass die ersten Größen Komponenten, insbesondere Bauteile, und die zweiten Größen finale Erzeugnisse charakterisieren, wobei die Zuordnungsvorschrift beschreibt, welche Komponente zu welchem Erzeugnis verarbeitet bzw. welches Bauteil in welchem Erzeugnis verbaut wurde. Beispielsweise wenn das Bauteil in dem Erzeugnis nicht mehr zerstörungsfrei herausgenommen werden kann, um eine Seriennummer auszulesen. Mit der Erfindung ist es dann möglich, anhand von Messungen des Erzeugnisses die Produktionscharge des Bauteils zuzuordnen.
-
Die ersten und zweiten Größen können Mess-/Test-ergebnisse oder anderweitige Eigenschaften der Produkte, Komponenten, usw. sein. Die ersten und zweiten Größen unterscheiden sich vorzugweise untereinander geringfügig z.B. aufgrund von Fertigungstoleranzen, aber beschreiben die gleichen Messungen/Eigenschaften der Produkte, Komponenten, usw..
-
Weiterhin wird vorgeschlagen, dass die ersten Größen erste Testergebnisse bzw. Messergebnisse von Halbleiterbauteilelementen auf einem Wafer sind und die zweiten Größen zweite Testergebnisse bzw. Messergebnisse der Halbleiterbauteilelementen nach deren Herausschneiden aus dem Wafer sind. Halbleiterbauteilelemente können Teile von aufgewachsenen elektrischen Bauteilen auf dem Wafer sein, z.B. eine Transistorgruppe einer integrierten Schaltung. Die Testergebnisse können sich auch auf das gesamte Halbleiterbauteil beziehen. Hierbei hat sich für das maschinelle Lernsystem die lineare Regression als besonders effektiv erwiesen, um die beste Zuordnungsvorschrift aufzufinden. Denn diese geht von einem linearen Zusammenhang aus, welcher hier für die Zuordnung der Testergebnisse eine sinnvolle Annahme darstellt. Die lineare Regression ist ein Spezialfall der Regression. Bei der linearen Regression wird dabei eine lineare Funktion angenommen. Es werden also nur solche Zusammenhänge herangezogen, bei denen die abhängige Variable eine Linearkombination der Regressionskoeffizienten (aber nicht notwendigerweise der unabhängigen Variablen) ist.
-
Weiterhin wird vorgeschlagen, dass die ersten Testergebnisse Wafer-Level Testergebnisse sind und die zweiten Testergebnisse Final-Testergebnisse sind. Vorzugweise liegen weniger Final-Testergebnisse als Wafer-Level Testergebnisse vor. Die Tests sind z.B. Spannungstests und/oder Kontaktierungstests.
-
Weiterhin wird vorgeschlagen, dass die Halbleiterbauteilelemente auf einer Mehrzahl von unterschiedlichen Wafern hergestellt wurden. Denn es hat sich herausgestellt, dass das Verfahren sogar in der Lage ist, innerhalb einer angemessenen Rechenzeit, eine korrekte Zuordnungsvorschrift über mehrere Wafer hinweg aufzufinden.
-
Weiterhin wird vorgeschlagen, dass abhängig von der Zuordnungsvorschrift ermittelt wird, welches zweite Testergebnis zu welchem ersten Testergebnis gehört und wobei dann abhängig von dem zugehörigen ersten Testergebnis ermittelt wird, an welcher Position das Halbleiterbauteil innerhalb eines Wafers angeordnet war. Dies erlaubt eine Positionsrekonstruktion, welche es erstmals ermöglicht, die Halbleiterbauteile aus den letzten Herstellungsprozessschritten der Halbleiterproduktion zu vorhergehenden Prozessschritten eindeutig zurückzuverfolgen.
-
Weiterhin wird vorgeschlagen, dass zusätzlich zu den Positionen weitere den Wafer und/oder die Halbleiterbauteile auf dem Wafer charakterisierende Größen und jeweils zugeordnete Testergebnisse ermittelt werden, wobei diese Daten zu einem weiteren Trainingsdatensatz zusammengefasst werden, wobei abhängig von dem weiteren Trainingsdatensatz ein weiteres maschinelles Lernsystem angelernt wird, um die zweiten Testergebnisse vorherzusagen.
-
Der Vorteil hierbei ist, dass die Zuordnung verwendet werden kann, um einen weiteren Trainingsdatensatz zu erstellen, um ein weiteres maschinelles Lernsystem anzulernen, um Eigenschaften eines verpackten Halbleiterbauelements in einem frühen Stadium des Herstellungsprozesses vorherzusagen. Dadurch verkürzt sich die Zeit bis zur Erkennung von Abweichungen in den Prozessparametern erheblich. Insbesondere für Parameter, die nur bei abschließenden Tests (z.B. RDSon) richtig bewertet werden können.
-
Ein weiterer Vorteil hierbei ist, dass die Zuordnung auch verwendet werden kann, um ein weiteres maschinelles Lernsystem anzulernen, das aktiv defekte Halbleiterchips identifiziert. Das spart Prozessressourcen und reduziert Abfall.
-
In weiteren Aspekten betrifft die Erfindung eine Vorrichtung sowie ein Computerprogramm, die jeweils eingerichtet sind, die obigen Verfahren auszuführen und ein maschinenlesbares Speichermedium, auf dem dieses Computerprogramm gespeichert ist.
-
Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. In den Zeichnungen zeigen:
- 1 schematisch einen Packaging Prozess;
- 2 schematisch ein Ausführungsbeispiel eines Flussdiagramms der Erfindung;
- 3 schematisch eine Trainingsvorrichtung.
-
Beschreibung der Ausführungsbeispiele
-
Beim Packaging-Prozess von Halbleiterbauteilen oder Halbleiterbauelementen geht üblicherweise die Rückverfolgbarkeit der Bauelementen zu deren ursprünglichen Wafer und deren ursprünglichen Position auf dem jeweiligen Wafer verloren. Denn nach dem Herausschneiden der Halbleiterbauelementen kann es zu einer Durchmischung der einzelnen Halbleiterbauelemente kommen, wodurch ohne eine eindeutige Markierung der Bauteile deren Position auf dem Wafer verloren geht. Dies ist schematisch in 1 abgebildet. Die Wafer 10 weisen jeweils eine Mehrzahl von Halbleiterbauteilen oder Halbleiterbauelementen 11 auf. In diesem Stadium hat jedes Halbleiterbauelement 11 eine bekannte Position auf den Wafern 10. Üblicherweise werden die Halbleiterbauelemente 11 in diesem Stadium einer Mehrzahl von Test unterzogen, die auch als Wafer-Level Test bezeichnet werden. Daraufhin folgt ein Zerschneiden der Wafer 10, sodass die Halbleiterbauelemente 11 voneinander getrennt werden. Das Zerschneiden kann per Säge 12 oder per Laser erfolgen. Abschließend werden die zugeschnitten Halbleiterbauelemente verpackt, bspw. in Microcontroller 13 eingebaut. Spätestens in diesem Stadium ist dann die Information verloren gegangen, auf welchem Wafer 10 und auf welcher Position innerhalb des Wafers 10 das Halbleiterbauelement ursprünglich positioniert war. Üblicherweise werden die Microcontroller 13 mit den Halbleiterbauelementen 11 wieder einer Mehrzahl von Tests unterzogen, die auch als Final Test bezeichnet werden. Da jedoch durch das Zerschneiden der Wafer 10 eine Durchmischung erfolgte, lässt sich nicht ohne weiteres eindeutig zurückführen, auf welchem Wafer 10 das jeweilige Halbleiterbauelemente 11 der Microcontroller 13 angeordnet war und welcher Wafer-Level Test zu welchem Final Test korrespondiert, also die Testergebnisse des gleich Halbleiterbauelementes sind. Die Halbleiterbauelemente können mikroelektronische Baugruppen, wie z. B. integrierte Schaltungen (im Folgenden auch Chip bezeichnet), Sensoren, o.ä. sein.
-
Eine Aufgabe der Erfindung besteht darin, die Rückverfolgbarkeit nach dem Verpackungsverfahren in einem Halbleiterherstellungsverfahren wiederherzustellen. Eine solche Zuordnung ermöglicht weitere Beiträge wie eine bessere Prozesskontrolle oder frühzeitige Vorhersagen endgültiger Chip-Eigenschaften. Darüber hinaus kann die Ursachenanalyse, der in der Endprüfung auf Chipebene gemessenen Abweichungen auf die Prozesse in der Wafer Produktion ausgedehnt werden. Dies wiederum ermöglicht ein viel tieferes Verständnis der Prozesse und führt zu einer besseren Prozesskontrolle und damit zu einer besseren Qualität.
-
Es wird ein Zuordnungsalgorithmus vorgeschlagen, der aus einer abwechselnden Abfolge von Optimierung von Regressionsparametern (beim Regressieren aus Wafer-Level-Test auf Final-Test Testdaten) und anschließender Optimierung der Zuordnung von Testpartnern besteht. Die aktuelle Zuordnung der finalen Testchips wird als ,Regressionslabel' in jeder Iteration verwendet.
-
Die Erfindung nutzt ferner einen kostenminimierenden Algorithmus, der eine optimale Eins-zu-Eins-Zuordnung unter einer vorgegebenen Kostenmatrix ermitteln kann. Um eine geeignete Kostenmatrix zu konstruieren, wird ein Regressionsfehler herangezogen, indem ein geeignetes Abstandsmaß (z.B. L2-Norm) zwischen der finalen Testvorhersage eines angelernten Regressors zu dem Regressionslabel berechnet wird. Auf Basis dieser Kostenmatrix ordnet der Algorithmus die Chips im Final Test so um, dass der Regressionsverlust minimiert wird. Je nach Charakteristik der Daten kann der Regressor, bzw. Regressionsmodell, frei gewählt werden (z.B. lineare Regression für lineare Abhängigkeiten).
-
2 zeigt schematisch ein Flussdiagramm 20 eines Verfahrens zum Ermitteln einer Zuordnungsvorschrift, welche die Testergebnisse des Final Tests den jeweils korrespondierenden Wafer-Level Test Testergebnissen zuordnet. Nach Beendigung des Verfahrens soll eine Zuordnungsvorschrift vorliegen, welche die zusammengehörende Testergebnisse des Wafer-Level Tests zu den Final Tests zuordnet. Also die zusammengehörende Testergebnisse beschreibt, die vom gleichen Halbleiterbauteil stammen.
-
Das Verfahren beginnt mit Schritt S21. In diesem Schritt wird die Zuordnungsvorschrift initialisiert. Ferner werden in diesem Schritt die Testergebnisse des Wafer-Level Tests (WLT) und Final Tests (FT) bereitgestellt.
-
Daraufhin folgt Schritt S22. Hierin wird ein Trainingsdatensatz erstellt, welcher die WLT-Testergebnisse und deren jeweils gemäß der Zuordnungsvorschrift zugeordneten FT-Testergebnisse aufweist.
-
Nachdem Schritt S22 beendet wurde, folgt Schritt S23. In diesem Schritt wird ein Regressor / angelernt, sodass der Regressor abhängig von den Wafer-Level Tests (WLT) die jeweils zugeordneten Final Tests gemäß dem Trainingsdatensatz ermittelt: f(WLT) = FT. Der Regressor / kann ein lineares Regressionsmodell sein. Das Anlernen des Regressors erfolgt auf bekannte Art und Weise, z.B. über eine Minimierung eines Regressionsfehlers auf dem Trainingsdatensatz durch ein Anpassen von Parameter des Regressors /.
-
Nachdem der Regressor angelernt wurde, folgt Schritt S24. Hierin wird eine Kostenmatrix erstellt. Die Zeilen und Spalten sind jeweils einem Wafer-Level Test und Final Test zugeordnet. Die Einträge der Kostenmatrix werden bspw. mittels einer L2 Norm zwischen der Vorhersage des Regressors abhängig von dem entsprechenden WFT-Testergebnisses der jeweiligen Reihe und des entsprechenden FT-Testergebnissen der jeweiligen Spalte aus den Trainingsdaten ermittelt und in der Kostenmatrix hinterlegt.
-
Nachdem Schritt S24 beendet wurde, folgt in Schritt S25 eine Optimierung der Zuordnungsvorschrift. Die Optimierung erfolgt unter Anwendung der oben erläuterten greedy-Implementierung und/oder unter Anwendung des Ungarischen Algorithmus auf die Kostenmatrix, um eine verbesserte Zuordnungsvorschrift basierend auf der Kostenmatrix zu erhalten.
-
Wenn ein Abbruchkriterium nicht erfüllt ist, dann werden die Schritte S22 bis S25 erneut ausgeführt. Das Abbruchkriterium kann eine vorgegebene Anzahl von max. Wiederholungen sein.
-
Wenn das Abbruchkriterium erfüllt ist, dann ist das Verfahren beendet und es kann die Zuordnungsvorschrift ausgegeben werden.
-
In einen nach Schritt S25 optional folgenden Schritt wird mittels der Zuordnungsvorschrift die Position der Halbleiterbauteile 11 auf dem Wafer 10 rekonstruiert. Hierbei kann anhand der Zuordnungsvorschrift beginnend bei den FT-Testergebnissen rückwärts die WLT-Testergebnisse bestimmt werden. Da üblicherweise zu den WLT-Testergebnissen zusätzlich abgespeichert wird, an welcher Position innerhalb des Wafers der jeweilige Test ausgeführt wurde, lässt sich somit rekonstruieren, wo genau das entsprechende Halbleiterbauelement auf den Wafer hergestellt wurde.
-
Denkbar ist, dass abhängig von einer Positionsrekonstruktion nach Schritt S25 ein Steuersignal zur Steuerung eines physikalischen Systems, wie z.B. einer computergesteuerten Maschine, wie einer Fertigungsmaschine, insbesondere Bearbeitungsmaschinen für die Wafer, angesteuert werden. Beispielsweise wenn die FT-Testergebnisse nicht optimal sind, kann das Steuersignal einen vorhergehenden Herstellungsschritt entsprechend anpassen, um später bessere FT-Testergebnisse zu erhalten.
-
3 zeigt schematisch eine Vorrichtung 30 zum Ausführen des Verfahrens nach 2.
-
Die Vorrichtung umfasst einen Bereitsteller 51, der den Trainingsdatensatz gemäß Schritt S22 bereitstellt. Die Trainingsdaten werden dann dem Regressor 52 zugeführt, das hieraus Ausgangsgrößen ermittelt. Ausgangsgrößen und Trainingsdaten werden einem Beurteiler 53 zugeführt, der hieraus aktualisierte Parameter des Regressors 52 ermittelt, die dem Parameterspeicher P übermittelt werden und dort die gegenwärtigen Parameter ersetzen. Der Beurteiler 53 ist eingerichtet, den Schritt S23 auszuführen.
-
Die von der Vorrichtung 30 ausgeführten Schritte können als Computerprogramm implementiert auf einem maschinenlesbaren Speichermedium 54 hinterlegt sein und von einem Prozessor 55 ausgeführt werden.
-
Der Begriff „Computer“ umfasst beliebige Geräte zur Abarbeitung vorgebbarer Rechenvorschriften. Diese Rechenvorschriften können in Form von Software vorliegen, oder in Form von Hardware, oder auch in einer Mischform aus Software und Hardware.