DE602004011481T2 - Kombinierung von mehreren unabhängigen Informationsquellen für die Klassifizierung von Prüflingen - Google Patents

Kombinierung von mehreren unabhängigen Informationsquellen für die Klassifizierung von Prüflingen Download PDF

Info

Publication number
DE602004011481T2
DE602004011481T2 DE602004011481T DE602004011481T DE602004011481T2 DE 602004011481 T2 DE602004011481 T2 DE 602004011481T2 DE 602004011481 T DE602004011481 T DE 602004011481T DE 602004011481 T DE602004011481 T DE 602004011481T DE 602004011481 T2 DE602004011481 T2 DE 602004011481T2
Authority
DE
Germany
Prior art keywords
standard
results
test
technique
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE602004011481T
Other languages
English (en)
Other versions
DE602004011481D1 (de
Inventor
Jonathan Quiang Li
Daniel A. Usikov
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Agilent Technologies Inc
Original Assignee
Agilent Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agilent Technologies Inc filed Critical Agilent Technologies Inc
Publication of DE602004011481D1 publication Critical patent/DE602004011481D1/de
Application granted granted Critical
Publication of DE602004011481T2 publication Critical patent/DE602004011481T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/28Testing of electronic circuits, e.g. by signal tracer
    • G01R31/317Testing of digital circuits
    • G01R31/31707Test strategies
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/28Testing of electronic circuits, e.g. by signal tracer
    • G01R31/317Testing of digital circuits
    • G01R31/3181Functional testing
    • G01R31/3183Generation of test inputs, e.g. test vectors, patterns or sequences
    • G01R31/318342Generation of test inputs, e.g. test vectors, patterns or sequences by preliminary fault modelling, e.g. analysis, simulation
    • G01R31/31835Analysis of test coverage or failure detectability

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Tests Of Electronic Circuits (AREA)
  • General Factory Administration (AREA)
  • Testing Of Individual Semiconductor Devices (AREA)

Description

  • Technisches Gebiet
  • Ausführungsbeispiele der vorliegenden Erfindung beziehen sich auf das Gebiet des Bauelementtestens und insbesondere auf ein System und ein Verfahren zum Auswerten hergestellter Bauelemente unter Verwendung einer Mehrzahl von Testtechniken.
  • Hintergrund der Erfindung
  • Wenn Einheiten, wie z. B. Elektronikkomponenten oder dergleichen, unter Verwendung moderner automatisierter Prozesse hergestellt werden, beinhaltet ein bestimmter Prozentsatz dieser Einheiten Fehler, fehlende Teile oder andere ähnliche Mängel. Wenn z. B. gedruckte Schaltungsplatinen (PCBs), wie z. B. diejenigen, die in Mobiltelefonen verwendet werden, hergestellt werden, werden einem Prozentsatz der erzeugten PCBs Komponenten fehlen. Um die Qualität sicherzustellen, testen Hersteller typischerweise die hergestellten Einheiten auf das Vorliegen von Fehlern. Nachdem eine PCB hergestellt wurde, werden z. B. typischerweise optische Untersuchungen der Oberfläche der PCB durchgeführt. Durch ein Vergleichen dieser Bilder mit bekannten Standardbildern können Fehler erfasst werden. Diese optischen Untersuchungen können Farbbilder sein, die verwendet werden, um eine Oberflächenqualität zu bestimmen, Grauskalabilder werden verwendet, um zu bestimmen, ob eine Komponente auf der PCB vorhanden oder abwesend ist, oder sogar dreidimensionale Bilder der PCB-Oberfläche, die verwendet werden, um die Qualität von Lötmittelverbindungen zu bestimmen. Andere Testtypen, wie z. B. elektrische Leitfähigkeit oder Röntgenstrahlabbildung, können ebenso verwendet werden. Der ausgewählte Testtyp ist typischerweise eine Funktion des Typs der gerade hergestellten Einheit, des Typs des Herstellungsprozesses selbst, der Testumgebung oder einer anderen ähnlichen Überlegung.
  • Ein Großteil der Testverfahren hat bisher Fehler dadurch erfasst, dass die Ergebnisse eines Tests an einer neu hergestellten Einheit mit den Ergebnissen eines bekannten Standards verglichen wurden. Optische Untersuchungstests, wie z. B. diejenigen, die oben beschrieben wurden, vergleichen z. B. das Bild einer hergestellten PCB mit dem Bild einer bekannten „guten" PCB. Ein Fehler kann dann erfasst werden, wenn sich das Bild der PCB wahrnehmbar von dem Bild der bekannten „guten" PCB unterscheidet. Andere Verfahren verwenden ähnliche Verfahren zur Erfassung des Vorliegens verschiedener Fehler. Während der Herstellung z. B. könnte eine Fehlfunktion bewirken, dass Lötmittelverbindungen, die zur Befestigung von Chips auf PCBs verwendet werden, überlaufen. Ein derartiger Fehler wird oft unter Verwendung von Tests der elektrischen Verbindbarkeit erfasst, bei denen die Verbindbarkeit einer neu hergestellten Einheit gemessen und mit den Werten einer bekannten „guten" Einheit verglichen wird. Wenn sich der gemessene Wert um mehr als eine voreingestellte Menge unterscheidet, wird die hergestellte Einheit als fehlerhaft betrachtet.
  • Herkömmliche Herstellungstechniken verwenden nur eine Testtechnik zur Erfassung des Vorliegens eines Fehlers. Typischerweise wurde dieser Test ausgewählt, da er angesichts des Herstellungsverfahrens, des Typs gerade hergestellter Einheit und des Typs erwarteter Fehler als der am besten geeignete (oder genauste) betrachtet wird. Wenn z. B. eine Farbabbildung die genausten Ergebnisse zur Erfassung des Vorliegens einer Komponente ergibt, wird die Farbabbildung verwendet. Wenn eine Grauskalaabbildung die genausten Ergebnisse zum Erfassen von Textcodes auf einem Chip einer integrierten Schaltung (IC) erzeugt, wird die Grauskalaabbildung verwendet. Einige Herstellungstechniken verwenden mehrere Test, insbesondere dann, wenn der Hersteller auf unterschiedliche Typen von Fehlern hin testet. Es kann jedoch schwierig sein, wirksam mehrere Tests einzusetzen, da die Tests unter Umständen nicht gleichermaßen zuverlässig sind und oftmals inkonsistente Ergebnisse erzeugen. So wird bei Verwendung mehrerer Tests oft ein „Mehrheitsregeln"-Verfahren eines Kombinierens der Testergebnisse eingesetzt, was bedeutet, dass ein Bauelement nur dann als fehlerhaft betrachtet wird, wenn es einen Großteil der Tests nicht besteht.
  • Die US-A-5,922,079 offenbart ein automatisiertes Analysesystem, das Erfassbarkeitsprobleme, Diagnostizierbarkeitsprobleme und mögliche Weisen zur Veränderung einer Rangordnung von Diagnosen in einem Diagnosesystem identifiziert und die Probleme und mögliche Verbesserungen für Testprogrammierer sichtbar macht, um eine Testverbesserung zu unterstützen. Komponenten, die keine Abdeckung aufweisen, und Komponenten, die eine nicht ausreichende Abdeckung aufweisen, werden als potentielle Erfassbarkeitsprobleme identifiziert. Komponenten, die in allen Tests durch identische Operationen trainiert werden, werden als Diagnostizierbarkeitsprobleme identifiziert. Wenn eine falsche Diagnose gestellt wird, identifiziert das automatisierte Analysesystem ein Nicht-Bestehen von Tests, die in dem echten Nichtbestehensfall keine Abdeckung jeglicher Komponente aufweisen. Zusätzlich identifiziert das automatisierte Analysesystem, wenn eine falsche Diagnose gestellt wird, Weisen eines Veränderns der Rangordnung von Diagnosen, einschließlich Abdeckungen, die reduziert werden können, und Identifizierung von Operationsverletzungen, die beseitigt oder absichtlich hinzugefügt werden können.
  • Die US-A-5,631,857 offenbart ein System zum Beurteilen der Testwirksamkeit eines Testwerkzeugs zum Testen eines Computersystems. Das Computersystem wird zuerst in eine Mehrzahl funktioneller Komponenten unterteilt. Für jede der funktionellen Komponenten wird ein Satz von Zahlen bestimmt, wobei jede Zahl einer Mehrzahl von Faktoren entspricht, die die Wirksamkeit des Testwerkzeugs anzeigen. Basierend auf den bestimmten Zahlen wird ein genormtes Gewicht des Satzes von Zahlen für jede der funktionellen Komponenten berechnet. Dann wird basierend auf dem genormten Gewicht für jede der funktionellen Komponenten ein Komponententestwert für die Testwirksamkeit des Testwerkzeugs beim Testen jeder der funktionellen Komponenten berechnet. Basierend auf dem genormten Gewicht und dem Komponententestwert für jede der funktionellen Komponenten wird ein Gesamttestwert für die Testwirksamkeit des Testwerkzeugs beim Testen der Computersystemhardware berechnet. Schließlich wird das Testwerkzeug basierend auf den Komponententestwerten und dem Gesamttestwert modifiziert, um die Testwirksamkeit zu verbessern. Das System könnte angewendet werden, um schwache Bereiche einer Testabdeckung zu dem Zweck eines Neuzuteilens von Codierungsanstrengungen und Betriebsmitteln zu identifizieren.
  • Brosa u. a. beschreiben in „ON MAXIMIZING THE COVERAGE OF CATASTROPHIC AND PARAMETRIC FAULTS", Journal of Electronic Testing, Bd. 16, Nr. 3, Seiten 251–258, 2000, ein Optimierungsverfahren zum Verbessern der Testfähigkeit von Struktur- und Parameterfehlern in analogen Schaltungen, einschließlich des Findens eines optimalen Teilsatzes von Tests, der die Fehlerabdeckung bei minimalen Kosten maximiert.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, ein verbessertes Verfahren und eine verbesserte Vorrichtung zum Auswerten eines zu testenden Bauelements zu schaffen.
  • Diese Aufgabe wird durch ein Verfahren gemäß Anspruch 1 und durch ein System gemäß Anspruch 7 gelöst.
  • Kurze Zusammenfassung der Erfindung
  • Ausführungsbeispiele der vorliegenden Erfindung verwenden die Ergebnisse einer Mehrzahl von Fehlererfassungstests und passen das Ergebnis jedes Tests in einer Weise an, die die Genauigkeit des Tests, der das Ergebnis erzeugt hat, widerspiegelt. Eine hergestellte Einheit kann dann unter Verwendung einer mathematischen Kombination der angepassten Ergebnisse ausgewertet werden.
  • Einige Ausführungsbeispiele bestimmen die Genauigkeit jedes Tests durch Analysieren der Ergebnisse, die auf Einheiten mit bekannten Fehlerprofilen laufen. Diese Ergebnisse können dann verwendet werden, um Gewichtungsfaktoren zu erzeugen, die bei Ergebnissen von Tests verwendet werden, die an neu hergestellten Einheiten durchgeführt werden. Die gewichteten Ergebnisse jedes Tests können dann als eine Wahrscheinlichkeit, dass die getestete Einheit einen Fehler beinhaltet, betrachtet werden. Durch mathematisches Kombinieren dieser Wahrscheinlichkeiten kann ein Hersteller wirksam eine Vielzahl von Tests zur Auswertung hergestellter Einheiten verwenden, selbst wenn diese Tests unterschiedliche Zuverlässigkeiten aufweisen.
  • Systeme zum Auswerten einer Einheit gemäß der vorliegenden Erfindung können eine Mehrzahl von Testtechniken umfassen, die das Vorliegen von Fehlern erfassen, wenn die Genauigkeit zumindest einer der Techniken bestimmt werden kann. Ausführungsbeispiele können außerdem einen Prozessor und Code umfassen, der die Ergebnisse von jeder Technik unter Verwendung der Genauigkeit dieser Technik gewichtet. Ausführungsbeispiele können dann Code zum Kombinieren der gewichteten Ergebnisse und Berechnen einer Probabilität, dass die Einheit fehlerhaft ist, verwenden.
  • Ausführungsbeispiele können ein Verfahren gemäß der vorliegenden Erfindung verwenden, um ein hergestelltes elektronisches Bauelement auszuwerten. Derartige Ausführungsbeispiele testen jede einer Mehrzahl von Techniken zur Bestimmung dessen, wie gut diese bekannte Herstellungsfehler erfassen. Nach einem Testen eines neu hergestellten Bauelements mit jeder Technik könnten die Ausführungsbeispiele das Ergebnis, das durch jede Technik gefunden wird, anpassen, um mögliche bestimmte Ungenauigkeiten auszugleichen. Das Ausführungsbeispiel würde dann eine Probabilität, dass das Bauelement fehlerhaft ist, durch Kombinieren der angepassten Ergebnisse berechnen.
  • Vorstehendes hat die Merkmale und technischen Vorteile der vorliegenden Erfindung ziemlich breit herausgestellt, damit die folgende detaillierte Beschreibung der Erfindung besser verstanden werden kann. Zusätzliche Merkmale und Vorteile der Erfindung werden im Folgenden beschrieben und bilden den Gegenstand der Ansprüche der Erfindung. Es sollte zu erkennen sein, dass die Auffassung und ein offenbartes spezifisches Ausführungsbeispiel ohne weiteres als eine Basis zum Modifizieren von oder Entwerfen anderer Strukturen zum Ausführen der gleichen Zwecke der vorliegenden Erfindung eingesetzt werden könnten. Außerdem sollte zu erkennen sein, dass derartige gleichartige Aufbauten nicht von der Erfindung, wie diese in den beigefügten Ansprüchen dargelegt ist, abweichen. Die neuartigen Merkmale, die als charakteristisch für die Erfindung erachtet werden, sowohl in Bezug auf ihre Organisation als auch Betriebsverfahren, sowie weitere Aufgaben und Vorteile werden aus der folgenden Beschreibung bei Betrachtung in Verbindung mit den beigefügten Figuren besser verständlich werden. Es wird jedoch ausdrücklich darauf hingewiesen, dass jede der Figuren lediglich zu Darstellungs- und Beschreibungszwecken vorgesehen ist und nicht als Definition der Grenzen der vorliegenden Erfindung gedacht ist.
  • Kurze Beschreibung der Zeichnungen
  • Für ein vollständigeres Verständnis der vorliegenden Erfindung wird nun Bezug auf die folgenden Beschreibungen in Verbindung mit den beiliegenden Zeichnungen genommen, in denen:
  • 1 eine Mehrzahl hergestellter Bauelemente, die gemäß einem Ausführungsbeispiel der vorliegenden Erfindung auf Fehler hin getestet werden, darstellt;
  • 2 ein Flussdiagramm ist, das ein Verfahren zum Bestimmen, ob ein Bauelement fehlerhaft ist oder nicht, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt;
  • 3 ein Vorgang zum Trainieren eines Systems gemäß einem Ausführungsbeispiel der vorliegenden Erfindung ist; und
  • 4 einen ROC-Graphen (ROC = Receiver Operating Characteristics = Empfängerbetriebscharakteristika) basierend auf den Daten der Tabellen 1 und 2 darstellt.
  • 5 stellt ein exemplarisches Computersystem dar, das gemäß Ausführungsbeispielen der vorliegenden Erfindung angepasst ist.
  • Detaillierte Beschreibung der Erfindung
  • 1 stellt eine Mehrzahl hergestellter Bauelemente dar, die gemäß einem Ausführungsbeispiel der vorliegenden Erfindung auf Fehler hin getestet werden. Jedes zu testende Bauelement (DUT; DUT = device under test) 101 in einem System 100 ist eine hergestellte Einheit, die einen Fehler beinhalten könnte. Tests 102105 sind entworfen, um die Fehler zu erfassen, die bei der Herstellung des DUT 101 erwartet werden. Die Auswahl der geeigneten Tests könnte von dem Typ hergestellten DUT, den Umgebungsfaktoren, die bei der Herstellung beinhaltet sind, den Fehlertypen, die wahrscheinlich entstehen, physischen Beschränkungen, wie z. B. Testzugangspunkten einer gedruckten Schaltungsplatine, wirtschaftlichen Beschränkungen, wie z. B. den Kosten des Testens, logistischen Beschränkungen, wie z. B. Durchsatzanforderungen, und/oder anderen ähnlichen Überlegungen abhängen. Ausführungsbeispiele der vorliegenden Erfindung sind auf keinen spezifischen Typ von DUT, Fehlertyp oder eine bestimmte Testanordnung eingeschränkt. Vielmehr könnten Ausführungsbeispiele der vorliegenden Erfindung eingesetzt werden, um einen beliebigen Typ von DUT unter Verwendung eines beliebigen Typs von Herstellungstechnik und mit einem beliebigen Typ von Testtechnik, der gewichtet werden kann, zu testen. Nachdem das System 100 ein DUT 101 mit jedem Test 102105 getestet hat, werden die Ergebnisse der Tests 102105 durch einen Auswähler bzw. Selektor 108 verwendet, um fehlerhafte DUTs 106 von guten DUTs 107 zu trennen. Die DUTs 101 könnten Elektronikkomponenten, gedruckte Schaltungsplatinen oder andere hergestellte Gegenstände, wie z. B. Lebensmittelprodukte oder Spielzeug sein, die durch eine Mehrzahl an gewichteten Tests getestet werden können. Es wird angemerkt, dass die Ausführungsbeispiele der vorliegenden Erfindung nicht auf das Testen hergestellter Produkte für eine Qualitätskontrolle eingeschränkt sind. Die Verfahren der vorliegenden Erfindung können in Vorgängen verwendet werden, die in Verbindung mit Flughafenüberprüfung, medizinischer Überprüfung und einer beliebigen anderen Anwendung verwendet werden, die mehrere Testmechanismen mit variierender Qualität oder Genauigkeit einsetzen können.
  • 2 ist ein Flussdiagramm, das ein Verfahren zum Bestimmen, ob ein DUT fehlerhaft ist oder nicht, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt. Das Verfahren 200 verwendet zwei Testverfahren und lässt jedes DUT bestehen oder durchfallen, indem eine Probabilität, dass das DUT einen Fehler beinhaltet, aus einer gewichteten Kombination des Ergebnisses jedes Tests berechnet wird. Es sollte jedoch zu erkennen sein, dass Ausführungsbeispiele der vorliegenden Erfindung nicht auf nur zwei Testverfahren eingeschränkt sind, sondern vielmehr auf die Verwendung einer beliebigen Anzahl von Tests angepasst werden können, die in der Lage sind, gewichtete Ergebnisse zu erzeugen. Bei Schritt 201 wird ein DUT unter Verwendung eines Testverfahrens Nummer 1 getestet und erzeugt bei Schritt 203 eine bestimmte Bestimmung dessen, ob gemäß Test 1 das DUT einen Fehler aufweist oder nicht. Bei Schritt 205 wird die bei Schritt 203 durchgeführte Bestimmung unter Verwendung einer bestimmten Bestimmung der Genauigkeit des Testverfahrens Nummer 1 gewichtet. Das Ergebnis ist eine Wahrscheinlichkeit, dass das DUT einen Fehler aufweist, die eine Kombination des Resultats des Tests 1 und des Vertrauens, das der Bediener in die Genauigkeit des Testverfahrens Nummer 1 hat, ist.
  • Bei Schritt 202 wird das gleiche DUT unter Verwendung eines Testverfahrens Nummer 2 getestet. Bei Schritt 204 werden die Ergebnisse des zweiten Tests verwendet, um zu bestimmen, ob gemäß dem Test 2 das DUT einen Fehler aufweist oder nicht. Bei Schritt 206 wird diese Bestimmung durch eine Messung der Genauigkeit des Testverfahrens Nummer 2 gewichtet. Schritt 207 berechnet eine Probabilität, dass das DUT fehlerhaft ist, indem die gewichteten Wahrscheinlichkeiten, die durch jeden Test erzeugt werden, kombiniert werden. Bei einem Ausführungsbeispiel der Erfindung können die Schritte 203207 durch einen Selektor 108 durchgeführt werden. Bei einem weiteren Ausführungsbeispiel der Erfindung können die Schritte 201206 durch Tests 102 und 103 (beispielsweise) durchgeführt werden.
  • Um den Vertrauensfaktor zu bestimmen, den ein Testverfahren „wiegt", muss ein System unter Umständen „trainiert" werden. 3 ist ein Vorgang zum Trainieren eines Systems gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Bei einem Verfahren 300 ist ein DUT 350 eine Standardeinheit, die bekannte Charakteristika besitzt und einem Testen unter Verwendung eines Tests X bei Schritt 301 und eines Tests Y bei Schritt 302 unterzogen wird. Lediglich aus Gründen der Klarheit sind zwei Tests dargestellt, die Aus führungsbeispiele der vorliegenden Erfindung jedoch sind auf keine spezifische Anzahl von Tests eingeschränkt. Ferner müssen die Messung X und die Messung Y nicht verwandt sein, sondern könnten vielmehr zwei unabhängige Informationsquellen sein, wie z. B. Farbabbildung und elektrische Verbindbarkeit, was zu unabhängigen DUT-Messungen führt.
  • Diese Messungen erzeugen einen Merkmalssatz X bei Schritt 303 und einen Merkmalssatz Y bei Schritt 304. Die Merkmalssätze X und Y sind typischerweise Sätze mehrerer Messungen, die an vorbestimmten Abtastpunkten auf dem DUT genommen werden. Da die Standard-DUTs, die zum Trainieren eines Systems eingesetzt werden, ein bekanntes Fehlerprofil besitzen, zeigen die resultierenden Merkmalssätze, wie gut der Test X und der Test Y die Fehler, von deren Vorhandensein der Betreiber weiß, erfassen. Sobald der Merkmalssatz X und der Merkmalssatz Y für alle Standard-DUTs gemessen sind, vergleichen Schritte 305 und 306 die Merkmalssätze X und Y mit den bekannten Profilen für jedes Standard-DUT und bestimmen aus diesem Vergleich, wie genau jede Messung X und Y die Fehler in den Standard-DUTs erfasst hat. Diese Ergebnisse sind typischerweise als ein Vertrauensfaktor für jeden Test ausgedrückt. Schritt 307 kombiniert dann den Vertrauensfaktor für die Messungen unter Verwendung von X und Y, um ein letztendliches Vertrauen Z zu bestimmen, das darstellt, wie genau ein Fehler erfasst werden könnte, wenn beide Tests X und Y gemeinsam verwendet werden. Unter Verwendung dieses Faktors Z stellt Schritt 308 die Probabilität eines falschen Bestehens (ein fehlerhaftes DUT wird nicht als fehlerhaft erkannt) und eines falschen Durchfallens (ein nicht fehlerhaftes DUT wird als fehlerhaft eingestuft) graphisch dar.
  • Zur Berechnung der Vertrauenswerte, die bei den obigen exemplarischen Systemen und Verfahren verwendet werden, können Ausführungsbeispiele der vorliegenden Erfindung ein beliebiges geeignetes statistisches Modell verwenden. Hier wird lediglich beispielhaft und zur Darstellung ein Gauß sches Modell verwendet. Ein Merkmalssatz X, der bei Schritt 303 aus 3 bestimmt wird, kann durch eine Matrix dargestellt sein, bei der jede Spalte einen Messpunkt darstellt und jede Zeile einen Messdurchlauf darstellt. Die folgende Matrix von Übungsdaten stellt die Ergebnisse eines X-Durchlaufs an einem Standard an einer k-Zahl von Messpunkten und mit einer n-Zahl von Malen dar.
    Figure 00110001
  • Es wird angemerkt, dass ein Übungsverfahren bei der Alternative einen Test X mit einer k-Zahl von Messpunkten und an einer n-Zahl von Abtastwerten laufen lassen und das gleiche Ergebnis erzeugen kann.
  • Unter Verwendung dieser Matrix ist der Mittelvektor:
    Figure 00110002
    und die Kovarianzmatrix für X, wobei der ij-te Eintrag dieser Matrix die Kovarianz zwischen einem Merkmal i und einem Merkmal j ist, ist folgendermaßen:
    Figure 00110003
    und
    Figure 00120001
  • Für ein typisches Testverfahren werden eine Matrix, ein Mittelvektor und eine Kovarianzmatrix üblicherweise für eine „A"-Klasse von Standard-DUTs bestimmt, die Bauelemente darstellt, die frei von Fehlern sind, und separat für eine „B"-Klasse von Standard-DUTs, die Bauelemente darstellt, die bekannte Fehler beinhalten.
  • Ein Merkmalssatz von Y, der denjenigen eines Testverfahrens Y darstellt, der bei Schritt 304 aus 3 bestimmt wird, kann durch die folgende Matrix dargestellt werden:
    Figure 00120002
  • Unter Verwendung dieser Matrix ist der Mittelvektor:
    Figure 00120003
    und die Kovarianzmatrix beträgt:
    Figure 00120004
    Figure 00130001
  • Unter Verwendung der obigen Berechnungen können zwei Wahrscheinlichkeiten (eine A und eine B) für jeden Satz X und Y berechnet werden. Sobald ein System auf diese Weise „trainiert" wurde, kann dasselbe, wie z. B. das, das in 1 dargestellt ist, und/oder diejenigen, die die Verfahren der 2 und 3 verwenden, die Probabilität eines Fehlers in einem neu hergestellten DUT bestimmen. Die Ergebnisse eines Testdurchlaufs an einer neu hergestellten Einheit unter Verwendung des Testverfahrens X können durch den k-dimensionalen Vektor Xneu dargestellt werden:
    Figure 00130002
  • Für jeden Vektor von Messungen können Ausführungsbeispiele dann eine Wahrscheinlichkeit berechnen, dass das getestete DUT einen Fehler beinhaltet. Bei den exemplarischen Verfahren der 2 und 3 würden vier Wahrscheinlichkeiten berechnet werden: eine Wahrscheinlichkeit, dass ein Test X einen Fehler gefunden hat; eine Wahrscheinlichkeit, dass der Test X keinen Fehler gefunden hat; eine Wahrscheinlichkeit, dass ein Test Y einen Fehler gefunden hat; und eine Wahrscheinlichkeit, dass Y keinen Fehler gefunden hat. Die Gaußsche Wahrscheinlichkeit, dass Xneu ein Ergebnis eines Testverfahrens X eines fehlerfreien DUT darstellt, z. B. wäre:
    Figure 00140001
    wobei
    • det(Σ) für die Determinante von Σ steht,
    • Σ–1 für das Matrixinverse von Σ steht,
    • (X – μ)t für eine Matrixtransponierte von (X – μ) steht,
    • (X – μ) eine Vektorsubtraktion ist, und
    • die Multiplikationen in der {} Matrixmultiplikationen sind.
  • Ein neuer Vektor von Messungen unter Verwendung des Testverfahrens Y kann folgendermaßen dargestellt werden:
    Figure 00140002
  • Die Gaußsche Wahrscheinlichkeit, dass Yneu eine Messung des Testverfahrens Y eines fehlerfreien DUT darstellt, wäre folgendermaßen:
    Figure 00140003
    wobei
    • det(Σ) für die Determinante von Σ steht,
    • Σ–1 für das Matrixinverse von Σ steht,
    • (Y – μ)t für eine Matrixtransponierte von (Y – μ) steht,
    • (Y – μ) eine Vektorsubtraktion ist, und
    • die Multiplikationen in der {} Matrixmultiplikationen sind.
  • Für jede Messung eines neuen DUT, die Verfahren X und Y verwendet, könnten zwei Gaußsche Wahrscheinlichkeiten GA und GB für jedes Verfahren berechnet werden, wobei GA(Xneu) die Wahrscheinlichkeit ist, dass das DUT gemäß X fehlerfrei ist, GB(Xneu) die Wahrscheinlichkeit ist, dass das DUT gemäß X einen Fehler aufweist, GA(Yneu) die Wahrscheinlichkeit ist, dass das DUT gemäß Y fehlerfrei ist, und GB(Yneu) die Wahrscheinlichkeit ist, dass das DUT gemäß Y einen Fehler aufweist.
  • Wahrscheinlichkeiten sind nützlicher, wenn sie als Probabilitäten (oder Vertrauenswerte (C)) ausgedrückt werden. Zur Umwandlung Gaußscher Wahrscheinlichkeiten GA(Xneu) und GB(Xneu) in Probabilitäten CA(Xneu) bzw. CB(Xneu) gilt:
    Figure 00150001
  • Hier wird Folgendes angemerkt: CA(Xneu) = 1 – CB(Xneu)
  • Sobald das Vertrauen jedes Messverfahrens bestimmt wurde, können Ausführungsbeispiele die Ergebnisse mathematisch kombinieren, um dann basierend auf beiden Techniken eine Bestimmung zu erzeugen, dass ein DUT einen Fehler aufweist, wie z. B. bei Schritt 307 aus 3. Eine Weise einer mathematischen Kombination ist die gut bekannte Bayes-Abstimmformel (Bayesian Voting Formula), die beschrieben ist in E. T. Jayne, Probability Theory: The Logic of Science, Cambridge University Press. (2003). Gemäß dieser Formel gilt:
    Figure 00150002
  • CA(X, Y) stellt deshalb eine Probabilität dar, dass ein hergestelltes DUT einen Fehler beinhaltet, und ist eine effiziente Verwendung mehrerer Testtechniken mit variierender Genauigkeit.
  • Tabellen 1 und 2 sind exemplarische Merkmalssätze von einer IC-Komponente, die unter Verwendung einer optischen Untersuchungsmaschine gemessen werden. Tabelle 1
    gute Daten Merkmal 1 Merkmal 2 Merkmal 3 Merkmal 4
    Datenpunkt 1 43 39 69 3
    Datenpunkt 2 11 36 79 7
    Datenpunkt 3 24 38 79 5
    Tabelle 2
    gute Daten Merkmal 1 Merkmal 2 Merkmal 3 Merkmal 4
    Datenpunkt 1 29 37 18 5
    Datenpunkt 2 28 38 19 6
    Datenpunkt 3 30 37 20 6
  • 4 stellt einen ROC-Graphen (ROC = Receiver Operating Characteristics = Empfängerbetriebscharakteristika) basierend auf den Daten der Tabellen 1 und 2 dar. In einem Graph 400 ist die X-Achse eine Fehlbezeichnungsrate, die als die Anzahl von Fehlbezeichnungen geteilt durch die Anzahl untersuchter Datenpunkte definiert ist, und die Y-Achse ist die Empfindlichkeit, die definiert ist als der Prozentsatz von Fehlern, die durch den Klassifizierer erfasst werden.
  • Der ROC-Graph aus 4 wurde folgendermaßen erzeugt:
    • 1. Berechnen der Vertrauenszahlen für jedes Element in dem Übungssatz.
    • 2. Anpassen der Schwelle von 0 auf 1. Für jeden Wert, Vergleichen der wahren Klasse des Elements mit der Klasse, die durch Schwellenwertbildung der Vertrauenszahlen entschieden wurde.
    • 3. Die Fehlrufrate ist die Rate, mit der basierend auf der Schwellwertbildungsprozedur Klasse A als Klasse B bezeichnet wird. Die Entkommensrate ist die Rate, mit der Klasse B als Klasse A bezeichnet wird.
    • 4. Die ROC-Kurve stellt die Fehlbezeichnungsrate gegenüber der 1-Entkommen-Rate für jede Schwelle dar.
  • Bei Implementierung über computerausführbare Instruktionen sind verschiedene Elemente von Ausführungsbeispielen der vorliegenden Erfindung im Grunde der Softwarecode, der die Operationen derartiger verschiedener Elemente definiert. Die ausführbaren Instruktionen oder Softwarecode können von einem lesbaren Medium (z. B. einem Festplattenmedium, optischen Medium, EPROM, EEPROM, Bandmedien, Kassettenmedien, Flash-Speicher, ROM, Memorystick und/oder dergleichen) erhalten oder über ein Datensignal von einem Kommunikationsmedium (z. B. dem Internet) weitergeleitet werden. Tatsächlich können lesbare Medien ein beliebiges Medium umfassen, das Informationen speichern oder übertragen kann.
  • 5 stellt ein exemplarisches Computersystem 500 dar, das gemäß Ausführungsbeispielen der vorliegenden Erfindung angepasst ist. Dies bedeutet, dass das Computersystem 500 ein exemplarisches System aufweist, auf dem Ausführungsbeispiele der vorliegenden Erfindung implementiert sein können. Eine zentrale Verarbeitungseinheit (CPU) 501 ist mit einem Systembus 502 gekoppelt. Die CPU 501 kann eine beliebige Universal-CPU sein. Geeignete Prozessoren umfassen beispielhaft ohne Einschränkung einen PENTIUM®4-Prozessor von Intel. Die vorliegende Erfindung ist jedoch durch die Architektur der CPU 501 nicht eingeschränkt, solange die CPU 501 die hierin beschriebenen erfindungsgemäßen Operationen unterstützt. Die CPU 501 kann die verschiedenen Logikinstruktionen gemäß Ausführungsbeispielen der vorliegenden Erfindung ausführen. Die CPU 501 kann z. B. Instruktionen auf Maschinenebene gemäß den exemplarischen Operationsflüssen, die oben in Verbindung mit den 2 oder 3 beschrieben sind, ausführen.
  • Das Computersystem 500 umfasst außerdem vorzugsweise einen Direktzugriffsspeicher (RAM) 503, der SRAM, DRAM, SDRAM oder dergleichen sein kann. Das Computersystem 500 umfasst vorzugsweise einen Nur-Lese-Speicher (ROM) 504, der PROM, EPROM, EEPROM oder dergleichen sein kann. Der RAM 503 und der ROM 504 halten Benutzer- und Systemdaten und Programme, wie z. B. Programme, die in der Lage sind, die oben beschriebenen Vektoren und Matrizen zu analysieren.
  • Das Computersystem 500 umfasst außerdem vorzugsweise einen Eingangs-/Ausgangs-(I/O-)Adapter 505, einen Kommunikationsadapter 511, einen Benutzerschnittstellenadapter 508 und einen Anzeigeadapter 509. Der I/O-Adapter 505, der Benutzerschnittstellenadapter 508 und/oder der Kommunikationsadapter 511 könnten es bei bestimmten Ausführungsbeispielen einem Bediener ermöglichen, mit dem Computersystem 500 in Wechselwirkung zu stehen, was es dem Bediener ermöglicht, z. B. die Anzahl von Standards, die verwendet werden, zu verändern oder die Messpunkte, die bei einem bestimmten Test verwendet werden, voreinzustellen.
  • Der I/O-Adapter 505 verbindet vorzugsweise eine oder mehrere Speichervorrichtungen 506, wie z. B. ein oder mehrere Elemente von Festplatte, Kompaktplatten-(CD-)Laufwerk, Diskettenlaufwerk, Bandlaufwerk usw., mit dem Computersystem 500. Die Speichervorrichtungen könnten eingesetzt werden, wenn der RAM 503 für die Speicheranforderungen, die einem Speichern von Daten für Benutzerinformationen zugeordnet sind, nicht ausreichend ist. Der Kommunikationsadapter 511 ist vorzugsweise angepasst, um das Computersystem 500 mit einem Netzwerk 512 zu koppeln. Der Benutzerschnittstellenadapter 508 koppelt Benutzereingabevorrichtungen, wie z. B. eine Tastatur 513, eine Zeigevorrichtung 507 und ein Mikrophon 514, und/oder Ausgabevorrichtungen, wie z. B. einen oder mehrere Lautsprecher 515, mit dem Computersystem 500. Der Anzeigeadapter 509 wird durch die CPU 501 getrieben, um die Anzeige auf der Anzeigevorrichtung 510 zu steuern, die verwendet werden kann, um die Ergebnisse jedes Tests anzuzeigen, sowie die Ergebnisse der mathematischen Kombination dieser Ergebnisse.
  • Es sollte zu erkennen sein, dass die vorliegende Erfindung nicht auf die Architektur des Systems 500 eingeschränkt ist. Beispielsweise könnte eine beliebige geeignete Vorrichtung auf Prozessorbasis eingesetzt werden, die ohne Einschränkung Personalcomputer, Laptop-Computer, Computerarbeitsplatzrechner und Mehrprozessor-Server umfasst. Ferner könnten Ausführungsbeispiele der vorliegenden Erfindung auf anwendungsspezifischen integrierten Schaltungen (ASICs; ASIC = application specific integrated circuit) oder Höchstintegrations-(VLSI-)Schaltungen (VLSI = very large scale intetration) implementiert sein. Tatsächlich können Fachleute auf dem Gebiet eine beliebige Anzahl geeigneter Strukturen einsetzen, die in der Lage sind, Logikoperationen gemäß den Ausführungsbeispielen der vorliegenden Erfindung auszuführen.
  • Obwohl die vorliegende Erfindung und ihre Vorteile detailliert beschrieben wurden, wird darauf verwiesen, dass verschiedene Veränderungen, Ersetzungen und Abänderungen hieran durchgeführt werden können, ohne von der Erfindung, wie diese durch die beigefügten Ansprüche definiert ist, abzuweichen.

Claims (9)

  1. Ein Verfahren zum Bestimmen, dass ein zu testendes Bauelement (101) fehlerhaft ist, wobei das Verfahren folgende Schritte aufweist: Gewichten (205, 206) der Ergebnisse einer Mehrzahl von Fehlererfassungstechniken (102105), wobei das Gewichten auf eine Genauigkeit der Techniken (102105) bezogen ist; und Bestimmen (207) einer Wahrscheinlichkeit, dass das zu testende Bauelement (101) einen Fehler aufweist, wobei die Bestimmung durch Kombinieren der gewichteten Ergebnisse von der Mehrzahl von Techniken (102105) durchgeführt wird.
  2. Das Verfahren gemäß Anspruch 1, das ferner folgenden Schritt aufweist: Bestimmen der Genauigkeit jeder Technik (102105) durch Vergleichen von Ergebnissen für jede Technik (102105), die an einem Standard durchgeführt wird, mit erwarteten Ergebnissen für diesen Standard.
  3. Das Verfahren gemäß Anspruch 1, das ferner folgenden Schritt aufweist: Berechnen einer Wahrscheinlichkeit für jede Technik (102105) durch mathematisches Kombinieren der Ergebnisse für die Technik (102105) und der Genauigkeit für diese Technik (102105), wobei die Wahrscheinlichkeiten in Probabilitäten umgewandelt und unter Verwendung einer Bayes-Abstimmformel kombiniert werden.
  4. Das Verfahren gemäß Anspruch 1, das vor dem Gewichten (205, 206) folgende Schritte aufweist: Bereitstellen einer Mehrzahl von Testtechniken (102105) zum Erfassen von Fehlern in dem zu testenden Bauelement (101), Testen zumindest eines Standards unter Verwendung jeder Technik (102105), wobei der zumindest eine Standard ein bekanntes Fehlerprofil aufweist, und Berechnen eines Gewichtungsfaktors für jede Technik (102105) aus Ergebnissen des zumindest einen Standardtestens.
  5. Das Verfahren gemäß Anspruch 4, das ferner folgende Schritte aufweist: Erzeugen eines ersten Merkmalssatzes durch Testen eines Standards mit zumindest einem bekannten Fehler; Erzeugen eines zweiten Merkmalssatzes durch Testen eines Standards, der im Wesentlichen frei von Fehlern ist; und Erzeugen einer statistischen Messung einer Genauigkeit für jede Technik aus dem ersten und dem zweiten Merkmalssatz.
  6. Ein Computerprogramm, das auf einem computerlesbaren Medium (503) ausgeführt ist, das einen Computerprogrammcode aufweist, der angepasst ist, um das Verfahren gemäß einem der Ansprüche 1 bis 5 durchzuführen, wenn das Programm auf einem Computer (500) läuft.
  7. Ein System zum Auswerten eines zu testenden Bauelements (101), wobei das System angepasst ist, um eine Mehrzahl von Fehlertesttechniken (102105) auf das zu testende Bauelement (101) anzuwenden, wobei das System folgendes Merkmal aufweist: einen Signalprozessor (108, 501), der angepasst ist, um die Ergebnisse der Mehrzahl von Fehlererfassungstechniken (102105) zu empfangen, um die Ergebnisse der Mehrzahl von Fehlererfassungstechniken (102105) zu gewichten (205, 206), wobei die Gewichtung auf eine Genauigkeit der Techniken (102105) bezogen ist, und um eine Wahrscheinlichkeit, dass das zu testende Bauelement (101) einen Fehler aufweist, zu bestimmen, indem die gewichteten Ergebnisse von der Mehrzahl von Techniken (102105) kombiniert werden.
  8. Das System gemäß Anspruch 7, das ferner folgendes Merkmal aufweist: zumindest einen Standard mit einem bekannten charakteristischen Profil, wobei der zumindest eine Standard verwendet wird, um die Genauigkeit für jede Technik (102105) zu bestimmen.
  9. Das System gemäß Anspruch 7, das ferner folgende Merkmale aufweist: zumindest einen Standard mit zumindest einem bekannten Fehler; und zumindest einen Standard, der im Wesentlichen frei von Fehlern ist; und wobei die Genauigkeit jeder Technik (102105) durch Vergleichen von Ergebnissen, die durch ein Durchführen jeder Technik (102105) an jedem zumindest einen Standard erhalten werden, mit antizipierten Ergebnissen für jeden zumindest einen Standard bestimmt wird.
DE602004011481T 2004-05-10 2004-10-13 Kombinierung von mehreren unabhängigen Informationsquellen für die Klassifizierung von Prüflingen Expired - Fee Related DE602004011481T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US842290 2004-05-10
US10/842,290 US7440862B2 (en) 2004-05-10 2004-05-10 Combining multiple independent sources of information for classification of devices under test

Publications (2)

Publication Number Publication Date
DE602004011481D1 DE602004011481D1 (de) 2008-03-13
DE602004011481T2 true DE602004011481T2 (de) 2009-02-19

Family

ID=34926983

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004011481T Expired - Fee Related DE602004011481T2 (de) 2004-05-10 2004-10-13 Kombinierung von mehreren unabhängigen Informationsquellen für die Klassifizierung von Prüflingen

Country Status (5)

Country Link
US (1) US7440862B2 (de)
EP (1) EP1596211B1 (de)
CN (1) CN100489553C (de)
DE (1) DE602004011481T2 (de)
TW (1) TW200537347A (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6505123B1 (en) 2000-07-24 2003-01-07 Weatherbank, Inc. Interactive weather advisory system
US20030204507A1 (en) * 2002-04-25 2003-10-30 Li Jonathan Qiang Classification of rare events with high reliability
US20060161469A1 (en) 2005-01-14 2006-07-20 Weatherbank, Inc. Interactive advisory system
US8832121B2 (en) * 2005-02-02 2014-09-09 Accuweather, Inc. Location-based data communications system and method
US8229467B2 (en) 2006-01-19 2012-07-24 Locator IP, L.P. Interactive advisory system
US8634814B2 (en) 2007-02-23 2014-01-21 Locator IP, L.P. Interactive advisory system for prioritizing content
US9606167B2 (en) * 2011-08-03 2017-03-28 President And Fellows Of Harvard College System and method for detecting integrated circuit anomalies
US10782348B2 (en) * 2017-03-10 2020-09-22 Keithley Instruments, Llc Automatic device detection and connection verification
US10558778B2 (en) * 2018-04-03 2020-02-11 International Business Machines Corporation Document implementation tool for PCB refinement
US10546088B2 (en) * 2018-04-03 2020-01-28 International Business Machines Corporation Document implementation tool for PCB refinement
CN108763092B (zh) * 2018-05-31 2020-12-01 北京理工大学 一种基于交叉验证的代码缺陷检测方法及装置
CN109035232A (zh) * 2018-07-24 2018-12-18 桂林电子科技大学 一种基于深度学习和机器视觉融合的夹片缺陷检测方法
US11651492B2 (en) * 2019-07-12 2023-05-16 Bruker Nano, Inc. Methods and systems for manufacturing printed circuit board based on x-ray inspection

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5130936A (en) * 1990-09-14 1992-07-14 Arinc Research Corporation Method and apparatus for diagnostic testing including a neural network for determining testing sufficiency
US5293323A (en) * 1991-10-24 1994-03-08 General Electric Company Method for fault diagnosis by assessment of confidence measure
US5550751A (en) * 1993-10-15 1996-08-27 The Texas A & M University System Expert system for detecting high impedance faults
US5704018A (en) * 1994-05-09 1997-12-30 Microsoft Corporation Generating improved belief networks
US5631857A (en) * 1994-06-15 1997-05-20 International Business Machines Corporation Measuring test tool effectiveness
EP0794495A3 (de) * 1996-03-08 1998-07-22 Hewlett-Packard Company Automatisierte Analyse eines modellbasierten Diagnosesystems
US5950147A (en) * 1997-06-05 1999-09-07 Caterpillar Inc. Method and apparatus for predicting a fault condition
CA2242069A1 (en) * 1998-06-25 1999-12-25 Postlinear Management Inc. Possibilistic expert systems and process control utilizing fuzzy logic
US6785636B1 (en) * 1999-05-14 2004-08-31 Siemens Corporate Research, Inc. Fault diagnosis in a complex system, such as a nuclear plant, using probabilistic reasoning
US6535865B1 (en) * 1999-07-14 2003-03-18 Hewlett Packard Company Automated diagnosis of printer systems using Bayesian networks
AU2001271326A1 (en) * 2000-06-16 2001-12-24 Lockheed Martin Mission Systems Scaleable object recognition with a belief model
US7609908B2 (en) * 2003-04-30 2009-10-27 Eastman Kodak Company Method for adjusting the brightness of a digital image utilizing belief values
US20050071432A1 (en) * 2003-09-29 2005-03-31 Royston Clifton W. Probabilistic email intrusion identification methods and systems

Also Published As

Publication number Publication date
US7440862B2 (en) 2008-10-21
CN1696721A (zh) 2005-11-16
CN100489553C (zh) 2009-05-20
TW200537347A (en) 2005-11-16
EP1596211B1 (de) 2008-01-23
EP1596211A1 (de) 2005-11-16
DE602004011481D1 (de) 2008-03-13
US20050251370A1 (en) 2005-11-10

Similar Documents

Publication Publication Date Title
DE602004011481T2 (de) Kombinierung von mehreren unabhängigen Informationsquellen für die Klassifizierung von Prüflingen
DE102007060417B4 (de) Rohchip- und Wafer-Fehlerklassifikationssystem und Verfahren dazu
DE69712236T2 (de) Fehlerdiagnosevorrichtung für CMOS-integrierte Schaltungen und Diagnoseverfahren
DE102012208537B4 (de) Verfahren zum Identifizieren einer Grundursache eines Fehlers in einem gewarteten Fahrzeug und zum Durchführen von Korrekturhandlungen
DE60305601T2 (de) Verfahren zur zeitlichen Fehlerisolation und Identifizierung
DE10000690B4 (de) Verfahren zum Bestimmen des Ausbeute-Einflusses von Prozessschritten für Halbleiterwafer
US5797130A (en) Method for testing proficiency in screening images of biological slides
CN111179235B (zh) 图像检测模型的生成方法及装置、应用方法及装置
US6738450B1 (en) System and method for cost-effective classification of an object under inspection
DE10049405A1 (de) Verfahren und System zur Diagnose von Fehlern bei bildgebenden Abtasteinrichtungen
DE102016117029A1 (de) System und Verfahren zum Diagnostizieren einer integrierten Schaltung
CN111382029B (zh) 基于pca和多维监测数据的主板异常诊断方法及装置
DE102006014812A1 (de) Sichtprüfeinrichtung und Sichtprüfverfahren
DE102019121285A1 (de) Systeme und Verfahren zur Lokalisierung systematischer Fehler mittels physical failure analysis (PFA)
DE102009034838A1 (de) Verfahren und Vorrichtung zur Fehleranalyse von integrierten Halbleiterschaltungsvorrichtungen
CN110221590B (zh) 一种基于判别分析的工业过程多故障诊断方法
O'Neill Production multivariate outlier detection using principal components
DE102017117496A1 (de) Zell-Bewusste Fehlstellen-Charakterisierung und Wellenformanalyse mithilfe mehrerer Strobe-Punkte
DE69836407T2 (de) Anordnung zur Überprüfung der Signalspannungspegelgenauigkeit in einer digitalen Testeinrichtung
CN108664936B (zh) 一种基于机器故障的诊断方法及系统
DE69323753T2 (de) Diagnoseeinrichtung
DE102007007339B4 (de) Verfahren und Vorrichtung zum Lokalisieren von Fehlern auf elektronischen Leiterplatten
Lall et al. Fault-mode classification for health monitoring of electronics subjected to drop and shock
DE112022001473T5 (de) Prüfsystem, prüfungsverwaltungsvorrichtung, prüfverfahren und programm
DE102018133092B3 (de) Computer-implementiertes Verfahren zur Analyse von Messdaten aus einer Messung eines Objektes

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee