DE69817689T2 - Modellbasiertes Diagnosesystem mit automatisierten Verfahren für Auswahl von folgendem Test - Google Patents

Modellbasiertes Diagnosesystem mit automatisierten Verfahren für Auswahl von folgendem Test Download PDF

Info

Publication number
DE69817689T2
DE69817689T2 DE69817689T DE69817689T DE69817689T2 DE 69817689 T2 DE69817689 T2 DE 69817689T2 DE 69817689 T DE69817689 T DE 69817689T DE 69817689 T DE69817689 T DE 69817689T DE 69817689 T2 DE69817689 T2 DE 69817689T2
Authority
DE
Germany
Prior art keywords
test
components
tests
diagnostic
faulty
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69817689T
Other languages
English (en)
Other versions
DE69817689D1 (de
Inventor
Valery Kanevsky
Lee A. San Jose Barford
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Agilent Technologies Inc
Original Assignee
Agilent Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agilent Technologies Inc filed Critical Agilent Technologies Inc
Publication of DE69817689D1 publication Critical patent/DE69817689D1/de
Application granted granted Critical
Publication of DE69817689T2 publication Critical patent/DE69817689T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/22Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/28Testing of electronic circuits, e.g. by signal tracer
    • G01R31/317Testing of digital circuits
    • G01R31/3181Functional testing
    • G01R31/3183Generation of test inputs, e.g. test vectors, patterns or sequences
    • G01R31/318371Methodologies therefor, e.g. algorithms, procedures

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf das Gebiet eines Vorrichtungstestens. Insbesondere bezieht sich diese Erfindung auf ein modellbasiertes Diagnosesystem, das automatisierte Werkzeuge bzw. Tools zur Auswahl eines oder mehrerer nächster Tests bereitstellt, der/die auf eine zu testende Vorrichtung angewendet werden soll/en.
  • Hintergrundtechnik
  • Eine breite Vielzahl von Systemen, einschließlich mechanischer, elektrischer und chemischer Systeme, sowie Kombinationen derselben, wird üblicherweise unter einer Vielzahl von Umgebungen, einschließlich Herstellungstestumgebungen und Einsatzortunterstützungsumgebungen, getestet. Diese Systeme umfassen Elektroniksysteme, wie z. B. Schaltungsplatinen und vollständige Systeme, die eine Vielzahl von Schaltungsplatinen aufweisen. Diese Systeme umfassen außerdem Automobile, Satellitensysteme und Testausrüstung. Ein derartiges System kann, während es einem Testzyklus unterzogen wird, als eine zu testende Vorrichtung (DUT; DUT = device under test) bezeichnet werden.
  • Eine derartige DUT umfaßt üblicherweise eine Vielzahl von Komponenten. Derartige Komponenten umfassen z. B. integrierte Schaltungsvorrichtungen, elektrische Komponenten, Batteriesysteme, mechanische Komponenten, elektrische Busse, Verdrahtungskomponenten und Verdrahtungsverkabelungs- und Rückwandplatinenkomponenten. Jede oder mehrere derartige Komponenten können ausfallen und einen Ausfall der DUT bewirken.
  • Frühere Diagnosesysteme zum Bestimmen wahrscheinlich ausgefallener Komponenten in einer DUT umfassen modellbasierte Diagnosesysteme. Ein modellbasiertes Diagnosesystem kann als ein Diagnosesystem definiert werden, das Schlußfolgerungen über den Zustand der DUT unter Verwendung tatsächlicher DUT-Antworten aus angewendeten Tests als Eingang an das Diagnosesystem wiedergibt. Ein derartiges Diagnosesystem basiert üblicherweise auf computererzeugten Modellen der DUT und ihrer Komponenten und dem Diagnoseprozeß.
  • Es ist üblicherweise wünschenswert, ein modellbasiertes Diagnosesystem zu verwenden, das auf einem besser verwaltbaren Modell von DUT-Charakteristika basiert. Ein derartiges modellbasiertes Diagnosesystem minimiert üblicherweise die Menge von Modellierungsinformationen für eine DUT, die durch einen Benutzer erzeugt werden muß, bevor das System auf die DUT angewendet werden kann. Eine derartige Modellierung beschleunigt üblicherweise den Prozeß eines Anpassens des Diagnosesystems an unterschiedliche DUTs und erhöht ein Vertrauen in die Bestimmungen, die durch das Diagnosesystem wiedergegeben werden.
  • Die US-Patentanmeldung mit der Seriennummer 08/551,054 von Preist u. a. offenbart ein modellbasiertes Diagnosesystem, basierend auf Funktionstests, bei dem die Modellierungslast stark reduziert wird. Das bei Preist u. a. offenbarte Modell verwendet eine Liste von Funktionstests, eine Liste von Komponenten, die durch jeden Funktionstest ausgetestet werden, gemeinsam mit dem Grad, zu dem jede Komponente durch jeden Funktionstests ausgetestet wird, und (falls verfügbar) der historischen oder vorherigen Ausfallrate für einzelne Komponenten. Derartige Modelldaten können schnell und ohne weiteres durch Testingenieure, Testprogrammierer oder andere Personen, die mit der zu testenden Vorrichtung vertraut, jedoch nicht notwendigerweise Experten derselben sind, bestimmt oder eingeschätzt werden. Üblicherweise können die Modelle in einigen Tagen bis einigen Wochen abhängig von der Komplexität der zu testenden Vorrichtung durch Testingenieure entwickelt werden.
  • Das modellbasierte Diagnosesystem von Preist u. a. ist gut für eine Testumgebung geeignet, die die automatische Anwendung einer Sequenz von Tests auf eine zu testende Vorrichtung ermöglicht. Ein derartiges Diagnosesystem ist insbesondere anwendbar, wenn alle verfügbaren Tests ohne einen wesentlichen Anstieg bei Zeit und Kosten angewendet werden können. Diese Situation ist in der Elektronikherstellung häufig. Eine gedruckte Schaltungsplatine kann z. B an einer Halterung angebracht sein und eine große Anzahl von Tests kann angewendet werden, bevor die Vorrichtung aus der Halterung entfernt wird.
  • Andere Testumgebungen können jedoch Zeit- und/oder Kosteneinschränkungen unterworfen sein. Die Anwendung von Diagnosetests auf ein Automobil oder eine Elektronikvorrichtung nach einem Verkauf ist z. B. üblicherweise Zeit- und Kosteneinschränkungen unterworfen. Üblicherweise können nur einige der verfügbaren Tests in einer derartigen Nachverkaufs-Testumgebung wirtschaftlich durchgeführt werden. In derartigen Testumgebungen ist es sehr wünschenswert, die Zeit, die benötigt wird, um einen Ausfall zu diagnostizieren und ausgefallene Komponenten auszutauschen, zu minimieren. Deshalb ist es sehr wünschenswert, in der Lage zu sein, einen als nächstes auf eine DUT anzuwendenden Test basierend auf den Ergebnissen früherer Tests zu bestimmen. Der nächste Test sollte der beste Test vom Standpunkt eines letztendlichen Erzielens einer korrekten Diagnose sein.
  • Frühere modellbasierte Diagnosesysteme, die besser verwaltbare Modelle verwenden, liefern üblicherweise keine automatisierten Tools bzw. Werkzeuge zum Auswählen eines besten nächsten Tests. Als eine Konsequenz können frühere modellbasierte Diagnosesysteme eine übermäßige und teuere Aus fallzeit der DUT während einer Anwendung von Tests, die nicht notwendigerweise die besten als nächstes anzuwendenden Tests sind, auferlegt werden. Ferner liefern derartige frühere Systeme üblicherweise keine Werkzeuge zur Berücksichtigung der wirtschaftlichen Kosten, die einem Durchführen bestimmter Tests oder Austauschen bestimmter Komponenten der zu testenden Vorrichtung zugeordnet sind.
  • Zusammenfassung der Erfindung
  • Die US-A-5,195,095 beschreibt ein Verfahren zum Identifizieren eines Tests zur Durchführung einer Fehlerisolierung. In einem komplexen System, das eine Mehrzahl von Komponenten aufweist, sind Leseeinheiten und Erfassungseinheiten vorgesehen, um Fehlernachrichten zu erhalten, die während eines Betriebs des Systems erzeugt werden. Komponenten, die im Verdacht stehen zu bewirken, daß die Leseeinheiten die Fehlernachrichten erzeugen, werden gruppiert und ein Test wird auf diese Gruppe angewendet, um die fehlerhafte Komponente zu isolieren. Wenn ein erster Test die fehlerhafte Komponenten nicht isoliert, sondern nur eine Anzahl von Komponenten ausschließt, wird ein neuer Test für die verbleibenden wahrscheinlich fehlerhaften Komponenten ausgewählt, der dann ausgeführt wird, um die fehlerhafte Komponenten zu isolieren.
  • Es ist die Aufgabe der vorliegenden Erfindung, ein verbessertes Diagnosesystem bereitzustellen, das für eine verbesserte Bestimmung eines nächsten auf eine DUT anzuwendenden Tests basierend auf den Ergebnissen früherer Tests sorgt.
  • Diese Aufgabe wird durch ein Diagnosesystem gemäß Anspruch 1 gelöst.
  • Ein modellbasiertes Diagnosesystem ist offenbart, das automatisierte Tools bzw. Werkzeuge bereitstellt, die eine Auswahl eines oder mehrerer nächster Tests, die auf eine zu testende Vorrichtung anzuwenden sind, unter den Tests, die noch nicht angewendet wurden, basierend auf einem verwaltbaren Modell der zu testenden Vorrichtung ermöglicht. Zusätzlich ermöglicht das Diagnosesystem eine Auswahl von Komponenten zum Austausch ansprechend auf Anzeigen der Kosten, die einem Austausch von Komponenten zugeordnet sind. Das Diagnosesystem ermöglicht außerdem eine Auswahl eines nächsten auf die zu testende Vorrichtung anzuwendenden Tests ansprechend auf Anzeigen der wirtschaftlichen Konsequenzen eines Anwendens der Tests.
  • Weitere Merkmale und Vorteile der vorliegenden Erfindung werden aus der folgenden detaillierten Beschreibung ersichtlich.
  • Kurze Beschreibung der Zeichnungen
  • Die vorliegende Erfindung ist bezüglich bestimmter exemplarischer Ausführungsbeispiele derselben beschrieben und es wird folglich Bezug auf die Zeichnungen genommen:
  • 1 stellt eine zu testende Vorrichtung dar, die mit einem Vorrichtungstester gekoppelt ist, der eine automatisierte Auswahl eines besten nächsten Tests unter Verwendung einer verwaltbaren modellbasierten Diagnose liefert;
  • 2 stellt eine Prozedur zum Erzeugen eines Satzes statistischer Simulationsdaten für die Vorhersagetabelle dar;
  • 3 stellt einen Prozeß zum Erzeugen von Mustern von Komponentenzuständen dar, der nur einen einzelnen Durchgang durch die Liste von Komponenten benötigt, um ein Muster von Komponentenzuständen zu erzeugen, das zumindest einen „FEHLERHAFTEN" enthält;
  • 4 stellt eine Prozedur zum Auswählen des besten nächsten Tests, der auf die zu testende Vorrichtung angewendet werden soll, dar;
  • 5 stellt eine Prozedur zum Bestimmten der wahrscheinlichsten fehlerhaften Komponente der zu testenden Vorrichtung dar;
  • 6 stellt ein alternatives Ausführungsbeispiel der Prozedur zum Bestimmen der wahrscheinlichsten fehlerhaften Komponente der zu testenden Vorrichtung dar, die die Wahrscheinlichkeiten eines Ausfalls der Sätze von Komponenten bestimmt.
  • Detaillierte Beschreibung
  • 1 stellt eine zu testende Vorrichtung 10 dar, die mit einem Vorrichtungstester 12 gekoppelt ist, der eine automatisierte Auswahl eines besten nächsten Tests unter Verwendung einer verwaltbaren modellbasierten Diagnose liefert. Die zu testende Vorrichtung 10 umfaßt einen Satz von Komponenten 1 – n. Der Vorrichtungstester 12 implementiert einen Satz von Diagnosetests 14 (Test 1 – m), deren Ergebnisse, wenn sie auf die zu testende Vorrichtung 10 angewendet werden, in einer Testergebnistabelle 16 (Testergebnisse 1 – m) gespeichert werden. Zu jeder Zeit während eines Testzyklus bezüglich der zu testenden Vorrichtung 10 zeigt die Testergebnistabelle 16 an, welche der Tests 1 – n angewendet wurden, und ob jeder angewendete Test bestanden oder nicht bestanden wurde.
  • Der Tester 12 implementiert eine Prozedur 22 zum Auswählen eines oder mehrerer Tester bester nächster Tests aus den Tests 1 – m, die noch nicht auf die zu testende Vorrichtung 10 angewendet wurden. Die Prozedur 22 basiert die Bestimmungen eines besten nächsten Tests auf einem gegenwärtigen Zustand der Testergebnistabelle 16 und dem Inhalt einer Vorhersagetabelle 30. Die Prozedur 22 erzeugt eine Nächster-Test-Tabelle 26, die anzeigt, welche der Tests 1 – m, die noch nicht auf die zu testende Vorrichtung 10 angewendet wurden, die besten nächsten anzuwendenden Tests sind. Die Prozedur 22 ermöglicht außerdem eine Auswahl eines oder mehrerer bester nächster Tests unter Verwendung von wirtschaftlichen Kosten, die in einer Tabelle 28 aufgelistet sind, die einem Durchführen jedes der Tests 1 – m zugeordnet sind. Die wirtschaftlichen Kosten in der Tabelle 28 spiegeln die Kosten wieder, die durch die Systemausfallzeit bewirkt werden, die erforderlich ist, um die Tests 1 – m laufenzulassen, sowie die Kosten von Teilen und Arbeitszeit, die benötigt wird, um die notwendigen Reparaturen durchzuführen.
  • Der Tester 12 umfaßt eine Prozedur 20, die es einem Benutzer ermöglicht, die wahrscheinlichste fehlerhafte Komponente unter den Komponenten 1 – n zu bestimmen. Die Prozedur 20 wirkt auf einen gegenwärtigen Zustand der Testergebnistabelle 16 und den Inhalt der Vorhersagetabelle 30. Die Prozedur 20 erzeugt eine Liste 24 der wahrscheinlichsten fehlerhafter Komponenten unter den Komponenten 1 – n. Die Prozedur 20 ermöglicht außerdem eine Auswahl einer oder mehrerer der Komponenten 1 – n, die ausgetauscht werden sollen, unter Verwendung wirtschaftlicher Kosten, die einem Austauschen jeder der Komponenten 1 – n zugeordnet sind. Die wirtschaftlichen Kosten eines Austauschens von Komponenten 1 – n sind in einer Tabelle wirtschaftlicher Kosten 28 gespeichert. Die wirtschaftlichen Kosten in der Tabelle 28 spiegeln Komponentenkosten und die Kosten wieder, die als ein Ergebnis einer Ausfallzeit der zu testenden Vorrichtung 10, während Komponenten ausgetauscht werden, bewirkt werden.
  • Die zu testende Vorrichtung 10 stellt eine Vielzahl von Systemen, einschließlich mechanischer, elektrischer und chemischer Systeme, sowie Kombinationen derselben, dar, die Schaltungsplatinen, vollständige Systeme, die eine Vielzahl von Schaltungsplatinen aufweisen, Automobile, Satellitensysteme und Testausrüstung umfassen. Der Vorrichtungstester 12 umfaßt die Testmechanismen, die zum Übertragen eines Reiz oder mehrerer Reize auf die zu testende Vorrichtung 10 und zum Messen einer Antwort auf den Reiz notwendig sind. Derartige Testmechanismen umfassen einen elektrischen Schaltungsaufbau zum Erzeugen elektrischer Signale und zum Messen elektrischer Antwortsignale sowie Mechanismen zum Erzeugen eines mechanischen oder chemischen Reiz und zum Messen einer mechanischen oder chemischen Antwort abhängig von der Natur und Funktion der zu testenden Vorrichtung 10. Ein auf die zu testende Vorrichtung 10 übertragener Reiz kann elektrisch, mechanisch, chemisch oder eine Kombination derselben sein und die Antwort für jeden der übertragenen Reize kann elektrisch, mechanisch, chemisch oder eine Kombination derselben sein.
  • Der Tester 12 umfaßt außerdem einen Computer oder einen gleichwertigen Mechanismus zum Durchführen der Prozeduren 20 und 22. Der Tester 12 umfaßt einen Mechanismus, wie z. B, eine graphische Anzeige zum Darstellen der Ergebnisse einer automatisierten Bestimmung eines besten nächsten Tests und einer wahrscheinlichsten fehlerhaften Komponente an einen Benutzer. Der Tester 12 kann außerdem Daten, die den nächsten Test anzeigen, an ein Element, das ansprechend auf derartige Daten wirkt, übertragen. Das Element könnte ein weiteres Computerprogramm umfassen oder könnte z. B. eine automatisierte Vorrichtung, wie z. B. eine automatisierte Reparaturzelle, sein. Die Prozeduren 20 und 22 können in Anwendungssoftware für jede einer breiten Vielzahl verfügbarer Computersystemplattformen ausgeführt sein oder können als ein Diagnosecode ausgeführt sein, der auf einer Hardwarerechenplattform ausgeführt wird, die spezifisch für den Vorrichtungstester 12 entworfen ist. Die Anwendungssoftware oder der Diagnosecode sowie der Inhalt der Vorhersagetabelle 30 und der Tabelle wirtschaftlicher Kosten 28 können in einen dauerhaften Speicher in dem Vorrichtungstester 12 eingebettet sein oder können in einen Speicher in dem Vorrichtungstester 12 über eine Vielzahl geeigneter Kommunikationsmechanismen heruntergeladen werden.
  • Die Komponenten 1 – n sind jeweils eine separate, gut definierte austauschbare Komponente. Derartige austauschbare Komponenten umfassen z. B. integrierte Schaltungsvorrichtungen, elektrische Komponenten, Batteriesysteme, mechanische Komponenten, elektrische Busse, Verdrahtungskomponenten und Verdrahtungsverkabelungs- und Rückwandplatinenkomponenten. Jede oder mehrere derartige Komponenten können ausfallen und einen Ausfall der zu testenden Vorrichtung 10 bewirken.
  • Zu Zwecken der hierin offenbarten Techniken ist jede der Komponenten 1 – n entweder in einem fehlerfreien Zustand (FEHLERFREI) oder in einem fehlerhaften Zustand (FEHLER-HAFT). Es wird angenommen, daß die Komponenten 1 – n während des Laufs eines Testzyklus nicht zwischen dem fehlerfreien und dem fehlerhaften Zustand übergehen, d. h. Zwischenausfälle der Komponenten 1 – n werden durch die hierin offenbarten Techniken nicht gehandhabt.
  • Jeder der Tests 1 – m wirkt auf einen Teilsatz einer oder mehrerer der Komponenten 1 – n. Die Teilsätze von Komponenten, auf die durch einen bestimmten Test 1 – m gewirkt wird oder die durch einen bestimmten Test 1 – m abgedeckt werden, überlagern sich mit Teilsätzen, die durch andere der Tests 1 – m abgedeckt werden. Wenn ein bestimmter Test 1 – m nicht bestanden wird, wird angenommen, daß zumindest eine der Komponenten 1 – n, die durch diesen bestimmten Test abgedeckt werden, fehlerhaft ist. Jeder Test 1 – m wird entweder bestanden oder nicht bestanden, wenn er auf die zu testende Vorrichtung 10 angewendet wird. Wenn ein bestimmter Test der Tests 1 – m eine endliche Anzahl von Testergebnissen erzeugt, wird dieser bestimmte Test als eine Anzahl von Tests behandelt, wobei jeder derselben nur zwei mögliche Ergebnisse hat, nämlich Bestehen oder Nicht-Bestehen.
  • Jedes Testergebnis 1 – m umfaßt eine Anzeige dessen, ob der entsprechende Test 1 – m bestanden (BESTEHEN) oder nicht bestanden (NICHTBESTEHEN) wurde, sowie eine Anzeige dessen, ob der entsprechende Test 1 – m auf die zu testende Vorrichtung 10 während eines gegenwärtigen Testzyklus angewendet wurde. Der Teilsatz der Tests 1 – m, die zu einem bestimmten Punkt in einem Testzyklus auf die zu testende Vorrichtung 10 angewendet wurden, wird als angewendete Tests bezeichnet. Die Ergebnisse der angewendeten Tests werden in dem gegenwärtigen Zustand der Testergebnistabelle 16 angezeigt.
  • Die Vorhersagetabelle 30 enthält die Anzahlen vor Vorkommnissen der Testergebnisse für alle wahrscheinlichen Testergebnisse und wahrscheinliche fehlerhafte Komponenten gemeinsam. Bei einem Ausführungsbeispiel enthält die Vorhersagetabelle 30 simulierte experimentelle Daten, die durch einen statistischen Simulator 32 erzeugt werden. Der statistische Simulator 32 kann auf einem separaten Computersystem implementiert sein oder kann in dem Vorrichtungstester 12 implementiert sein. Die Verwendung eines statistischen Ansatzes oder eines Monte Carlo-Ansatzes zur Erzeugung der simulierten experimentellen Daten in der Vorhersagetabelle 30 beseitigt den Bedarf, reelle experimentelle Daten zu erzeugen, was andernfalls Jahre zum Sammeln von Testergebnissen von echten Testsystemen und Situationen der echten Welt erfordern würde.
  • Bei einem alternativen Ausführungsbeispiel enthält die Vorhersagetabelle 30 tatsächliche experimentelle Daten, die tatsächliche frühere Testergebnisse und Komponentenausfälle aus historischen Aufzeichnungen widerspiegeln. Bei anderen Ausführungsbeispielen können die Daten der Vorhersagetabelle 30 basierend auf einer Ausfallmodusbeeinflussungsanalyse sein.
  • Im folgenden ist der Ausdruck „Zufallszahl" beabsichtigt, um die Ausgabe von Pseudozufallszahlengeneratoren sowie Zahlen zu umfassen, die durch ein bestimmtes, echt stochastisches physisches Verfahren ausgewählt werden.
  • Die Eingabe in den statistischen Simulator 32 ist ein Modell der Fähigkeit jeder des Tests 1 – m beim Lokalisieren fehlerhafter Komponenten unter den Komponenten 1 – n. Die Modelleingabe in den statistischen Simulator 32 ist durch die Anzahl der Komponenten 1 – n, die Anzahl von Tests 1 – m und gemeinschaftlich verwendete oder gemeinsame Abdeckungen der Tests 1 – m bezüglich der Komponenten 1 – n und für jede Komponente i deren statistische Wahrscheinlichkeit eines Ausfalls p(i) gegeben. Die Abdeckung eines Testes j auf eine Komponente i wird als cov(i,j) bezeichnet. Jede Abdeckung cov(i,j) ist eine echte Zahl zwischen 0 und einschließlich 1 und ist ein Bruchteil der Funktionalität der Komponente i, die durch den Test j geprüft wird.
  • Die gemeinsamen Abdeckungen spezifizieren bekannte Abhängigkeiten unter den Tests 1 – m. Eine gemeinsame Abdeckung entsteht, wenn zwei oder mehr der Tests 1 – m eine bestimmte Abdeckung aufweisen, die eine der Komponenten 1 – n auf exakt die gleiche Weise testet. Ein Beispiel einer gemeinsamen Abdeckung ist, wenn zwei oder mehr der durch den Vorrichtungstester 12 durchgeführten Tests 1 – m die gleiche Meßteilroutine mit den gleichen Parametern verwenden.
  • Eine gemeinsame Abdeckung k ist durch eine Liste der Tests 1 – m spezifiziert, die die gemeinsame Abdeckung k verwenden, und für jede Komponente i, die Menge einer gemeinsamen Abdeckung k von i. Die Menge einer gemeinsamen Abdeckung k auf i wird als jcv(i, j) bezeichnet und ist eine Zahl zwischen 0 und einschließlich 1.
  • Die Vorhersagetabelle 30 enthält einen Satz von Einträgen, wobei jeder derselben ein Feld für einen Häufigkeit-eines-Auftretens-Wert, ein Feld für ein Testergebnismuster und ein Feld für ein Komponentenzustandsmuster aufweist. Bei einem Ausführungsbeispiel zeigt jeder Häufigkeit-eines- Auftretens-Wert die Anzahl von Malen an, die entsprechende Muster von Komponentenzuständen und Testergebnissen während der durch den statistischen Simulator 32 durchgeführten Simulation auftraten. Bei einem alternativen Ausführungsbeispiel zeigt jeder Häufigkeit-eines-Auftretens-Wert die Anzahl von Malen an, die die entsprechenden Muster von Komponentenzuständen und Testergebnissen tatsächlich während früherer Tests bezüglich ähnlicher Systeme aufgetreten sind. Jeder Eintrag in die Vorhersagetabelle 30 entspricht einem eindeutigen Muster von Testergebnissen und Komponentenzuständen.
  • Tabelle 1 zeigt beispielhafte Einträge der Vorhersagetabelle 30 für ein Ausführungsbeispiel, bei dem n = 3 und m = 3 gilt.
  • Tabelle 1
    Figure 00120001
  • Der Komponentenzustand, FEHLERFREI oder FEHLERHAFT, für jede Komponente 1 – n wird durch ein einzelnes Bit (0 oder 1) dargestellt. Muster von Testergebnissen werden durch eine Zeichenfolge von Bits angezeigt, die das Ergebnis BESTANDEN oder NICHT-BESTANDEN der Tests 1 – m darstellen. Jedes Testergebnis wird durch ein einzelnes Bit (0 oder 1) für jeden der Tests 1 – m dargestellt.
  • Die Werte in dem Häufigkeit-eines-Auftretens-Feld zeigen die Anzahl von Malen an, die das entsprechende Paar von Komponentenzustand und Testergebnismustern während der durch den statistischen Simulator 12 durchgeführten Simulation oder während tatsächlicher früherer Testdurchläufe aufgetreten sind. Das Testergebnismuster 000 gepaart mit dem Komponentenausfallmuster 100 z. B. trat 317 mal auf, während das Testergebnismuster 000 gepaart mit dem Komponentenausfallmuster 010 304 mal während der Simulation der früheren Tests auftrat.
  • Jedes Muster von Komponentenzuständen und jedes Muster von Testergebnissen erscheint in der Vorhersagetabelle 30 separat mehr als einmal. Jedes Paar von Komponentenzuständen und Testergebnissen erscheint in der Tabelle 30 gemeinsam zumindest einmal. Als eine Konsequenz liefern das Testergebnis- und das Komponentenausfallfeld gemeinsam den Schlüssel der Vorhersagetabelle 30.
  • 2 stellt die durch den statistischen Simulator 32 durchgeführte Simulation dar. Die Simulation ist als Schritte 50 bis einschließlich 56 dargestellt, die wiederholt für eine große vorbestimmte Anzahl von Malen (T) durchgeführt werden.
  • Der statistische Simulator 32 muß für ein bestimmtes Modell der zu testenden Vorrichtung 10, die Komponenten 1 – n und die Tests 1 – m nur einmal laufengelassen werden. So ist die Arbeit einer Diagnose in einen Vorverarbeitungsteil, der nur einmal durchgeführt wird, und wirksame Entscheidungsprozeduren 20 und 22 unterteilt, die für jede zu testende Vorrichtung durchgeführt werden.
  • Bei einem Schritt 50 wird ein neues Muster von Komponentenzuständen erzeugt, bei dem jeder Zustand auf „FEHLERFREI" initialisiert ist, und ein neues Muster von Testergebnissen wird erzeugt, bei dem jedes Ergebnis auf „BESTEHEN" initialisiert ist.
  • Das Muster von bei Schritt 50 erzeugten Komponentenzuständen wird durch ein Einstellen des Komponentenzustandes für jede Komponente i auf „FEHLERHAFT" mit einer Wahrscheinlichkeit p(i) modifiziert. Die frühere Wahrscheinlichkeit p(i) bei einem Ausführungsbeispiel ist eine Ingenieurschätzung der Wahrscheinlichkeit eines Ausfalls der Komponente i. Bei einem weiteren Ausführungsbeispiel liefern die Wahrscheinlichkeiten p(1) bis p(n) eine relative Anzeige der Wahrscheinlichkeiten eines Ausfalls unter den Komponenten 1 – n.
  • Es wird angenommen, daß keine Diagnose durchgeführt wird, es sei denn, zumindest ein Test wurde nicht bestanden. Es wird ebenso angenommen, daß ein Test nur dann nicht bestanden wird, wenn zumindest eine Komponente fehlerhaft ist. Folglich gibt es keinen Grund, einen Eintrag in die Vorhersagetabelle 30 zu geben, es sei denn, ihr Muster von Komponentenzuständen enthält zumindest eine „FEHLERHAFTE".
  • Deshalb wird bei einem Schritt 51 ein Zufallsmuster von Komponentenzuständen derart erzeugt, daß das Zufallsmuster von Komponentenzuständen zumindest eine „FEHLERHAFT"-Anzeige enthält. Bei einem Ausführungsbeispiel ist der Zustand jeder Komponenten i in der Liste von Komponenten auf „FEHLERHAFT" mit einer Wahrscheinlichkeit p(i) eingestellt. Das resultierende Muster von Komponentenzuständen wird dann geprüft, um zu bestimmen, ob es zumindest einmal „FEHLERHAFT" enthält. Wenn das resultierende Muster von Komponentenzuständen nicht zumindest einmal „FEHLERHAFT" enthält, wird dasselbe verworfen und ein weiteres Muster wird erzeugt. Dieser Prozeß wird wiederholt, bis eine ausreichende Anzahl von Mustern von Komponentenzuständen, wobei jedes zumindest einmal „FEHLERHAFT" enthält, erzeugt wurde. Da die Wahrscheinlichkeit p(i), daß der Zustand einer bestimmten Komponente FEHLERHAFT ist, im allgemeinen sehr viel näher an 0 als an 1 ist, erzeugt das gerade beschriebene Verfahren üblicherweise viele Alles-FEHLERFREI-Muster von Komponentenzuständen für jedes Muster von Komponentenzuständen, das zumindest einmal „FEHLERHAFT" enthält. Folglich macht das gerade geschriebene Verfahren keine effiziente Verwendung einer verfügbaren Computerleistung oder Zeit.
  • 3 stellt ein Verfahren zum Erzeugen von Mustern von Komponentenzuständen dar, das nur einen einzigen Durchgang durch die Liste von Komponenten benötigt, um ein Muster von Komponentenzuständen zu erzeugen, das zumindest einmal „FEHLERHAFT" enthält. Der Prozeß wirkt in zwei Phasen, die als Schritte 51a-1 bis 51a-5 bzw. Schritte 51b-1 bis 51b-6 gezeigt sind. Die erste Phase schreitet durch die Liste von Komponenten und weist den Zustand „FEHLERHAFT" jeder Komponente mit einer verbesserten Wahrscheinlichkeit zu. Die verbesserte Wahrscheinlichkeit wird berechnet, um sowohl zu garantieren, daß zumindest ein FEHLERHAFT-Komponentenzustand bei jedem Durchgang durch die Liste von Komponenten erzeugt wird, als auch zu garantieren, daß die Gesamtwahrscheinlichkeit eines Zuweisens des Zustandes „FEHLERHAFT" zu der Komponente i p(i) bleibt. Die erste Phase endet, sobald der Zustand „FEHLERHAFT" einer Komponente zugewiesen wurde, und die zweite Phase beginnt. Die zweite Phase schreitet durch den Rest der Komponentenliste und weist den Zustand „FEHLERHAFT" der Komponente i mit der ursprünglichen, nicht verbesserten Wahrscheinlichkeit p(i) zu.
  • Schritt 51a-1 bis 51a-5: Für k = 1 bis n; Erzeugen einer einheitlich verteilten Zufallszahl r zwischen 0 und 1. Wenn r ≤ p(k)/(1 – (1 – p(k))*(1 – p)k + 1))*. . .*(1 – p(n))) gilt, wird der Zustand der Komponente k auf „FEHLERHAFT" eingestellt und es wird zu Schritt 51b-1 gegangen.
  • Schritt 51b-1 bis 51b-6: Für 1 = k + 1 bis n; Erzeugen einer gleichmäßig verteilten Zufallszahl r zwischen 0 und 1. Wenn r ≤ p (1) gilt, wird der Zustand der Komponente 1 auf „FEHLERHAFT" eingestellt.
  • Es wird angemerkt, daß der Wert p(k)/(1 – (1 – p(k))*(1 – p(k + l))*...*(1 – p(n))) für jeden möglichen Wert von k zwischen 1 und n einmal für eine bestimmte zu testende Vorrichtung berechnet werden kann und dann für einen schnellen Zugriff gespeichert werden kann, wenn dieser in Schritt 51a benötigt wird.
  • Bei einem Schritt 52 wird ein Muster von Testergebnissen basierend auf Testabdeckungen erzeugt. Es wird angenommen, daß eine Ganzzahlvariable ohne Vorzeichen Werte von 0 bis einschließlich 2^N – 1 für eine bestimmte maschinenabhängige Ganzzahl N enthalten kann. Schritt 52 wird gemäß den folgenden Schritten für jede Komponente j durchgeführt, der der Zustand „FEHLERHAFT" in Schritt 51 zugewiesen wurde, wobei für jeden Test i gilt:
    • – Erzeugen einer gleichmäßig verteilten Zufallszahl r in dem Bereich 2^N – 1.
    • – wenn (r + floor(cov(i, j)*(2^N – 1)))mod 2^N < r, wobei floor(x) die größte Ganzzahl kleiner oder gleich x ist, wird das Testergebnis des Tests i auf NICHTBESTEHEN eingestellt. (Es wird angemerkt, daß die Werte floor(cov(i,j)*(2^N – 1)) einmal berechnet werden können, nachdem die Eingänge gelesen werden, jedoch bevor die Simulationen beginnen. Es wird angemerkt, daß die modulo 2^N-Operation das übliche Ergebnis eines Überlaufs bei einer Binäraddition ist und so niemals berechnet werden muß.)
  • Bei einem Schritt 53 wird ein Muster von Testergebnissen basierend auf den gemeinsamen Abdeckungen der Tests 1 – m erzeugt. Schritt 53 wird gemäß den folgenden Schritte für jede gemeinsame Abdeckung i durchgeführt, für jede Komponente j, der in Schritt 51 der Zustand „FEHLERHAFT" zugewiesen wurde:
    • – Erzeugen einer gleichmäßig verteilten zufälligen Ganzzahl ohne Vorzeichen r in dem Bereich von 0 bis einschließlich 2^n – 1.
    • – Wenn (r + floor(jcv(i, j)*(2^n – 1))) mod 2^n < r, wird für jeden Test k, der eine gemeinsame Abdeckung i verwendet, das Testergebnis des Tests k auf NICHTBESTEHEN eingestellt.
  • Bei einem Schritt 54 wird bestimmt, ob es einen Eintrag in der Vorhersagetabelle 30 für das Muster von Testergebnissen und das Muster von in den Schritten 50–53 erzeugten Komponentenzuständen gibt.
  • Wenn es einen derartigen Eintrag gibt, wird das Häufigkeiteines-Auftretens-Feld für diesen Eintrag in der Vorhersagetabelle 30 bei einem Schritt 55 um 1 inkrementiert. Wenn es keinen derartigen Eintrag gibt, wird der Eintrag erzeugt und zu der Vorhersagetabelle 30 hinzugefügt, wobei die Häufigkeit-eines-Auftretens bei einem Schritt 56 auf 1 initialisiert wird.
  • 4 stellt die Prozedur 22 zum Auswählen eines oder mehrerer bester nächster Tests zur Durchführung bezüglich der zu testenden Vorrichtung 10 dar. Die besten nächsten Tests sind diejenigen der Tests 1 – m, die dazu führen, daß die geringste Anzahl von Tests durchgeführt wird, bevor die Prozedur 20 eine zuverlässige Antwort dafür erzeugt, welche der Komponenten 1 – n am wahrscheinlichsten fehlerhaft ist. Die Prozedur 22 nimmt als Eingänge die Vorhersagetabelle 30 und die gegenwärtigen Testergebnisse, die in der Testergebnistabelle 16 angezeigt sind.
  • Die Prozedur 22 erzeugt die Nächster-Test-Tabelle 26, die eine Zeile für jeden der Tests 1 – m enthält, der noch nicht bezüglich der zu testenden Vorrichtung 10 durchgeführt wurde. Die Nächster-Test-Tabelle 26 enthält zwei Spalten. Die erste Spalte enthält Identifizierer, wie z. B. Testzahlen der noch nicht durchgeführten Tests. Die zweite Spalte enthält den erwarteten Anteil korrekter Diagnosen, die resultieren, wenn der Test in der ersten Spalte als nächstes durchgeführt wird und das Ergebnis gemeinsam mit allen vorherigen Testergebnissen bezüglich der zu testenden Vorrichtung 10 durch die Prozedur 20 laufengelassen wird.
  • Tabelle 2 stellt ein Beispiel der Nächster-Test-Tabelle 26 dar, die einem geübten Techniker eine Anzeige mehrerer nächster Tests, des besten nächsten Tests gemeinsam mit mehreren anderen fehlerfreien nächsten Tests liefern kann.
  • Tabelle 2
    Figure 00180001
  • Die Werte in der zweiten Spalte der Nächster-Test-Tabelle 26, in Tabelle 2 unter „Stand", sind die Werte L, die wie unten dargelegt berechnet werden. Die Werte in L werden sortiert und die Werte werden bei einem Ausführungsbeispiel in abnehmender Reihenfolge neben den identifizierenden Namen der zugeordneten Tests angezeigt.
  • Jeder Wert in der zweiten Spalte in der Nächster-Test-Tabelle 26 ist ein Maß der „Fehlerfreiheit" eines nächsten Tests. Der beste Test kann dann als derjenige ausgewählt werden, dessen Leistung zu der höchsten Wahrscheinlichkeit einer korrekten Diagnose führt, d. h. dem höchsten Wert in der zweiten Spalte. Die Werte in der zweiten Spalte können mit entsprechenden Anzeigen der wirtschaftlichen Kosten, die einem Durchführen der Tests 1 – m zugeordnet sind, die in der Tabelle 28 enthalten sind, kombiniert werden. Die wirtschaftlichen Kosten eines bestimmten Tests können z. B. die wirtschaftlichen Kosten einer Ausfallzeit der zu testenden Vorrichtung 10 oder anderer verwandter Vorrichtungen widerspiegeln, die während einer Anwendung des bestimmten Tests bewirkt wird. Alle Tests 1 – m, die gleiche oder im wesentlichen gleiche Werte in der zweiten Spalte der Nächster-Test-Tabelle 24 aufweisen, können durch die Prozedur 22 auf der Basis dessen ausgewählt werden, welcher Test niedrigere wirtschaftliche Kosten aufweist, wie durch den Inhalt von Tabelle 28 angezeigt ist.
  • Bei einigen Ausführungsbeispielen können graphische Symbole, Farbcodes usw. statt Zahlen verwendet werden, um die relative Wahrscheinlichkeit der Diagnosen und die relative Fehlerfreiheit der nächsten Tests darzustellen.
  • Die Nächster-Test-Tabelle 26 kann durch beide Spalten sortiert sein. Bei einem Ausführungsbeispiel ist die Nächster-Test-Tabelle 26 durch die zweite Spalte sortiert, so daß der beste Test in der ersten Zeile erscheint. Der beste nächste Test ist der Test, der in der zweiten Spalte den höchsten Wert aufweist, da die Auswahl dieses Testes die Verbesserung bei der Rate einer erfolgreichen Diagnose maximiert.
  • Zu Beginn wird eine leere Nächster-Test-Tabelle 26 erzeugt. Schritte 72–76 werden dann für jeden Test j durchgeführt, der noch nicht durchgeführt wurde, wie durch die gegenwär tigen Testergebnisse angezeigt ist, die in der Testergebnistabelle 16 enthalten sind.
  • Bei einem Schritt 72 wird P(Tj = NICHTBESTEHEN) bestimmt, was die Wahrscheinlichkeit ist, daß der Test j angesichts der gegenwärtigen Testergebnisse nicht bestanden wird. P(Tj = NICHTBESTEHEN) wird gemäß den folgenden Schritten bestimmt
    • – Erzeugen von u, was eine Summe der Häufigkeit-eines-Ruftretens-Felder aller Einträge der Vorhersagetabelle 30 ist, die Testergebnisse aufweisen, die mit den gegenwärtigen Testergebnissen übereinstimmen, die in der Testergebnistabelle 16 angezeigt sind.
    • – Erzeugen von w, was eine Summe der Häufigkeit-eines-Auftretens-Felder aller Einträge der Vorhersagetabelle 30 ist, die Testergebnisse aufweisen, die mit den gegenwärtigen Testergebnissen übereinstimmen, und bei denen Test j NICHTBESTEHEN anzeigt.
    • – Erzeugen von P(Tj = NICHTBESTEHEN) = w/u.
  • Bei Schritt 73 wird P(Tj = BESTEHEN) bestimmt, was die Wahrscheinlichkeit ist, daß Test j angesichts der eingegebenen vorherigen Testergebnisse bestanden wird. P(Tj = BESTEHEN) ist durch die folgende Gleichung gegeben: P(Tj = BESTEHEN) = 1 – P(Tj = NICHTBESTEHEN)
  • Bei einem Schritt 74 wird L NICHTBESTEHEN bestimmt, was der Anteil von Diagnosen ist, die korrekt sind, wenn Test j als nächstes auf die zu testende Vorrichtung 10 angewendet wird und nicht bestanden wird. Schritt 74 wird gemäß den folgenden Schritten durchgeführt:
    • – Einstellen von L_NICHTBESTEHEN auf 0.
    • – Einstellen der Testergebnistabelle 16, um anzuzeigen, daß Test j fertiggestellt und nicht bestanden wurde.
    • – Für jede Komponente i, Erzeugen von Pi = v(Δ_i)/v(Δ) und Hinzufügen von max(Pi, 1 – Pi) zu L_NICHTBESTEHEN; wobei v(Δ) die Summe der Häufigkeit-eines-Auftretens-Felder aller Einträge in die Vorhersagetabelle 30 ist, die mit dem Muster bestandener und nicht-bestandener Tests übereinstimmen, die in der Testergebnistabelle 16 aufgelistet sind, und wobei v(Δ_i) die Summe der Häufigkeit-eines-Auftretens-Feldes der Einträge der Vorhersagetabelle 30 ist, die mit dem Muster bestandener und nicht-bestandener Tests übereinstimmen, die in der Testergebnistabelle 16 aufgelistet sind, und die anzeigen, daß die Komponente i FEHLERHAFT ist.
    • – Erzeugen von L_NICHTBESTEHEN = L_NICHTBESTEHEN/n, wobei n die Anzahl von Komponenten 1 – n ist.
    • – Entfernen des Tests j aus der Liste fertiggestellter Tests in der Testergebnistabelle 16.
  • Bei einem Schritt 75 wird L BESTEHEN bestimmt, was der Anteil von Diagnosen ist, die korrekt sein werden, wenn Test j als nächstes auf der zu testenden Vorrichtung 10 laufengelassen und bestanden wird. Schritt 75 wird gemäß den folgenden Schritten durchgeführt:
    • – Einstellen von L_BESTEHEN auf 0.
    • – Einstellen von Test j in der Testergebnistabelle 16, um fertiggestellt und bestanden anzuzeigen.
    • – Für jede Komponente i, Erzeugen von Pi = v(Δ_i)/v(Δ) und Hinzufügen von max(Pi, 1 – Pi) zu L BESTEHEN; wobei v(Δ) die Summe der Häufigkeit-eines-Auftretens-Felder aller Einträge in die Vorhersagetabelle 30 ist, die das Muster von Testergebnissen aufweisen, die in der Testergebnistabelle 16 enthalten sind, und wobei v(Δ_i) die Summe der Häufigkeit-eines-Auftretens-Felder der Einträge der Vorhersagetabelle 30 ist, die mit dem Muster in der Testergebnistabelle 16 übereinstimmen und die anzeigen, daß die Komponente i FEHLERHAFT ist.
    • – Erzeugen von L_BESTEHEN = L_BESTEHEN / n, wobei n die Anzahl von Komponenten 1 – n ist.
    • – Entfernen des Tests j aus der Liste fertiggestellter Tests in der Testergebnistabelle 16.
  • Bei einem Schritt 76 wird Lj, das der erwartete Anteil korrekter Diagnosen ist, wenn Test j als nächstes bezüglich der zu testenden Vorrichtung 10 durchgeführt wird, gemäß der folgenden Gleichung bestimmt. Lj = P(Tj = NICHTBESTEHEN)*L_NICHTBESTEHEN + P(Tj = BESTEHEN) * L_BESTEHEN
  • Danach werden j und Lj als die Einträge für die erste bzw. zweite Spalte der nächsten verfügbaren Zeile der nächsten Testtabelle 26 an die nächste Testtabelle 26 geschrieben.
  • Schließlich wird, wenn die Nächster-Test-Tabelle 26 durch eine Ausgangsspalte sortiert werden soll, der Sortierschritt durchgeführt. Der höchste erwartete Anteil korrekter Diagnosen, die in der Nächster-Test-Tabelle 26 aufgelistet sind, kann als der beste nächste Test ausgewählt sein oder die erwarteten Anteile, die in der Nächster-Test-Tabelle 26 aufgelistet sind, können durch die wirtschaftlichen Kosten gewichtet werden, die einem Durchführen der Tests zugeordnet sind.
  • 5 stellt ein Ausführungsbeispiel der Prozedur 20 dar, das es einem Benutzer ermöglicht, die wahrscheinlichste fehlerhafte Komponente der zu testenden Vorrichtung 10 zu bestimmen. Die Prozedur 20 erzeugt die Liste 24 einer oder mehrerer wahrscheinlichster fehlerhafter Komponenten unter den Komponenten 1 – n. Die Prozedur 20 nimmt als Eingänge die Vorhersagetabelle 30 und einen gegenwärtigen Zustand der Testergebnistabelle 16, der anzeigt, welche der Tests 1 – m auf die zu testenden Vorrichtung 10 angewendet wurden, sowie, ob die angewendeten Tests bestanden oder nicht bestanden wurden. Die Prozedur 20 erzeugt die Liste 24 fehlerhafter Komponenten, um die durchschnittliche Zahl falsch diagnostizierter Komponenten über eine große Zahl von zu testenden Vorrichtungen zu minimieren.
  • Bei einem Schritt 60 wird v (Δ) erzeugt, was die Summe der Häufigkeit-eines-Auftretens-Felder aller Einträge in der Vorhersagetabelle 30 ist, die das Muster bestandener und nicht-bestandener Tests aufweisen, die durch den gegenwärtigen Zustand der Testergebnistabelle 16 bereitgestellt werden (die gegenwärtigen Testergebnisse).
  • Schritte 62–68 werden für jede Komponente i durchgeführt, wobei i von 1 bis n, der Anzahl von Komponenten der zu testenden Vorrichtung 10, variiert.
  • Bei Schritt 62 wird v(Δ i) erzeugt, was die Summe der Häufigkeit-eines-Auftretens-Felder der Einträge der Vorhersagetabelle 30 ist, die mit den gegenwärtigen Testergebnissen übereinstimmen, und die anzeigen, daß die Komponente i FEHLERHAFT ist.
  • Wenn 2*v(Δ_i) > v(Δ) bei Schritt 64 ist, wird die Liste 24 bei Schritt 66 geschrieben, um anzuzeigen, daß die Komponente i FEHLERFREI ist. Andernfalls wird die Liste 24 bei Schritt 68 geschrieben, um anzuzeigen, daß die Komponente i FEHLERHAFT ist.
  • An dem Ende der Prozedur 20 enthält die Liste 24 eine FEHLERFREI- oder eine FEHLERHAFT-Anzeige für jede der Komponenten 1 – n, wobei jede FEHLERHAFT-Anzeige die entspre chende Komponente als eine wahrscheinlich fehlerhafte Komponente identifiziert. Die Kombination der Anzeigen wahrscheinlich fehlerhafter Komponenten in der Liste 24 und der wirtschaftlichen Kosten, die einem Austauschen der wahrscheinlich fehlerhaften Komponenten in der Tabelle 28 zugeordnet sind, liefert Informationen, die eine Auswahl dessen ermöglichen, welche wahrscheinlich fehlerhafte Komponente auszutauschen ist. Wenn die Liste 24 z. B. zwei oder mehr wahrscheinlich fehlerhafte Komponenten enthält, wählt der Benutzer oder die Prozedur 20 selbst die wahrscheinlich fehlerhafte Komponente in der Liste 24 aus, die für einen Austausch die geringsten wirtschaftlichen Kosten aufweist, wie in der Liste 28 angezeigt ist.
  • Bei einigen Ausführungsbeispielen eines modellbasierten Diagnosesystems ist es wünschenswert, einem geübten Techniker eine Liste mehrerer wahrscheinlichster fehlerhafter Komponenten vorzulegen. Tabelle 3 stellt eine derartige Vorlage mehrerer wahrscheinlichster fehlerhafter Komponenten dar.
  • Tabelle 3
    Figure 00240001
  • Tabelle 3 kann als „die Wahrscheinlichkeit, daß nur U1 fehlerhaft ist, beträgt 0,5, die Wahrscheinlichkeit, daß U2 und U7 * beide * fehlerhaft sind, beträgt 0,4 und die Wahrscheinlichkeit, daß nur U3 fehlerhaft ist, beträgt 0,1" interpretiert werden.
  • 6 stellt ein alternatives Ausführungsbeispiel der Prozedur 20 dar, die die Wahrscheinlichkeiten eines Ausfalls der Sätze von Komponenten bestimmt, die in der Liste 24 in dem in Tabelle 3 gezeigten Format vorgelegt werden. Bei einem Schritt 100 werden die Zeilen der Vorhersagetabelle 30, deren Muster von Testergebnissen mit den gegenwärtigen Testergebnissen in der Testergebnistabelle 16 übereinstimmen, extrahiert und eine Summe N wird erzeugt, die die Summe der Häufigkeit-eines-Auftretens-Felder der extrahierten Zeilen ist.
  • Eine leere Liste wahrscheinlichster fehlerhaften Komponenten 24 wird zu Beginn erzeugt. Die Elemente der Liste 24 umfassen ein Paar von Feldern. Das erste Feld ist ein Muster von FEHLERHAFTEN Komponenten. Das zweite Feld ist eine Anzahl-von-Malen, die das entsprechende Muster in der bei Schritt 100 extrahierten Zeilen auftritt.
  • Schritte 110 und 120 werden für jede bestimmte Zeile der Vorhersagetabelle 30 durchgeführt, die bei Schritt 100 extrahiert wird, die mit den gegenwärtigen Testergebnissen in der Testergebnistabelle 16 übereinstimmt.
  • Bei Schritt 110 wird, wenn das Muster von FEHLERHAFTEN Komponenten für die bestimmte extrahierte Zeile in der Liste 24 erscheint, das Häufigkeit-eines-Auftretens-Feldes der bestimmten extrahierten Zeile zu der Anzahl-von-Malen für dieses Muster in der Liste 24 hinzugefügt.
  • Bei Schritt 120 wird, wenn das Muster von FEHLERHAFTEN Komponenten für die bestimmte extrahierte Zeile nicht in der Liste 24 erscheint, ein neues Element zu der Liste 24 hinzugefügt. Das Muster des FEHLERHAFTE-Komponenten-Feldes des neuen Elementes in der Liste 24 wird auf das Muster der bestimmten extrahierten Zeile der Vorhersagetabelle 30 eingestellt. Zusätzlich erscheint das Anzahl-von-Malen-Feld, wenn das neue Element in der Liste 24 auf das Häufigkeit eines-Auftretens-Feld der bestimmten extrahierten Zeile der Vorhersagetabelle 30 eingestellt wird.
  • Die Liste 24 wird durch die Anzahl-von-Malen-Felder sortiert. Ein Schritt 130 wird für jede bestimmte Zeile in der Liste 24 durchgeführt. Bei Schritt 130 wird die Anzahl-von-Malen für die bestimmte Zeile durch die Anzahl-von-Malen geteilt durch N ausgetauscht.
  • Nach Schritt 130 enthält die Liste 24 Muster von FEHLER-HAFTEN Komponenten gemeinsam mit ihrer Wahrscheinlichkeit angesichts der Testergebnisse. Graphische Symbole, Farbcodes usw. können anstelle von Zahlen verwendet werden, um die relativen Wahrscheinlichkeiten fehlerhafter Komponenten darzustellen.
  • Die hierin beschriebenen Diagnosetechniken werden so ausgeführt, um eine bekannte objektive Funktion zu maximieren, nämlich den Anteil fehlerfreier Diagnosen über eine große Anzahl von zu testenden Vorrichtungen. Als eine Konsequenz sind die Ergebnisse der Diagnose einfacher zu interpretieren und experimentell zu verifizieren als eine Diagnose auf Heuristikbasis. Dies wiederum macht es einfacher, das Komponente/Test-Modell zu bereinigen, das in den statistischen Simulator 32 eingegeben wird.
  • Die Prozedur 22 wählt einen oder mehrere beste nächste Tests aus, um die erwartete Verbesserung bei der Rate einer erfolgreichen Diagnose zu maximieren. Wieder ist dieses Maß ohne weiteres zu interpretieren und verifizieren.
  • Wenn Informationen über die Kosten von Tests und die Kosten korrekter Diagnosen verfügbar sind, werden die Prozeduren 20 und 22 ohne weiteres modifiziert, so daß die wahrscheinlichste fehlerhafte Diagnose und die Bester-Nächster-Test-Auswahl ausgewählt werden, um die erwarteten Kosten eines Testens und einer inkorrekten Diagnose zu minimieren.
  • Die Prozeduren 20 und 22 sind gut geeignet, um in den Vorrichtungstester 12 oder herunterladbare Anwendungen für den Vorrichtungstester 12 eingebettet zu sein. Die Prozeduren 20 und 22 sind kompakt und führen weder die ausführlichen Suchen durch, die durch frühere Techniken mit künstlicher Intelligenz benötigt wurden, noch die ausführlichen Gleitkommaberechnungen, die durch frühere statistische Techniken benötigt werden.
  • Die Vorhersagetabelle 30 muß nicht genau so, wie in Tabelle 1 dargestellt ist, gespeichert werden. Es gibt verschiedene Baumspeicherungs-, Indexierungs-, Hashing- und Datenkomprimierungstechniken, die die Menge von Speicher reduzieren können, die benötigt wird, um die Vorhersagetabelle 30 zu speichern und/oder einen Zugriff auf die in der Vorhersagetabelle 30 gespeicherten Werte zu beschleunigen. Diese Techniken und die Kriterien zum Auswählen unter denselben basierend auf ihren relativen Vorteilen in bestimmten Situationen sind Fachleuten auf dem Gebiet eines Entwurfs von Computeralgorithmen, Datenstrukturen und Programmen bekannt.
  • Die vorangegangene detaillierte Beschreibung der vorliegenden Erfindung wird zu Zwecken einer Darstellung bereitgestellt und soll nicht ausschließlich sein oder die Erfindung auf das genaue offenbarte Ausführungsbeispiel einschränken. Folglich ist der Schutzbereich der vorliegenden Erfindung durch die beigefügten Ansprüche definiert.

Claims (12)

  1. Ein Diagnosesystem zum Auswählen eines oder mehrerer nächster Tests aus einem Satz von Diagnosetests (14), die noch nicht auf eine zu testende Vorrichtung (10) angewendet wurden, und zum Bestimmen einer oder mehrerer wahrscheinlichster fehlerhafter Komponenten aus einem Satz von Komponenten in einer zu testenden Vorrichtung (10), wobei das Diagnosesystem folgende Merkmale aufweist: eine Einrichtung zum Implementieren eines Satzes von Diagnosetests (14); eine Testergebnistabelle (16), die Testergebnisse von Diagnosetests (14) speichert, die auf die zu testende Vorrichtung angewendet werden; eine Vorhersagetabelle (30), die einen Satz von Mustern von Testergebnissen (16) und einen Satz von Mustern von Komponentenzuständen und einen Satz von Häufigkeit-eines-Auftretens-Anzeigen hält, wobei die Komponentenzustände einen fehlerhaften Zustand oder einen fehlerfreien Zustand einer Komponente anzeigen, wobei ein fehlerfreier Zustand anzeigt, daß ein auf die Komponente angewendeter Test bestanden wurde, und wobei ein fehlerhafter Zustand anzeigt, daß ein auf die Komponente angewendeter Test nicht bestanden wurde, wobei ein Muster von Testergebnissen die bestandenen oder nicht-bestandenen Ergebnisse für alle Tests in dem Satz von Diagnosetests anzeigt, wobei ein Muster von Komponentenzuständen die Komponentenzustände für alle Komponenten in dem Satz von Komponenten anzeigt, und wobei eine Häufigkeit-eines-Auftretens-Anzeige anzeigt, wie oft ein entsprechendes Paar von Mustern von Komponentenzuständen und Mustern von Testergebnissen auftritt, wobei die Häufigkeiteines-Auftretens-Anzeige durch eine statistische Simulation erzeugt wird oder tatsächliche Testergebnisse, die aus historischen Daten erhalten werden, darstellt; eine Einrichtung (20) zum Bestimmen einer oder mehrerer wahrscheinlichster fehlerhafter Komponenten aus einem Satz von Komponenten in einer zu testenden Vorrichtung (10); und eine Einrichtung (22) zum Auswählen eines oder mehrerer nächster Tests aus einem Satz von Diagnosetests (14), die noch nicht auf eine zu testende Vorrichtung (10) angewendet wurden, wobei die Einrichtung (20) zum Bestimmen und die Einrichtung (22) zum Auswählen ansprechend auf ein Testergebnis aus der Testergebnistabelle (16) für jeden eines Teilsatzes der Diagnosetests (14), die auf die zu testende Vorrichtung (10) angewendet wurden, wobei jeder Diagnosetest (14) einen Abschnitt einer oder mehrerer der Komponenten abdeckt, sowie ansprechend auf einen Satz von Mustern von Testergebnissen (16) und einen Satz von Mustern von Komponentenzuständen und einen Satz von Häufigkeit-eines-Auftretens-Anzeigen aus der Vorhersagetabelle (30) wirksam sind.
  2. Das Diagnosesystem gemäß Anspruch 1, bei dem die Einrichtung (22) zum Auswählen die nächsten Tests einem Benutzer in einer Tabelle (26) bereitstellt, die einen Identifizierer jedes nächsten Tests und eine Fehlerfreiheit-Anzeige für jeden nächsten Test umfaßt.
  3. Das Diagnosesystem gemäß Anspruch 2, bei dem die Tabelle (26) ansprechend auf die Fehlerfreiheit-Anzeigen sortiert ist, wobei die Fehlerfreiheit-Anzeige ein numerischer Wert, der die relative Fehlerfreiheit unter den nächsten Tests anzeigt, ein graphisches Anzeigeelement, das die relative Fehlerfreiheit unter den nächsten Tests anzeigt, oder jede Fehlerfreiheit-Anzeige ist, die wirtschaftliche Kosten umfaßt, die einem Durchführen des entsprechenden nächsten Tests zugeordnet sind.
  4. Das Diagnosesystem gemäß Anspruch 1, bei dem Daten, die die nächsten Tests anzeigen, an ein Element übertragen werden, das ansprechend auf dieselben wirkt, wobei die Daten einen Identifizierer jedes nächsten Tests und eine Fehlerfreiheit-Anzeige für jeden nächsten Test umfassen.
  5. Das Diagnosesystem gemäß Anspruch 1, bei dem die Einrichtung (22) zum Auswählen für jeden noch nicht angewendeten Diagnosetest folgende Schritte durchführt: Bestimmen (72) einer ersten Wahrscheinlichkeit, daß der noch nicht angewendete Diagnosetest nicht bestanden wird, angesichts der Testergebnisse; Bestimmen (73) einer zweiten Wahrscheinlichkeit, daß der noch nicht angewendete Diagnosetest bestanden wird, angesichts der Testergebnisse; Bestimmen (74) eines ersten Verhältnisses von Diagnosen, die korrekt sein werden, wenn der noch nicht angewendete Diagnosetest als nächstes angewendet und nicht bestanden wird; Bestimmen (75) eines zweiten Verhältnisses von Diagnosen, die korrekt sein werden, wenn der noch nicht angewendete Diagnosetest als nächstes angewendet und bestanden wird; und Bestimmen (76) eines erwarteten Verhältnisses korrekter Diagnosen, wenn der noch nicht angewendete Diagnosetest als nächstes angewendet wird, angesichts der ersten und der zweiten Wahrscheinlichkeit und des ersten und des zweiten Verhältnisses.
  6. Das Diagnosesystem gemäß Anspruch 5, bei dem die Einrichtung (22) zum Auswählen des nächsten Tests ferner den nächsten Test aus den noch nicht auf die zu testende Vorrichtung (10) angewendeten Diagnosetests angesichts der erwarteten Verhältnisse und eines Satzes von Kosten auswählt, die einem Anwenden der noch nicht auf die zu testende Vorrichtung (10) angewendeten Diagnosetests zugeordnet sind.
  7. Das Diagnosesystem gemäß Anspruch 1, bei dem die Einrichtung (20) zum Bestimmen einer oder mehrerer wahrscheinlichster fehlerhafter Komponenten folgende Schritte durchführt: Erzeugen (60) einer ersten Summe der Häufigkeit-eines-Auftretens-Anzeigen, die den Testergebnissen entsprechen; und für jede der Komponenten, Erzeugen (62) einer zweiten Summe der Häufigkeit-eines-Auftretens-Anzeigen, die den Testergebnissen entsprechen, und die anzeigen, daß die Komponente FEHLERHAFT ist, und Schreiben einer Liste wahrscheinlichster fehlerhafter Komponenten, um anzuzeigen, daß die Komponente FEHLERFREI ist, wenn das Doppelte der zweiten Summe größer als die erste Summe ist, und andernfalls Schreiben der Liste wahr scheinlichster fehlerhafter Komponenten, um anzuzeigen, daß die Komponente FEHLERHAFT ist.
  8. Das Diagnosesystem gemäß Anspruch 1, bei dem die Muster von Testergebnissen und Fehlerfrei/Fehlerhaft-Zuständen der Komponenten und die Häufigkeit-eines-Auftretens-Anzeige für jedes Muster durch eine statistische Simulation der Testergebnisse und wahrscheinliche Fehlerfrei/Fehlerhaft-Zustände ansprechend auf eine Wahrscheinlichkeit eines Ausfalls jeder Komponente und einen Satz von Testabdeckungsinformationen für die Diagnosetests erzeugt werden.
  9. Das Diagnosesystem gemäß Anspruch 8, bei dem die Wahrscheinlichkeit eines Ausfalls jeder Komponente auf einer vorherigen Konstruktionsschätzung basiert.
  10. Das Diagnosesystem gemäß Anspruch 8, bei dem die Testabdeckungsinformationen eine Testabdeckungsanzeige für jeden der Diagnosetests, derart, daß jede Testabdekkungsanzeige die Abschnitte der Komponenten spezifiziert, die durch den entsprechenden Diagnosetest getestet werden, oder einen Satz gemeinsamer Abdeckungsanzeigen umfassen, wobei jede derselben eine bekannte Abhängigkeit unter den Diagnosetests spezifiziert, wobei jede bekannte Abhängigkeit auftritt, wenn zwei oder mehr der Diagnosetests einen Abschnitt einer oder mehrerer der Komponenten auf die gleiche Weise abdekken.
  11. Das Diagnosesystem gemäß Anspruch 1, bei dem die Muster von Testergebnissen und Fehlerfrei/Fehlerhaft-Zustände der Komponenten und die Häufigkeit-eines-Auftretens-Anzeige für jedes Muster tatsächliche Testergebnisse und Fehlerfrei/Fehlerhaft-Zustände, die aus historischen Daten erhalten werden, darstellen.
  12. Das Diagnosesystem gemäß Anspruch 1, bei dem die Einrichtung (20) zum Bestimmen einer oder mehrerer wahrscheinlichster fehlerhafter Komponenten folgende Schritte durchführt: Erzeugen (100) einer Summe N der Häufigkeit-eines-Auftretens-Anzeigen der Muster, die mit den Testergebnissen übereinstimmen; für jedes Muster, das mit den Testergebnissen übereinstimmt, wenn das Muster in einer Liste wahrscheinlichster fehlerhafter Komponenten vorliegt, Hinzufügen (110) der Häufigkeit-eines-Auftretens-Anzeige eines Musters zu einer Anzahl-von-Malen-Anzeige für das Muster in der Liste wahrscheinlichster fehlerhafter Komponenten, und andernfalls Hinzufügen (120) des Musters zu der Liste wahrscheinlichster fehlerhafter Komponenten und Schreiben der Häufigkeit-eines-Auftretens-Anzeige des Musters an eine Anzahl-von-Malen-Anzeige für das Muster in der Liste wahrscheinlichster fehlerhafter Komponenten; und für jedes Muster in der Liste wahrscheinlichster fehlerhafter Komponenten, Ersetzen (130) der Anzahl-von-Malen-Anzeige durch die Anzahl-von-Malen-Anzeige geteilt durch N.
DE69817689T 1997-06-26 1998-06-26 Modellbasiertes Diagnosesystem mit automatisierten Verfahren für Auswahl von folgendem Test Expired - Fee Related DE69817689T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/882,791 US6167352A (en) 1997-06-26 1997-06-26 Model-based diagnostic system with automated procedures for next test selection
US882791 1997-06-26

Publications (2)

Publication Number Publication Date
DE69817689D1 DE69817689D1 (de) 2003-10-09
DE69817689T2 true DE69817689T2 (de) 2004-07-15

Family

ID=25381339

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69817689T Expired - Fee Related DE69817689T2 (de) 1997-06-26 1998-06-26 Modellbasiertes Diagnosesystem mit automatisierten Verfahren für Auswahl von folgendem Test

Country Status (5)

Country Link
US (1) US6167352A (de)
EP (1) EP0887733B1 (de)
JP (1) JP4271282B2 (de)
KR (1) KR100520629B1 (de)
DE (1) DE69817689T2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020208306A1 (de) 2020-07-02 2022-01-05 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Testen einer elektronischen Komponente mithilfe von Maschinenlernverfahren
DE102017002372B4 (de) 2016-03-17 2024-03-07 Fanuc Corporation Testsystem zum Durchführen eines Maschinentests

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6442714B1 (en) 1999-03-17 2002-08-27 Cisco Technology Web-based integrated testing and reporting system
DE19959019A1 (de) * 1999-12-08 2001-06-13 Bosch Gmbh Robert Verfahren zur Zustandserkennung eines Energiespeichers
US6668340B1 (en) * 1999-12-10 2003-12-23 International Business Machines Corporation Method system and program for determining a test case selection for a software application
US6691249B1 (en) 2000-03-22 2004-02-10 Agilent Technologies, Inc. Probabilistic diagnosis, in particular for embedded and remote applications
JP4497257B2 (ja) * 2000-05-16 2010-07-07 日本電気株式会社 電子機器の消耗品点検システム
JP4488595B2 (ja) * 2000-06-08 2010-06-23 株式会社アドバンテスト テストパターン生成方法
KR100459055B1 (ko) * 2000-06-14 2004-12-03 세이코 엡슨 가부시키가이샤 어플리케이션 프로그램 개발 시스템, 어플리케이션프로그램 개발 방법, 및 어플리케이션 프로그램 개발프로그램을 기억한 기억 매체
JP4336029B2 (ja) * 2000-06-19 2009-09-30 株式会社アドバンテスト 半導体集積回路の故障シミュレーション方法および故障シミュレータ
US6732296B1 (en) * 2000-07-14 2004-05-04 Rockwell Automation Technologies, Inc. Object oriented scaleable test executive
US20020078401A1 (en) * 2000-12-15 2002-06-20 Fry Michael Andrew Test coverage analysis system
US6671634B2 (en) * 2000-12-27 2003-12-30 Abb Research Ltd. System and method for reliability assessment of a power system having integrated modules
US20030118666A1 (en) * 2001-10-12 2003-06-26 Seiji Nishida Injectable solution containing a shark-derived chondroitin sulfate iron colloid
US7139676B2 (en) * 2002-01-18 2006-11-21 Agilent Technologies, Inc Revising a test suite using diagnostic efficacy evaluation
US7024600B2 (en) 2002-02-19 2006-04-04 Agilent Technologies, Inc. Diagnosis of data transfer faults using constraints
US7051240B2 (en) * 2002-03-14 2006-05-23 Agilent Technologies, Inc. Diagnosis of data packet transfer faults using constraints
US20030182626A1 (en) * 2002-03-22 2003-09-25 Eran Davidov On-demand creation of MIDlets
US7565647B2 (en) * 2002-03-22 2009-07-21 Sun Microsystems, Inc. Markup compiler that outputs MIDlets
US7512932B2 (en) * 2002-03-22 2009-03-31 Sun Microsystems, Inc. Language and object model for describing MIDlets
US7305671B2 (en) * 2002-03-22 2007-12-04 Sun Microsystems, Inc. Conversion of an object model to a source file generation model
US7505872B2 (en) * 2002-09-11 2009-03-17 International Business Machines Corporation Methods and apparatus for impact analysis and problem determination
US6865512B2 (en) 2002-11-12 2005-03-08 Koninklijke Philips Electronics N.V. Automated medical imaging system maintenance diagnostics
US6882271B2 (en) 2002-11-12 2005-04-19 Koninklijke Philips Electronics N.V. Automated medical imaging system repair diagnostics
US7203622B2 (en) * 2002-12-23 2007-04-10 Abb Research Ltd. Value-based transmission asset maintenance management of electric power networks
US7272516B2 (en) * 2002-12-23 2007-09-18 Abb Research Failure rate adjustment for electric power network reliability analysis
US7143310B2 (en) * 2003-01-22 2006-11-28 Sun Microsystems Inc. Generating standalone MIDlets from a testing harness
US7334162B1 (en) 2003-01-29 2008-02-19 Sun Microsystems, Inc. Dynamic distribution of test execution
US7296190B2 (en) * 2003-01-29 2007-11-13 Sun Microsystems, Inc. Parallel text execution on low-end emulators and devices
US7366955B2 (en) * 2003-01-29 2008-04-29 Sun Microsystems, Inc. Automated test execution framework with central management
US20050091642A1 (en) * 2003-10-28 2005-04-28 Miller William L. Method and systems for learning model-based lifecycle diagnostics
US7287190B2 (en) * 2004-01-29 2007-10-23 Sun Microsystems, Inc. Simultaneous execution of test suites on different platforms
US7543275B2 (en) * 2004-01-29 2009-06-02 Sun Microsystems, Inc. Mechanism for executing test suites written for different harnesses under one test execution harness
US7165191B1 (en) 2004-01-29 2007-01-16 Sun Microsystems, Inc. Automated verification of user interface tests on low-end emulators and devices
US7913002B2 (en) * 2004-08-20 2011-03-22 Advantest Corporation Test apparatus, configuration method, and device interface
US20060095822A1 (en) * 2004-11-01 2006-05-04 Fong Luk Generation of test vectors for testing electronic circuits taking into account of defect probability
US7899646B2 (en) * 2004-11-02 2011-03-01 Agilent Technologies, Inc. Method for comparing a value to a threshold in the presence of uncertainty
EP1662477A1 (de) * 2004-11-26 2006-05-31 Barco N.V. Test oder Kalibrierung angezeigter Graustufen
US7050922B1 (en) * 2005-01-14 2006-05-23 Agilent Technologies, Inc. Method for optimizing test order, and machine-readable media storing sequences of instructions to perform same
US8320235B2 (en) * 2006-02-17 2012-11-27 Advantest (Singapore) Pte Ltd Self-repair system and method for providing resource failure tolerance
CN101331438B (zh) * 2006-02-23 2010-08-18 富士通株式会社 维护指导显示装置、维护指导显示方法
US8423226B2 (en) 2006-06-14 2013-04-16 Service Solutions U.S. Llc Dynamic decision sequencing method and apparatus for optimizing a diagnostic test plan
US8428813B2 (en) 2006-06-14 2013-04-23 Service Solutions Us Llc Dynamic decision sequencing method and apparatus for optimizing a diagnostic test plan
US8762165B2 (en) 2006-06-14 2014-06-24 Bosch Automotive Service Solutions Llc Optimizing test procedures for a subject under test
US7643916B2 (en) 2006-06-14 2010-01-05 Spx Corporation Vehicle state tracking method and apparatus for diagnostic testing
US9081883B2 (en) 2006-06-14 2015-07-14 Bosch Automotive Service Solutions Inc. Dynamic decision sequencing method and apparatus for optimizing a diagnostic test plan
US7673210B2 (en) * 2006-10-12 2010-03-02 Agilent Technologies, Inc. Methods and apparatus for diagnosing a degree of interference between a plurality of faults in a system under test
DE102006060322A1 (de) * 2006-12-20 2008-06-26 Deutsche Telekom Ag Verfahren und Vorrichtung zum automatischen Testen von modellbasierten Funktionen
US8024610B2 (en) * 2007-05-24 2011-09-20 Palo Alto Research Center Incorporated Diagnosing intermittent faults
US7788564B2 (en) * 2007-10-12 2010-08-31 Teradyne, Inc. Adjustable test pattern results latency
US7991580B2 (en) * 2008-04-16 2011-08-02 Honeywell International Inc. Benchmarking diagnostic algorithms
US8239094B2 (en) 2008-04-23 2012-08-07 Spx Corporation Test requirement list for diagnostic tests
US8174996B2 (en) * 2008-06-24 2012-05-08 Verizon Patent And Licensing Inc. Adaptive test system for network function and performance evaluation
US8648700B2 (en) 2009-06-23 2014-02-11 Bosch Automotive Service Solutions Llc Alerts issued upon component detection failure
GB2483499A (en) * 2010-09-10 2012-03-14 S3 Res & Dev Ltd Diagnostics and Analysis of a Set Top Box
US10042741B2 (en) * 2011-02-28 2018-08-07 Synopsys, Inc. Determining a subset of tests
WO2014185812A1 (en) * 2013-05-14 2014-11-20 Siemens Aktiengesellschaft Diagnostics of a mechanical part
KR102098595B1 (ko) 2019-03-27 2020-04-08 이종훈 좌변기 변좌 자동 승하강 장치
US11815560B2 (en) 2020-02-12 2023-11-14 Dit-Mco International Llc Methods and systems for wire harness test results analysis
US11188453B1 (en) 2020-12-15 2021-11-30 International Business Machines Corporation Verification of software test quality using hidden variables
US11113167B1 (en) 2020-12-15 2021-09-07 International Business Machines Corporation System testing infrastructure with hidden variable, hidden attribute, and hidden value detection
US11379352B1 (en) 2020-12-15 2022-07-05 International Business Machines Corporation System testing infrastructure with hidden variable, hidden attribute, and hidden value detection
US11204848B1 (en) 2020-12-15 2021-12-21 International Business Machines Corporation System testing infrastructure with hidden variable, hidden attribute, and hidden value detection
US11132273B1 (en) 2020-12-15 2021-09-28 International Business Machines Corporation System testing infrastructure with hidden variable, hidden attribute, and hidden value detection
US11921598B2 (en) * 2021-10-13 2024-03-05 Teradyne, Inc. Predicting which tests will produce failing results for a set of devices under test based on patterns of an initial set of devices under test
US11586517B1 (en) * 2022-01-27 2023-02-21 International Business Machines Corporation Automated internet of things device testing including modifying a device table to generate an association table

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5195095A (en) * 1990-12-28 1993-03-16 General Electric Company Algorithm for identifying tests to perform for fault isolation
KR100231958B1 (ko) * 1991-08-17 1999-12-01 레비스 스테픈 이 기계 고장 판별 방법 및 장치
US5485471A (en) * 1993-10-15 1996-01-16 Mitsubishi Electric Research Laboratories, Inc. System for testing of digital integrated circuits
US5561762A (en) * 1995-06-06 1996-10-01 Union Switch & Signal Inc. Malicious fault list generation method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017002372B4 (de) 2016-03-17 2024-03-07 Fanuc Corporation Testsystem zum Durchführen eines Maschinentests
DE102020208306A1 (de) 2020-07-02 2022-01-05 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Testen einer elektronischen Komponente mithilfe von Maschinenlernverfahren
DE102020208306B4 (de) 2020-07-02 2022-05-19 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Testen einer elektronischen Komponente mithilfe von Maschinenlernverfahren

Also Published As

Publication number Publication date
KR19990007234A (ko) 1999-01-25
EP0887733A3 (de) 1999-08-04
EP0887733B1 (de) 2003-09-03
DE69817689D1 (de) 2003-10-09
JPH1172361A (ja) 1999-03-16
KR100520629B1 (ko) 2005-12-21
US6167352A (en) 2000-12-26
JP4271282B2 (ja) 2009-06-03
EP0887733A2 (de) 1998-12-30

Similar Documents

Publication Publication Date Title
DE69817689T2 (de) Modellbasiertes Diagnosesystem mit automatisierten Verfahren für Auswahl von folgendem Test
DE60106799T2 (de) Probabilistische Diagnose, inbesondere für eingebettete Fernanwendungen
DE60305601T2 (de) Verfahren zur zeitlichen Fehlerisolation und Identifizierung
DE3625462A1 (de) Rechnerunterstuetzte fehlerisolation beim pruefen von gedruckten schaltungen
DE10307342B4 (de) Vorrichtung und Verfahren zur modellbasierten On-Board-Diagnose
DE19959157C2 (de) Verbessertes Funktionstesten durch das Filtern von groben Mutationen
DE102005046388A1 (de) Modellgestützte Diagnose und Reparatur mittels Ereignisprotokollierung
DE19523483A1 (de) Rechnergestützte Fehlerdiagnoseeinrichtung für ein komplexes technisches System
WO1997040445A1 (de) Verfahren zur automatischen diagnose technischer systeme unter berücksichtigung eines effizienten wissenserwerbs und einer effizienten bearbeitung zur laufzeit
DE2515297A1 (de) Pruefsystem fuer logische netzwerke mit simulatororientiertem fehlerpruefgenerator
DE60018468T2 (de) Verbrauch von redundanzdaten für das anzeigen der bitfehlerkarten für halbleiterelemente
EP1657670A1 (de) System und Verfahren zur Status- und Fortschriftskontrolle eines technischen Prozesses oder eines technischen Projektes
DE112013005449T5 (de) Verfahren zum Bestimmen eines verworfenen Elektrodrahts und Programm dafür
DE112020007444T5 (de) Automatische Testeinrichtung, Prozess und Computerprogramm zum Testen eines oder mehrerer zu testender Geräte, wobei unterschiedliche Testaktivitäten Teilsätze von Ressourcen des zu testenden Geräts nutzen
DE102005046588B4 (de) Vorrichtung und Verfahren zum Test und zur Diagnose digitaler Schaltungen
DE102011086352A1 (de) Verfahren und Diagnosesystem zur Unterstützung der geführten Fehlersuche in technischen Systemen
DE112021003677T5 (de) Automatisierte unterstützte schaltkreisvalidierung
DE19742448C1 (de) Diagnosemodul zum Erstellen einer Diagnose für elektrisch ansteuerbare Systeme und Diagnoseeinrichtung zum Erstellen einer Gesamtsystemdiagnose
DE19857462A1 (de) Verfahren zur Prüfung von Einzelkomponenten eines Kraftfahrzeuges
DE10111831A1 (de) Verfahren zum automatischen Suchen und Sortieren von Fehlersignaturen von Wafern
DE2441486A1 (de) Verfahren zur automatischen fehlerermittlung bei elektrischen schaltkreisen und einrichtung zur durchfuehrung des verfahrens
DE102008004219A1 (de) Verfahren zum Behandeln mindestens eines Fehlers innerhalb eines Systems
WO2005020075A1 (de) Elektrische diagnoseschaltung sowie verfahren zum testen und/oder zur diagnose einer integrierten schaltung
DE102018212801A1 (de) Diagnose komplexer Systeme
DE10251881A1 (de) Abtastmultiplikation

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: AGILENT TECHNOLOGIES, INC. (N.D.GES.D. STAATES, US

8339 Ceased/non-payment of the annual fee