DE102022208166A1 - Training neuronaler Netzwerke für die Fehlerbaumanalyse mit verbesserter Konvergenz - Google Patents

Training neuronaler Netzwerke für die Fehlerbaumanalyse mit verbesserter Konvergenz Download PDF

Info

Publication number
DE102022208166A1
DE102022208166A1 DE102022208166.8A DE102022208166A DE102022208166A1 DE 102022208166 A1 DE102022208166 A1 DE 102022208166A1 DE 102022208166 A DE102022208166 A DE 102022208166A DE 102022208166 A1 DE102022208166 A1 DE 102022208166A1
Authority
DE
Germany
Prior art keywords
technical system
probability
neuron
processing unit
undesirable event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022208166.8A
Other languages
English (en)
Inventor
Martin Hruschka
Peter Bakucz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022208166.8A priority Critical patent/DE102022208166A1/de
Publication of DE102022208166A1 publication Critical patent/DE102022208166A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Computational Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Verfahren (100) zum Trainieren eines neuronalen Netzwerks (6) für die Vorhersage der Wahrscheinlichkeit (2a), mit der in einem technischen System (1) mindestens ein unerwünschtes Ereignis (2) eintritt, mit den Schritten:• es wird ein Fehlerbaum (5) bereitgestellt (110), der◯ das logische Zusammenwirken von Basisereignissen (3), die einzeln oder in Kombination eine Ursache dafür setzen können, dass das unerwünschte Ereignis (2) in dem technischen System (1) auftritt, sowie◯ Basis-Wahrscheinlichkeiten (3a), mit denen die Basisereignisse (3) jeweils eintreten, angibt;• aus einer Darstellung des Fehlerbaums (5) als Graph wird eine Laplace-Matrix L ermittelt (120);• aus der Laplace-Matrix L werden Startwerte für Gewichte W ermittelt (130), mit denen Eingaben, die einem Neuron und/oder einer sonstigen Verarbeitungseinheit des neuronalen Netzwerks (6) zugeführt werden, zu einer Aktivierung dieses Neurons, bzw. dieser Verarbeitungseinheit, aggregiert werden;• es werden Trainings-Beispiele (7) für Zustandsvektoren x mit Zustandsgrößen des technischen Systems (1) bereitgestellt (140), die mit Soll-Wahrscheinlichkeiten y* für das mindestens eine unerwünschte Ereignis (2) gelabelt sind;• die Trainings-Beispiele (7) werden mit dem neuronalen Netzwerk (6) auf Wahrscheinlichkeiten 2a, y für das mindestens eine unerwünschte Ereignis (2) abgebildet (150);• Abweichungen dieser Wahrscheinlichkeiten y von den Soll-Wahrscheinlichkeiten y* werden mit einer vorgegebenen Kostenfunktion (8) bewertet (160); und• die Gewichte W werden optimiert (170) mit dem Ziel, dass bei weiterer Verarbeitung von Trainings-Beispielen (7) die Bewertung (8a) durch die Kostenfunktion (8) voraussichtlich verbessert wird.

Description

  • Die vorliegende Erfindung betrifft die Fehlerbaumanalyse zur Vorhersage der Wahrscheinlichkeit, mit der in einem technischen System mindestens ein unerwünschtes Ereignis eintritt, welches durch ein oder mehrere Basisereignisse verursacht werden kann.
  • Stand der Technik
  • Bei technischen Systemen, deren Fehlfunktion zu schwerwiegenden Sach- oder Personenschäden führen kann, ist es häufig notwendig, die Zuverlässigkeit vor der Aufnahme des Betriebes quantitativ zu beurteilen.
  • Ein standardisiertes Verfahren zur Beurteilung der Gesamt-Zuverlässigkeit eines nicht redundanten Systems, das aus einer Vielzahl von Funktionseinheiten zusammengesetzt ist, ist die Fehlerbaumanalyse (Fault Tree Analysis, FTA). Für die Zwecke dieser Analyse wird das technische System als baumartige logische Verknüpfung von verursachenden Ereignissen modelliert, die in einem unerwünschten Ereignis („Systemversagen“) kulminieren können. „Baumartig“ bedeutet, dass beispielsweise das Systemversagen eintritt, wenn eine bestimmte logische Verknüpfung von Ereignissen wahr ist, wobei diese Ereignisse wiederum logische Verknüpfungen untergeordneter Ereignisse sein können. Die verursachenden Ereignisse umfassen Fehlfunktionen einzelner Funktionseinheiten.
  • Aus der DE 10 2018 203 374 A1 ist ein Verfahren zur Fehlerbaumanalyse für technische Systeme bekannt, bei dem ein fraktaler Graph als Fehlerbaum aufgestellt wird.
  • Offenbarung der Erfindung
  • Die Erfindung stellt ein Verfahren zum Trainieren eines neuronalen Netzwerks für die Vorhersage der Wahrscheinlichkeit, mit der in einem technischen System mindestens ein unerwünschtes Ereignis eintritt, bereit. Das neuronale Netzwerk ermittelt die gesuchte Vorhersage aus Zustandsgrößen des technischen Systems und/oder seiner Umgebung, die es als Eingaben erhält. In dem neuronalen Netzwerk werden Eingaben, die einem Neuron und/oder einer sonstigen Verarbeitungseinheit des neuronalen Netzwerks zugeführt werden, mit Gewichten W zu einer Aktivierung dieses Neurons, bzw. dieser Verarbeitungseinheit, aggregiert. Diese Gewichte W bilden eine Matrix aus Gewichtevektoren wi, die sich jeweils auf das i-te Neuron, bzw. die i-te Verarbeitungseinheit, beziehen.
  • Im Rahmen des Verfahrens wird ein Fehlerbaum bereitgestellt. Dieser Fehlerbaum gibt das logische Zusammenwirken von Basisereignissen an, die einzeln oder in Kombination eine Ursache dafür setzen können, dass das unerwünschte Ereignis in dem technischen System auftritt. Der Fehlerbaum gibt auch Basis-Wahrscheinlichkeiten an, mit denen die Basisereignisse jeweils eintreten. Das logische Zusammenwirken der Basisereignisse bis hin zum möglichen Eintritt des unerwünschten Ereignisses ist durch eine Konfiguration des technischen Systems ist durch eine Konfiguration des technischen Systems festgelegt. Diese Konfiguration kann insbesondere beispielsweise logische Abhängigkeiten und Wirkmechanismen festlegen, inwieweit das Zusammenwirken mehrerer Basisereignisse, eventuell noch über eine oder mehrere Zwischenstufen, letztlich zum Eintritt des unerwünschten Ereignisses führt.
  • Die Basisereignisse können insbesondere beispielsweise redundant sein. Redundanz kann zum einen beispielsweise dadurch implementiert sein, dass für die Bereitstellung einer bestimmten Funktionalität mehrere Bauelemente oder Baugruppen zum Einsatz kommen, die sich gegenseitig ergänzen oder auch ersetzen können. Diese Redundanz kann insbesondere beispielsweise als „Hot-Redundanz“ realisiert werden, bei der die mehreren Bauelemente bzw. Baugruppen stets gleichzeitig aktiv sind. Dies ist der hier hauptsächlich betrachtete Fall speziell für die Zwecke des mindestens teilweise automatisierten Fahrens. Daneben gibt es auch „Cold-Redundanz“, bei der erst nach Bedarf bei Ausfall oder Fehlfunktion eines aktiven Bauelements, bzw. einer aktiven Baugruppe, ein weiteres Bauelement, bzw. eine weitere Baugruppe, aktiv wird. Ein Beispiel hierfür sind Notstromdiesel, die erst bei Netzausfall aktiviert werden.
  • Redundanz kann aber auch beispielsweise dadurch implementiert sein, dass ein und dasselbe Bauelement oder ein und dieselbe Baugruppe auf mehreren Stufen einer Kausalkette, die zu einem unerwünschten Ereignis führt, relevant ist.
  • Alle hier aufgeführten Arten von Redundanz können in ein und demselben technischen System auch gemischt vorkommen.
  • Die in dem Fehlerbaum verknüpften Basis-Ereignisse können als Knoten eines Graphen angesehen werden. Die logischen Verknüpfungen zwischen diesen Basis-Ereignissen korrespondieren zu logischen Gattern. Entsprechend der logischen Verknüpfungen sind die Knoten des Graphen durch Kanten verbunden. Die konkrete Art der logischen Gatter kann sich beispielsweise in Gewichten manifestieren, mit denen die Kanten belegt sind. Die logischen Gatter können aber auch beispielsweise weitere Knoten in dem Graphen bereitstellen.
  • Aus der Darstellung des Fehlerbaums als Graph wird eine Laplace-Matrix L ermittelt. Diese Laplace-Matrix L enthält auf ihrer Diagonalen die Grade der Knoten, die die Anzahl der Verbindungen des jeweiligen Knoten zu anderen Knoten angibt. Die Nichtdiagonalelemente der Laplace-Matrix L geben die Adjazenzen der Knoten zueinander an. Die Adjazenz kann insbesondere eine Aussage beinhalten, ob zwischen zwei gegebenen Knoten eine Verbindung besteht, und diese Verbindung kann optional auch gewichtet sein.
  • Aus der Laplace-Matrix L werden Startwerte für die Gewichte W des neuronalen Netzwerks ermittelt. Die Gewichte W werden ausgehend von diesen Startwerten optimiert.
  • Zu diesem Zweck werden Trainings-Beispiele für Zustandsvektoren x mit Zustandsgrößen des technischen Systems bereitgestellt. Diese Trainings-Beispiele sind mit Soll-Wahrscheinlichkeiten y* für das mindestens eine unerwünschte Ereignis gelabelt. Die Trainings-Beispiele werden mit dem neuronalen Netzwerk auf Wahrscheinlichkeiten y für das mindestens eine unerwünschte Ereignis abgebildet.
  • Abweichungen dieser Wahrscheinlichkeiten y von den Soll-Wahrscheinlichkeiten y* werden mit einer vorgegebenen Kostenfunktion bewertet. Die Gewichte W werden optimiert mit dem Ziel, dass bei weiterer Verarbeitung von Trainings-Beispielen die Bewertung durch die Kostenfunktion voraussichtlich verbessert wird.
  • Es wurde erkannt, dass die Vorgabe des Startwerts für die Gewichte W aus der Laplace-Matrix L die Konvergenz des Trainings deutlich verbessert. Insbesondere genügt ausgehend von diesem Startwert eine deutlich geringere Menge an Trainings-Beispielen als bei einem herkömmlichen Training, das von einer zufälligen Initialisierung der Gewichte W startet und insoweit unabhängig von jeglichem Vorwissen ist. Durch die Umwandlung des Fehlerbaums in die Darstellung als Graph, der dann wiederum durch die Laplace-Matrix L repräsentiert wird, kann das in dem Fehlerbaum enthaltene Vorwissen berücksichtigt werden. Es werden also die Vorteile eines neuronalen Netzwerks, nämlich eine weitgehende Unabhängigkeit von explizit formuliertem Vorwissen, mit den Vorteilen der Fehlerbaumanalyse, nämlich der Auswertung eines solchen doch vorhandenen Vorwissens, kombiniert.
  • Die Wahrscheinlichkeit für das unerwünschte Ereignis lässt sich dann ausgehend von einem Zustandsvektor x vorhersagen. Für mehrere unerwünschte Ereignisse i liefert das neuronale Netzwerk dann mehrere Wahrscheinlichkeiten yi. Die Gesamt-Zuverlässigkeit des technischen Systems bemisst sich dann nach dem „Worst-Case“, also nach der maximalen Wahrscheinlichkeit yi für ein unerwünschtes Ereignis i, bzw. nach der minimalen Zuverlässigkeit in Bezug auf ein unerwünschtes Ereignis i.
  • Der wichtige Unterschied einer Vorhersage der Zuverlässigkeit in dieser Weise gegenüber der „minimum cut set"-Methode liegt in der Komplexität. Das hier vorgeschlagene Verfahren bildet die „minimum cut set“-Methode nach, ermittelt die gesuchte Wahrscheinlichkeit aber mit einer Komplexität von lediglich N · log N, während die „minimum cut set“-Methode die Komplexität N6 hat.
  • In einer besonders vorteilhaften Ausgestaltung wird bei der Verarbeitung von Zustandsvektoren x die höchste Aktivierung eines Neurons, bzw. einer Verarbeitungseinheit, beibehalten oder erhöht. Zugleich werden niedrigere Aktivierungen abgesenkt oder unterdrückt werden. Diese Maßnahme kann sowohl während des Trainings als auch im späteren Wirkbetrieb des neuronalen Netzwerks (Inferenz) angewendet werden. Insbesondere mit dem „Winner Takes All“-Prinzip, bei dem nur noch ein Neuron bzw. eine Verarbeitungseinheit mit der höchsten Aktivierung aktiv bleibt und eine Ausgabe liefert, wird der benötigte Rechenaufwand stark vermindert. Es müssen nicht mehr viele weitere andere Neuronen bzw. Verarbeitungseinheiten mit Hardwareressourcen, Energie und Arbeitsspeicher „durchgefüttert“ werden, nur um dann jeweils Beiträge zu erhalten, die angesichts der Dominanz des Neurons bzw. der Verarbeitungseinheit mit der höchsten Aktivierung gar nicht mehr nennenswert auf das vom neuronalen Netzwerk gelieferte Endergebnis durchschlagen.
  • Dies ist insbesondere dann vorteilhaft, wenn das Verfahren in Echtzeit auf einem Embedded-System, das in dem technischen System enthalten ist oder von ihm mitgeführt wird, ausgeführt wird, Auf diese Weise kann die Wahrscheinlichkeit für das unerwünschte Ereignis ständig online kontrolliert werden. Embedded-Systeme haben nicht nur meistens vergleichsweise wenig Rechenleistung, sondern vor allem auch vergleichsweise wenig Speicher. Zur Embedded-Tauglichkeit trägt insbesondere bei, dass die Laplace-Matrix L, und damit auch die Matrix der Gewichte W, in der Regel dünn besetzt ist (sparse).
  • In einer weiteren vorteilhaften Ausgestaltung werden auch die Aktivierungen von Neuronen bzw. anderen Verarbeitungseinheiten, die im neuronalen Netzwerk zu dem Neuron bzw. der Verarbeitungseinheit mit der höchsten Aktivierung benachbart liegen, beibehalten oder erhöht. Auf diese Weise kann ein Teil der mit dem „Winner Takes All“ erzielbaren Einsparung von Rechenaufwand eingetauscht werden, um dafür Nebenwirkungen einer harten Diskretisierung zu unterdrücken.
  • In einer weiteren vorteilhaften Ausgestaltung wird der Gewichtevektor wi des i-ten Neurons bzw. der i-ten Verarbeitungseinheit in der Richtung geändert, in der sich die Ausgabe yi dieses Neurons, bzw. dieser Verarbeitungseinheit, beim Übergang vom Trainings-Beispiel für den Zustandsvektor x als Eingabe zum Gewichtevektor wi als Eingabeändert. Die Richtung kann also insbesondere beispielsweise angegeben werden als y i ( x w i ) .
    Figure DE102022208166A1_0001
  • Es wird also in einer Richtung, in der sich der Gewichtevektor wi dem Trainings-Beispiel für den Zustandsvektor x annähert, nach dem Optimum in Bezug auf die Kostenfunktion gesucht.
  • In einer weiteren vorteilhaften Ausgestaltung nimmt die Schrittweite, mit der der Gewichtevektor wi des i-ten Neurons bzw. der i-ten Verarbeitungseinheit geändert wird, mit zunehmender Häufigkeit fi, mit der dieses Neuron, bzw. diese Verarbeitungseinheit, die höchste Aktivierung hat, ab. Beispielsweise kann die Schrittweite umgekehrt proportional zu dieser Häufigkeit fi sein. Auf diese Weise wird es begünstigt, dass im Laufe des Trainings auch mehrere Neuronen bzw. Verarbeitungseinheiten zu Wort kommen und ihre jeweiligen Beiträge zur Optimierung sich sinnvoll ergänzen.
  • In einer weiteren vorteilhaften Ausgestaltung wird für mindestens ein Neuron, bzw. mindestens eine Verarbeitungseinheit, eine maximale Häufigkeit fi,th vorgegeben, mit der der Gewichtevektor wi dieses Neurons, bzw. dieser Verarbeitungseinheit, geändert werden kann. Auf diese Weise wird vermieden, dass die Optimierung nach dem „Winner Takes All“-Prinzip die Optimierung auf nur ein Neuron, bzw. eine Verarbeitungseinheit, verengt.
  • In einer besonders vorteilhaften Ausgestaltung ist mindestens eine Basis-Wahrscheinlichkeit als Zugehörigkeitsfunktion mindestens einer Zustandsgröße des technischen Systems und/oder seiner Umgebung, und/oder als Funktion mindestens einer anderen Basis-Wahrscheinlichkeit, festgelegt. Diese Basis-Wahrscheinlichkeiten werden auch als Fuzzy-Wahrscheinlichkeiten bezeichnet. Wenn ein bestimmter Anteil der Basis-Wahrscheinlichkeiten aus Fuzzy-Wahrscheinlichkeiten besteht, wirkt sich dies nicht zwingend auf die prinzipielle Durchführung des hier beschriebenen Verfahrens aus. Der Nutzwert des Verfahrens steigt jedoch noch einmal deutlich, weil das Verfahren „unnötige“ Auswertungen von Basis-Wahrscheinlichkeiten einspart und gerade die Auswertung von Fuzzy-Wahrscheinlichkeiten vom Rechenaufwand her besonders „teuer“ ist.
  • Weiterhin ist die Auswertung der gesuchten Wahrscheinlichkeit für den Eintritt des unerwünschten Ereignisses gerade bei einem Fehlerbaum mit Fuzzy-Wahrscheinlichkeiten noch einmal deutlich schneller als eine herkömmliche Auswertung nach der „minimal cut set“-Methode. Selbst wenn das technische System nur eine moderate Größe und etwa 100 verschiedene Komponenten hat, kann es bereits tausende „cut sets“ von Basisereignissen geben, die zusammengenommen eine Ursache für das unerwünschte Ereignis setzen können. Diese „cut sets“ müssten alle dahingehend geprüft werden, ob sie minimal sind. Eine derartige Analyse muss sowohl eine technische Ausbreitung eines Fehlers von einer Komponente zur nächsten als auch statistische Abhängigkeiten von Komponenten und gemeinsame Ursachen für mehrere scheinbar unabhängige Ausfälle berücksichtigen.
  • In einer weiteren besonders vorteilhaften Ausgestaltung wird dem trainierten neuronalen Netzwerk mindestens ein Zustandsvektor x mit gemessenen Zustandsgrößen des technischen Systems dem trainierten neuronalen Netzwerk zugeführt. Auf diese Weise wird eine Wahrscheinlichkeit für mindestens ein unerwünschtes Ereignis ermittelt. Durch die Kraft des neuronalen Netzwerks zur Verallgemeinerung ist dann zu erwarten, dass auch in im Training ungesehenen Situationen zumindest eine gute näherungsweise Prognose für die Wahrscheinlichkeit des unerwünschten Ereignisses erhalten werden kann.
  • Da die Gesamt-Wahrscheinlichkeit für das Auftreten des unerwünschten Ereignisses nun auch in Echtzeit auf Embedded-Systemen berechnet werden kann, kann das technische System mit der (Fuzzy-)Fehlerbaumanalyse online überwacht werden.
  • Daher wird in einer weiteren besonders vorteilhaften Ausgestaltung die Vorhersage der Wahrscheinlichkeit für das unerwünschte Ereignis im laufenden Online-Betrieb des technischen Systems fortwährend aktualisiert. In Antwort darauf, dass diese Wahrscheinlichkeit einen vorgegebenen Schwellwert überschreitet, können verschiedene Gegenmaßnahmen ergriffen werden.
  • Beispielsweise kann eine für den Benutzer des technischen Systems wahrnehmbare optische, akustische oder haptische Warneinrichtung aktiviert werden. So kann etwa ein Fahrer eines zumindest teilweise automatisierten Fahrzeugs dazu aufgefordert werden, die manuelle Kontrolle über das Fahrzeug zu übernehmen oder das automatisierte Steuerungssystem in sonstiger Weise zu unterstützen. Aber auch der Fahrer eines manuell gesteuerten Fahrzeugs kann beispielsweise davon profitieren, dass er etwa vor einer erhöhten Wahrscheinlichkeit des unerwünschten Ereignisses „Ausbrechen des Fahrzeugs aus seiner vorgesehenen Fahrspur“ gewarnt wird.
  • Gerade derartige Prozesse lassen sich gut mit Hilfe von Zugehörigkeitsfunktionen abbilden, die Fuzzy-Wahrscheinlichkeiten in Abhängigkeit von bestimmten äußeren Bedingungen modellieren. So entscheiden beispielsweise die Art des Straßenbelags, die Temperatur und die Belegung der Fahrbahn mit Niederschlag über die Basiswahrscheinlichkeit dafür, dass die Haftreibung am Reifen-Fahrbahn-Kontakt in die Gleitreibung übergeht. Inwieweit ein solches Ereignis dann noch durch das Eingreifen eines elektronischen Stabilitätsprogramms (ESP) oder anderer Sicherheitssysteme abgefangen kann, hängt wiederum beispielsweise von der Beladungsverteilung des Fahrzeugs ab, die den Schwerpunkt des Fahrzeugs bestimmt. Im Ergebnis kann die Wahrscheinlichkeit für das Ereignis „Ausbrechen des Fahrzeugs“ bei einer schnellen Autobahnfahrt unter optimalen Bedingungen deutlich geringer prognostiziert werden als bei einer Fahrt mit Stadttempo bei Blitzeis.
  • Wenn die Wahrscheinlichkeit für das unerwünschte Ereignis einen vorgegebenen Schwellwert überschreitet, kann auch beispielsweise das technische System in einen Betriebsmodus versetzt werden, in dem die Wahrscheinlichkeit für das unerwünschte Ereignis vermindert wird, und/oder in dem nachteilige Folgen beim Eintritt des unerwünschten Ereignisses abgeschwächt werden. So können beispielsweise Steuersysteme für Fahrzeuge oder Flugzeuge in kritischen Situationen Steueraktionen so beschränken, dass hektische Manöver eines Fahrzeugs oder Flugzeugs, die zu einem endgültigen Kontrollverlust führen können, unterbunden werden.
  • Schließlich kann auch in Antwort darauf, dass die Wahrscheinlichkeit für das unerwünschte Ereignis einen vorgegebenen Schwellwert überschreitet, beispielsweise das technische System ganz oder teilweise außer Betrieb genommen werden. Wenn etwa eine Drohne feststellt, dass plötzlich ein erhöhtes Risiko für das unerwünschte Ereignis „Kollision mit fremdem Eigentum“ besteht, kann sie automatisch zu ihrem Startort zurückkehren und dort landen oder sich im Extremfall sogar „opfern“, indem sie auf einer Freifläche oder ins Wasser abstürzt. Auch in diesem Beispiel hängen Basiswahrscheinlichkeiten von äußeren Bedingungen ab, was gut über die besagten Zugehörigkeitsfunktionen modelliert werden kann. So entscheidet etwa die Windstärke darüber, ob die Drohne ihre Position aus eigener Kraft noch kontrollieren kann, und die aktuelle Position entscheidet darüber, welches potentiell gefährdete fremde Eigentum in der Nähe ist.
  • Somit kann das Aktualisieren der Vorhersage insbesondere beispielsweise beinhalten, mit mindestens einem Sensor mindestens eine Zustandsgröße des technischen Systems und/oder seiner Umgebung zu erfassen und auf der Basis dieser Zustandsgröße mindestens eine Basis-Wahrscheinlichkeit für den Eintritt eines Basisereignisses anzupassen.
  • In einer weiteren vorteilhaften Ausgestaltung werden iterativ Basis-Wahrscheinlichkeiten verändert. Die Vorhersage der Wahrscheinlichkeit für das unerwünschte Ereignis wird nach jedem Änderungsschritt aktualisiert. Indem auf diese Weise die Änderungen der Wahrscheinlichkeit beobachtet werden, wird das Ziel verfolgt, die Wahrscheinlichkeit für das unerwünschte Ereignis auf oder unter einen vorgegebenen Schwellwert zu drücken.
  • Diese Ausgestaltung ist mehr für die Offline-Auslegung technischer Systeme gedacht als für die Online-Kontrolle im laufenden Betrieb. So ist beispielsweise für Steuerungssysteme, die in Fahrzeugen zum Einsatz kommen, oder auch in der industriellen Automatisierungstechnik häufig eine maximal zulässige Wahrscheinlichkeit, mit der bestimmte unerwünschte Ereignisse auftreten können, fest vorgegeben. Wenn in dem konkret untersuchten System diese Wahrscheinlichkeit über dem zulässigen Schwellwert liegt, stellt sich die Frage, an welcher Stelle das System sinnvollerweise verbessert werden kann, um die Wahrscheinlichkeit für das unerwünschte Ereignis möglichst effektiv und kostengünstig zu vermindern. So lässt sich die Zuverlässigkeit vieler Systeme durch doppelt oder gar mehrfach redundante Ausführung deutlich steigern, allerdings zu deutlich erhöhten Kosten und mit erhöhtem Gewicht und Energiebedarf, was für Anwendungen in Fahrzeugen oder Flugzeugen problematisch sein kann. Weiterhin kann der begrenzende Faktor für die Zuverlässigkeit eines Systems auch an einer anderen Stelle liegen als an einer punktuell fehlenden Redundanz.
  • Beispielsweise kann es ein Ergebnis der vorstehenden Analyse für unterschiedliche Werte der Basis-Wahrscheinlichkeiten sein, dass die Wahrscheinlichkeit für das unerwünschte Ereignis besonders kritisch von der Basis-Wahrscheinlichkeit für das Basisereignis abhängt, dass die Erfassung eines bestimmten Messwerts ungenau ist oder ganz fehlt. Es kann dann beispielsweise gezielt ein Sensor, der für die Erfassung dieser Messgröße zuständig ist, gegen einen höherwertigen Sensor mit besserer Zuverlässigkeit getauscht werden.
  • Es kann weiterhin bei der besagten Analyse erkannt werden, dass andere Basisereignisse vergleichsweise unkritisch sind in dem Sinne, dass die zugehörigen Basis-Wahrscheinlichkeiten nur einen vergleichsweise geringen Einfluss auf die Wahrscheinlichkeit für das unerwünschte Ereignis haben. Im Sinne einer Kostenoptimierung kann es daher sinnvoll sein, an einer derartigen Stelle an der Zuverlässigkeit zu sparen und das hier Ersparte an einer anderen Stelle zu reinvestieren, an der die Wahrscheinlichkeit für das unerwünschte Ereignis effektiver gedrückt werden kann.
  • Daher kann in einer weiteren vorteilhaften Ausgestaltung das Optimieren beinhalten, mindestens eine erste Basis-Wahrscheinlichkeit zu vermindern und im Gegenzug mindestens eine zweite Basis-Wahrscheinlichkeit zu erhöhen. Es kann also beispielsweise die Wahrscheinlichkeit für einen Ausfall eines Steuergeräts vermindert werden, indem für diejenigen Bauteile, auf deren Funktionieren das Steuergerät unbedingt angewiesen ist, die jeweils qualitativ höchstwertige und teuerste Ausführung gewählt wird und dafür Bauteile, deren Ausfall durch Redundanzen abgefangen werden kann, preisgünstiger auszuführen.
  • Wie zuvor erläutert, kann insbesondere beispielsweise ein Fahrzeug, ein Fahrzeugsystem, ein Flugzeug, ein Flugzeugsystem, eine Drohne, eine Industrieanlage oder eine Windkraftanlage als technisches System gewählt werden.
  • Das Verfahren kann insbesondere ganz oder teilweise computerimplementiert sein. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, das beschriebene Verfahren auszuführen. In diesem Sinne sind auch Steuergeräte für Fahrzeuge und Embedded-Systeme für technische Geräte, die ebenfalls in der Lage sind, maschinenlesbare Anweisungen auszuführen, als Computer anzusehen.
  • Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder auf ein Downloadprodukt mit dem Computerprogramm. Ein Downloadprodukt ist ein über ein Datennetzwerk übertragbares, d.h. von einem Benutzer des Datennetzwerks downloadbares, digitales Produkt, das beispielsweise in einem Online-Shop zum sofortigen Download feilgeboten werden kann.
  • Weiterhin kann ein Computer mit dem Computerprogramm, mit dem maschinenlesbaren Datenträger bzw. mit dem Downloadprodukt ausgerüstet sein.
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
  • Ausführungsbeispiele
  • Es zeigt:
    • 1 Ausführungsbeispiel des Verfahrens 100 zum Trainieren eines neuronalen Netzwerks 6;
    • 2 Veranschaulichung der Umwandlung von Vorwissen über den Fehlerbaum 5 in einen Startwert für Gewichte W des neuronalen Netzwerks 6.
  • 1 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 100 zum Trainieren eines neuronalen Netzwerks 6. Das neuronale Netzwerk 6 dient dazu, aus Zustandsgrößen eines technischen Systems 1 und/oder seiner Umgebung die Wahrscheinlichkeit 2a, mit der in dem technischen System mindestens ein unerwünschtes Ereignis 2 eintritt, vorherzusagen.
  • In Schritt 110 wird ein Fehlerbaum 5 bereitgestellt. Dieser Fehlerbaum 5 gibt das logische Zusammenwirken von Basisereignissen 3, die einzeln oder in Kombination eine Ursache dafür setzen können, dass das unerwünschte Ereignis 2 in dem technischen System 1 auftritt, an. Der Fehlerbaum 5 enthält auch Basis-Wahrscheinlichkeiten 3a, mit denen die Basisereignisse 3 jeweils eintreten.
  • Gemäß Block 111 kann mindestens eine Basis-Wahrscheinlichkeit 3a als Zugehörigkeitsfunktion mindestens einer Zustandsgröße des technischen Systems 1 und/oder seiner Umgebung, und/oder als Funktion mindestens einer anderen Basis-Wahrscheinlichkeit 3a, festgelegt sein. Es handelt sich dann bei dieser Basis-Wahrscheinlichkeit 3a um eine Fuzzy-Wahrscheinlichkeit.
  • Gemäß Block 112 können redundante Basisereignisse 3 gewählt werden.
  • In Schritt 120 wird aus einer Darstellung des Fehlerbaums 5 als Graph eine Laplace-Matrix L ermittelt.
  • In Schritt 130 werden aus der Laplace-Matrix L Startwerte für Gewichte W ermittelt, mit denen Eingaben, die einem Neuron und/oder einer sonstigen Verarbeitungseinheit des neuronalen Netzwerks 6 zugeführt werden, zu einer Aktivierung dieses Neurons, bzw. dieser Verarbeitungseinheit, aggregiert werden.
  • In Schritt 140 werden Trainings-Beispiele 7 für Zustandsvektoren x mit Zustandsgrößen des technischen Systems 1 bereitgestellt. Diese Trainings-Beispiele 7 sind mit Soll-Wahrscheinlichkeiten y* für das mindestens eine unerwünschte Ereignis 2 gelabelt.
  • In Schritt 150 werden die Trainings-Beispiele 7 werden mit dem neuronalen Netzwerk 6 auf Wahrscheinlichkeiten 2a, y für das mindestens eine unerwünschte Ereignis 2 abgebildet.
  • Gemäß Block 151 können bei der Verarbeitung von Zustandsvektoren x die höchste Aktivierung eines Neurons, bzw. einer Verarbeitungseinheit, beibehalten oder erhöht werden. Es können dann niedrigere Aktivierungen abgesenkt oder unterdrückt werden.
  • Gemäß Block 151a können auch die Aktivierungen von Neuronen bzw. anderen Verarbeitungseinheiten, die im neuronalen Netzwerk zu dem Neuron bzw. der Verarbeitungseinheit mit der höchsten Aktivierung benachbart liegen, beibehalten oder erhöht werden.
  • Gemäß Block 151b kann der Gewichtevektor wi des i-ten Neurons bzw. der i-ten Verarbeitungseinheit in der Richtung geändert werden, in der sich die Ausgabe yidieses Neurons, bzw. dieser Verarbeitungseinheit, beim Übergang vom Trainings-Beispiel 7 für den Zustandsvektor x als Eingabe zum Gewichtevektor wi als Eingabe ändert.
  • Gemäß Block 151c kann die Schrittweite, mit der der Gewichtevektor wi des i-ten Neurons bzw. der i-ten Verarbeitungseinheit geändert wird, mit zunehmender Häufigkeit fi, mit der dieses Neuron, bzw. diese Verarbeitungseinheit, die höchste Aktivierung hat, abnehmen.
  • Gemäß Block 151d kann für mindestens ein Neuron, bzw. mindestens eine Verarbeitungseinheit, eine maximale Häufigkeit fi,th vorgegeben werden, mit der der Gewichtevektor wi dieses Neurons, bzw. dieser Verarbeitungseinheit, geändert werden kann.
  • In Schritt 160 werden Abweichungen der vom neuronalen Netzwerk 6 gelieferten Wahrscheinlichkeiten y von den Soll-Wahrscheinlichkeiten y* mit einer vorgegebenen Kostenfunktion 8 bewertet. Es entsteht eine Bewertung 8a.
  • In Schritt 170 werden die Gewichte W optimiert mit dem Ziel, dass bei weiterer Verarbeitung von Trainings-Beispielen 7 die Bewertung 8a durch die Kostenfunktion 8 voraussichtlich verbessert wird. Der fertig trainierte Zustand der Gewichte W ist mit dem Bezugszeichen W* bezeichnet. Diese Gewichte W* legen das Verhalten des neuronalen Netzwerks 6 in seiner fertig trainierten Form 6* fest.
  • In Schritt 180 wird mindestens ein Zustandsvektor x mit gemessenen Zustandsgrößen des technischen Systems 1 dem trainierten neuronalen Netzwerk 6* zugeführt. Es wird dann von dem trainierten neuronalen Netzwerk 6* eine Wahrscheinlichkeit 2a für mindestens ein unerwünschtes Ereignis 2 ermittelt.
  • In dem in 1 gezeigten Beispiel wird in Schritt 190 die Vorhersage der Wahrscheinlichkeit 2a für das unerwünschte Ereignis 2 im laufenden Betrieb des technischen Systems fortwährend aktualisiert. In Schritt 200 kann dann geprüft werden, ob diese Wahrscheinlichkeit 2a einen vorgegebenen Schwellwert 9 überschreitet. Wenn dies der Fall ist (Wahrheitswert 1), kann beispielsweise
    • • gemäß Block 201 eine für den Benutzer des technischen Systems 1 wahrnehmbare optische, akustische oder haptische Warneinrichtung aktiviert werden; und/oder
    • • gemäß Block 202 das technische System 1 in einen Betriebsmodus versetzt werden, in dem die Wahrscheinlichkeit 2a für das unerwünschte Ereignis 2 vermindert wird, und/oder in dem nachteilige Folgen beim Eintritt des unerwünschten Ereignisses 2 abgeschwächt werden; und/oder
    • • gemäß Block 203 das technische System 1 ganz oder teilweise außer Betrieb genommen werden.
  • Das Aktualisieren der Vorhersage kann insbesondere beispielsweise gemäß Block 191 beinhalten, mit mindestens einem Sensor mindestens eine Zustandsgröße des technischen Systems 1 und/oder seiner Umgebung zu erfassen. Gemäß Block 192 kann dann auf der Basis dieser Zustandsgröße mindestens eine Basis-Wahrscheinlichkeit 3a für den Eintritt eines Basisereignisses 3 angepasst werden.
  • In Schritt 210 können iterativ Basis-Wahrscheinlichkeiten 3a optimiert werden. Die Vorhersage der Wahrscheinlichkeit 2a für das unerwünschte Ereignis 2 kann dann in Schritt 200 nach jedem Optimierungsschritt aktualisiert werden. Das Optimieren erfolgt mit dem Ziel, die Wahrscheinlichkeit für das unerwünschte Ereignis 2 auf oder unterhalb einen vorgegebenen Sollwert 10 zu drücken. Die Veränderung der Basis-Wahrscheinlichkeit 3a wirkt sich auf die Bildung der Laplace-Matrix in Schritt 120 aus.
  • 2 veranschaulicht, wie Vorwissen über den Fehlerbaum 5 in einen Startwert für Gewichte W des neuronalen Netzwerks 6 umgewandelt werden kann.
  • Der Fehlerbaum 5 enthält Basisereignisse 3. Diese sind über logische Gatter 4 miteinander und mit einem unerwünschten Ereignis 2 („top“) verknüpft. Kombinationen eintretender Basisereignisse 3 können das unerwünschte Ereignis 2 auslösen. Es gibt Basisereignisse 3, deren Eintrittswahrscheinlichkeit von keinem anderen Basisereignis 3 abhängt („e1“, „e2“, „e3“, „e4“). Es gibt aber auch Basisereignisse 3, die den Eintritt anderer Basisereignisse 3 zur Vorbedingung haben („g1“, „g2“, „g3“, „g4“).
  • Der Fehlerbaum 5 lässt sich als Graph darstellen, in dem die Basis-Ereignisse 3 sowie das unerwünschte Ereignis 2 die Knoten bilden. in eine Laplace-Matrix L überführen. Auf der Diagonalen dieser Laplace-Matrix L stehen die Grade des jeweiligen Knoten, also die Anzahl der Verbindungen des jeweiligen Knoten zu anderen Knoten. Die Nichtdiagonalelemente geben an, welche Knoten jeweils mit welchen anderen Knoten verbunden sind.
  • In dem in 2 gezeigten Beispiel gibt es im neuronalen Netzwerk 6 M Neuronen bzw. andere Verarbeitungseinheiten, die jeweils einen Zustandsvektor x mit K Elementen verarbeiten können. Hierzu kann der Zustandsvektor x jeweils elementweise mit dem Gewichtevektor wi eines jeden Neurons / einer jeden Verarbeitungseinheit i multipliziert werden, und die Komponenten können anschließend aufsummiert werden. Der Index n bezeichnet die Iteration des Trainings.
  • In dem in 2 gezeigten Beispiel kann je Neuron/Verarbeitungseinheit i die Distorsion di zwischen dem Zustandsvektor x und allen Gewichtevektoren wi ermittelt werden. Eine geringe Distorsion di ist gleichbedeutend mit einer hohen Aktivierung des Neurons/der Verarbeitungseinheit i und führt dazu, dass nur die Ausgabe yi dieses Neurons/dieser Verarbeitungseinheit i vollständig berechnet werden muss.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102018203374 A1 [0004]

Claims (21)

  1. Verfahren (100) zum Trainieren eines neuronalen Netzwerks (6) für die Vorhersage der Wahrscheinlichkeit (2a), mit der in einem technischen System (1) mindestens ein unerwünschtes Ereignis (2) eintritt, aus Zustandsgrößen des technischen Systems (1) und/oder seiner Umgebung, mit den Schritten: • es wird ein Fehlerbaum (5) bereitgestellt (110), der o das logische Zusammenwirken von Basisereignissen (3), die einzeln oder in Kombination eine Ursache dafür setzen können, dass das unerwünschte Ereignis (2) in dem technischen System (1) auftritt, sowie ◯ Basis-Wahrscheinlichkeiten (3a), mit denen die Basisereignisse (3) jeweils eintreten, angibt; • aus einer Darstellung des Fehlerbaums (5) als Graph wird eine Laplace-Matrix L ermittelt (120); • aus der Laplace-Matrix L werden Startwerte für Gewichte W ermittelt (130), mit denen Eingaben, die einem Neuron und/oder einer sonstigen Verarbeitungseinheit des neuronalen Netzwerks (6) zugeführt werden, zu einer Aktivierung dieses Neurons, bzw. dieser Verarbeitungseinheit, aggregiert werden; • es werden Trainings-Beispiele (7) für Zustandsvektoren x mit Zustandsgrößen des technischen Systems (1) bereitgestellt (140), die mit Soll-Wahrscheinlichkeiten y* für das mindestens eine unerwünschte Ereignis (2) gelabelt sind; • die Trainings-Beispiele (7) werden mit dem neuronalen Netzwerk (6) auf Wahrscheinlichkeiten 2a, y für das mindestens eine unerwünschte Ereignis (2) abgebildet (150); • Abweichungen dieser Wahrscheinlichkeiten y von den Soll-Wahrscheinlichkeiten y* werden mit einer vorgegebenen Kostenfunktion (8) bewertet (160); und • die Gewichte W werden optimiert (170) mit dem Ziel, dass bei weiterer Verarbeitung von Trainings-Beispielen (7) die Bewertung (8a) durch die Kostenfunktion (8) voraussichtlich verbessert wird.
  2. Verfahren (100) nach Anspruch 1, wobei bei der Verarbeitung von Zustandsvektoren x die höchste Aktivierung eines Neurons, bzw. einer Verarbeitungseinheit, beibehalten oder erhöht wird und niedrigere Aktivierungen abgesenkt oder unterdrückt werden (151).
  3. Verfahren (100) nach Anspruch 2, wobei auch die Aktivierungen von Neuronen bzw. anderen Verarbeitungseinheiten, die im neuronalen Netzwerk zu dem Neuron bzw. der Verarbeitungseinheit mit der höchsten Aktivierung benachbart liegen, beibehalten oder erhöht werden (151a).
  4. Verfahren (100) nach einem der Ansprüche 2 bis 3, wobei der Gewichtevektor wi des i-ten Neurons bzw. der i-ten Verarbeitungseinheit in der Richtung geändert wird (151b), in der sich die Ausgabe yi dieses Neurons, bzw. dieser Verarbeitungseinheit, beim Übergang vom Trainings-Beispiel (7) für den Zustandsvektor x als Eingabe zum Gewichtevektor wi als Eingabe ändert.
  5. Verfahren (100) nach einem der Ansprüche 2 bis 4, wobei die Schrittweite, mit der der Gewichtevektor wi des i-ten Neurons bzw. der i-ten Verarbeitungseinheit geändert wird, mit zunehmender Häufigkeit fi, mit der dieses Neuron, bzw. diese Verarbeitungseinheit, die höchste Aktivierung hat, abnimmt (151c).
  6. Verfahren (100) nach einem der Ansprüche 2 bis 5, wobei für mindestens ein Neuron, bzw. mindestens eine Verarbeitungseinheit, eine maximale Häufigkeit fi,th vorgegeben wird (151d), mit der der Gewichtevektor wi dieses Neurons, bzw. dieser Verarbeitungseinheit, geändert werden kann.
  7. Verfahren (100) nach einem der Ansprüche 1 bis 6, wobei mindestens eine Basis-Wahrscheinlichkeit (3a) als Zugehörigkeitsfunktion mindestens einer Zustandsgröße des technischen Systems (1) und/oder seiner Umgebung, und/oder als Funktion mindestens einer anderen Basis-Wahrscheinlichkeit (3a), festgelegt ist (111).
  8. Verfahren (100) nach einem der Ansprüche 1 bis 7, wobei redundante Basisereignisse (3) gewählt werden (112).
  9. Verfahren (100) nach Anspruch 8, wobei die Redundanz von Basisereignissen (3) in dem technischen System (1) dadurch implementiert ist, dass für die Bereitstellung einer bestimmten Funktionalität mehrere Bauelemente oder Baugruppen zum Einsatz kommen, die sich gegenseitig ergänzen oder auch ersetzen können.
  10. Verfahren (100) nach Anspruch 9, wobei die Redundanz in dem technischen System (1) realisiert ist als • Hot-Redundanz dahingehend, dass die mehreren Bauelemente oder Baugruppen, die ein und dieselbe Funktionalität bereitstellen, stets gleichzeitig aktiv sind, und/oder als • Cold-Redundanz dahingehend, dass erst nach Bedarf bei Ausfall oder Fehlfunktion eines aktiven Bauelements, bzw. einer aktiven Baugruppe, ein weiteres Bauelement, bzw. eine weitere Baugruppe, aktiv wird.
  11. Verfahren (100) nach einem der Ansprüche 8 bis 10, wobei die Redundanz von Basisereignissen (3) in dem technischen System (1) dadurch implementiert ist, dass ein und dasselbe Bauelement oder ein und dieselbe Baugruppe auf mehreren Stufen einer Kausalkette, die zu einem unerwünschten Ereignis (2) führt, relevant ist.
  12. Verfahren nach einem der Ansprüche 1 bis 11, wobei mindestens ein Zustandsvektor x mit gemessenen Zustandsgrößen des technischen Systems (1) dem trainierten neuronalen Netzwerk (6*) zugeführt wird (180), so dass eine Wahrscheinlichkeit (2a) für mindestens ein unerwünschtes Ereignis (2) ermittelt wird.
  13. Verfahren (100) nach Anspruch 12, wobei die Vorhersage der Wahrscheinlichkeit (2a) für das unerwünschte Ereignis (2) im laufenden Online-Betrieb des technischen Systems fortwährend aktualisiert wird (190) und wobei in Antwort darauf, dass diese Wahrscheinlichkeit (2a) einen vorgegebenen Schwellwert (9) überschreitet (200), • eine für den Benutzer des technischen Systems (1) wahrnehmbare optische, akustische oder haptische Warneinrichtung aktiviert wird (201); und/oder • das technische System (1) in einen Betriebsmodus versetzt wird (202), in dem die Wahrscheinlichkeit (2a) für das unerwünschte Ereignis (2) vermindert wird, und/oder in dem nachteilige Folgen beim Eintritt des unerwünschten Ereignisses (2) abgeschwächt werden; und/oder • das technische System (1) ganz oder teilweise außer Betrieb genommen wird (203).
  14. Verfahren (100) nach Anspruch 13, wobei das Aktualisieren (190) beinhaltet, mit mindestens einem Sensor mindestens eine Zustandsgröße des technischen Systems (1) und/oder seiner Umgebung zu erfassen (191) und auf der Basis dieser Zustandsgröße mindestens eine Basis-Wahrscheinlichkeit (3a) für den Eintritt eines Basisereignisses (3) anzupassen (192).
  15. Verfahren (100) nach einem der Ansprüche 1 bis 14, wobei iterativ Basis-Wahrscheinlichkeiten (3a) verändert werden (210) und die Vorhersage der Wahrscheinlichkeit (2a) für das unerwünschte Ereignis (2) nach jedem Änderungsschritt aktualisiert wird (220), wobei mit den Änderungen das Ziel verfolgt wird, die Wahrscheinlichkeit (2a) für das unerwünschte Ereignis (2) auf oder unter einen vorgegebenen Sollwert (10) zu drücken.
  16. Verfahren (100) nach Anspruch 15, wobei das Verändern (210) beinhaltet, mindestens eine erste Basis-Wahrscheinlichkeit zu vermindern und im Gegenzug mindestens eine zweite Basis-Wahrscheinlichkeit zu erhöhen.
  17. Verfahren (100) nach einem der Ansprüche 1 bis 16, wobei das Verfahren (100) in Echtzeit auf einem Embedded-System, das in dem technischen System (1) enthalten ist oder von ihm mitgeführt wird, ausgeführt wird.
  18. Verfahren (100) nach einem der Ansprüche 1 bis 17, wobei ein Fahrzeug, ein Fahrzeugsystem, ein Flugzeug, ein Flugzeugsystem, eine Drohne, eine Industrieanlage oder eine Windkraftanlage als technisches System (1) gewählt wird.
  19. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, das Verfahren (100) nach einem der Ansprüche 1 bis 18 auszuführen.
  20. Maschinenlesbarer Datenträger und/oder Downloadprodukt mit dem Computerprogramm nach Anspruch 19.
  21. Ein oder mehrere Computer mit dem Computerprogramm nach Anspruch 18, und/oder mit dem maschinenlesbaren Datenträger und/oder Downloadprodukt nach Anspruch 20.
DE102022208166.8A 2022-08-05 2022-08-05 Training neuronaler Netzwerke für die Fehlerbaumanalyse mit verbesserter Konvergenz Pending DE102022208166A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022208166.8A DE102022208166A1 (de) 2022-08-05 2022-08-05 Training neuronaler Netzwerke für die Fehlerbaumanalyse mit verbesserter Konvergenz

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022208166.8A DE102022208166A1 (de) 2022-08-05 2022-08-05 Training neuronaler Netzwerke für die Fehlerbaumanalyse mit verbesserter Konvergenz

Publications (1)

Publication Number Publication Date
DE102022208166A1 true DE102022208166A1 (de) 2024-02-08

Family

ID=89575339

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022208166.8A Pending DE102022208166A1 (de) 2022-08-05 2022-08-05 Training neuronaler Netzwerke für die Fehlerbaumanalyse mit verbesserter Konvergenz

Country Status (1)

Country Link
DE (1) DE102022208166A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018203374A1 (de) 2018-03-07 2019-09-12 Robert Bosch Gmbh Fehlerbaumanalyse für technische Systeme

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018203374A1 (de) 2018-03-07 2019-09-12 Robert Bosch Gmbh Fehlerbaumanalyse für technische Systeme

Similar Documents

Publication Publication Date Title
DE102012102770B9 (de) System und Verfahren zur Fehlereingrenzung und Fehlerabschwächung basierend auf einer Netzwerkmodellierung
DE112018002176B4 (de) Anormalitätsbestimmungsvorrichtung, Anormalitätsbestimmungsverfahren und Anormalitätsbestimmungsprogramm
DE102018203374A1 (de) Fehlerbaumanalyse für technische Systeme
DE102017107284A1 (de) Verfahren und steuergerät zum überwachen eines bordnetzes eines fahrzeugs
EP1751637A1 (de) Wissensbasiertes diagnosesystem für ein komplexes technisches system mit zwei getrennten wissensbasen zur verarbeitung technischer systemdaten und zur verarbeitung von kundenbeanstandungen
Al‐Garni et al. Artificial neural network application of modeling failure rate for Boeing 737 tires
WO2021058223A1 (de) Verfahren zur effizienten, simulativen applikation automatisierter fahrfunktionen
DE102019134053A1 (de) Verfahren zur kontinuierlichen Absicherung im Fahrversuch applizierter automatisierter Fahrfunktionen
EP2778412B1 (de) Entwicklung eines übergeordneten modells zum steuern und/oder überwachen einer kompressoranlage
EP3291094A1 (de) Prozessorsystem und verfahren zur überwachung von prozessoren
DE102022208166A1 (de) Training neuronaler Netzwerke für die Fehlerbaumanalyse mit verbesserter Konvergenz
DE102021201977A1 (de) Fehlerbaumanalyse mit maschinellem Lernen
EP2971769B1 (de) R&i- schema eingabe
DE102019213061A1 (de) Klassifizierung von KI-Modulen
DE102019201491A1 (de) Messdatenauswertung für fahrdynamische Systeme mit Absicherung der beabsichtigten Funktion
DE102022203907A1 (de) Fehlerbaumanalyse mit Abschätzung über die kritische Wahrscheinlichkeit
DE102022207998A1 (de) Fuzzy-Fehlerbaumanalyse mit einem rekurrenten neuronalen Netzwerk
EP1717651B1 (de) Verfahren und Vorrichtung zum Auswerten von Ereignissen aus dem Betrieb eines Fahrzeuges
EP1997007B1 (de) Verfahren und managementsystem zum konfigurieren eines informationssystems
EP1205830A1 (de) Verfahren, Computerprogrammprodukt und Rechnersystem zur Instandhaltung
DE202021104953U1 (de) Überwachungsvorrichtung für den laufenden Betrieb von Geräten und Anlagen
DE102022203798A1 (de) Fuzzy-Fehlerbaumanalyse für Embedded-Systeme mit vermindertem Rechenaufwand
EP2569763B1 (de) Verfahren zur rechnergestützten überwachung der funktionsleistung eines technischen systems
DE102020209228A1 (de) Verfahren zum Überwachen wenigstens einer Recheneinheit
EP4016202B1 (de) Verfahren zum nachbilden von rauschanteilen von verlustbehaftet aufgezeichneten betriebssignalen sowie steuereinrichtung