DE102022207998A1 - Fuzzy-Fehlerbaumanalyse mit einem rekurrenten neuronalen Netzwerk - Google Patents

Fuzzy-Fehlerbaumanalyse mit einem rekurrenten neuronalen Netzwerk Download PDF

Info

Publication number
DE102022207998A1
DE102022207998A1 DE102022207998.1A DE102022207998A DE102022207998A1 DE 102022207998 A1 DE102022207998 A1 DE 102022207998A1 DE 102022207998 A DE102022207998 A DE 102022207998A DE 102022207998 A1 DE102022207998 A1 DE 102022207998A1
Authority
DE
Germany
Prior art keywords
probability
base
event
neural network
technical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022207998.1A
Other languages
English (en)
Inventor
Gyorgy Csaba
Peter Bakucz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022207998.1A priority Critical patent/DE102022207998A1/de
Publication of DE102022207998A1 publication Critical patent/DE102022207998A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0243Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults model based detection method, e.g. first-principles knowledge model
    • G05B23/0245Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults model based detection method, e.g. first-principles knowledge model based on a qualitative model, e.g. rule based; if-then decisions
    • G05B23/0248Causal models, e.g. fault tree; digraphs; qualitative physics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Verfahren zur Vorhersage der Wahrscheinlichkeit (2a), mit der in einem technischen System (1) mindestens ein unerwünschtes Ereignis (2) eintritt, mit den Schritten:• es wird ein Fehlerbaum (5) bereitgestellt (110), der◯ das Zusammenwirken von N Basisereignissen (3), die einzeln oder in Kombination eine Ursache dafür setzen können, dass das unerwünschte Ereignis (2) in dem technischen System (1) auftritt, über logische Gatter (4) sowie◯ Basis-Wahrscheinlichkeiten (3a), mit denen die Basisereignisse (3) jeweils eintreten, angibt, wobei mindestens eine Basis-Wahrscheinlichkeit (3a) als Zugehörigkeitsfunktion eines Zustandsvektors stdes technischen Systems (1) und/oder seiner Umgebung festgelegt ist;• der Fehlerbaum (5) wird als lineare Kette (6) von Basisereignissen (3), die jeweils an ein logisches Gatter (4) angeschlossen sind, modelliert (120), wobei ein Zustandsvektor st, von dem die Basis-Wahrscheinlichkeit (3a) eines jeden Basis-Ereignisses (3) abhängt, auch vom Zustandsvektor st-1abhängt, der die Basis-Wahrscheinlichkeit (3a) des jeweils vorherigen Basisereignisses (3) bestimmt;• es wird ein rekurrentes neuronales Netzwerk (7) mit Gewichten W anhand von Messdaten für die N Zustandsvektoren s1, ... , sndarauf trainiert (130), die Abhängigkeit eines jeden Zustandsvektors stvom jeweils vorherigen Zustandsvektor st-1zu modellieren, wobei das rekurrente neuronale Netzwerk (7) für jedes t mit den gleichen Gewichten W aufs Neue durchlaufen wird;• nach Abschluss des Trainings werden die Gewichte W zu der gesuchten Wahrscheinlichkeit (2a) aggregiert (140).

Description

  • Die vorliegende Erfindung betrifft die Fehlerbaumanalyse zur Vorhersage der Wahrscheinlichkeit, mit der in einem technischen System mindestens ein unerwünschtes Ereignis eintritt, welches durch ein oder mehrere Basisereignisse verursacht werden kann.
  • Stand der Technik
  • Bei technischen Systemen, deren Fehlfunktion zu schwerwiegenden Sach- oder Personenschäden führen kann, ist es häufig notwendig, die Zuverlässigkeit vor der Aufnahme des Betriebes quantitativ zu beurteilen.
  • Ein standardisiertes Verfahren zur Beurteilung der Gesamt-Zuverlässigkeit eines nicht redundanten Systems, das aus einer Vielzahl von Funktionseinheiten zusammengesetzt ist, ist die Fehlerbaumanalyse (Fault Tree Analysis, FTA). Für die Zwecke dieser Analyse wird das technische System als baumartige logische Verknüpfung von verursachenden Ereignissen modelliert, die in einem unerwünschten Ereignis („Systemversagen“) kulminieren können. „Baumartig“ bedeutet, dass beispielsweise das Systemversagen eintritt, wenn eine bestimmte logische Verknüpfung von Ereignissen wahr ist, wobei diese Ereignisse wiederum logische Verknüpfungen untergeordneter Ereignisse sein können. Die verursachenden Ereignisse umfassen Fehlfunktionen einzelner Funktionseinheiten.
  • Aus der DE 10 2018 203 374 A1 ist ein Verfahren zur Fehlerbaumanalyse für technische Systeme bekannt, bei dem ein fraktaler Graph als Fehlerbaum aufgestellt wird.
  • Offenbarung der Erfindung
  • Die Erfindung stellt ein Verfahren zur Vorhersage der Wahrscheinlichkeit bereit, mit der in einem technischen System mindestens ein unerwünschtes Ereignis eintritt.
  • Im Rahmen dieses Verfahrens wird ein Fehlerbaum bereitgestellt. Dieser Fehlerbaum gibt an, inwieweit Basisereignisse über logische Gatter dahingehend zusammenwirken, dass sie einzeln oder in Kombination eine Ursache für das Auftreten des unerwünschten Ereignisses in dem technischen System setzen können. Der Fehlerbaum gibt weiterhin Basis-Wahrscheinlichkeiten an, mit denen die Basisereignisse jeweils eintreten. Mindestens eine dieser Basis-Wahrscheinlichkeiten ist als Zugehörigkeitsfunktion eines Zustandsvektors st des technischen Systems und/oder seiner Umgebung festgelegt. Es handelt sich also um eine Fuzzy-Wahrscheinlichkeit.
  • Der Fehlerbaum wird als lineare Kette von Basisereignissen, die jeweils ein- oder ausgangsseitig an ein logisches Gatter angeschlossen sind, modelliert. Das heißt, das Basisereignis kann eine Eingabe für das logische Gatter liefern, aber auch mit der Ausgabe des logischen Gatters zusammenwirken. Ein Fehlerbaum, der von unten nach oben in Richtung auf das unerwünschte Ereignis durchlaufen wird, kann also auch logische Gatter, die unterhalb von Basisereignissen liegen, und Basisereignisse, die unmittelbar unter dem unerwünschten Ereignis liegen, enthalten. Mehrere Basisereignisse, die für sich genommen unmittelbar zum Eintritt des unerwünschten Ereignisses führen können („single point of failure“), müssen also nicht mit einem logischen Gatter zusammengefasst werden. Bei einer Drohne als technisches System können beispielsweise die Basisereignisse „Versagen der Batterie“ und „Bruch des Hauptkabels zur Batterie“ gleichberechtigt unmittelbar unter dem unerwünschten Ereignis „Absturz“ stehen. Hierdurch wird aus dem Fehlerbaum unmittelbar klar, dass die Batterie und das Hauptkabel absolut kritische Komponenten sind. Da eine redundante Auslegung dieser Komponenten aus Gewichtsgründen nicht möglich ist, kann hier die Zuverlässigkeit nur erhöht werden, indem qualitativ hochwertiges Material verwendet und mit besonderer Sorgfalt verarbeitet wird. Es ist daher wichtig, auch unmittelbar unter dem unerwünschten Ereignis liegende Basisereignisse abbilden zu können. Dies leistet die hier beschriebene Modellierung mit einer wiederkehrenden Topologie.
  • Ein Zustandsvektor st, von dem die Basis-Wahrscheinlichkeit eines jeden Basis-Ereignisses abhängt, hängt auch vom Zustandsvektor st-1 ab, der wiederum die Basis-Wahrscheinlichkeit des jeweils vorherigen Basisereignisses bestimmt: s t = f ( s t 1 u t ) ,
    Figure DE102022207998A1_0001
    worin f eine vorgegebene Übergangsfunktion ist und ut solche Zustandsvariablen enthält, die nicht von den Zustandsvariablen vorheriger Basisereignisse abhängen. Über eine weitere Übergangsfunktion g hängt dann die Ausgabe yt des logischen Gatters, am der das Basisereignis angeschlossen ist, vom Zustandsvektor st ab: y t = g ( s t ) .
    Figure DE102022207998A1_0002
  • Hierbei kann beispielsweise ein jeder Zustandsvektor st diejenigen Zustandsvariablen des technischen Systems und/oder seiner Umgebung enthalten, von denen die Basis-Wahrscheinlichkeit des t-ten Basisereignisses abhängt. Dementsprechend kann dann der Vektor yt die Ausgabe desjenigen logischen Gatters beinhalten, an der das t-te Basisereignis angeschlossen ist.
  • Die Übergangsfunktionen f und g können insbesondere beispielsweise für alle Übergänge zwischen Basisereignissen gleich sein.
  • In einer besonders vorteilhaften Ausgestaltung sind jedoch die Zustandsvariablen, von denen die Basis-Wahrscheinlichkeiten aller Basisereignisse abhängen, in jedem Zustandsvektor st zusammengefasst, bzw. die Ausgaben aller logischen Gatter sind in jedem Ausgaben-Vektor vt zusammengefasst. Dann haben alle Zustandsvektoren st, bzw. alle Ausgaben-Vektoren vt, gleiche Größen und werden nach und nach mit Einträgen in Bezug auf die einzelnen Basisereignisse befüllt.
  • Es wird nun ein rekurrentes neuronales Netzwerk mit Gewichten W anhand von Messdaten für die N Zustandsvektoren s1, ... , sn darauf trainiert, die Abhängigkeit eines jeden Zustandsvektors st vom jeweils vorherigen Zustandsvektor st-1 zu modellieren. Hierbei wird das rekurrente neuronale Netzwerk für jedes t mit den gleichen Gewichten W aufs Neue durchlaufen. Nach Abschluss dieses Trainings werden die Gewichte W zu der gesuchten Wahrscheinlichkeit aggregiert. Hierzu kann insbesondere beispielswiese eine Summe, ein Mittelwert und/oder ein Median der Gewichte W ermittelt werden. Die Gewichte W charakterisieren das Verhalten des neuronalen Netzwerks. Beispielsweise können Eingaben, die einem Neuron oder einer anderen Verarbeitungseinheit des neuronalen Netzwerks zugeführt werden, mit den Gewichten W gewichtet aufsummiert werden.
  • Indem bei jedem Durchlauf des rekurrenten neuronalen Netzwerks die gleichen Gewichte W verwendet werden, zielt das Training dieses Netzwerks darauf ab, möglichst allgemeingültiges Wissen für alle Übergänge zwischen entlang der linearen Kette aufeinander folgenden Basisereignissen zu lernen. Gelernt wird also letztendlich ein Operator, der die Fortentwicklung des technischen Systems von einem Basisereignis zum nächsten beschreibt.
  • Hierbei kann insbesondere beispielsweise die Reihe der Zustandsvektoren st, bzw. der Ausgaben-Vektoren vt, für t = 1, s1, ... , N entsprechend der zeitlichen Entwicklung des technischen Systems geordnet sein. Der Operator, der durch die Gewichte W charakterisiert ist, beschreibt dann die zeitliche Fortentwicklung des technischen Systems.
  • Dies ist ein wichtiger Unterschied gegenüber anderen Anwendungen neuronaler Netzwerke. In üblichen Anwendungen werden die neuronalen Netzwerke darauf trainiert, Eingaben aus einer bestimmten Domäne zu verarbeiten und jeweils auf Ausgaben abzubilden, die im Kontext der jeweiligen Anwendung zutreffend sind. Im Rahmen des hier vorgeschlagenen Verfahrens lernt das neuronale Netzwerk die Fortentwicklung des technischen Systems aus sich selbst heraus ohne Eingaben von außen. Als Eingaben dienen lediglich die Zustandsvariablen des technischen Systems bzw. seiner Umgebung. Das neuronale Netzwerk ist insofern also ein geschlossenes System, das die Dynamik des technischen Systems modelliert.
  • Der Trainingsprozess des neuronalen Netzwerks kann als eine Näherung der „minimum cut set“-Methode aufgefasst werden. Mit dieser Methode werden in der bekannten Fehlerbaumanalyse die minimalen Konstellationen von Basisereignissen bestimmt, die zusammenkommen müssen, um das unerwünschte Ereignis auszulösen. Diese minimalen Konstellationen und die Basis-Wahrscheinlichkeiten der darin enthaltenen Basisereignisse bestimmen die Wahrscheinlichkeit für das Eintreten des unerwünschten Ereignisses, und damit die Zuverlässigkeit des technischen Systems. Diese gesuchte Wahrscheinlichkeit wird im Rahmen des hier vorgeschlagenen Verfahrens aus den gelernten Gewichten W erhalten. Der wichtige Unterschied zur „minimum cut set"-Methode liegt in der Komplexität. Das hier vorgeschlagene Verfahren ermittelt die gesuchte Wahrscheinlichkeit mit Komplexität N · log N, während die „minimum cut set“-Methode die Komplexität N6 hat.
  • In einer besonders vorteilhaften Ausgestaltung erhält das rekurrente neuronale Netzwerk neben dem jeweils vorherigen Zustandsvektor st-1 auch die Ausgabe yt-1 des logischen Gatters, an der das vorherige Basisereignis angeschlossen ist, als Eingabe. Auf diese Weise wird die Flexibilität dahingehend, welche Arten von logischen Gattern modelliert werden können, deutlich vergrößert. Waren bislang vor allem AND- und OR-Gatter gebräuchlich, gibt es nun auch Kundenanforderungen nach Fehlerbaumanalysen, die noch viele weitere Typen logischer Gatter enthalten. Weiterhin können in Fehlerbäumen für heutige technische Systeme die Eigenschaften der Logikgatter auch im Laufe der Zeit variieren. Ein Gatter kann beispielsweise zu einem bestimmten Zeitpunkt von einem OR-Gatter zu einem AND-Gatter werden oder auch mehrmals zwischen diesen beiden Gatterarten hin- und herwechseln. Hierin spiegelt sich wider, dass die Auswirkungen von Basisereignissen vom aktuellen Betriebszustand des technischen Systems abhängen. So sind beispielsweise zweistrahlige Verkehrsflugzeuge so konstruiert, dass sie nominell erst nach einem Ausfall beider Triebwerke (AND) nicht mehr flugfähig sind. Wenn jedoch beispielsweise die Fluggeschwindigkeit schon am unteren Limit ist, kann bereits der Ausfall eines Triebwerks (OR) reichen, um einen Strömungsabriss und damit einen Verlust des Auftriebs herbeizuführen. In herkömmlichen Verfahren für die Fehlerbaumanalyse war es nicht möglich, die Eigenschaften der logischen Gatter im laufenden Betrieb zu ändern, ohne das Verfahren in eine Endlosschleife zu schicken.
  • Hierbei kann die Ausgabe yt-1 des logischen Gatters dem rekurrenten neuronalen Netzwerk insbesondere beispielsweise als Summe mit dem Zustandsvektor st-1 zugeführt werden. In dem Fall, in dem diese Ausgabe yt-1 numerisch in einer wesentlich kleineren Größenordnung liegen als die von Null verschiedenen Einträge des vorherigen Zustandsvektors st-1, konvergiert das Training des rekurrenten neuronalen Netzwerks dann wesentlich besser und schneller.
  • In einer weiteren besonders vorteilhaften Ausgestaltung wird das rekurrente neuronale Netzwerk mit diskreter Arithmetik ausgeführt. Das Training kann dann mit erheblich geringerem Einsatz an Hardwareressourcen und Energie durchgeführt werden. Das hier vorgeschlagene Verfahren unterscheidet sich von üblichen Anwendungen neuronaler Netzwerke unter anderem dadurch, dass das Training des neuronalen Netzwerks nicht vorab vor der eigentlichen Anwendung vorgenommen wird, so dass der eigentliche Endanwender nur noch ein fix und fertig trainiertes neuronales Netzwerk ausführen muss. Stattdessen umfasst hier die Anwendung des Verfahrens, also das Ermitteln der Wahrscheinlichkeit für das unerwünschte Ereignis, das Training des neuronalen Netzwerks. Da dieses Training im Allgemeinen deutlich aufwändiger ist als das Durchlaufen eines fertig trainierten Netzwerks, also die Inferenz, fällt die Ressourceneinsparung durch die Nutzung einer diskreten Arithmetik besonders ins Gewicht.
  • Dementsprechend wird es praktikabel, das Verfahren in Echtzeit auf einem Embedded-System, das in dem technischen System enthalten ist oder von ihm mitgeführt wird, auszuführen. Auf diese Weise kann die Gesamt-Wahrscheinlichkeit für das unerwünschte Ereignis ständig online kontrolliert werden. Embedded-Systeme haben nicht nur meistens vergleichsweise wenig Rechenleistung, sondern vor allem auch vergleichsweise wenig Speicher.
  • In einer weiteren vorteilhaften Ausgestaltung wird dem rekurrenten neuronalen Netzwerk zusätzlich Rauschen als Eingabe zugeführt. Auf diese Weise können insbesondere beispielsweise Randeffekte unterdrückt werden, die dadurch entstehen, dass das rekurrente neuronale Netzwerk nur eine endlich weit in die Vergangenheit zurückreichende Historie von Zuständen des technischen Systems berücksichtigen kann. Weiterhin kann das Rauschen das Training des neuronalen Netzwerks robuster gegen Unsicherheiten der Zustandsvektoren st machen.
  • Die Stärke dieses Rauschens wird vorteilhaft von Durchlauf zu Durchlauf des rekurrenten neuronalen Netzwerks, und/oder mit steigender Epochenzahl des Trainings, vermindert. Mit einem Vermindern des Rauschens von Durchlauf zu Durchlauf kann insbesondere berücksichtigt werden, dass bei späteren Durchläufen die besagten Randeffekte eine geringere Rolle spielen. Mit einem Vermindern des Rauschens mit steigender Epochenzahl kann insbesondere berücksichtigt werden, dass die Unsicherheit des neuronalen Netzwerks mit steigender Epochenzahl abnimmt und dementsprechend weniger Maßnahmen zur Anpassung des Trainings an diese Unsicherheit erforderlich sind. Das Rauschen kann insbesondere beispielsweise in Abhängigkeit eines durch das rekurrente neuronale Netzwerk zurückpropagierten, mit einer Kostenfunktion gemessenen Fehlers vermindert werden. Das heißt, je geringer der Fehler und je besser somit das Training bereits fortgeschritten ist, desto kleiner kann die Stärke (etwa die Standardabweichung) des Rauschens gewählt werden.
  • In einer weiteren vorteilhaften Ausgestaltung wird dem rekurrenten neuronalen Netzwerk eine Eingabe zugeführt, die von eine Soll-Ausgabe mindestens eines vorherigen Durchlaufs abhängt. Diese Soll-Ausgabe kann insbesondere beispielsweise ganz oder teilweise an die Stelle einer tatsächlichen Ausgabe des neuronalen Netzwerks im jeweiligen Durchlauf treten. Mit diesem „Teacher Forcing“ können die Auswirkungen noch nicht perfekter Durchläufe auf das Training folgender Durchläufe minimiert werden.
  • Sei beispielsweise t der Zeitpunkt, bis zu dem Messwerte für Zustandsvektoren st bekannt sind. Für Zeitpunkte τ ≤ t kann dann vorgegeben werden: s t + 1 = f ( W ( s τ [ I d ; 0 ] ( y τ y τ d ) ) ) .
    Figure DE102022207998A1_0003
  • Hierin ist [Id; 0] ein Zeilenvektor, dessen Anzahl Elemente der Anzahl NS der Netzwerkzustände (= Anzahl der versteckten Neuronen im neuronalen Netzwerk) ist. Die ersten NO Elemente dieses Zeilenvektors sind mit 1 belegt und die übrigen NS - NO Elemente mit Null, wobei NO die Anzahl der vom neuronalen Netzwerk ausgangsseitig ausgegebenen Werte ist. W ist die zuvor diskutierte Gewichtsmatrix, und yτ ist die Ausgabe des neuronalen Netzwerks im Zeitpunkt τ. τ . y τ d
    Figure DE102022207998A1_0004
    ist die Soll-Ausgabe des neuronalen Netzwerks im Durchlauf τ. f ist die zuvor beschriebene Übergangsfunktion. Für Zeitpunkte τ > t kann hingegen vorgegeben werden: s τ + 1 = f ( W s τ ) .
    Figure DE102022207998A1_0005
  • Weiterhin gilt für alle Zeitpunkte τ y τ = [ I d ; 0 ] s τ .
    Figure DE102022207998A1_0006
  • Das „Teacher Forcing“ wirkt insbesondere der Tendenz entgegen, dass sich Fehler einer in N Durchläufen des rekurrenten neuronalen Netzwerks berechneten Ausgabe immer weiter aufschaukeln.
  • In einer weiteren vorteilhaften Ausgestaltung wird aus einzelnen Gewichten W, die sich vom Durchschnitt der Gewichte W nach Maßgabe eines vorgegebenen Kriteriums abheben, mindestens ein Basisereignis ausgewertet, das für die gesuchte Wahrscheinlichkeit für das Eintreten des unerwünschten Ereignisses maßgeblich ist. Dies erleichtert es, Verbesserungen an dem technischen System, die die Wahrscheinlichkeit für das unerwünschte Ereignis vermindern, zielgerichtet vorzunehmen. Damit kann ein vorgegebenes Niveau an Zuverlässigkeit zu geringeren Kosten erreicht werden. Wenn sich beispielsweise herausstellt, dass ein Fehler eines bestimmten Sensors eine im unerwünschten Ereignis kulminierende Kettenreaktion auslösen kann, kann dieser Sensor beispielsweise redundant ausgeführt, durch ein höherwertiges Modell ersetzt oder durch einen weiteren Sensor ergänzt werden.
  • Da die Gesamt-Wahrscheinlichkeit für das Auftreten des unerwünschten Ereignisses nun auch in Echtzeit auf Embedded-Systemen berechnet werden kann, kann das technische System mit der (Fuzzy-)Fehlerbaumanalyse online überwacht werden.
  • Daher wird in einer weiteren besonders vorteilhaften Ausgestaltung die Vorhersage der Wahrscheinlichkeit für das unerwünschte Ereignis im laufenden Online-Betrieb des technischen Systems fortwährend aktualisiert. In Antwort darauf, dass diese Wahrscheinlichkeit einen vorgegebenen Schwellwert überschreitet, können verschiedene Gegenmaßnahmen ergriffen werden.
  • Beispielsweise kann eine für den Benutzer des technischen Systems wahrnehmbare optische, akustische oder haptische Warneinrichtung aktiviert werden. So kann etwa ein Fahrer eines zumindest teilweise automatisierten Fahrzeugs dazu aufgefordert werden, die manuelle Kontrolle über das Fahrzeug zu übernehmen oder das automatisierte Steuerungssystem in sonstiger Weise zu unterstützen. Aber auch der Fahrer eines manuell gesteuerten Fahrzeugs kann beispielsweise davon profitieren, dass er etwa vor einer erhöhten Wahrscheinlichkeit des unerwünschten Ereignisses „Ausbrechen des Fahrzeugs aus seiner vorgesehenen Fahrspur“ gewarnt wird.
  • Gerade derartige Prozesse lassen sich gut mit Hilfe von Zugehörigkeitsfunktionen abbilden, die Fuzzy-Wahrscheinlichkeiten in Abhängigkeit von bestimmten äußeren Bedingungen modellieren. So entscheiden beispielsweise die Art des Straßenbelags, die Temperatur und die Belegung der Fahrbahn mit Niederschlag über die Basiswahrscheinlichkeit dafür, dass die Haftreibung am Reifen-Fahrbahn-Kontakt in die Gleitreibung übergeht. Inwieweit ein solches Ereignis dann noch durch das Eingreifen eines elektronischen Stabilitätsprogramms (ESP) oder anderer Sicherheitssysteme abgefangen kann, hängt wiederum beispielsweise von der Beladungsverteilung des Fahrzeugs ab, die den Schwerpunkt des Fahrzeugs bestimmt. Im Ergebnis kann die Wahrscheinlichkeit für das Ereignis „Ausbrechen des Fahrzeugs“ bei einer schnellen Autobahnfahrt unter optimalen Bedingungen deutlich geringer prognostiziert werden als bei einer Fahrt mit Stadttempo bei Blitzeis.
  • Wenn die Wahrscheinlichkeit für das unerwünschte Ereignis einen vorgegebenen Schwellwert überschreitet, kann auch beispielsweise das technische System in einen Betriebsmodus versetzt werden, in dem die Wahrscheinlichkeit für das unerwünschte Ereignis vermindert wird, und/oder in dem nachteilige Folgen beim Eintritt des unerwünschten Ereignisses abgeschwächt werden. So können beispielsweise Steuersysteme für Fahrzeuge oder Flugzeuge in kritischen Situationen Steueraktionen so beschränken, dass hektische Manöver eines Fahrzeugs oder Flugzeugs, die zu einem endgültigen Kontrollverlust führen können, unterbunden werden.
  • Schließlich kann auch in Antwort darauf, dass die Wahrscheinlichkeit für das unerwünschte Ereignis einen vorgegebenen Schwellwert überschreitet, beispielsweise das technische System ganz oder teilweise außer Betrieb genommen werden. Wenn etwa eine Drohne feststellt, dass plötzlich ein erhöhtes Risiko für das unerwünschte Ereignis „Kollision mit fremdem Eigentum“ besteht, kann sie automatisch zu ihrem Startort zurückkehren und dort landen oder sich im Extremfall sogar „opfern“, indem sie auf einer Freifläche oder ins Wasser abstürzt. Auch in diesem Beispiel hängen Basiswahrscheinlichkeiten von äußeren Bedingungen ab, was gut über die besagten Zugehörigkeitsfunktionen modelliert werden kann. So entscheidet etwa die Windstärke darüber, ob die Drohne ihre Position aus eigener Kraft noch kontrollieren kann, und die aktuelle Position entscheidet darüber, welches potentiell gefährdete fremde Eigentum in der Nähe ist.
  • Somit kann das Aktualisieren der Vorhersage insbesondere beispielsweise beinhalten, mit mindestens einem Sensor mindestens eine Zustandsgröße des technischen Systems und/oder seiner Umgebung zu erfassen und auf der Basis dieser Zustandsgröße mindestens eine Basis-Wahrscheinlichkeit für den Eintritt eines Basisereignisses anzupassen.
  • In einer weiteren vorteilhaften Ausgestaltung werden iterativ Basis-Wahrscheinlichkeiten verändert. Die Vorhersage der Wahrscheinlichkeit für das unerwünschte Ereignis wird nach jedem Änderungsschritt aktualisiert. Indem auf diese Weise die Änderungen der Wahrscheinlichkeit beobachtet werden, wird das Ziel verfolgt, die Wahrscheinlichkeit für das unerwünschte Ereignis auf oder unter einen vorgegebenen Schwellwert zu drücken.
  • Diese Ausgestaltung ist mehr für die Offline-Auslegung technischer Systeme gedacht als für die Online-Kontrolle im laufenden Betrieb. So ist beispielsweise für Steuerungssysteme, die in Fahrzeugen zum Einsatz kommen, oder auch in der industriellen Automatisierungstechnik häufig eine maximal zulässige Wahrscheinlichkeit, mit der bestimmte unerwünschte Ereignisse auftreten können, fest vorgegeben. Wenn in dem konkret untersuchten System diese Wahrscheinlichkeit über dem zulässigen Schwellwert liegt, stellt sich die Frage, an welcher Stelle das System sinnvollerweise verbessert werden kann, um die Wahrscheinlichkeit für das unerwünschte Ereignis möglichst effektiv und kostengünstig zu vermindern. So lässt sich die Zuverlässigkeit vieler Systeme durch doppelt oder gar mehrfach redundante Ausführung deutlich steigern, allerdings zu deutlich erhöhten Kosten und mit erhöhtem Gewicht und Energiebedarf, was für Anwendungen in Fahrzeugen oder Flugzeugen problematisch sein kann. Weiterhin kann der begrenzende Faktor für die Zuverlässigkeit eines Systems auch an einer anderen Stelle liegen als an einer punktuell fehlenden Redundanz.
  • Beispielsweise kann es ein Ergebnis der vorstehenden Analyse für unterschiedliche Werte der Basis-Wahrscheinlichkeiten sein, dass die Wahrscheinlichkeit für das unerwünschte Ereignis besonders kritisch von der Basis-Wahrscheinlichkeit für das Basisereignis abhängt, dass die Erfassung eines bestimmten Messwerts ungenau ist oder ganz fehlt. Es kann dann beispielsweise gezielt ein Sensor, der für die Erfassung dieser Messgröße zuständig ist, gegen einen höherwertigen Sensor mit besserer Zuverlässigkeit getauscht werden.
  • Es kann weiterhin bei der besagten Analyse erkannt werden, dass andere Basisereignisse vergleichsweise unkritisch sind in dem Sinne, dass die zugehörigen Basis-Wahrscheinlichkeiten nur einen vergleichsweise geringen Einfluss auf die Wahrscheinlichkeit für das unerwünschte Ereignis haben. Im Sinne einer Kostenoptimierung kann es daher sinnvoll sein, an einer derartigen Stelle an der Zuverlässigkeit zu sparen und das hier Ersparte an einer anderen Stelle zu reinvestieren, an der die Wahrscheinlichkeit für das unerwünschte Ereignis effektiver gedrückt werden kann.
  • Daher kann in einer weiteren vorteilhaften Ausgestaltung das Optimieren beinhalten, mindestens eine erste Basis-Wahrscheinlichkeit zu vermindern und im Gegenzug mindestens eine zweite Basis-Wahrscheinlichkeit zu erhöhen. Es kann also beispielsweise die Wahrscheinlichkeit für einen Ausfall eines Steuergeräts vermindert werden, indem für diejenigen Bauteile, auf deren Funktionieren das Steuergerät unbedingt angewiesen ist, die jeweils qualitativ höchstwertige und teuerste Ausführung gewählt wird und dafür Bauteile, deren Ausfall durch Redundanzen abgefangen werden kann, preisgünstiger auszuführen.
  • Wie zuvor erläutert, kann insbesondere beispielsweise ein Fahrzeug, ein Fahrzeugsystem, eine Verkehrssituation mit mehreren Verkehrsteilnehmern, ein Flugzeug, ein Flugzeugsystem, eine Drohne, eine Industrieanlage oder eine Windkraftanlage als technisches System gewählt werden.
  • Das Verfahren kann insbesondere ganz oder teilweise computerimplementiert sein. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem oder mehreren Computern und/oder Compute-Instanzen ausgeführt werden, den oder die Computer und/oder Compute-Instanzen dazu veranlassen, das beschriebene Verfahren auszuführen. In diesem Sinne sind auch Steuergeräte für Fahrzeuge und Embedded-Systeme für technische Geräte, die ebenfalls in der Lage sind, maschinenlesbare Anweisungen auszuführen, als Computer anzusehen. Beispiele für Compute-Instanzen sind virtuelle Maschinen, Container oder serverlose Ausführungsumgebungen für die Ausführung maschinenlesbarer Anweisungen in einer Cloud.
  • Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder auf ein Downloadprodukt mit dem Computerprogramm. Ein Downloadprodukt ist ein über ein Datennetzwerk übertragbares, d.h. von einem Benutzer des Datennetzwerks downloadbares, digitales Produkt, das beispielsweise in einem Online-Shop zum sofortigen Download feilgeboten werden kann.
  • Weiterhin kann ein Computer mit dem Computerprogramm, mit dem maschinenlesbaren Datenträger bzw. mit dem Downloadprodukt ausgerüstet sein.
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
  • Ausführungsbeispiele
  • Es zeigt:
    • 1 Ausführungsbeispiel des Verfahrens 100 zur Vorhersage der Wahrscheinlichkeit 2a für den Eintritt eines unerwünschten Ereignisses 2;
    • 2 Beispielhafter Fuzzy-Fehlerbaum 5 für eine Verkehrssituation als technisches System 1;
    • 3 Veranschaulichung der Arbeit des rekurrenten neuronalen Netzwerks 7.
  • 1 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 100 zur Vorhersage der Wahrscheinlichkeit 2a, mit der ein unerwünschtes Ereignis 2 in einem technischen System 1 eintritt.
  • In Schritt 110 wird ein Fehlerbaum 5 bereitgestellt. Dieser Fehlerbaum 5 gibt an, wie N Basisereignisse 3 einzeln oder in Kombination eine Ursache dafür setzen können, dass das unerwünschte Ereignis 2 in dem technischen System 1 auftritt. Über logische Gatter 4 in dem Fehlerbaum 5 ist festgelegt, wie die Basisereignisse 3 zusammenwirken. Der Fehlerbaum 5 enthält auch Basis-Wahrscheinlichkeiten 3a, mit denen die Basisereignisse 3 jeweils eintreten. Mindestens eine Basis-Wahrscheinlichkeit 3a ist als Zugehörigkeitsfunktion eines Zustandsvektors st des technischen Systems 1 und/oder seiner Umgebung festgelegt. Es handelt sich also um eine Fuzzy-Basis-Wahrscheinlichkeit 3a.
  • In Schritt 120 wird der Fehlerbaum 5 als lineare Kette 6 von Basisereignissen 3, die jeweils an ein logisches Gatter 4 angeschlossen sind, modelliert. Hierbei hängt ein Zustandsvektor st, von dem die Basis-Wahrscheinlichkeit 3a eines jeden Basis-Ereignisses 3 abhängt, auch vom Zustandsvektor st-1 ab, der die Basis-Wahrscheinlichkeit 3a des jeweils vorherigen Basisereignisses 3 bestimmt. Ausgaben des logischen Gatters, an das das Basis-Ereignis 3 angeschlossen ist, werden durch einen Ausgaben-Vektor vt beschrieben.
  • Gemäß Block 121 können die Zustandsvariablen, von denen die Basis-Wahrscheinlichkeiten 3a aller Basisereignisse 3 abhängen, in jedem Zustandsvektor st zusammengefasst sein, bzw. die Ausgaben aller logischen Gatter können in jedem Ausgaben-Vektor vt zusammengefasst sein. Wie zuvor erläutert, haben dann alle Zustandsvektoren st, bzw. alle Ausgaben-Vektoren vt, eine einheitliche Größe.
  • Gemäß Block 122 kann die Reihe der Zustandsvektoren st, bzw. der Ausgaben-Vektoren vt, für t = 1, ... , N entsprechend der zeitlichen Entwicklung des technischen Systems 1 geordnet sein.
  • In Schritt 130 wird ein rekurrentes neuronales Netzwerk 7 mit Gewichten W anhand von Messdaten für die N Zustandsvektoren s1, ... , sn darauf trainiert, die Abhängigkeit eines jeden Zustandsvektors st vom jeweils vorherigen Zustandsvektor st-1 zu modellieren. Hierbei wird das rekurrente neuronale Netzwerk 7 für jedes t mit den gleichen Gewichten W aufs Neue durchlaufen.
  • Gemäß Block 131 kann das rekurrente neuronale Netzwerk 7 neben dem jeweils vorherigen Zustandsvektor st-1 auch die Ausgabe yt-1 des logischen Gatters 4, an der das vorherige Basisereignis 3 angeschlossen ist, als Eingabe erhalten.
  • Gemäß Block 132 kann das rekurrente neuronale Netzwerk (7) mit diskreter Arithmetik ausgeführt werden. Dies ist vorteilhaft für die Ausführung in Echtzeit auf Embedded-Systemen.
  • Gemäß Block 133 kann dem rekurrenten neuronalen Netzwerk 7 zusätzlich Rauschen als Eingabe zugeführt werden, um dieses Netzwerk 7 robuster gegen Unsicherheiten zu machen. Die Stärke dieses Rauschens kann gemäß Block 133a von Durchlauf zu Durchlauf des rekurrenten neuronalen Netzwerks 7, und/oder mit steigender Epochenzahl des Trainings, vermindert werden.
  • In Schritt 140 werden nach Abschluss des Trainings die Gewichte W zu der gesuchten Wahrscheinlichkeit 2a aggregiert.
  • In Schritt 150 wird aus einzelnen Gewichten W, die sich vom Durchschnitt der Gewichte W nach Maßgabe eines vorgegebenen Kriteriums abheben, mindestens ein Basisereignis 3 ausgewertet, das für die gesuchte Wahrscheinlichkeit 2a für das Eintreten des unerwünschten Ereignisses 2 maßgeblich ist.
  • In dem in 1 gezeigten Beispiel wird in Schritt 160 die Vorhersage der Wahrscheinlichkeit 2a für das unerwünschte Ereignis 2 im laufenden Betrieb des technischen Systems 1 fortwährend aktualisiert. In Schritt 170 kann dann geprüft werden, ob diese Wahrscheinlichkeit 2a einen vorgegebenen Schwellwert 8 überschreitet. Wenn dies der Fall ist (Wahrheitswert 1), kann beispielsweise
    • • gemäß Block 171 eine für den Benutzer des technischen Systems 1 wahrnehmbare optische, akustische oder haptische Warneinrichtung aktiviert werden; und/oder
    • • gemäß Block 172 das technische System 1 in einen Betriebsmodus versetzt werden, in dem die Wahrscheinlichkeit 2a für das unerwünschte Ereignis 2 vermindert wird, und/oder in dem nachteilige Folgen beim Eintritt des unerwünschten Ereignisses 2 abgeschwächt werden; und/oder
    • • gemäß Block 173 das technische System 1 ganz oder teilweise außer Betrieb genommen werden.
  • Das Aktualisieren der Vorhersage kann insbesondere beispielsweise gemäß Block 161 beinhalten, mit mindestens einem Sensor mindestens eine Zustandsgröße des technischen Systems 1 und/oder seiner Umgebung zu erfassen. Gemäß Block 162 kann dann auf der Basis dieser Zustandsgröße mindestens eine Basis-Wahrscheinlichkeit 3a für den Eintritt eines Basisereignisses 3 angepasst werden.
  • In Schritt 180 können iterativ Basis-Wahrscheinlichkeiten 3a optimiert werden. Die Vorhersage der Wahrscheinlichkeit 2a für das unerwünschte Ereignis 2 kann dann in Schritt 190 nach jedem Optimierungsschritt aktualisiert werden. Das Optimieren erfolgt mit dem Ziel, die Wahrscheinlichkeit für das unerwünschte Ereignis 2 auf oder unterhalb einen vorgegebenen Sollwert 9 zu drücken.
  • 2 zeigt beispielhaft, wie eine Verkehrssituation als technisches System 1 in einen Fehlerbaum 5 überführt werden kann. In diesem technischen System 1 soll die Zuverlässigkeit der Erfassung der Verkehrssituation mit einem Radarsystem geprüft werden. Das unerwünschte Ereignis 2 besteht darin, dass diese Erfassung in einem Maße fehlerhaft ist, dass ein auf der Grundlage dieser Erfassung gesteuertes Fahrzeug falsch auf die Verkehrssituation reagiert.
  • Der Fehlerbaum 5 enthält mehrere Basisereignisse 3, e1-e4, die jeweils mit Fuzzy-Basis-Wahrscheinlichkeiten 3a eintreten. Die Basisereignisse 3 sind über logische Gatter 4 miteinander verknüpft. Die logischen Gatter 4 produzieren Zwischenergebnisse 4a, yt, g1-g4, die dann wiederum weiteren logischen Gattern 4 als Eingaben zugeführt werden können. In dem in 2 gezeigten Beispiel entscheidet ein logisches Gatter 4 auf der Basis von Zwischenergebnissen g1 und g2 darüber, ob das unerwünschte Ereignis 2, top eintritt.
  • 3 veranschaulicht die Durchläufe des rekurrenten neuronalen Netzwerks 7 anhand eines elektrostatisch-mechanischen Analogons. Ein Behälter B enthält das abgeschlossene System, dessen Inhalt iterativ berechnet wird. In der in 3 gezeigten Momentaufnahme enthält der Behälter B eine Suspension aus einem flüssigen Bestandteil, der dem Zustandsvektor st-1 entspricht, und Partikeln, die dem Ausgabe-Vektor yt-1 entsprechen. Durch eine Öffnung O in der Oberseite des Behälters B ragt die nächste anstehende Eingabe ut mit Zustandsvariablen, die nicht von den Zustandsvariablen vorheriger Basisereignisse 3 abhängen und insofern für den nun anstehenden Durchlauf spezifisch sind, in den Behälter B hinein und liegt dort auf einer Auflage A auf.
  • Wird nun das Rad D mit einer beliebigen Antriebsquelle gegen den Uhrzeigersinn gedreht, wird der Behälter B über die Pleuelstange P bewegt. Dadurch wird zunächst einmal die nächste anstehende Eingabe ut von dem Vorrat an Eingaben ut, ut+1, ut+2, ... abgeschnitten und fällt in die Suspension im Behälter B hinein, um sich dort aufzulösen. Der Behälter B bewegt sich in der in 2 gewählten Perspektive weiter nach links bis auf die Bearbeitungsposition E innerhalb des Plattenkondensators C, in dem ein elektrisches Feld die Wirkung der Gewichtsmatrix W und der Übergangsfunktion g vermittelt. Hierdurch reagiert und sortiert sich das Gemisch im Behälter B neu. Die Anwendung der Gewichtsmatrix W erzeugt den neuen flüssigen Bestandteil, der dem neuen Zustandsvektor st entspricht. Die Anwendung der Übergangsfunktion g scheidet hieraus neue Partikel ab, die dem neuen Ausgabe-Vektor yt entsprechen. Die weitere Drehung des Rades D bewegt den Behälter B nun über die Pleuelstange P zurück in die ursprüngliche, in 3 gezeigte Position. Sobald die nächste anstehende Eingabe ut+1 die Öffnung O in der Oberseite des Behälters B zeigt, rutscht sie bis auf die Auflage A im Behälter B nach unten, und der Zyklus beginnt von neuem.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102018203374 A1 [0004]

Claims (19)

  1. Verfahren zur Vorhersage der Wahrscheinlichkeit (2a), mit der in einem technischen System (1) mindestens ein unerwünschtes Ereignis (2) eintritt, mit den Schritten: • es wird ein Fehlerbaum (5) bereitgestellt (110), der ◯ das Zusammenwirken von N Basisereignissen (3), die einzeln oder in Kombination eine Ursache dafür setzen können, dass das unerwünschte Ereignis (2) in dem technischen System (1) auftritt, über logische Gatter (4) sowie ◯ Basis-Wahrscheinlichkeiten (3a), mit denen die Basisereignisse (3) jeweils eintreten, angibt, wobei mindestens eine Basis-Wahrscheinlichkeit (3a) als Zugehörigkeitsfunktion eines Zustandsvektors st des technischen Systems (1) und/oder seiner Umgebung festgelegt ist; • der Fehlerbaum (5) wird als lineare Kette (6) von Basisereignissen (3), die jeweils ein- oder ausgangsseitig an ein logisches Gatter (4) angeschlossen sind, modelliert (120), wobei ein Zustandsvektor st, von dem die Basis-Wahrscheinlichkeit (3a) eines jeden Basis-Ereignisses (3) abhängt, auch vom Zustandsvektor st-1 abhängt, der die Basis-Wahrscheinlichkeit (3a) des jeweils vorherigen Basisereignisses (3) bestimmt; • es wird ein rekurrentes neuronales Netzwerk (7) mit Gewichten W anhand von Messdaten für die N Zustandsvektoren s1, ... , sn darauf trainiert (130), die Abhängigkeit eines jeden Zustandsvektors st vom jeweils vorherigen Zustandsvektor st-1 zu modellieren, wobei das rekurrente neuronale Netzwerk (7) für jedes t mit den gleichen Gewichten W aufs Neue durchlaufen wird; • nach Abschluss des Trainings werden die Gewichte W zu der gesuchten Wahrscheinlichkeit (2a) aggregiert (140).
  2. Verfahren (100) nach Anspruch 1, wobei das rekurrente neuronale Netzwerk (7) neben dem jeweils vorherigen Zustandsvektor st-1 auch die Ausgabe yt-1 des logischen Gatters (4), an der das vorherige Basisereignis (3) angeschlossen ist, als Eingabe erhält (131).
  3. Verfahren (100) nach Anspruch 2, wobei die Ausgabe yt-1 des logischen Gatters (4) dem rekurrenten neuronalen Netzwerk (7) als Summe mit dem Zustandsvektor st-1 zugeführt wird.
  4. Verfahren (100) nach einem der Ansprüche 1 bis 3, wobei die Zustandsvariablen, von denen die Basis-Wahrscheinlichkeiten (3a) aller Basisereignisse (3) abhängen, in jedem Zustandsvektor st zusammengefasst sind, bzw. die Ausgaben aller logischen Gatter in jedem Ausgaben-Vektor vt zusammengefasst sind (121).
  5. Verfahren (100) nach einem der Ansprüche 1 bis 4, wobei die Reihe der Zustandsvektoren st, bzw. der Ausgaben-Vektoren vt, für t = 1, ..., N entsprechend der zeitlichen Entwicklung des technischen Systems (1) geordnet ist (122).
  6. Verfahren (100) nach einem der Ansprüche 1 bis 5, wobei das rekurrente neuronale Netzwerk (7) mit diskreter Arithmetik ausgeführt wird (132).
  7. Verfahren (100) nach einem der Ansprüche 1 bis 6, wobei das Verfahren (100) in Echtzeit auf einem Embedded-System, das in dem technischen System (1) enthalten ist oder von ihm mitgeführt wird, ausgeführt wird.
  8. Verfahren (100) nach einem der Ansprüche 1 bis 7, wobei dem rekurrenten neuronalen Netzwerk (7) zusätzlich Rauschen als Eingabe zugeführt wird (133).
  9. Verfahren (100) nach Anspruch 8, wobei die Stärke des Rauschens von Durchlauf zu Durchlauf des rekurrenten neuronalen Netzwerks (7), und/oder mit steigender Epochenzahl des Trainings, vermindert wird (133a).
  10. Verfahren (100) nach einem der Ansprüche 1 bis 9, wobei dem rekurrenten neuronalen Netzwerk (7) eine Eingabe zugeführt wird (134), die von einer Soll-Ausgabe mindestens eines vorherigen Durchlaufs abhängt.
  11. Verfahren (100) nach einem der Ansprüche 1 bis 10, wobei aus einzelnen Gewichten W, die sich vom Durchschnitt der Gewichte W nach Maßgabe eines vorgegebenen Kriteriums abheben, mindestens ein Basisereignis (3) ausgewertet wird (150), das für die gesuchte Wahrscheinlichkeit (2a) für das Eintreten des unerwünschten Ereignisses (2) maßgeblich ist.
  12. Verfahren (100) nach einem der Ansprüche 1 bis 11, wobei die Vorhersage der Wahrscheinlichkeit (2a) für das unerwünschte Ereignis (2) im laufenden Online-Betrieb des technischen Systems fortwährend aktualisiert wird (160) und wobei in Antwort darauf, dass diese Wahrscheinlichkeit (2a) einen vorgegebenen Schwellwert (8) überschreitet (170), • eine für den Benutzer des technischen Systems (1) wahrnehmbare optische, akustische oder haptische Warneinrichtung aktiviert wird (171); und/oder • das technische System (1) in einen Betriebsmodus versetzt wird (172), in dem die Wahrscheinlichkeit (2a) für das unerwünschte Ereignis (2) vermindert wird, und/oder in dem nachteilige Folgen beim Eintritt des unerwünschten Ereignisses (2) abgeschwächt werden; und/oder • das technische System (1) ganz oder teilweise außer Betrieb genommen wird (173).
  13. Verfahren (100) nach Anspruch 10, wobei das Aktualisieren (160) beinhaltet, mit mindestens einem Sensor mindestens eine Zustandsgröße des technischen Systems (1) und/oder seiner Umgebung zu erfassen (161) und auf der Basis dieser Zustandsgröße mindestens eine Basis-Wahrscheinlichkeit (3a) für den Eintritt eines Basisereignisses (3) anzupassen (162).
  14. Verfahren (100) nach einem der Ansprüche 1 bis 11, wobei iterativ Basis-Wahrscheinlichkeiten (3a) verändert werden (180) und die Vorhersage der Wahrscheinlichkeit (2a) für das unerwünschte Ereignis (2) nach jedem Änderungsschritt aktualisiert wird (190), wobei mit den Änderungen das Ziel verfolgt wird, die Wahrscheinlichkeit (2a) für das unerwünschte Ereignis (2) auf oder unter einen vorgegebenen Sollwert (9) zu drücken.
  15. Verfahren (100) nach Anspruch 14, wobei das Verändern (180) beinhaltet, mindestens eine erste Basis-Wahrscheinlichkeit (3a) zu vermindern und im Gegenzug mindestens eine zweite Basis-Wahrscheinlichkeit (3a) zu erhöhen.
  16. Verfahren (100) nach einem der Ansprüche 1 bis 15, wobei eine Fahrzeug, ein Fahrzeugsystem, eine Verkehrssituation mit mehreren Verkehrsteilnehmern, ein Flugzeug, ein Flugzeugsystem, eine Drohne, eine Industrieanlage oder eine Windkraftanlage als technisches System (1) gewählt wird.
  17. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem oder mehreren Computern und/oder Compute-Instanzen ausgeführt werden, den oder die Computer und/oder Compute-Instanzen dazu veranlassen, das Verfahren (100) nach einem der Ansprüche 1 bis 16 auszuführen.
  18. Maschinenlesbarer Datenträger und/oder Downloadprodukt mit dem Computerprogramm nach Anspruch 17.
  19. Ein oder mehrere Computer mit dem Computerprogramm nach Anspruch 17, und/oder mit dem maschinenlesbaren Datenträger und/oder Downloadprodukt nach Anspruch 18.
DE102022207998.1A 2022-08-02 2022-08-02 Fuzzy-Fehlerbaumanalyse mit einem rekurrenten neuronalen Netzwerk Pending DE102022207998A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022207998.1A DE102022207998A1 (de) 2022-08-02 2022-08-02 Fuzzy-Fehlerbaumanalyse mit einem rekurrenten neuronalen Netzwerk

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022207998.1A DE102022207998A1 (de) 2022-08-02 2022-08-02 Fuzzy-Fehlerbaumanalyse mit einem rekurrenten neuronalen Netzwerk

Publications (1)

Publication Number Publication Date
DE102022207998A1 true DE102022207998A1 (de) 2024-02-08

Family

ID=89575521

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022207998.1A Pending DE102022207998A1 (de) 2022-08-02 2022-08-02 Fuzzy-Fehlerbaumanalyse mit einem rekurrenten neuronalen Netzwerk

Country Status (1)

Country Link
DE (1) DE102022207998A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN203497948U (zh) 2013-10-18 2014-03-26 丽水学院 一种汽车起重机模糊神经网络故障诊断装置
DE102018203374A1 (de) 2018-03-07 2019-09-12 Robert Bosch Gmbh Fehlerbaumanalyse für technische Systeme
DE102020213888A1 (de) 2020-11-04 2022-05-05 Robert Bosch Gesellschaft mit beschränkter Haftung Computerimplementiertes Verfahren zum Bestimmen von Kritikalitätswerten eines technischen Systems
DE102021201977A1 (de) 2021-03-02 2022-09-08 Robert Bosch Gesellschaft mit beschränkter Haftung Fehlerbaumanalyse mit maschinellem Lernen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN203497948U (zh) 2013-10-18 2014-03-26 丽水学院 一种汽车起重机模糊神经网络故障诊断装置
DE102018203374A1 (de) 2018-03-07 2019-09-12 Robert Bosch Gmbh Fehlerbaumanalyse für technische Systeme
DE102020213888A1 (de) 2020-11-04 2022-05-05 Robert Bosch Gesellschaft mit beschränkter Haftung Computerimplementiertes Verfahren zum Bestimmen von Kritikalitätswerten eines technischen Systems
DE102021201977A1 (de) 2021-03-02 2022-09-08 Robert Bosch Gesellschaft mit beschränkter Haftung Fehlerbaumanalyse mit maschinellem Lernen

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BORGELT, Christian, et al.: Neuro-Fuzzy-Systeme Von den Grundlagen künstlicher Neuronaler Netze zur Kopplung mit Fuzzy-Systemen. 3. Auflage. Vieweg. Wiebaden, 2003. ISBN: 978-3-322-80336-8

Similar Documents

Publication Publication Date Title
DE102018128289B4 (de) Verfahren und vorrichtung für eine autonome systemleistung und zur einstufung
DE102016011520B4 (de) Produktionsausrüstung mit Maschinenlernsystem und Montage-und Prüfeinheit
DE102016011523A1 (de) Motorantriebsvorrichtung mit vorbeugender Wartungsfunktion eines Gebläsemotors
DE102019124018A1 (de) Verfahren zum Optimieren von Tests von Regelsystemen für automatisierte Fahrdynamiksysteme
DE102018220941A1 (de) Auswertung von Messgrößen mit KI-Modulen unter Berücksichtigung von Messunsicherheiten
DE60306494T2 (de) Vorrichtung, verfahren und computerprogrammprodukt zur modellierung der kausalität in einem flusssystem
DE102019134053A1 (de) Verfahren zur kontinuierlichen Absicherung im Fahrversuch applizierter automatisierter Fahrfunktionen
EP3748453B1 (de) Verfahren und vorrichtung zum automatischen ausführen einer steuerfunktion eines fahrzeugs
DE102018209108A1 (de) Schnelle Fehleranalyse für technische Vorrichtungen mit maschinellem Lernen
DE102018219760A1 (de) Kollisionsprädiktionssystem
EP3935463B1 (de) Verfahren und vorrichtung zum betreiben eines automatisierten fahrzeugs
DE102022207998A1 (de) Fuzzy-Fehlerbaumanalyse mit einem rekurrenten neuronalen Netzwerk
EP2600096B1 (de) Bestimmen von Indikatoren für die Trefferwahrscheinlichkeit eines Waffensystems
DE102021201977A1 (de) Fehlerbaumanalyse mit maschinellem Lernen
WO2023057591A1 (de) Überwachungsverfahren für einen roboter und zugehörige roboteranlage
DE102020213527A1 (de) Verfahren zum Optimieren einer Strategie für einen Roboter
DE102021202177A1 (de) Verfahren zum bestimmen des betriebszustands von fahrzeugkomponenten
DE102021202813A1 (de) Verfahren, Vorrichtung und Computerprogramm für eine Unsicherheitsbewertung einer Bildklassifikation
DE102021114191A1 (de) Verteiltes System
DE102022208166A1 (de) Training neuronaler Netzwerke für die Fehlerbaumanalyse mit verbesserter Konvergenz
DE102022203907A1 (de) Fehlerbaumanalyse mit Abschätzung über die kritische Wahrscheinlichkeit
DE102019209227A1 (de) Betrieb trainierbarer Module mit Überwachung, ob der Anwendungsbereich des Trainings verlassen wird
EP1637945B1 (de) Automatisierungssystem mit affektiver Steuerung
DE102020213830A1 (de) Verfahren und System zur Bereitstellung einer Diagnoseinformation
DE102022201853A1 (de) Erkennung kritischer Verkehrssituationen mit Petri-Netzen

Legal Events

Date Code Title Description
R163 Identified publications notified