-
Die vorliegende Erfindung betrifft die Fehlerbaumanalyse zur Vorhersage der Wahrscheinlichkeit, mit der in einem technischen System mindestens ein unerwünschtes Ereignis eintritt, welches durch ein oder mehrere Basisereignisse verursacht werden kann.
-
Stand der Technik
-
Bei technischen Systemen, deren Fehlfunktion zu schwerwiegenden Sach- oder Personenschäden führen kann, ist es häufig notwendig, die Zuverlässigkeit vor der Aufnahme des Betriebes quantitativ zu beurteilen.
-
Ein standardisiertes Verfahren zur Beurteilung der Gesamt-Zuverlässigkeit eines nicht redundanten Systems, das aus einer Vielzahl von Funktionseinheiten zusammengesetzt ist, ist die Fehlerbaumanalyse (Fault Tree Analysis, FTA). Für die Zwecke dieser Analyse wird das technische System als baumartige logische Verknüpfung von verursachenden Ereignissen modelliert, die in einem unerwünschten Ereignis („Systemversagen“) kulminieren können. „Baumartig“ bedeutet, dass beispielsweise das Systemversagen eintritt, wenn eine bestimmte logische Verknüpfung von Ereignissen wahr ist, wobei diese Ereignisse wiederum logische Verknüpfungen untergeordneter Ereignisse sein können. Die verursachenden Ereignisse umfassen Fehlfunktionen einzelner Funktionseinheiten.
-
Aus der
DE 10 2018 203 374 A1 ist ein Verfahren zur Fehlerbaumanalyse für technische Systeme bekannt, bei dem ein fraktaler Graph als Fehlerbaum aufgestellt wird.
-
Offenbarung der Erfindung
-
Die Erfindung stellt ein Verfahren zur Vorhersage der Wahrscheinlichkeit bereit, mit der in einem technischen System mindestens ein unerwünschtes Ereignis eintritt.
-
Im Rahmen dieses Verfahrens wird ein Fehlerbaum bereitgestellt. Dieser Fehlerbaum gibt an, inwieweit Basisereignisse über logische Gatter dahingehend zusammenwirken, dass sie einzeln oder in Kombination eine Ursache für das Auftreten des unerwünschten Ereignisses in dem technischen System setzen können. Der Fehlerbaum gibt weiterhin Basis-Wahrscheinlichkeiten an, mit denen die Basisereignisse jeweils eintreten. Mindestens eine dieser Basis-Wahrscheinlichkeiten ist als Zugehörigkeitsfunktion eines Zustandsvektors st des technischen Systems und/oder seiner Umgebung festgelegt. Es handelt sich also um eine Fuzzy-Wahrscheinlichkeit.
-
Der Fehlerbaum wird als lineare Kette von Basisereignissen, die jeweils ein- oder ausgangsseitig an ein logisches Gatter angeschlossen sind, modelliert. Das heißt, das Basisereignis kann eine Eingabe für das logische Gatter liefern, aber auch mit der Ausgabe des logischen Gatters zusammenwirken. Ein Fehlerbaum, der von unten nach oben in Richtung auf das unerwünschte Ereignis durchlaufen wird, kann also auch logische Gatter, die unterhalb von Basisereignissen liegen, und Basisereignisse, die unmittelbar unter dem unerwünschten Ereignis liegen, enthalten. Mehrere Basisereignisse, die für sich genommen unmittelbar zum Eintritt des unerwünschten Ereignisses führen können („single point of failure“), müssen also nicht mit einem logischen Gatter zusammengefasst werden. Bei einer Drohne als technisches System können beispielsweise die Basisereignisse „Versagen der Batterie“ und „Bruch des Hauptkabels zur Batterie“ gleichberechtigt unmittelbar unter dem unerwünschten Ereignis „Absturz“ stehen. Hierdurch wird aus dem Fehlerbaum unmittelbar klar, dass die Batterie und das Hauptkabel absolut kritische Komponenten sind. Da eine redundante Auslegung dieser Komponenten aus Gewichtsgründen nicht möglich ist, kann hier die Zuverlässigkeit nur erhöht werden, indem qualitativ hochwertiges Material verwendet und mit besonderer Sorgfalt verarbeitet wird. Es ist daher wichtig, auch unmittelbar unter dem unerwünschten Ereignis liegende Basisereignisse abbilden zu können. Dies leistet die hier beschriebene Modellierung mit einer wiederkehrenden Topologie.
-
Ein Zustandsvektor s
t, von dem die Basis-Wahrscheinlichkeit eines jeden Basis-Ereignisses abhängt, hängt auch vom Zustandsvektor s
t-1 ab, der wiederum die Basis-Wahrscheinlichkeit des jeweils vorherigen Basisereignisses bestimmt:
worin f eine vorgegebene Übergangsfunktion ist und u
t solche Zustandsvariablen enthält, die nicht von den Zustandsvariablen vorheriger Basisereignisse abhängen. Über eine weitere Übergangsfunktion g hängt dann die Ausgabe y
t des logischen Gatters, am der das Basisereignis angeschlossen ist, vom Zustandsvektor s
t ab:
-
Hierbei kann beispielsweise ein jeder Zustandsvektor st diejenigen Zustandsvariablen des technischen Systems und/oder seiner Umgebung enthalten, von denen die Basis-Wahrscheinlichkeit des t-ten Basisereignisses abhängt. Dementsprechend kann dann der Vektor yt die Ausgabe desjenigen logischen Gatters beinhalten, an der das t-te Basisereignis angeschlossen ist.
-
Die Übergangsfunktionen f und g können insbesondere beispielsweise für alle Übergänge zwischen Basisereignissen gleich sein.
-
In einer besonders vorteilhaften Ausgestaltung sind jedoch die Zustandsvariablen, von denen die Basis-Wahrscheinlichkeiten aller Basisereignisse abhängen, in jedem Zustandsvektor st zusammengefasst, bzw. die Ausgaben aller logischen Gatter sind in jedem Ausgaben-Vektor vt zusammengefasst. Dann haben alle Zustandsvektoren st, bzw. alle Ausgaben-Vektoren vt, gleiche Größen und werden nach und nach mit Einträgen in Bezug auf die einzelnen Basisereignisse befüllt.
-
Es wird nun ein rekurrentes neuronales Netzwerk mit Gewichten W anhand von Messdaten für die N Zustandsvektoren s1, ... , sn darauf trainiert, die Abhängigkeit eines jeden Zustandsvektors st vom jeweils vorherigen Zustandsvektor st-1 zu modellieren. Hierbei wird das rekurrente neuronale Netzwerk für jedes t mit den gleichen Gewichten W aufs Neue durchlaufen. Nach Abschluss dieses Trainings werden die Gewichte W zu der gesuchten Wahrscheinlichkeit aggregiert. Hierzu kann insbesondere beispielswiese eine Summe, ein Mittelwert und/oder ein Median der Gewichte W ermittelt werden. Die Gewichte W charakterisieren das Verhalten des neuronalen Netzwerks. Beispielsweise können Eingaben, die einem Neuron oder einer anderen Verarbeitungseinheit des neuronalen Netzwerks zugeführt werden, mit den Gewichten W gewichtet aufsummiert werden.
-
Indem bei jedem Durchlauf des rekurrenten neuronalen Netzwerks die gleichen Gewichte W verwendet werden, zielt das Training dieses Netzwerks darauf ab, möglichst allgemeingültiges Wissen für alle Übergänge zwischen entlang der linearen Kette aufeinander folgenden Basisereignissen zu lernen. Gelernt wird also letztendlich ein Operator, der die Fortentwicklung des technischen Systems von einem Basisereignis zum nächsten beschreibt.
-
Hierbei kann insbesondere beispielsweise die Reihe der Zustandsvektoren st, bzw. der Ausgaben-Vektoren vt, für t = 1, s1, ... , N entsprechend der zeitlichen Entwicklung des technischen Systems geordnet sein. Der Operator, der durch die Gewichte W charakterisiert ist, beschreibt dann die zeitliche Fortentwicklung des technischen Systems.
-
Dies ist ein wichtiger Unterschied gegenüber anderen Anwendungen neuronaler Netzwerke. In üblichen Anwendungen werden die neuronalen Netzwerke darauf trainiert, Eingaben aus einer bestimmten Domäne zu verarbeiten und jeweils auf Ausgaben abzubilden, die im Kontext der jeweiligen Anwendung zutreffend sind. Im Rahmen des hier vorgeschlagenen Verfahrens lernt das neuronale Netzwerk die Fortentwicklung des technischen Systems aus sich selbst heraus ohne Eingaben von außen. Als Eingaben dienen lediglich die Zustandsvariablen des technischen Systems bzw. seiner Umgebung. Das neuronale Netzwerk ist insofern also ein geschlossenes System, das die Dynamik des technischen Systems modelliert.
-
Der Trainingsprozess des neuronalen Netzwerks kann als eine Näherung der „minimum cut set“-Methode aufgefasst werden. Mit dieser Methode werden in der bekannten Fehlerbaumanalyse die minimalen Konstellationen von Basisereignissen bestimmt, die zusammenkommen müssen, um das unerwünschte Ereignis auszulösen. Diese minimalen Konstellationen und die Basis-Wahrscheinlichkeiten der darin enthaltenen Basisereignisse bestimmen die Wahrscheinlichkeit für das Eintreten des unerwünschten Ereignisses, und damit die Zuverlässigkeit des technischen Systems. Diese gesuchte Wahrscheinlichkeit wird im Rahmen des hier vorgeschlagenen Verfahrens aus den gelernten Gewichten W erhalten. Der wichtige Unterschied zur „minimum cut set"-Methode liegt in der Komplexität. Das hier vorgeschlagene Verfahren ermittelt die gesuchte Wahrscheinlichkeit mit Komplexität N · log N, während die „minimum cut set“-Methode die Komplexität N6 hat.
-
In einer besonders vorteilhaften Ausgestaltung erhält das rekurrente neuronale Netzwerk neben dem jeweils vorherigen Zustandsvektor st-1 auch die Ausgabe yt-1 des logischen Gatters, an der das vorherige Basisereignis angeschlossen ist, als Eingabe. Auf diese Weise wird die Flexibilität dahingehend, welche Arten von logischen Gattern modelliert werden können, deutlich vergrößert. Waren bislang vor allem AND- und OR-Gatter gebräuchlich, gibt es nun auch Kundenanforderungen nach Fehlerbaumanalysen, die noch viele weitere Typen logischer Gatter enthalten. Weiterhin können in Fehlerbäumen für heutige technische Systeme die Eigenschaften der Logikgatter auch im Laufe der Zeit variieren. Ein Gatter kann beispielsweise zu einem bestimmten Zeitpunkt von einem OR-Gatter zu einem AND-Gatter werden oder auch mehrmals zwischen diesen beiden Gatterarten hin- und herwechseln. Hierin spiegelt sich wider, dass die Auswirkungen von Basisereignissen vom aktuellen Betriebszustand des technischen Systems abhängen. So sind beispielsweise zweistrahlige Verkehrsflugzeuge so konstruiert, dass sie nominell erst nach einem Ausfall beider Triebwerke (AND) nicht mehr flugfähig sind. Wenn jedoch beispielsweise die Fluggeschwindigkeit schon am unteren Limit ist, kann bereits der Ausfall eines Triebwerks (OR) reichen, um einen Strömungsabriss und damit einen Verlust des Auftriebs herbeizuführen. In herkömmlichen Verfahren für die Fehlerbaumanalyse war es nicht möglich, die Eigenschaften der logischen Gatter im laufenden Betrieb zu ändern, ohne das Verfahren in eine Endlosschleife zu schicken.
-
Hierbei kann die Ausgabe yt-1 des logischen Gatters dem rekurrenten neuronalen Netzwerk insbesondere beispielsweise als Summe mit dem Zustandsvektor st-1 zugeführt werden. In dem Fall, in dem diese Ausgabe yt-1 numerisch in einer wesentlich kleineren Größenordnung liegen als die von Null verschiedenen Einträge des vorherigen Zustandsvektors st-1, konvergiert das Training des rekurrenten neuronalen Netzwerks dann wesentlich besser und schneller.
-
In einer weiteren besonders vorteilhaften Ausgestaltung wird das rekurrente neuronale Netzwerk mit diskreter Arithmetik ausgeführt. Das Training kann dann mit erheblich geringerem Einsatz an Hardwareressourcen und Energie durchgeführt werden. Das hier vorgeschlagene Verfahren unterscheidet sich von üblichen Anwendungen neuronaler Netzwerke unter anderem dadurch, dass das Training des neuronalen Netzwerks nicht vorab vor der eigentlichen Anwendung vorgenommen wird, so dass der eigentliche Endanwender nur noch ein fix und fertig trainiertes neuronales Netzwerk ausführen muss. Stattdessen umfasst hier die Anwendung des Verfahrens, also das Ermitteln der Wahrscheinlichkeit für das unerwünschte Ereignis, das Training des neuronalen Netzwerks. Da dieses Training im Allgemeinen deutlich aufwändiger ist als das Durchlaufen eines fertig trainierten Netzwerks, also die Inferenz, fällt die Ressourceneinsparung durch die Nutzung einer diskreten Arithmetik besonders ins Gewicht.
-
Dementsprechend wird es praktikabel, das Verfahren in Echtzeit auf einem Embedded-System, das in dem technischen System enthalten ist oder von ihm mitgeführt wird, auszuführen. Auf diese Weise kann die Gesamt-Wahrscheinlichkeit für das unerwünschte Ereignis ständig online kontrolliert werden. Embedded-Systeme haben nicht nur meistens vergleichsweise wenig Rechenleistung, sondern vor allem auch vergleichsweise wenig Speicher.
-
In einer weiteren vorteilhaften Ausgestaltung wird dem rekurrenten neuronalen Netzwerk zusätzlich Rauschen als Eingabe zugeführt. Auf diese Weise können insbesondere beispielsweise Randeffekte unterdrückt werden, die dadurch entstehen, dass das rekurrente neuronale Netzwerk nur eine endlich weit in die Vergangenheit zurückreichende Historie von Zuständen des technischen Systems berücksichtigen kann. Weiterhin kann das Rauschen das Training des neuronalen Netzwerks robuster gegen Unsicherheiten der Zustandsvektoren st machen.
-
Die Stärke dieses Rauschens wird vorteilhaft von Durchlauf zu Durchlauf des rekurrenten neuronalen Netzwerks, und/oder mit steigender Epochenzahl des Trainings, vermindert. Mit einem Vermindern des Rauschens von Durchlauf zu Durchlauf kann insbesondere berücksichtigt werden, dass bei späteren Durchläufen die besagten Randeffekte eine geringere Rolle spielen. Mit einem Vermindern des Rauschens mit steigender Epochenzahl kann insbesondere berücksichtigt werden, dass die Unsicherheit des neuronalen Netzwerks mit steigender Epochenzahl abnimmt und dementsprechend weniger Maßnahmen zur Anpassung des Trainings an diese Unsicherheit erforderlich sind. Das Rauschen kann insbesondere beispielsweise in Abhängigkeit eines durch das rekurrente neuronale Netzwerk zurückpropagierten, mit einer Kostenfunktion gemessenen Fehlers vermindert werden. Das heißt, je geringer der Fehler und je besser somit das Training bereits fortgeschritten ist, desto kleiner kann die Stärke (etwa die Standardabweichung) des Rauschens gewählt werden.
-
In einer weiteren vorteilhaften Ausgestaltung wird dem rekurrenten neuronalen Netzwerk eine Eingabe zugeführt, die von eine Soll-Ausgabe mindestens eines vorherigen Durchlaufs abhängt. Diese Soll-Ausgabe kann insbesondere beispielsweise ganz oder teilweise an die Stelle einer tatsächlichen Ausgabe des neuronalen Netzwerks im jeweiligen Durchlauf treten. Mit diesem „Teacher Forcing“ können die Auswirkungen noch nicht perfekter Durchläufe auf das Training folgender Durchläufe minimiert werden.
-
Sei beispielsweise t der Zeitpunkt, bis zu dem Messwerte für Zustandsvektoren s
t bekannt sind. Für Zeitpunkte τ ≤ t kann dann vorgegeben werden:
-
Hierin ist [Id; 0] ein Zeilenvektor, dessen Anzahl Elemente der Anzahl N
S der Netzwerkzustände (= Anzahl der versteckten Neuronen im neuronalen Netzwerk) ist. Die ersten N
O Elemente dieses Zeilenvektors sind mit 1 belegt und die übrigen N
S - N
O Elemente mit Null, wobei N
O die Anzahl der vom neuronalen Netzwerk ausgangsseitig ausgegebenen Werte ist. W ist die zuvor diskutierte Gewichtsmatrix, und y
τ ist die Ausgabe des neuronalen Netzwerks im Zeitpunkt τ.
ist die Soll-Ausgabe des neuronalen Netzwerks im Durchlauf τ. f ist die zuvor beschriebene Übergangsfunktion. Für Zeitpunkte τ > t kann hingegen vorgegeben werden:
-
Weiterhin gilt für alle Zeitpunkte τ
-
Das „Teacher Forcing“ wirkt insbesondere der Tendenz entgegen, dass sich Fehler einer in N Durchläufen des rekurrenten neuronalen Netzwerks berechneten Ausgabe immer weiter aufschaukeln.
-
In einer weiteren vorteilhaften Ausgestaltung wird aus einzelnen Gewichten W, die sich vom Durchschnitt der Gewichte W nach Maßgabe eines vorgegebenen Kriteriums abheben, mindestens ein Basisereignis ausgewertet, das für die gesuchte Wahrscheinlichkeit für das Eintreten des unerwünschten Ereignisses maßgeblich ist. Dies erleichtert es, Verbesserungen an dem technischen System, die die Wahrscheinlichkeit für das unerwünschte Ereignis vermindern, zielgerichtet vorzunehmen. Damit kann ein vorgegebenes Niveau an Zuverlässigkeit zu geringeren Kosten erreicht werden. Wenn sich beispielsweise herausstellt, dass ein Fehler eines bestimmten Sensors eine im unerwünschten Ereignis kulminierende Kettenreaktion auslösen kann, kann dieser Sensor beispielsweise redundant ausgeführt, durch ein höherwertiges Modell ersetzt oder durch einen weiteren Sensor ergänzt werden.
-
Da die Gesamt-Wahrscheinlichkeit für das Auftreten des unerwünschten Ereignisses nun auch in Echtzeit auf Embedded-Systemen berechnet werden kann, kann das technische System mit der (Fuzzy-)Fehlerbaumanalyse online überwacht werden.
-
Daher wird in einer weiteren besonders vorteilhaften Ausgestaltung die Vorhersage der Wahrscheinlichkeit für das unerwünschte Ereignis im laufenden Online-Betrieb des technischen Systems fortwährend aktualisiert. In Antwort darauf, dass diese Wahrscheinlichkeit einen vorgegebenen Schwellwert überschreitet, können verschiedene Gegenmaßnahmen ergriffen werden.
-
Beispielsweise kann eine für den Benutzer des technischen Systems wahrnehmbare optische, akustische oder haptische Warneinrichtung aktiviert werden. So kann etwa ein Fahrer eines zumindest teilweise automatisierten Fahrzeugs dazu aufgefordert werden, die manuelle Kontrolle über das Fahrzeug zu übernehmen oder das automatisierte Steuerungssystem in sonstiger Weise zu unterstützen. Aber auch der Fahrer eines manuell gesteuerten Fahrzeugs kann beispielsweise davon profitieren, dass er etwa vor einer erhöhten Wahrscheinlichkeit des unerwünschten Ereignisses „Ausbrechen des Fahrzeugs aus seiner vorgesehenen Fahrspur“ gewarnt wird.
-
Gerade derartige Prozesse lassen sich gut mit Hilfe von Zugehörigkeitsfunktionen abbilden, die Fuzzy-Wahrscheinlichkeiten in Abhängigkeit von bestimmten äußeren Bedingungen modellieren. So entscheiden beispielsweise die Art des Straßenbelags, die Temperatur und die Belegung der Fahrbahn mit Niederschlag über die Basiswahrscheinlichkeit dafür, dass die Haftreibung am Reifen-Fahrbahn-Kontakt in die Gleitreibung übergeht. Inwieweit ein solches Ereignis dann noch durch das Eingreifen eines elektronischen Stabilitätsprogramms (ESP) oder anderer Sicherheitssysteme abgefangen kann, hängt wiederum beispielsweise von der Beladungsverteilung des Fahrzeugs ab, die den Schwerpunkt des Fahrzeugs bestimmt. Im Ergebnis kann die Wahrscheinlichkeit für das Ereignis „Ausbrechen des Fahrzeugs“ bei einer schnellen Autobahnfahrt unter optimalen Bedingungen deutlich geringer prognostiziert werden als bei einer Fahrt mit Stadttempo bei Blitzeis.
-
Wenn die Wahrscheinlichkeit für das unerwünschte Ereignis einen vorgegebenen Schwellwert überschreitet, kann auch beispielsweise das technische System in einen Betriebsmodus versetzt werden, in dem die Wahrscheinlichkeit für das unerwünschte Ereignis vermindert wird, und/oder in dem nachteilige Folgen beim Eintritt des unerwünschten Ereignisses abgeschwächt werden. So können beispielsweise Steuersysteme für Fahrzeuge oder Flugzeuge in kritischen Situationen Steueraktionen so beschränken, dass hektische Manöver eines Fahrzeugs oder Flugzeugs, die zu einem endgültigen Kontrollverlust führen können, unterbunden werden.
-
Schließlich kann auch in Antwort darauf, dass die Wahrscheinlichkeit für das unerwünschte Ereignis einen vorgegebenen Schwellwert überschreitet, beispielsweise das technische System ganz oder teilweise außer Betrieb genommen werden. Wenn etwa eine Drohne feststellt, dass plötzlich ein erhöhtes Risiko für das unerwünschte Ereignis „Kollision mit fremdem Eigentum“ besteht, kann sie automatisch zu ihrem Startort zurückkehren und dort landen oder sich im Extremfall sogar „opfern“, indem sie auf einer Freifläche oder ins Wasser abstürzt. Auch in diesem Beispiel hängen Basiswahrscheinlichkeiten von äußeren Bedingungen ab, was gut über die besagten Zugehörigkeitsfunktionen modelliert werden kann. So entscheidet etwa die Windstärke darüber, ob die Drohne ihre Position aus eigener Kraft noch kontrollieren kann, und die aktuelle Position entscheidet darüber, welches potentiell gefährdete fremde Eigentum in der Nähe ist.
-
Somit kann das Aktualisieren der Vorhersage insbesondere beispielsweise beinhalten, mit mindestens einem Sensor mindestens eine Zustandsgröße des technischen Systems und/oder seiner Umgebung zu erfassen und auf der Basis dieser Zustandsgröße mindestens eine Basis-Wahrscheinlichkeit für den Eintritt eines Basisereignisses anzupassen.
-
In einer weiteren vorteilhaften Ausgestaltung werden iterativ Basis-Wahrscheinlichkeiten verändert. Die Vorhersage der Wahrscheinlichkeit für das unerwünschte Ereignis wird nach jedem Änderungsschritt aktualisiert. Indem auf diese Weise die Änderungen der Wahrscheinlichkeit beobachtet werden, wird das Ziel verfolgt, die Wahrscheinlichkeit für das unerwünschte Ereignis auf oder unter einen vorgegebenen Schwellwert zu drücken.
-
Diese Ausgestaltung ist mehr für die Offline-Auslegung technischer Systeme gedacht als für die Online-Kontrolle im laufenden Betrieb. So ist beispielsweise für Steuerungssysteme, die in Fahrzeugen zum Einsatz kommen, oder auch in der industriellen Automatisierungstechnik häufig eine maximal zulässige Wahrscheinlichkeit, mit der bestimmte unerwünschte Ereignisse auftreten können, fest vorgegeben. Wenn in dem konkret untersuchten System diese Wahrscheinlichkeit über dem zulässigen Schwellwert liegt, stellt sich die Frage, an welcher Stelle das System sinnvollerweise verbessert werden kann, um die Wahrscheinlichkeit für das unerwünschte Ereignis möglichst effektiv und kostengünstig zu vermindern. So lässt sich die Zuverlässigkeit vieler Systeme durch doppelt oder gar mehrfach redundante Ausführung deutlich steigern, allerdings zu deutlich erhöhten Kosten und mit erhöhtem Gewicht und Energiebedarf, was für Anwendungen in Fahrzeugen oder Flugzeugen problematisch sein kann. Weiterhin kann der begrenzende Faktor für die Zuverlässigkeit eines Systems auch an einer anderen Stelle liegen als an einer punktuell fehlenden Redundanz.
-
Beispielsweise kann es ein Ergebnis der vorstehenden Analyse für unterschiedliche Werte der Basis-Wahrscheinlichkeiten sein, dass die Wahrscheinlichkeit für das unerwünschte Ereignis besonders kritisch von der Basis-Wahrscheinlichkeit für das Basisereignis abhängt, dass die Erfassung eines bestimmten Messwerts ungenau ist oder ganz fehlt. Es kann dann beispielsweise gezielt ein Sensor, der für die Erfassung dieser Messgröße zuständig ist, gegen einen höherwertigen Sensor mit besserer Zuverlässigkeit getauscht werden.
-
Es kann weiterhin bei der besagten Analyse erkannt werden, dass andere Basisereignisse vergleichsweise unkritisch sind in dem Sinne, dass die zugehörigen Basis-Wahrscheinlichkeiten nur einen vergleichsweise geringen Einfluss auf die Wahrscheinlichkeit für das unerwünschte Ereignis haben. Im Sinne einer Kostenoptimierung kann es daher sinnvoll sein, an einer derartigen Stelle an der Zuverlässigkeit zu sparen und das hier Ersparte an einer anderen Stelle zu reinvestieren, an der die Wahrscheinlichkeit für das unerwünschte Ereignis effektiver gedrückt werden kann.
-
Daher kann in einer weiteren vorteilhaften Ausgestaltung das Optimieren beinhalten, mindestens eine erste Basis-Wahrscheinlichkeit zu vermindern und im Gegenzug mindestens eine zweite Basis-Wahrscheinlichkeit zu erhöhen. Es kann also beispielsweise die Wahrscheinlichkeit für einen Ausfall eines Steuergeräts vermindert werden, indem für diejenigen Bauteile, auf deren Funktionieren das Steuergerät unbedingt angewiesen ist, die jeweils qualitativ höchstwertige und teuerste Ausführung gewählt wird und dafür Bauteile, deren Ausfall durch Redundanzen abgefangen werden kann, preisgünstiger auszuführen.
-
Wie zuvor erläutert, kann insbesondere beispielsweise ein Fahrzeug, ein Fahrzeugsystem, eine Verkehrssituation mit mehreren Verkehrsteilnehmern, ein Flugzeug, ein Flugzeugsystem, eine Drohne, eine Industrieanlage oder eine Windkraftanlage als technisches System gewählt werden.
-
Das Verfahren kann insbesondere ganz oder teilweise computerimplementiert sein. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem oder mehreren Computern und/oder Compute-Instanzen ausgeführt werden, den oder die Computer und/oder Compute-Instanzen dazu veranlassen, das beschriebene Verfahren auszuführen. In diesem Sinne sind auch Steuergeräte für Fahrzeuge und Embedded-Systeme für technische Geräte, die ebenfalls in der Lage sind, maschinenlesbare Anweisungen auszuführen, als Computer anzusehen. Beispiele für Compute-Instanzen sind virtuelle Maschinen, Container oder serverlose Ausführungsumgebungen für die Ausführung maschinenlesbarer Anweisungen in einer Cloud.
-
Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder auf ein Downloadprodukt mit dem Computerprogramm. Ein Downloadprodukt ist ein über ein Datennetzwerk übertragbares, d.h. von einem Benutzer des Datennetzwerks downloadbares, digitales Produkt, das beispielsweise in einem Online-Shop zum sofortigen Download feilgeboten werden kann.
-
Weiterhin kann ein Computer mit dem Computerprogramm, mit dem maschinenlesbaren Datenträger bzw. mit dem Downloadprodukt ausgerüstet sein.
-
Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
-
Ausführungsbeispiele
-
Es zeigt:
- 1 Ausführungsbeispiel des Verfahrens 100 zur Vorhersage der Wahrscheinlichkeit 2a für den Eintritt eines unerwünschten Ereignisses 2;
- 2 Beispielhafter Fuzzy-Fehlerbaum 5 für eine Verkehrssituation als technisches System 1;
- 3 Veranschaulichung der Arbeit des rekurrenten neuronalen Netzwerks 7.
-
1 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 100 zur Vorhersage der Wahrscheinlichkeit 2a, mit der ein unerwünschtes Ereignis 2 in einem technischen System 1 eintritt.
-
In Schritt 110 wird ein Fehlerbaum 5 bereitgestellt. Dieser Fehlerbaum 5 gibt an, wie N Basisereignisse 3 einzeln oder in Kombination eine Ursache dafür setzen können, dass das unerwünschte Ereignis 2 in dem technischen System 1 auftritt. Über logische Gatter 4 in dem Fehlerbaum 5 ist festgelegt, wie die Basisereignisse 3 zusammenwirken. Der Fehlerbaum 5 enthält auch Basis-Wahrscheinlichkeiten 3a, mit denen die Basisereignisse 3 jeweils eintreten. Mindestens eine Basis-Wahrscheinlichkeit 3a ist als Zugehörigkeitsfunktion eines Zustandsvektors st des technischen Systems 1 und/oder seiner Umgebung festgelegt. Es handelt sich also um eine Fuzzy-Basis-Wahrscheinlichkeit 3a.
-
In Schritt 120 wird der Fehlerbaum 5 als lineare Kette 6 von Basisereignissen 3, die jeweils an ein logisches Gatter 4 angeschlossen sind, modelliert. Hierbei hängt ein Zustandsvektor st, von dem die Basis-Wahrscheinlichkeit 3a eines jeden Basis-Ereignisses 3 abhängt, auch vom Zustandsvektor st-1 ab, der die Basis-Wahrscheinlichkeit 3a des jeweils vorherigen Basisereignisses 3 bestimmt. Ausgaben des logischen Gatters, an das das Basis-Ereignis 3 angeschlossen ist, werden durch einen Ausgaben-Vektor vt beschrieben.
-
Gemäß Block 121 können die Zustandsvariablen, von denen die Basis-Wahrscheinlichkeiten 3a aller Basisereignisse 3 abhängen, in jedem Zustandsvektor st zusammengefasst sein, bzw. die Ausgaben aller logischen Gatter können in jedem Ausgaben-Vektor vt zusammengefasst sein. Wie zuvor erläutert, haben dann alle Zustandsvektoren st, bzw. alle Ausgaben-Vektoren vt, eine einheitliche Größe.
-
Gemäß Block 122 kann die Reihe der Zustandsvektoren st, bzw. der Ausgaben-Vektoren vt, für t = 1, ... , N entsprechend der zeitlichen Entwicklung des technischen Systems 1 geordnet sein.
-
In Schritt 130 wird ein rekurrentes neuronales Netzwerk 7 mit Gewichten W anhand von Messdaten für die N Zustandsvektoren s1, ... , sn darauf trainiert, die Abhängigkeit eines jeden Zustandsvektors st vom jeweils vorherigen Zustandsvektor st-1 zu modellieren. Hierbei wird das rekurrente neuronale Netzwerk 7 für jedes t mit den gleichen Gewichten W aufs Neue durchlaufen.
-
Gemäß Block 131 kann das rekurrente neuronale Netzwerk 7 neben dem jeweils vorherigen Zustandsvektor st-1 auch die Ausgabe yt-1 des logischen Gatters 4, an der das vorherige Basisereignis 3 angeschlossen ist, als Eingabe erhalten.
-
Gemäß Block 132 kann das rekurrente neuronale Netzwerk (7) mit diskreter Arithmetik ausgeführt werden. Dies ist vorteilhaft für die Ausführung in Echtzeit auf Embedded-Systemen.
-
Gemäß Block 133 kann dem rekurrenten neuronalen Netzwerk 7 zusätzlich Rauschen als Eingabe zugeführt werden, um dieses Netzwerk 7 robuster gegen Unsicherheiten zu machen. Die Stärke dieses Rauschens kann gemäß Block 133a von Durchlauf zu Durchlauf des rekurrenten neuronalen Netzwerks 7, und/oder mit steigender Epochenzahl des Trainings, vermindert werden.
-
In Schritt 140 werden nach Abschluss des Trainings die Gewichte W zu der gesuchten Wahrscheinlichkeit 2a aggregiert.
-
In Schritt 150 wird aus einzelnen Gewichten W, die sich vom Durchschnitt der Gewichte W nach Maßgabe eines vorgegebenen Kriteriums abheben, mindestens ein Basisereignis 3 ausgewertet, das für die gesuchte Wahrscheinlichkeit 2a für das Eintreten des unerwünschten Ereignisses 2 maßgeblich ist.
-
In dem in 1 gezeigten Beispiel wird in Schritt 160 die Vorhersage der Wahrscheinlichkeit 2a für das unerwünschte Ereignis 2 im laufenden Betrieb des technischen Systems 1 fortwährend aktualisiert. In Schritt 170 kann dann geprüft werden, ob diese Wahrscheinlichkeit 2a einen vorgegebenen Schwellwert 8 überschreitet. Wenn dies der Fall ist (Wahrheitswert 1), kann beispielsweise
- • gemäß Block 171 eine für den Benutzer des technischen Systems 1 wahrnehmbare optische, akustische oder haptische Warneinrichtung aktiviert werden; und/oder
- • gemäß Block 172 das technische System 1 in einen Betriebsmodus versetzt werden, in dem die Wahrscheinlichkeit 2a für das unerwünschte Ereignis 2 vermindert wird, und/oder in dem nachteilige Folgen beim Eintritt des unerwünschten Ereignisses 2 abgeschwächt werden; und/oder
- • gemäß Block 173 das technische System 1 ganz oder teilweise außer Betrieb genommen werden.
-
Das Aktualisieren der Vorhersage kann insbesondere beispielsweise gemäß Block 161 beinhalten, mit mindestens einem Sensor mindestens eine Zustandsgröße des technischen Systems 1 und/oder seiner Umgebung zu erfassen. Gemäß Block 162 kann dann auf der Basis dieser Zustandsgröße mindestens eine Basis-Wahrscheinlichkeit 3a für den Eintritt eines Basisereignisses 3 angepasst werden.
-
In Schritt 180 können iterativ Basis-Wahrscheinlichkeiten 3a optimiert werden. Die Vorhersage der Wahrscheinlichkeit 2a für das unerwünschte Ereignis 2 kann dann in Schritt 190 nach jedem Optimierungsschritt aktualisiert werden. Das Optimieren erfolgt mit dem Ziel, die Wahrscheinlichkeit für das unerwünschte Ereignis 2 auf oder unterhalb einen vorgegebenen Sollwert 9 zu drücken.
-
2 zeigt beispielhaft, wie eine Verkehrssituation als technisches System 1 in einen Fehlerbaum 5 überführt werden kann. In diesem technischen System 1 soll die Zuverlässigkeit der Erfassung der Verkehrssituation mit einem Radarsystem geprüft werden. Das unerwünschte Ereignis 2 besteht darin, dass diese Erfassung in einem Maße fehlerhaft ist, dass ein auf der Grundlage dieser Erfassung gesteuertes Fahrzeug falsch auf die Verkehrssituation reagiert.
-
Der Fehlerbaum 5 enthält mehrere Basisereignisse 3, e1-e4, die jeweils mit Fuzzy-Basis-Wahrscheinlichkeiten 3a eintreten. Die Basisereignisse 3 sind über logische Gatter 4 miteinander verknüpft. Die logischen Gatter 4 produzieren Zwischenergebnisse 4a, yt, g1-g4, die dann wiederum weiteren logischen Gattern 4 als Eingaben zugeführt werden können. In dem in 2 gezeigten Beispiel entscheidet ein logisches Gatter 4 auf der Basis von Zwischenergebnissen g1 und g2 darüber, ob das unerwünschte Ereignis 2, top eintritt.
-
3 veranschaulicht die Durchläufe des rekurrenten neuronalen Netzwerks 7 anhand eines elektrostatisch-mechanischen Analogons. Ein Behälter B enthält das abgeschlossene System, dessen Inhalt iterativ berechnet wird. In der in 3 gezeigten Momentaufnahme enthält der Behälter B eine Suspension aus einem flüssigen Bestandteil, der dem Zustandsvektor st-1 entspricht, und Partikeln, die dem Ausgabe-Vektor yt-1 entsprechen. Durch eine Öffnung O in der Oberseite des Behälters B ragt die nächste anstehende Eingabe ut mit Zustandsvariablen, die nicht von den Zustandsvariablen vorheriger Basisereignisse 3 abhängen und insofern für den nun anstehenden Durchlauf spezifisch sind, in den Behälter B hinein und liegt dort auf einer Auflage A auf.
-
Wird nun das Rad D mit einer beliebigen Antriebsquelle gegen den Uhrzeigersinn gedreht, wird der Behälter B über die Pleuelstange P bewegt. Dadurch wird zunächst einmal die nächste anstehende Eingabe ut von dem Vorrat an Eingaben ut, ut+1, ut+2, ... abgeschnitten und fällt in die Suspension im Behälter B hinein, um sich dort aufzulösen. Der Behälter B bewegt sich in der in 2 gewählten Perspektive weiter nach links bis auf die Bearbeitungsposition E innerhalb des Plattenkondensators C, in dem ein elektrisches Feld die Wirkung der Gewichtsmatrix W und der Übergangsfunktion g vermittelt. Hierdurch reagiert und sortiert sich das Gemisch im Behälter B neu. Die Anwendung der Gewichtsmatrix W erzeugt den neuen flüssigen Bestandteil, der dem neuen Zustandsvektor st entspricht. Die Anwendung der Übergangsfunktion g scheidet hieraus neue Partikel ab, die dem neuen Ausgabe-Vektor yt entsprechen. Die weitere Drehung des Rades D bewegt den Behälter B nun über die Pleuelstange P zurück in die ursprüngliche, in 3 gezeigte Position. Sobald die nächste anstehende Eingabe ut+1 die Öffnung O in der Oberseite des Behälters B zeigt, rutscht sie bis auf die Auflage A im Behälter B nach unten, und der Zyklus beginnt von neuem.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- DE 102018203374 A1 [0004]