-
Technisches Gebiet
-
Die Erfindung betrifft Verfahren zur Überwachung eines Betriebsverhaltens eines technischen Systems und zum Detektieren von Anomalien in technischen Systemen, so dass eine Wartung, eine Reparatur oder ein Austausch des technischen Systems oder deren Komponenten veranlasst werden kann.
-
Technischer Hintergrund
-
Für die Anomaliedetektion in technischen Systemen im industriellen Umfeld werden in der Regel eine Vielzahl von deskriptiven Größen, die den Systemzustand des technischen Systems beschreiben, als Betriebsgrößenvektor erfasst. Mithilfe eines Anomaliedetektionsverfahrens, das beispielsweise ein trainierbares datenbasiertes Klassifikationsmodell nutzt, können die aktuell erfassten Betriebszustandsvektoren von vergleichbaren oder identischen technischen Systemen im laufenden Betrieb überwacht werden.
-
Das datenbasierte Klassifikationsmodell, wie z.B. einem Autoencoder, kann beispielsweise mit einer Trainingsmenge trainiert sein, die zu verschiedenen Zeitpunkten erfasste Betriebsgrößenvektoren und eine zugehörige Funktionalitätsangabe enthält. Die Funktionalitätsangabe gibt an, ob das technische System mit einem durch den betreffenden Betriebsgrößenvektor charakterisierten Systemzustand ordnungsgemäß funktioniert oder fehlerhaft ist. Die Qualität der Anomaliedetektion hängt bei der Verwendung von datenbasierten Klassifikationsmodellen erheblich von der verwendeten Trainingsmenge ab. Insbesondere die Überprüfung von Systemzuständen bei Umgebungsbedingungen, die in der Trainingsmenge nicht berücksichtigt worden sind, kann zu fehlerhaften Erkennungen von Anomalien (false positives) führen.
-
Offenbarung der Erfindung
-
Erfindungsgemäß sind ein Verfahren zur Anomaliedetektion in einem technischen System gemäß Anspruch 1 sowie eine Vorrichtung und ein technisches System gemäß den nebengeordneten Ansprüchen vorgesehen.
-
Weitere Ausgestaltungen sind in den abhängigen Ansprüchen angegeben.
-
Gemäß einem ersten Aspekt ist ein Verfahren zum Erkennen einer Anomalie in einem technischen System vorgesehen, mit folgenden Schritten:
- - Erfassen eines Betriebsgrößenvektors, der einen Betriebszustand des technischen Systems angibt und eine Anzahl von Betriebszustandsgrößen umfasst, die den Systemzustand des technischen System charakterisieren, wobei die Betriebszustandsgrößen Umgebungszustandsgrößen, die Umgebungsbedingungen angeben, in denen das technische System betrieben wird, und Systemzustandsgrößen interne Systemzustände des technischen Systems angeben, umfassen;
- - Bereitstellen eines Umgebungszustandsmodells und eines Anomaliedetektionsmodells, wobei das Umgebungszustandsmodell abhängig von mindestens einer der Umgebungszustandsgrößen eine Überprüfbarkeit des Betriebsgrößenvektors hinsichtlich des Vorliegens einer Anomalie unter Verwendung des Anomaliedetektionsmodells angibt, und wobei das Anomaliedetektionsmodells das Vorliegen einer zu erwartenden Anomalie abhängig von dem Betriebsgrößenvektor angibt, wobei das Umgebungszustandsmodell und das Anomaliedetektionsmodells jeweils datenbasierten Klassifikationsmodelle entsprechen;
- - Signalisieren einer Anomalie oder Nicht-Anomalie abhängig von einer Bewertung der Umgebungszustandsgrößen des Betriebsgrößenvektors anhand des Umgebungszustandsmodells und abhängig von einer Bewertung des Betriebsgrößenvektors abhängig von dem Anomaliedetektionsmodell.
-
Die Betriebszustandsgrößen, die den Systemzustand des technischen Systems charakterisieren, umfassen Umgebungszustandsgrößen, die Umgebungsbedingungen angeben, in denen das technische System betrieben wird, und Systemzustandsgrößen, die interne Zustandsgrößen des technischen Systems angeben. Bisherige Anomaliedetektionsverfahren basieren auf datenbasierten Klassifikationsverfahren, die mit einer Trainingsmenge aus Betriebsgrößenvektoren und zugehöriger Funktionalitätsangabe trainiert sind.
-
Daher können derartige datenbasierte Klassifikationsverfahren nur für eine zuverlässige Anomaliedetektion verwendet werden, wenn die aktuelle Umgebungsbedingung einer Umgebungsbedingung entsprechen oder zu dieser ähnlich sind, die in der Trainingsmenge berücksichtigt sind. Insbesondere kann der Einfluss von veränderten Umgebungsbedingungen unter Umständen zu einer fälschlichen Anomalieerkennung führen, da der Betriebsgrößenvektor aufgrund abweichender Umgebungsbedingungen (und damit abweichenden Umgebungszustandsgrößen) erheblich von den mit der Trainingsmenge trainierten Systemzuständen abweicht. Je mehr sich der tatsächliche Umgebungszustand von den Umgebungszuständen, die der Trainingsmenge zugrunde liegen, unterscheidet, desto höher ist die Wahrscheinlichkeit, dass eine Anomalie detektiert wird, auch wenn sich das technische System ordnungsgemäß verhält.
-
Es ist daher vorgesehen, ein auf einem trainierten Klassifikationsmodell basierendes Anomaliedetektionsverfahren mit einem Umgebungszustandsmodell zu ergänzen. Das Umgebungszustandsmodell dient dazu, den aktuellen Umgebungszustand dahingehend zu bewerten, ob es sich um einen im Training des Anomaliedetektionsverfahrens berücksichtigten Umgebungszustand oder um einen nicht berücksichtigten Umgebungszustand handelt. Mit anderen Worten bewertet das Umgebungszustandsmodell einen Umgebungszustand hinsichtlich der Überprüfbarkeit oder Nicht-Überprüfbarkeit, ob eine Anomalie vorliegt, durch das Anomaliedetektionsmodell. Ein berücksichtigter Umgebungszustand entspricht einem Umgebungszustand, der in der Trainingsmenge enthalten ist, mit dem das Anomaliedetektionsverfahren trainiert worden ist. Dadurch ist es möglich, festzustellen, ob ein unbekannter Umgebungszustand vorliegt, weil das technische System z. B. an einem anderen geographischen Ort eingesetzt wird oder weil sich z.B. die Anwendungsart des technischen Systems geändert hat.
-
Daher wird gemäß dem obigen Verfahren vorgeschlagen, den aktuellen Systemzustand mit dem Umgebungszustandsmodell zu überprüfen, um die Aussagekraft des Anomaliedetektion mithilfe des Anomaliedetektionsmodell zu evaluieren. Abhängig von dem Ergebnis der Bewertung des Umgebungszustand durch das Umgebungszustandsmodell wird das Ergebnis der Anomaliedetektion interpretiert, insbesondere akzeptiert oder verworfen.
-
Weiterhin können die Umgebungszustandsgrößen einen Luftdruck, eine Luftfeuchtigkeit, eine Umgebungstemperatur, eine angeforderte Last, eine Windgeschwindigkeit, einen einstellbaren Konfigurationsparameter des technischen Systems, einen anderen Messwert, der charakteristisch für die Umgebung ist, in der das technische System beschrieben wird, und/oder eine Kombination von Messwerten angeben. Die einstellbaren Konfigurationsparameter können vom Betreiber des Systems vorgegeben werden und sind während der Betriebsdauer gültig. Diese werden daher als Umgebungszustandsgrößen angesehen, die für die Umgebungszustandsklassifikation und Anomalieklassifikation sehr wichtig sind.
-
Es kann vorgesehen sein, dass eine Anomalie signalisiert wird, wenn eine Überprüfbarkeit des Systemzustands anhand des Umgebungszustandsmodells insbesondere mithilfe eines Schwellenwertvergleichs mit einem vorgegebenen Umgebungszustandsschwellenwert erkannt wird, und eine Anomalie mithilfe des Anomaliedetektionsmodell anhand eines Schwellenwertvergleichs mit einem vorgegebenen Anomaliedetektionsschwellenwert erkannt wird.
-
Gemäß einer Ausführunsgsform kann das Umgebungsmodell bei Feststellen einer Nicht-Überprüfbarkeit anhand des Umgebungszustandsmodells und/oder das Anomaliedetektionsmodell bei Feststellen einer Anomalie durch das Anomaliedetektionsmodell mit dem aktuellen Betriebsgrößenvektor neu trainiert oder nachtrainiert werden. Es kann vorgesehen sein, dass bei Erkennen einer Anomalie in einem Betriebsbereich, der sich außerhalb der zuvor trainierten Umgebungszustände befindet, kann entsprechend trainiert werden. Das Umgebungszustandsmodell kann dazu ein Klassifikationsverfahren verwendet werden, das mit dem weiteren Betriebszustand, in dem die Anomalie erkannt worden ist, ergänzt wird. Das Anomaliedetektionsmodell wird einer erkannten Anomalie oder Nicht-Anomalie entsprechend aktualisiert, um so das Anomaliedetektionsverfahren für künftige Erkennungen zu verbessern. Folglich wird künftig bei entsprechenden Umgebungszuständen das Umgebungszustandsmodell eine entsprechende Eignung des Anomaliedetektionsmodells erkennen.
-
Weiterhin kann das Umgebungszustandsmodell und das Anomaliedetektionsmodell als Normalizing Flow- Modelle ausgebildet sein. Normalizing Flow- Modelle sind trainierbare Klassifikationsmodelle. Diese Modelle haben den Vorteil, dass sie auch mit Negativ-Datenpunkten trainiert werden können, d.h. im vorliegenden Fall auch mit Betriebsgrößenvektoren, für die eine Anomalie erkannt worden ist.
-
Gemäß einem weiteren Aspekt ist eine Vorrichtung zum Erkennen einer Anomalie in einem technischen System vorgesehen, wobei die Vorrichtung ausgebildet ist zum:
- - Erfassen eines Betriebsgrößenvektors, der einen Betriebszustand des technischen Systems angibt und eine Anzahl von Betriebszustandsgrößen umfasst, die den Systemzustand des technischen System charakterisieren, wobei die Betriebszustandsgrößen Umgebungszustandsgrößen, die Umgebungsbedingungen angeben, in denen das technische System betrieben wird, und Systemzustandsgrößen interne Systemzustände des technischen Systems angeben, umfassen;
- - Bereitstellen eines Umgebungszustandsmodells, das abhängig von Umgebungszustandsgrößen eine Überprüfbarkeit des Betriebsgrößenvektors hinsichtlich des Vorliegens einer Anomalie angibt, und eines Anomaliedetektionsmodells, das abhängig von dem Betriebsgrößenvektor das Vorliegen einer zu erwartenden Anomalie angibt, wobei das Umgebungszustandsmodell und das Anomaliedetektionsmodells jeweils datenbasierten Klassifikationsmodelle entsprechen;
- - Signalisieren einer Anomalie oder Nicht-Anomalie abhängig von einer Bewertung der Umgebungszustandsgrößen des Betriebsgrößenvektors anhand des Umgebungszustandsmodells und abhängig von einer Bewertung des Betriebsgrößenvektors abhängig von dem Anomaliedetektionsmodell.
-
Figurenliste
-
Ausführungsformen werden nachfolgend anhand der beigefügten Zeichnungen näher erläutert. Es zeigen:
- 1 eine schematische Darstellung eines technischen Systems mit einem implementierten Verfahren zur Anomaliedetektion; und
- 2 ein Flussdiagramm zur Veranschaulichung des Ablaufs des Verfahrens zur Anomaliedetektion in dem technischen System der 1.
-
Beschreibung von Ausführungsformen
-
1 zeigt eine schematische Darstellung eines technischen Systems 1 mit einer Aktorik 2 und einer Sensorik 3. Das technische System 1 wird mit einer Steuereinheit 4 gesteuert, in der ein Algorithmus implementiert ist, um das technische System 1 ausgehend von den über die Sensorik 3 erkannten Systemzustände gemäß einer vorgegebenen Funktionalität zu steuern und dabei gegebenenfalls die Aktorik 3 anzusteuern.
-
Beispiele für derartige technische Systeme können automotive Systeme, Produkte und Komponenten, wie z. B. Assistenzsysteme, Injektoren, Pumpen, Brennstoffzellen, Batterien, Verbrennungsmotoren, Elektromotoren und dergleichen sein. Ferner können derartige technische Systeme Anlagen der Gebäude- und Energietechnik, wie z. B. Heizgeräte, Brennstoffzellen, Anlagen der Kraftwärmekopplung, Wärmepumpen, Klimageräte und dergleichen sein. Weiterhin können Werkzeugmaschinen und elektrisch betriebene Werkzeuge technische Systeme im Sinne dieser Erfindung sein, insbesondere Werkzeugmaschinen zur zerspanenden, umformenden, fügenden, formenden und wärmebehandelnden Bearbeitung von Werkstücken.
-
Die Sensorik 3 kann Umgebungszustandsgrößen, wie beispielsweise den Luftdruck, die Luftfeuchtigkeit, die Umgebungstemperatur, die Windgeschwindigkeit und dergleichen sowie auch Systemzustandsgrößen, wie beispielsweise eine Vibration, einen Druck von Versorgungs- und Betriebsmedien, eine Rotationsfrequenz von sich drehenden Teilen, eine Innentemperatur, einen Eigenwiderstand und dergleichen sein. Zu den Umgebungszustandsgrößen können ferner maschinenspezifische Merkmale in Form von außen vorgegebenen Größen, wie beispielsweise Sollgrößen, insbesondere eine angeforderte Last bei einem Generator oder einem Antriebsmotor, oder auch einstellbare Konfigurationsparameter des technischen Systems sein. Die einstellbaren Konfigurationsparameter können vom Betreiber des Systems vorgegeben oder eingestellt werden, betreffen eine während des Betriebs des technischen Systems 1 unveränderliche Grundeinstellung und sind zumindest während der Betriebsdauer gültig. Diese werden daher als Umgebungszustandsgrößen angesehen, die für die Umgebungszustandsklassifikation und Anomalieklassifikation sehr wichtig sind.
-
Neben dem herkömmlichen Betrieb des technischen Systems 1 führt die Steuereinheit 4 auch ein Anomaliedetektionsverfahren aus. Dieses Anomaliedetektionsverfahren kann als ein Algorithmus in der Steuereinheit 4, die eine Datenverarbeitungseinrichtung aufweist, insbesondere als Software und/oder Hardware implementiert sein und wird nachfolgend anhand des Flussdiagramms der 2 näher beschrieben.
-
In Schritt S1 wird zunächst ein Betriebsgrößenvektor ermittelt. Der Betriebsgrö-ßenvektor umfasst eine Anzahl von Betriebszustandsgrößen, die den Systemzustand des technischen Systems 1 charakterisieren. Die Betriebszustandsgrößen umfassen Umgebungszustandsgrößen, die Umgebungsbedingungen angeben, in denen das technische System betrieben wird, und Systemzustandsgrößen, die interne Zustandsgrößen des technischen Systems angeben.
-
In Schritt S2 wird überprüft, ob die Umgebungszustandsgrößen des Betriebsgrößenvektors entsprechend einem vorgegebenen Umgebungszustandsmodell eine Überprüfbarkeit oder Nicht-Überprüfbarkeit durch das Anomaliedetektionsmodell angeben. Das Umgebungszustandsmodell ist trainiert mit Umgebungszustandsvektoren, bei denen das technische System 1 zuvor hinsichtlich einer möglichen Anomalie vermessen worden ist. D.h. das Umgebungszustandsmodell bewertet Umgebungszustände als „überprüfbar“, die in einer Trainingsmenge aus Betriebszustandsvektoren und einer jeweils zugeordneten Funktionalitätsangabe berücksichtigt bzw. enthalten sind. Je näher sich der aktuelle Umgebungszustand an einem Umgebungszustand befindet, der beim Training des Anomaliedetektionsmodell berücksichtigt worden ist, desto eher kann die Erkennung eines sogenannten False Positive (fälschliche Anomalieerkennung) durch die Anomaliedetektion mithilfe des Anomaliedetektionsverfahrens ausgeschlossen werden.
-
Das Umgebungszustandsmodell ordnet den Umgebungszustandsgrößen des Betriebsgrößenvektors einen Wert einer Überprüfbarkeitsgröße zu, der z.B. zwischen 0 (Nicht-überprüfbar) und 1 (überprüfbar) liegen kann. Durch einen Schwellwertvergleich mit einem Überprüfbarkeitsschwellenwert kann festgestellt werden, ob eine Funktionsfähigkeit des technischen System 1 bei dem betreffenden Umgebungszustand überprüfbar ist oder nicht. Wird anhand des Umgebungszustandsmodells eine Überprüfbarkeit durch das Anomaliedetektionsmodell erkannt (Alternative: Ja), so wird das Verfahren mit Schritt S3 fortgesetzt, anderenfalls wird das Verfahren mit Schritt S4 fortgesetzt.
-
In Schritt S3 wird anhand eines vorgegebenen Anomaliedetektionsmodells überprüft, ob eine Anomalie vorliegt. Das Anomaliedetektionsmodell ist mit Betriebszustandsvektoren trainiert und gibt für den gesamten Betriebszustandsvektor, der den aktuellen Systemzustand und den Umgebungszustand des technischen Systems 1 angibt, eine Anomaliegröße aus. Durch Schwellwertvergleich mit einem vorgegebenen Anomalieschwellenwert kann die Anomaliegröße eine erkannte Anomalie oder ein erkannter ordnungsgemäßer Betrieb zugeordnet werden. Dazu kann insbesondere vorgesehen sein, das Vorliegen einer Nicht-Anomalie oder einer Anomalie mit Anomaliegrößen zwischen 0 und 1 zu bewerten. Wird eine Anomalie in Schritt S3 erkannt (Alternative: Ja), so wird in Schritt S5 eine Anomalie signalisiert. Andernfalls wird in Schritt S6 ein ordnungsgemäßer Betrieb des technischen Systems signalisiert.
-
In Schritt S4 wird anhand des trainierten Anomaliedetektionsmodells überprüft, ob eine Anomalie erkannt wird. Ist dies der Fall (Alternative: Ja), so kann aufgrund der vorausgegangenen negativen Bewertung der Überprüfbarkeit bei dem Umgebungszustand nicht sicher auf eine Anomalie geschlossen werden. Entsprechend wird das Verfahren mit Schritt S7 fortgesetzt und eine Warnung ausgegeben werden, dass es zu einem nicht spezifizierten Umgebungszustand und das technische System 1 in einer nicht spezifizierten Parametrierung betrieben wird.
-
Wird hingegen keine Anomalie erkannt (Alternative: Nein) , so kann davon ausgegangen werden, dass keine Anomalie vorliegt, obwohl der Umgebungszustand von den überprüfbaren Umgebungszuständen abweicht. Wird in Schritt S4 festgestellt, dass das technische System trotz Nicht-Überprüfbarkeit fehlerfrei betrieben werden kann, kann das Anomaliedetektionsmodell in Schritt S8 mit dem aktuellen Betriebsgrößenvektor nachtrainiert werden und das Umgebungsmodell entsprechend dem Umgebungszustandsgrößen ebenfalls aktualisiert werden.
-
Das Umgebungszustandsmodell und das Anomaliedetektionsmodell können als datenbasierte Klassifikationsmodelle implementiert sein. Das Bereitstellen des Umgebungszustandsmodells und des Anomaliedetektionsmodells erfolgt basierend auf Trainingsdaten, die aus einer Trainingsmenge von zu verschiedenen Zeitpunkten erfassten Betriebszustandsvektoren zusammengesetzt sind. Dabei wird das Umgebungszustandsmodell lediglich mit den Umgebungszustandsgrößen trainiert, so dass eine Klassifikation stattfinden kann, durch die festgestellt wird, ob ein Umgebungszustand in den Betriebszustandsvektoren der Trainingsmenge enthalten ist oder nicht. Das resultierende Klassifikationsmodell gibt damit eine Überprüfbarkeit an, ob das weiterhin trainierte Anomaliedetektionsmodell eine gültige Aussage über das Vorliegen oder Nicht-Vorliegen einer Anomalie treffen kann oder nicht bzw. ein Maß über die Aussagekraft des Anomaliedetektionsmodell bei dem betreffenden Umgebungszustand.
-
In entsprechender Weise wird das Anomaliedetektionsmodell basierend auf den vollständigen Betriebszustandsvektoren trainiert, wobei bei ordnungsgemäßen Betriebszuständen den entsprechenden Trainingspunkten jeweils eine Anomaliegröße von 0 zugeordnet wird, während bei erkannten Fehlern dem betreffenden Systemzustandsvektor der Wert der Anomaliegröße von 1 zugeordnet wird.
-
Als Basis für das Umgebungszustandsmodell und das Anomaliedetektionsmodell wird ein sogenannter Normalizing Flow eingesetzt. Ein Normalizing Flow transformiert eine unbekannte Wahrscheinlichkeitsverteilung p(x) durch eine bijektive Abbildungsfunktion NF:x → y in eine bekannte Wahrscheinlichkeitsverteilung p(y) mit einem Korrekturfaktor J, der ebenfalls von der Abbildung NF abhängt. Dadurch kann die Wahrscheinlichkeit für einen Datenpunkt x bestimmt werden, indem er durch die bijektive Abbildung des Normalizing Flow in den Datenpunkt y transformiert wird. Da die Wahrscheinlichkeitsverteilung p(y) bekannt ist und der Korrekturfaktor J der Determinanten der Jacobimatrix von der Abbildungsfunktion NF bestimmt ist, kann nun die Wahrscheinlichkeit von p(x) einfach durch p(x) = p(y) . J bestimmt werden. Die unbekannte Abbildungsfunktion kann durch Parameter p parametrisiert werden.
-
Um die bijektive Abbildung bzw. deren Parameter p zu lernen, kann eine Maximum-Likelihood-Methode eingesetzt werden. Dabei wird die Wahrscheinlichkeit eines Trainingsdatensatzes X, der sich aus den Betriebszustandsvektoren zusammensetzt, maximiert, und die Parameter p der Abbildungsfunktion NF werden so optimiert, dass die Wahrscheinlichkeit der Trainingsdaten maximal ist:
-
Um die Abbildungsfunktion NF als Anomaliedetektor zu verwenden, wird eine Trainingsmenge X erzeugt, die sich aus Betriebszustandsvektoren für eine ordnungsgemäße Funktionalität des technischen Systems 1 zusammensetzt. X enthält also Trainingspunkte bzw. Betriebszustandsvektoren, die erwiesenermaßen keine Anomalien sind. Maximiert man nun die Likelihood dieser Trainingsmenge, ist die Wahrscheinlichkeit p(x) an einem Trainingspunkt die Wahrscheinlichkeit dafür, dass es eine Nicht-Anomalie ist. Durch Festlegen eines Anomalieschwellenwerts S kann nun für die unbekannten (abgefragten) Betriebszustandsvektoren festgestellt werden, ob diese einer Anomalie entsprechen oder nicht. Ist bei obiger Konfiguration p(x) größer als der Anomalieschwellenwert S, liegt keine Anomalie vor, ansonsten liegt eine Anomalie vor.
-
Der Vorteil einer Normalizing Flow-Abbildungsfunktion für die Anomaliedetektion liegt darin, dass auch Negativbeispiele, d.h. erkannte Anomalien zum Training des Anomaliedetektionsmodells, verwendet werden können. So kann eine weitere Trainingsmenge X' ermittelt werden, die nur Betriebszustandsvektoren enthält, die Anomalien, d.h. Fehlfunktionen, entsprechen. Das Trainingsverfahren kann dann so erweitert werden, dass die Wahrscheinlichkeit p(x') möglichst klein wird, damit diese Anomalien eine Wahrscheinlichkeit p(x') < s haben und somit als Anomalie erkannt werden können. Das kombinierte Trainingsverfahren umfasst nun die Maximierung der Log-Likelihood der Positivbeispiele X, um die gleichzeitige Minimierung der Log-Likelihood der Negativbeispiele X'
αentspricht einem wählbaren bzw. vorgegebenen Gewichtungsfaktor, der zwischen den beiden Kriterien (Maximierung der X log-Likelihood und Minimierung der X' log-Likelihood) gewichtet.
-
Das heißt, die Wahrscheinlichkeit der Positivdaten X wird maximiert, während die Wahrscheinlichkeit der Negativdaten X' minimiert wird. Auf diese Weise kann sichergestellt werden, dass möglichst viele Nicht-Anomaliezustände eine Wahrscheinlichkeit p > S haben, während möglichst viele Anomaliezustände mit einer Wahrscheinlichkeit p < s auftreten.