DE102019208372A1 - Verfahren und Vorrichtung zur Anomaliedetektion in technischen Systemen - Google Patents

Verfahren und Vorrichtung zur Anomaliedetektion in technischen Systemen Download PDF

Info

Publication number
DE102019208372A1
DE102019208372A1 DE102019208372.2A DE102019208372A DE102019208372A1 DE 102019208372 A1 DE102019208372 A1 DE 102019208372A1 DE 102019208372 A DE102019208372 A DE 102019208372A DE 102019208372 A1 DE102019208372 A1 DE 102019208372A1
Authority
DE
Germany
Prior art keywords
anomaly
model
environmental
state
anomaly detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019208372.2A
Other languages
English (en)
Inventor
Christoph-Nikolas Straehle
Juergen Rapp
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019208372.2A priority Critical patent/DE102019208372A1/de
Publication of DE102019208372A1 publication Critical patent/DE102019208372A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0224Process history based detection method, e.g. whereby history implies the availability of large amounts of data
    • G05B23/024Quantitative history assessment, e.g. mathematical relationships between available data; Functions therefor; Principal component analysis [PCA]; Partial least square [PLS]; Statistical classifiers, e.g. Bayesian networks, linear regression or correlation analysis; Neural networks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50185Monitoring, detect failures, control of efficiency of machine, tool life

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erkennen einer Anomalie in einem technischen System (1), mit folgenden Schritten:- Erfassen (S1) eines Betriebsgrößenvektors, der einen Betriebszustand des technischen Systems (1) angibt und eine Anzahl von Betriebszustandsgrößen umfasst, die den Systemzustand des technischen System (1) charakterisieren, wobei die Betriebszustandsgrößen mindestens eine Umgebungszustandsgröße, die eine Umgebungsbedingung angibt, in der das technische System (1) betrieben wird, und Systemzustandsgrößen interne Systemzustände des technischen Systems (1) angeben, umfassen;- Bereitstellen eines Umgebungszustandsmodells und eines Anomaliedetektionsmodells, wobei das Umgebungszustandsmodell abhängig von mindestens einer der Umgebungszustandsgrößen eine Überprüfbarkeit des Betriebsgrößenvektors hinsichtlich des Vorliegens einer Anomalie unter Verwendung des Anomaliedetektionsmodells angibt, und wobei das Anomaliedetektionsmodells das Vorliegen einer zu erwartenden Anomalie abhängig von dem Betriebsgrößenvektor angibt,- Signalisieren (S3, S5, S6) eines Vorliegens einer Anomalie oder einer Nicht-Anomalie abhängig von einer Bewertung der mindestens einen Umgebungszustandsgröße des Betriebsgrößenvektors anhand des Umgebungszustandsmodells und abhängig von einer Bewertung des Betriebsgrößenvektors abhängig von dem Anomaliedetektionsmodell.

Description

  • Technisches Gebiet
  • Die Erfindung betrifft Verfahren zur Überwachung eines Betriebsverhaltens eines technischen Systems und zum Detektieren von Anomalien in technischen Systemen, so dass eine Wartung, eine Reparatur oder ein Austausch des technischen Systems oder deren Komponenten veranlasst werden kann.
  • Technischer Hintergrund
  • Für die Anomaliedetektion in technischen Systemen im industriellen Umfeld werden in der Regel eine Vielzahl von deskriptiven Größen, die den Systemzustand des technischen Systems beschreiben, als Betriebsgrößenvektor erfasst. Mithilfe eines Anomaliedetektionsverfahrens, das beispielsweise ein trainierbares datenbasiertes Klassifikationsmodell nutzt, können die aktuell erfassten Betriebszustandsvektoren von vergleichbaren oder identischen technischen Systemen im laufenden Betrieb überwacht werden.
  • Das datenbasierte Klassifikationsmodell, wie z.B. einem Autoencoder, kann beispielsweise mit einer Trainingsmenge trainiert sein, die zu verschiedenen Zeitpunkten erfasste Betriebsgrößenvektoren und eine zugehörige Funktionalitätsangabe enthält. Die Funktionalitätsangabe gibt an, ob das technische System mit einem durch den betreffenden Betriebsgrößenvektor charakterisierten Systemzustand ordnungsgemäß funktioniert oder fehlerhaft ist. Die Qualität der Anomaliedetektion hängt bei der Verwendung von datenbasierten Klassifikationsmodellen erheblich von der verwendeten Trainingsmenge ab. Insbesondere die Überprüfung von Systemzuständen bei Umgebungsbedingungen, die in der Trainingsmenge nicht berücksichtigt worden sind, kann zu fehlerhaften Erkennungen von Anomalien (false positives) führen.
  • Offenbarung der Erfindung
  • Erfindungsgemäß sind ein Verfahren zur Anomaliedetektion in einem technischen System gemäß Anspruch 1 sowie eine Vorrichtung und ein technisches System gemäß den nebengeordneten Ansprüchen vorgesehen.
  • Weitere Ausgestaltungen sind in den abhängigen Ansprüchen angegeben.
  • Gemäß einem ersten Aspekt ist ein Verfahren zum Erkennen einer Anomalie in einem technischen System vorgesehen, mit folgenden Schritten:
    • - Erfassen eines Betriebsgrößenvektors, der einen Betriebszustand des technischen Systems angibt und eine Anzahl von Betriebszustandsgrößen umfasst, die den Systemzustand des technischen System charakterisieren, wobei die Betriebszustandsgrößen Umgebungszustandsgrößen, die Umgebungsbedingungen angeben, in denen das technische System betrieben wird, und Systemzustandsgrößen interne Systemzustände des technischen Systems angeben, umfassen;
    • - Bereitstellen eines Umgebungszustandsmodells und eines Anomaliedetektionsmodells, wobei das Umgebungszustandsmodell abhängig von mindestens einer der Umgebungszustandsgrößen eine Überprüfbarkeit des Betriebsgrößenvektors hinsichtlich des Vorliegens einer Anomalie unter Verwendung des Anomaliedetektionsmodells angibt, und wobei das Anomaliedetektionsmodells das Vorliegen einer zu erwartenden Anomalie abhängig von dem Betriebsgrößenvektor angibt, wobei das Umgebungszustandsmodell und das Anomaliedetektionsmodells jeweils datenbasierten Klassifikationsmodelle entsprechen;
    • - Signalisieren einer Anomalie oder Nicht-Anomalie abhängig von einer Bewertung der Umgebungszustandsgrößen des Betriebsgrößenvektors anhand des Umgebungszustandsmodells und abhängig von einer Bewertung des Betriebsgrößenvektors abhängig von dem Anomaliedetektionsmodell.
  • Die Betriebszustandsgrößen, die den Systemzustand des technischen Systems charakterisieren, umfassen Umgebungszustandsgrößen, die Umgebungsbedingungen angeben, in denen das technische System betrieben wird, und Systemzustandsgrößen, die interne Zustandsgrößen des technischen Systems angeben. Bisherige Anomaliedetektionsverfahren basieren auf datenbasierten Klassifikationsverfahren, die mit einer Trainingsmenge aus Betriebsgrößenvektoren und zugehöriger Funktionalitätsangabe trainiert sind.
  • Daher können derartige datenbasierte Klassifikationsverfahren nur für eine zuverlässige Anomaliedetektion verwendet werden, wenn die aktuelle Umgebungsbedingung einer Umgebungsbedingung entsprechen oder zu dieser ähnlich sind, die in der Trainingsmenge berücksichtigt sind. Insbesondere kann der Einfluss von veränderten Umgebungsbedingungen unter Umständen zu einer fälschlichen Anomalieerkennung führen, da der Betriebsgrößenvektor aufgrund abweichender Umgebungsbedingungen (und damit abweichenden Umgebungszustandsgrößen) erheblich von den mit der Trainingsmenge trainierten Systemzuständen abweicht. Je mehr sich der tatsächliche Umgebungszustand von den Umgebungszuständen, die der Trainingsmenge zugrunde liegen, unterscheidet, desto höher ist die Wahrscheinlichkeit, dass eine Anomalie detektiert wird, auch wenn sich das technische System ordnungsgemäß verhält.
  • Es ist daher vorgesehen, ein auf einem trainierten Klassifikationsmodell basierendes Anomaliedetektionsverfahren mit einem Umgebungszustandsmodell zu ergänzen. Das Umgebungszustandsmodell dient dazu, den aktuellen Umgebungszustand dahingehend zu bewerten, ob es sich um einen im Training des Anomaliedetektionsverfahrens berücksichtigten Umgebungszustand oder um einen nicht berücksichtigten Umgebungszustand handelt. Mit anderen Worten bewertet das Umgebungszustandsmodell einen Umgebungszustand hinsichtlich der Überprüfbarkeit oder Nicht-Überprüfbarkeit, ob eine Anomalie vorliegt, durch das Anomaliedetektionsmodell. Ein berücksichtigter Umgebungszustand entspricht einem Umgebungszustand, der in der Trainingsmenge enthalten ist, mit dem das Anomaliedetektionsverfahren trainiert worden ist. Dadurch ist es möglich, festzustellen, ob ein unbekannter Umgebungszustand vorliegt, weil das technische System z. B. an einem anderen geographischen Ort eingesetzt wird oder weil sich z.B. die Anwendungsart des technischen Systems geändert hat.
  • Daher wird gemäß dem obigen Verfahren vorgeschlagen, den aktuellen Systemzustand mit dem Umgebungszustandsmodell zu überprüfen, um die Aussagekraft des Anomaliedetektion mithilfe des Anomaliedetektionsmodell zu evaluieren. Abhängig von dem Ergebnis der Bewertung des Umgebungszustand durch das Umgebungszustandsmodell wird das Ergebnis der Anomaliedetektion interpretiert, insbesondere akzeptiert oder verworfen.
  • Weiterhin können die Umgebungszustandsgrößen einen Luftdruck, eine Luftfeuchtigkeit, eine Umgebungstemperatur, eine angeforderte Last, eine Windgeschwindigkeit, einen einstellbaren Konfigurationsparameter des technischen Systems, einen anderen Messwert, der charakteristisch für die Umgebung ist, in der das technische System beschrieben wird, und/oder eine Kombination von Messwerten angeben. Die einstellbaren Konfigurationsparameter können vom Betreiber des Systems vorgegeben werden und sind während der Betriebsdauer gültig. Diese werden daher als Umgebungszustandsgrößen angesehen, die für die Umgebungszustandsklassifikation und Anomalieklassifikation sehr wichtig sind.
  • Es kann vorgesehen sein, dass eine Anomalie signalisiert wird, wenn eine Überprüfbarkeit des Systemzustands anhand des Umgebungszustandsmodells insbesondere mithilfe eines Schwellenwertvergleichs mit einem vorgegebenen Umgebungszustandsschwellenwert erkannt wird, und eine Anomalie mithilfe des Anomaliedetektionsmodell anhand eines Schwellenwertvergleichs mit einem vorgegebenen Anomaliedetektionsschwellenwert erkannt wird.
  • Gemäß einer Ausführunsgsform kann das Umgebungsmodell bei Feststellen einer Nicht-Überprüfbarkeit anhand des Umgebungszustandsmodells und/oder das Anomaliedetektionsmodell bei Feststellen einer Anomalie durch das Anomaliedetektionsmodell mit dem aktuellen Betriebsgrößenvektor neu trainiert oder nachtrainiert werden. Es kann vorgesehen sein, dass bei Erkennen einer Anomalie in einem Betriebsbereich, der sich außerhalb der zuvor trainierten Umgebungszustände befindet, kann entsprechend trainiert werden. Das Umgebungszustandsmodell kann dazu ein Klassifikationsverfahren verwendet werden, das mit dem weiteren Betriebszustand, in dem die Anomalie erkannt worden ist, ergänzt wird. Das Anomaliedetektionsmodell wird einer erkannten Anomalie oder Nicht-Anomalie entsprechend aktualisiert, um so das Anomaliedetektionsverfahren für künftige Erkennungen zu verbessern. Folglich wird künftig bei entsprechenden Umgebungszuständen das Umgebungszustandsmodell eine entsprechende Eignung des Anomaliedetektionsmodells erkennen.
  • Weiterhin kann das Umgebungszustandsmodell und das Anomaliedetektionsmodell als Normalizing Flow- Modelle ausgebildet sein. Normalizing Flow- Modelle sind trainierbare Klassifikationsmodelle. Diese Modelle haben den Vorteil, dass sie auch mit Negativ-Datenpunkten trainiert werden können, d.h. im vorliegenden Fall auch mit Betriebsgrößenvektoren, für die eine Anomalie erkannt worden ist.
  • Gemäß einem weiteren Aspekt ist eine Vorrichtung zum Erkennen einer Anomalie in einem technischen System vorgesehen, wobei die Vorrichtung ausgebildet ist zum:
    • - Erfassen eines Betriebsgrößenvektors, der einen Betriebszustand des technischen Systems angibt und eine Anzahl von Betriebszustandsgrößen umfasst, die den Systemzustand des technischen System charakterisieren, wobei die Betriebszustandsgrößen Umgebungszustandsgrößen, die Umgebungsbedingungen angeben, in denen das technische System betrieben wird, und Systemzustandsgrößen interne Systemzustände des technischen Systems angeben, umfassen;
    • - Bereitstellen eines Umgebungszustandsmodells, das abhängig von Umgebungszustandsgrößen eine Überprüfbarkeit des Betriebsgrößenvektors hinsichtlich des Vorliegens einer Anomalie angibt, und eines Anomaliedetektionsmodells, das abhängig von dem Betriebsgrößenvektor das Vorliegen einer zu erwartenden Anomalie angibt, wobei das Umgebungszustandsmodell und das Anomaliedetektionsmodells jeweils datenbasierten Klassifikationsmodelle entsprechen;
    • - Signalisieren einer Anomalie oder Nicht-Anomalie abhängig von einer Bewertung der Umgebungszustandsgrößen des Betriebsgrößenvektors anhand des Umgebungszustandsmodells und abhängig von einer Bewertung des Betriebsgrößenvektors abhängig von dem Anomaliedetektionsmodell.
  • Figurenliste
  • Ausführungsformen werden nachfolgend anhand der beigefügten Zeichnungen näher erläutert. Es zeigen:
    • 1 eine schematische Darstellung eines technischen Systems mit einem implementierten Verfahren zur Anomaliedetektion; und
    • 2 ein Flussdiagramm zur Veranschaulichung des Ablaufs des Verfahrens zur Anomaliedetektion in dem technischen System der 1.
  • Beschreibung von Ausführungsformen
  • 1 zeigt eine schematische Darstellung eines technischen Systems 1 mit einer Aktorik 2 und einer Sensorik 3. Das technische System 1 wird mit einer Steuereinheit 4 gesteuert, in der ein Algorithmus implementiert ist, um das technische System 1 ausgehend von den über die Sensorik 3 erkannten Systemzustände gemäß einer vorgegebenen Funktionalität zu steuern und dabei gegebenenfalls die Aktorik 3 anzusteuern.
  • Beispiele für derartige technische Systeme können automotive Systeme, Produkte und Komponenten, wie z. B. Assistenzsysteme, Injektoren, Pumpen, Brennstoffzellen, Batterien, Verbrennungsmotoren, Elektromotoren und dergleichen sein. Ferner können derartige technische Systeme Anlagen der Gebäude- und Energietechnik, wie z. B. Heizgeräte, Brennstoffzellen, Anlagen der Kraftwärmekopplung, Wärmepumpen, Klimageräte und dergleichen sein. Weiterhin können Werkzeugmaschinen und elektrisch betriebene Werkzeuge technische Systeme im Sinne dieser Erfindung sein, insbesondere Werkzeugmaschinen zur zerspanenden, umformenden, fügenden, formenden und wärmebehandelnden Bearbeitung von Werkstücken.
  • Die Sensorik 3 kann Umgebungszustandsgrößen, wie beispielsweise den Luftdruck, die Luftfeuchtigkeit, die Umgebungstemperatur, die Windgeschwindigkeit und dergleichen sowie auch Systemzustandsgrößen, wie beispielsweise eine Vibration, einen Druck von Versorgungs- und Betriebsmedien, eine Rotationsfrequenz von sich drehenden Teilen, eine Innentemperatur, einen Eigenwiderstand und dergleichen sein. Zu den Umgebungszustandsgrößen können ferner maschinenspezifische Merkmale in Form von außen vorgegebenen Größen, wie beispielsweise Sollgrößen, insbesondere eine angeforderte Last bei einem Generator oder einem Antriebsmotor, oder auch einstellbare Konfigurationsparameter des technischen Systems sein. Die einstellbaren Konfigurationsparameter können vom Betreiber des Systems vorgegeben oder eingestellt werden, betreffen eine während des Betriebs des technischen Systems 1 unveränderliche Grundeinstellung und sind zumindest während der Betriebsdauer gültig. Diese werden daher als Umgebungszustandsgrößen angesehen, die für die Umgebungszustandsklassifikation und Anomalieklassifikation sehr wichtig sind.
  • Neben dem herkömmlichen Betrieb des technischen Systems 1 führt die Steuereinheit 4 auch ein Anomaliedetektionsverfahren aus. Dieses Anomaliedetektionsverfahren kann als ein Algorithmus in der Steuereinheit 4, die eine Datenverarbeitungseinrichtung aufweist, insbesondere als Software und/oder Hardware implementiert sein und wird nachfolgend anhand des Flussdiagramms der 2 näher beschrieben.
  • In Schritt S1 wird zunächst ein Betriebsgrößenvektor ermittelt. Der Betriebsgrö-ßenvektor umfasst eine Anzahl von Betriebszustandsgrößen, die den Systemzustand des technischen Systems 1 charakterisieren. Die Betriebszustandsgrößen umfassen Umgebungszustandsgrößen, die Umgebungsbedingungen angeben, in denen das technische System betrieben wird, und Systemzustandsgrößen, die interne Zustandsgrößen des technischen Systems angeben.
  • In Schritt S2 wird überprüft, ob die Umgebungszustandsgrößen des Betriebsgrößenvektors entsprechend einem vorgegebenen Umgebungszustandsmodell eine Überprüfbarkeit oder Nicht-Überprüfbarkeit durch das Anomaliedetektionsmodell angeben. Das Umgebungszustandsmodell ist trainiert mit Umgebungszustandsvektoren, bei denen das technische System 1 zuvor hinsichtlich einer möglichen Anomalie vermessen worden ist. D.h. das Umgebungszustandsmodell bewertet Umgebungszustände als „überprüfbar“, die in einer Trainingsmenge aus Betriebszustandsvektoren und einer jeweils zugeordneten Funktionalitätsangabe berücksichtigt bzw. enthalten sind. Je näher sich der aktuelle Umgebungszustand an einem Umgebungszustand befindet, der beim Training des Anomaliedetektionsmodell berücksichtigt worden ist, desto eher kann die Erkennung eines sogenannten False Positive (fälschliche Anomalieerkennung) durch die Anomaliedetektion mithilfe des Anomaliedetektionsverfahrens ausgeschlossen werden.
  • Das Umgebungszustandsmodell ordnet den Umgebungszustandsgrößen des Betriebsgrößenvektors einen Wert einer Überprüfbarkeitsgröße zu, der z.B. zwischen 0 (Nicht-überprüfbar) und 1 (überprüfbar) liegen kann. Durch einen Schwellwertvergleich mit einem Überprüfbarkeitsschwellenwert kann festgestellt werden, ob eine Funktionsfähigkeit des technischen System 1 bei dem betreffenden Umgebungszustand überprüfbar ist oder nicht. Wird anhand des Umgebungszustandsmodells eine Überprüfbarkeit durch das Anomaliedetektionsmodell erkannt (Alternative: Ja), so wird das Verfahren mit Schritt S3 fortgesetzt, anderenfalls wird das Verfahren mit Schritt S4 fortgesetzt.
  • In Schritt S3 wird anhand eines vorgegebenen Anomaliedetektionsmodells überprüft, ob eine Anomalie vorliegt. Das Anomaliedetektionsmodell ist mit Betriebszustandsvektoren trainiert und gibt für den gesamten Betriebszustandsvektor, der den aktuellen Systemzustand und den Umgebungszustand des technischen Systems 1 angibt, eine Anomaliegröße aus. Durch Schwellwertvergleich mit einem vorgegebenen Anomalieschwellenwert kann die Anomaliegröße eine erkannte Anomalie oder ein erkannter ordnungsgemäßer Betrieb zugeordnet werden. Dazu kann insbesondere vorgesehen sein, das Vorliegen einer Nicht-Anomalie oder einer Anomalie mit Anomaliegrößen zwischen 0 und 1 zu bewerten. Wird eine Anomalie in Schritt S3 erkannt (Alternative: Ja), so wird in Schritt S5 eine Anomalie signalisiert. Andernfalls wird in Schritt S6 ein ordnungsgemäßer Betrieb des technischen Systems signalisiert.
  • In Schritt S4 wird anhand des trainierten Anomaliedetektionsmodells überprüft, ob eine Anomalie erkannt wird. Ist dies der Fall (Alternative: Ja), so kann aufgrund der vorausgegangenen negativen Bewertung der Überprüfbarkeit bei dem Umgebungszustand nicht sicher auf eine Anomalie geschlossen werden. Entsprechend wird das Verfahren mit Schritt S7 fortgesetzt und eine Warnung ausgegeben werden, dass es zu einem nicht spezifizierten Umgebungszustand und das technische System 1 in einer nicht spezifizierten Parametrierung betrieben wird.
  • Wird hingegen keine Anomalie erkannt (Alternative: Nein) , so kann davon ausgegangen werden, dass keine Anomalie vorliegt, obwohl der Umgebungszustand von den überprüfbaren Umgebungszuständen abweicht. Wird in Schritt S4 festgestellt, dass das technische System trotz Nicht-Überprüfbarkeit fehlerfrei betrieben werden kann, kann das Anomaliedetektionsmodell in Schritt S8 mit dem aktuellen Betriebsgrößenvektor nachtrainiert werden und das Umgebungsmodell entsprechend dem Umgebungszustandsgrößen ebenfalls aktualisiert werden.
  • Das Umgebungszustandsmodell und das Anomaliedetektionsmodell können als datenbasierte Klassifikationsmodelle implementiert sein. Das Bereitstellen des Umgebungszustandsmodells und des Anomaliedetektionsmodells erfolgt basierend auf Trainingsdaten, die aus einer Trainingsmenge von zu verschiedenen Zeitpunkten erfassten Betriebszustandsvektoren zusammengesetzt sind. Dabei wird das Umgebungszustandsmodell lediglich mit den Umgebungszustandsgrößen trainiert, so dass eine Klassifikation stattfinden kann, durch die festgestellt wird, ob ein Umgebungszustand in den Betriebszustandsvektoren der Trainingsmenge enthalten ist oder nicht. Das resultierende Klassifikationsmodell gibt damit eine Überprüfbarkeit an, ob das weiterhin trainierte Anomaliedetektionsmodell eine gültige Aussage über das Vorliegen oder Nicht-Vorliegen einer Anomalie treffen kann oder nicht bzw. ein Maß über die Aussagekraft des Anomaliedetektionsmodell bei dem betreffenden Umgebungszustand.
  • In entsprechender Weise wird das Anomaliedetektionsmodell basierend auf den vollständigen Betriebszustandsvektoren trainiert, wobei bei ordnungsgemäßen Betriebszuständen den entsprechenden Trainingspunkten jeweils eine Anomaliegröße von 0 zugeordnet wird, während bei erkannten Fehlern dem betreffenden Systemzustandsvektor der Wert der Anomaliegröße von 1 zugeordnet wird.
  • Als Basis für das Umgebungszustandsmodell und das Anomaliedetektionsmodell wird ein sogenannter Normalizing Flow eingesetzt. Ein Normalizing Flow transformiert eine unbekannte Wahrscheinlichkeitsverteilung p(x) durch eine bijektive Abbildungsfunktion NF:x → y in eine bekannte Wahrscheinlichkeitsverteilung p(y) mit einem Korrekturfaktor J, der ebenfalls von der Abbildung NF abhängt. Dadurch kann die Wahrscheinlichkeit für einen Datenpunkt x bestimmt werden, indem er durch die bijektive Abbildung des Normalizing Flow in den Datenpunkt y transformiert wird. Da die Wahrscheinlichkeitsverteilung p(y) bekannt ist und der Korrekturfaktor J der Determinanten der Jacobimatrix von der Abbildungsfunktion NF bestimmt ist, kann nun die Wahrscheinlichkeit von p(x) einfach durch p(x) = p(y) . J bestimmt werden. Die unbekannte Abbildungsfunktion kann durch Parameter p parametrisiert werden.
  • Um die bijektive Abbildung bzw. deren Parameter p zu lernen, kann eine Maximum-Likelihood-Methode eingesetzt werden. Dabei wird die Wahrscheinlichkeit eines Trainingsdatensatzes X, der sich aus den Betriebszustandsvektoren zusammensetzt, maximiert, und die Parameter p der Abbildungsfunktion NF werden so optimiert, dass die Wahrscheinlichkeit der Trainingsdaten maximal ist: argmax p   S U M x   l o g ( P ( N F ( x ) ) J ( x ) )
    Figure DE102019208372A1_0001
  • Um die Abbildungsfunktion NF als Anomaliedetektor zu verwenden, wird eine Trainingsmenge X erzeugt, die sich aus Betriebszustandsvektoren für eine ordnungsgemäße Funktionalität des technischen Systems 1 zusammensetzt. X enthält also Trainingspunkte bzw. Betriebszustandsvektoren, die erwiesenermaßen keine Anomalien sind. Maximiert man nun die Likelihood dieser Trainingsmenge, ist die Wahrscheinlichkeit p(x) an einem Trainingspunkt die Wahrscheinlichkeit dafür, dass es eine Nicht-Anomalie ist. Durch Festlegen eines Anomalieschwellenwerts S kann nun für die unbekannten (abgefragten) Betriebszustandsvektoren festgestellt werden, ob diese einer Anomalie entsprechen oder nicht. Ist bei obiger Konfiguration p(x) größer als der Anomalieschwellenwert S, liegt keine Anomalie vor, ansonsten liegt eine Anomalie vor.
  • Der Vorteil einer Normalizing Flow-Abbildungsfunktion für die Anomaliedetektion liegt darin, dass auch Negativbeispiele, d.h. erkannte Anomalien zum Training des Anomaliedetektionsmodells, verwendet werden können. So kann eine weitere Trainingsmenge X' ermittelt werden, die nur Betriebszustandsvektoren enthält, die Anomalien, d.h. Fehlfunktionen, entsprechen. Das Trainingsverfahren kann dann so erweitert werden, dass die Wahrscheinlichkeit p(x') möglichst klein wird, damit diese Anomalien eine Wahrscheinlichkeit p(x') < s haben und somit als Anomalie erkannt werden können. Das kombinierte Trainingsverfahren umfasst nun die Maximierung der Log-Likelihood der Positivbeispiele X, um die gleichzeitige Minimierung der Log-Likelihood der Negativbeispiele X' argmax p   S U M x   l o g ( P ( N F ( x ) ) J ( x ) ) α   S U M x l o g ( P ( N F ( x ' ) ) J ( x ' ) )
    Figure DE102019208372A1_0002
    αentspricht einem wählbaren bzw. vorgegebenen Gewichtungsfaktor, der zwischen den beiden Kriterien (Maximierung der X log-Likelihood und Minimierung der X' log-Likelihood) gewichtet.
  • Das heißt, die Wahrscheinlichkeit der Positivdaten X wird maximiert, während die Wahrscheinlichkeit der Negativdaten X' minimiert wird. Auf diese Weise kann sichergestellt werden, dass möglichst viele Nicht-Anomaliezustände eine Wahrscheinlichkeit p > S haben, während möglichst viele Anomaliezustände mit einer Wahrscheinlichkeit p < s auftreten.

Claims (9)

  1. Computerimplementiertes Verfahren zum Erkennen einer Anomalie in einem technischen System (1), mit folgenden Schritten: - Erfassen (S1) eines Betriebsgrößenvektors, der einen Betriebszustand des technischen Systems (1) angibt und eine Anzahl von Betriebszustandsgrößen umfasst, die den Systemzustand des technischen System (1) charakterisieren, wobei die Betriebszustandsgrößen mindestens eine Umgebungszustandsgröße, die eine Umgebungsbedingung angibt, in der das technische System (1) betrieben wird, und Systemzustandsgrößen interne Systemzustände des technischen Systems (1) angeben, umfassen; - Bereitstellen eines Umgebungszustandsmodells und eines Anomaliedetektionsmodells, wobei das Umgebungszustandsmodell abhängig von mindestens einer der Umgebungszustandsgrößen eine Überprüfbarkeit des Betriebsgrößenvektors hinsichtlich des Vorliegens einer Anomalie unter Verwendung des Anomaliedetektionsmodells angibt, und wobei das Anomaliedetektionsmodells das Vorliegen einer zu erwartenden Anomalie abhängig von dem Betriebsgrößenvektor angibt, - Signalisieren (S3, S5, S6) eines Vorliegens einer Anomalie oder einer Nicht-Anomalie abhängig von einer Bewertung der mindestens einen Umgebungszustandsgröße des Betriebsgrößenvektors anhand des Umgebungszustandsmodells und abhängig von einer Bewertung des Betriebsgrößenvektors abhängig von dem Anomaliedetektionsmodell.
  2. Verfahren nach Anspruch 1, wobei die Umgebungszustandsgrößen einen oder mehrere der folgenden Parameter umfassen: einen Luftdruck, eine Luftfeuchtigkeit, eine Umgebungstemperatur, eine angeforderte Last, eine Windgeschwindigkeit und einen einstellbaren Konfigurationsparameter des technischen Systems angeben.
  3. Verfahren nach Anspruch 1 oder 2, wobei eine Anomalie signalisiert wird (S3, S5), wenn eine Überprüfbarkeit des Systemzustands anhand des Umgebungszustandsmodells insbesondere mithilfe eines Schwellenwertvergleichs mit einem vorgegebenen Umgebungszustandsschwellenwert erkannt wird, und eine Anomalie mithilfe des Anomaliedetektionsmodell anhand eines Schwellenwertvergleichs mit einem vorgegebenen Anomaliedetektionsschwellenwert erkannt wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei bei Feststellen einer Nicht-Überprüfbarkeit anhand des Umgebungszustandsmodells das Umgebungsmodell und/oder das Anomaliedetektionsmodell mit dem aktuellen Betriebsgrößenvektor nachtrainiert werden.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei bei Feststellen einer Überprüfbarkeit anhand des Umgebungszustandsmodells das Umgebungsmodell und/oder das Anomaliedetektionsmodell mit dem aktuellen Betriebsgrößenvektor nachtrainiert werden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei das Umgebungszustandsmodell und/oder das Anomaliedetektionsmodell als Normalizing Flow- Modelle ausgebildet sind.
  7. Vorrichtung zum Erkennen einer Anomalie in einem technischen System (1), wobei die Vorrichtung ausgebildet ist zum: - Erfassen eines Betriebsgrößenvektors, der einen Betriebszustand des technischen Systems angibt und eine Anzahl von Betriebszustandsgrößen umfasst, die den Systemzustand des technischen System charakterisieren, wobei die Betriebszustandsgrößen Umgebungszustandsgrößen, die Umgebungsbedingungen angeben, in denen das technische System betrieben wird, und Systemzustandsgrößen interne Systemzustände des technischen Systems (1) angeben, umfassen; - Bereitstellen eines Umgebungszustandsmodells, das abhängig von Umgebungszustandsgrößen eine Überprüfbarkeit des Betriebsgrößenvektors hinsichtlich des Vorliegens einer Anomalie angibt, und eines Anomaliedetektionsmodells, das abhängig von dem Betriebsgrößenvektor das Vorliegen einer zu erwartenden Anomalie angibt, wobei das Umgebungszustandsmodell und das Anomaliedetektionsmodells jeweils datenbasierten Klassifikationsmodelle entsprechen; - Signalisieren einer Anomalie oder Nicht-Anomalie abhängig von einer Bewertung der Umgebungszustandsgrößen des Betriebsgrößenvektors anhand des Umgebungszustandsmodells und abhängig von einer Bewertung des Betriebsgrößenvektors abhängig von dem Anomaliedetektionsmodell.
  8. Computerprogramm, welches dazu eingerichtet ist, alle Schritte eines Verfahrens nach einem der Ansprüche 1 bis 6 auszuführen.
  9. Elektronisches Speichermedium, auf welchem ein Computerprogramm nach Anspruch 8 gespeichert ist.
DE102019208372.2A 2019-06-07 2019-06-07 Verfahren und Vorrichtung zur Anomaliedetektion in technischen Systemen Pending DE102019208372A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019208372.2A DE102019208372A1 (de) 2019-06-07 2019-06-07 Verfahren und Vorrichtung zur Anomaliedetektion in technischen Systemen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019208372.2A DE102019208372A1 (de) 2019-06-07 2019-06-07 Verfahren und Vorrichtung zur Anomaliedetektion in technischen Systemen

Publications (1)

Publication Number Publication Date
DE102019208372A1 true DE102019208372A1 (de) 2020-12-10

Family

ID=73460268

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019208372.2A Pending DE102019208372A1 (de) 2019-06-07 2019-06-07 Verfahren und Vorrichtung zur Anomaliedetektion in technischen Systemen

Country Status (1)

Country Link
DE (1) DE102019208372A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020208642A1 (de) 2020-07-09 2022-01-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Anomaliedetektion in technischen Systemen
DE102021202790A1 (de) 2021-03-23 2022-09-29 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Insassenzustandsüberwachung in einem Kraftfahrzeug
DE102022207965A1 (de) 2022-08-02 2024-02-08 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur prädiktiven Diagnose einer Gerätebatterie eines technischen Geräts mithilfe eines Normalizing Flow-Modells
DE102022208932A1 (de) 2022-08-29 2024-02-29 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur prädiktiven Diagnose einer Gerätebatterie eines technischen Geräts mithilfe eines Transformer-Modells
DE102022212239A1 (de) 2022-11-17 2024-05-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur prädiktiven Diagnose einer Gerätebatterie eines technischen Geräts mithilfe eines multivariaten Transformer-Modells
DE102022212232A1 (de) 2022-11-17 2024-05-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Erstellen eines robusten Anomalieerkennungsmodells zum Erkennen einer aktuellen oder anstehenden Anomalie einer Gerätebatterie mithilfe erlernter Latent Space Embeddings

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018007630A1 (de) * 2017-09-29 2019-04-04 Fanuc Corporation Numerisches steuersystem
DE102019003382A1 (de) * 2018-05-21 2019-11-21 Fanuc Corporation Anomaliedetektor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018007630A1 (de) * 2017-09-29 2019-04-04 Fanuc Corporation Numerisches steuersystem
DE102019003382A1 (de) * 2018-05-21 2019-11-21 Fanuc Corporation Anomaliedetektor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020208642A1 (de) 2020-07-09 2022-01-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Anomaliedetektion in technischen Systemen
US11686651B2 (en) 2020-07-09 2023-06-27 Robert Bosch Gmbh Method and device for detecting anomalies in technical systems
DE102021202790A1 (de) 2021-03-23 2022-09-29 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Insassenzustandsüberwachung in einem Kraftfahrzeug
DE102022207965A1 (de) 2022-08-02 2024-02-08 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur prädiktiven Diagnose einer Gerätebatterie eines technischen Geräts mithilfe eines Normalizing Flow-Modells
DE102022208932A1 (de) 2022-08-29 2024-02-29 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur prädiktiven Diagnose einer Gerätebatterie eines technischen Geräts mithilfe eines Transformer-Modells
DE102022212239A1 (de) 2022-11-17 2024-05-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur prädiktiven Diagnose einer Gerätebatterie eines technischen Geräts mithilfe eines multivariaten Transformer-Modells
DE102022212232A1 (de) 2022-11-17 2024-05-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Erstellen eines robusten Anomalieerkennungsmodells zum Erkennen einer aktuellen oder anstehenden Anomalie einer Gerätebatterie mithilfe erlernter Latent Space Embeddings

Similar Documents

Publication Publication Date Title
DE102019208372A1 (de) Verfahren und Vorrichtung zur Anomaliedetektion in technischen Systemen
DE102019003382A1 (de) Anomaliedetektor
DE102016010049B4 (de) Vorrichtung für maschinelles Lernen und Verfahren zum Lernen einer vorhergesagten Lebensdauer eines Motors, Lebensdauer-Vorhersagevorrichtung und Motorsystem mit einer Vorrichtung für maschinelles Lernen
DE102011108678B4 (de) Ereignisgesteuertes Datamining-Verfahren zum Verbessern von Fehlercodeeinstellungen und zum Isolieren von Fehlern
DE102015009395B4 (de) Verfahren zum Kontrollieren eines Verschraubungsprozesses
DE102020202870A1 (de) Verfahren zur Validierung und Auswahl auf maschinellem Lernen basierender Modelle zur Zustandsüberwachung einer Maschine
DE102018006550A1 (de) Abnormalitätserkennungsvorrichtung und maschinelles Lernverfahren
DE102017121225A1 (de) Verfahren zur verbesserung von prozess-/einrichtungsstörungsdiagnose
DE102020212277A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Restnutzungsdauer basierend auf einer prädiktiven Diagnose von Komponenten eines elektrischen Antriebssystems mithilfe Verfahren künstlicher Intelligenz
DE102018201933A1 (de) Verfahren und System zur Analyse wenigstens einer Einrichtung einer Einheit, welche eine Mehrzahl an verschiedenen Einrichtungen aufweist
EP3966647A1 (de) Analyseverfahren und vorrichtungen hierzu
EP3966649A1 (de) Analyseverfahren und vorrichtungen hierzu
EP3966648A1 (de) Analyseverfahren und vorrichtungen hierzu
DE102018132658A1 (de) Verfahren zur rechnergestützten Auswertung einer Messung einer elektrischen Größe in einem Hochvolt-Bordnetz eines vorgegebenen elektrisch angetriebenen Kraftfahrzeugs
EP2067080B1 (de) Verfahren zum betreiben einer grosstechnischen anlage sowie leitsystem für eine grosstechnische anlage
DE102016014223A1 (de) Verfahren zur Unterstützung eines Fahrzeuginsassen beim Verbessern einer Luftqualität in einem Innenraum eines Fahrzeugs
EP3651082A1 (de) Verfahren und assistenzsystem zum generieren von trainingsdaten zum lernbasierten konfigurieren eines technischen systems
EP3796117A1 (de) Diagnoseverfahren und diagnosesystem für eine verfahrenstechnische anlage
DE102021212115A1 (de) Verfahren und Vorrichtung zur Diagnose einer Funktion von Gassystemaktuatoren mithilfe von maschinellen Lernverfahren
DE102022208158A1 (de) Vorrichtung und verfahren zum abtasten eines wasserstofflecks für ein brennstoffzellenfahrzeug
WO2022043030A1 (de) System und verfahren zur bestimmung einer ursache einer betriebsanomalie einer maschine sowie computerprogramm und elektronisch lesbarer datenträger
DE202021104953U1 (de) Überwachungsvorrichtung für den laufenden Betrieb von Geräten und Anlagen
DE102019107240A1 (de) Diagnoseverfahren, Diagnosesystem und Kraftfahrzeug
WO2020127239A1 (de) Verfahren zur diagnose einer sicherheitskomponente in einem kraftfahrzeug
DE102018128315A1 (de) Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zur Überprüfung eines ersten adaptiven Systemmodells

Legal Events

Date Code Title Description
R163 Identified publications notified