DE112019000739T5 - Zeitreihengewinnung zum analysieren und korrigieren eines systemstatus - Google Patents

Zeitreihengewinnung zum analysieren und korrigieren eines systemstatus Download PDF

Info

Publication number
DE112019000739T5
DE112019000739T5 DE112019000739.4T DE112019000739T DE112019000739T5 DE 112019000739 T5 DE112019000739 T5 DE 112019000739T5 DE 112019000739 T DE112019000739 T DE 112019000739T DE 112019000739 T5 DE112019000739 T5 DE 112019000739T5
Authority
DE
Germany
Prior art keywords
time series
series sequence
rank
historical time
objective function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019000739.4T
Other languages
English (en)
Inventor
Dongjin Song
Ning Xia
Haifeng Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Laboratories America Inc
Original Assignee
NEC Laboratories America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Laboratories America Inc filed Critical NEC Laboratories America Inc
Publication of DE112019000739T5 publication Critical patent/DE112019000739T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0766Error or fault reporting or storing
    • G06F11/0778Dumping, i.e. gathering error/state information after a fault for later diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/0703Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
    • G06F11/0793Remedial or corrective actions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • G06F11/3419Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment by assessing time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3447Performance evaluation by modeling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3452Performance evaluation by statistical analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2474Sequence data queries, e.g. querying versioned data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/08Computing arrangements based on specific mathematical models using chaos models or non-linear system models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mathematical Optimization (AREA)
  • Nonlinear Science (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Fuzzy Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

Verfahren und Systeme zum Detektieren und Korrigieren von anomalem Verhalten umfassen ein Erzeugen einer gemeinsamen Binäreinbettung von jeder aus einer Menge von historischen Zeitreihensequenzen. Eine gemeinsame Binäreinbettung einer jüngsten Zeitreihensequenz wird erzeugt. Eine Rangliste der mehreren historischen Zeitreihensequenzen wird gemäß jeweiligen Ähnlichkeiten jeder historischen Zeitreihensequenz mit der jüngsten Zeitreihensequenz basierend auf ihren jeweiligen gemeinsamen Binäreinbettungen erzeugt. Das anomale Verhalten eines Systems, das der jüngsten Zeitreihensequenz zugeordnet ist, wird gemäß einer Kennzeichnung einer historischen Zeitreihensequenz mit dem höchsten Rang in der Rangliste bestimmt. Eine Korrekturmaßnahme wird durchgeführt, um das anomale Verhalten zu korrigieren.

Description

  • INFORMATION ZU VERWANDTEN ANMELDUNGEN
  • Diese Anmeldung beansprucht die Priorität der am 8. Februar 2018 eingereichten US-Anmeldung Nr. 62/627922 und der am 11. Januar 2019 eingereichten US-Anmeldung Nr. 16/245740 , die hier Bezugnahme vollständig mit aufgenommen ist.
  • HINTERGRUND
  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf die Gewinnung mehrdimensionaler Zeitreihen in komplexen Systemen und insbesondere auf eine rangüberwachte gemeinsame Binäreinbettung für eine solche Gewinnung, um den Systemstatus zu bestimmen und zu korrigieren.
  • Beschreibung des Standes der Technik
  • Mehrdimensionale Zeitreihendaten sind in vielen praktischen Anwendungen einschließlich beispielsweise Kraftwerksüberwachung, Gesundheitswesen, am Körper tragbare Vorrichtungen, Kraftfahrzeugüberwachung, Internet-der-Dinge-Anwendungen usw. üblich. Die Gewinnung mehrdimensionaler Zeitreihen beschreibt, wie man unter Verwendung eines aktuellen mehrdimensionalen Zeitreihensegments relevante Zeitreihensegmente aus Verlaufsdaten erhält. Mit anderen Worten, das Finden einer passenden Zeitreihe in den Verlaufsdaten unter Verwendung einer bestimmten bekannten Zeitreihe kann aufgrund der Notwendigkeit, zeitliche Dynamik sowie Interaktionen zwischen verschiedenen Mengen von Zeitreihen zu codieren, besonders herausfordernd sein.
  • ZUSAMMENFASSUNG
  • Ein Verfahren zum Detektieren und Korrigieren von anomalem Verhalten umfasst ein Erzeugen einer gemeinsamen Binäreinbettung von jeder aus einer Menge von historischen Zeitreihensequenzen. Eine gemeinsame Binäreinbettung einer aktuellen Zeitreihensequenz wird erzeugt. Eine Rangliste der mehreren historischen Zeitreihensequenzen wird gemäß den jeweiligen Ähnlichkeiten jeder historischen Zeitreihensequenz mit der jüngsten Zeitreihensequenz basierend auf ihren jeweiligen gemeinsamen Binäreinbettungen erzeugt. Das anomale Verhalten eines Systems, das der jüngsten Zeitreihensequenz zugeordnet ist, wird gemäß einer Kennzeichnung einer historischen Zeitreihensequenz mit dem höchsten Rang in der Rangliste bestimmt. Eine Korrekturmaßnahme wird durchgeführt, um das anomale Verhalten zu korrigieren.
  • Ein System zum Detektieren und Korrigieren eines anomalen Verhaltens umfasst ein Modul für gemeinsame Einbettung, das einen Prozessor aufweist, der dazu ausgelegt ist, eine gemeinsame Binäreinbettung von jeder von mehreren historischen Zeitreihensequenzen zu erzeugen und eine gemeinsame Binäreinbettung einer aktuellen Zeitreihensequenz zu erzeugen. Ein Rangmodul ist dazu ausgelegt, eine Rangliste der mehreren historischen Zeitreihensequenzen gemäß den jeweiligen Ähnlichkeiten jeder historischen Zeitreihensequenz mit der jüngsten Zeitreihensequenz basierend auf ihren jeweiligen gemeinsamen Binäreinbettungen zu erzeugen. Ein Korrekturmodul ist dazu ausgelegt, ein anomales Verhalten eines Systems, das der letzten Zeitreihensequenz zugeordnet ist, gemäß einer Kennzeichnung einer historischen Zeitreihensequenz mit dem höchsten Rang in der Rangliste zu bestimmen und eine Korrekturmaßnahme durchzuführen, um das anomale Verhalten zu korrigieren.
  • Diese und andere Merkmale und Vorteile werden aus der folgenden genauen Beschreibung veranschaulichender Ausführungsformen davon ersichtlich, die in Verbindung mit den beigefügten Zeichnungen zu lesen ist.
  • Figurenliste
  • Die Offenbarung wird Einzelheiten in der folgenden Beschreibung bevorzugter Ausführungsformen unter Bezugnahme auf die folgenden Figuren bereitstellen; es zeigen:
    • 1 ein Blockdiagramm eines überwachten Systems mit Anomaliendetektion und -korrektur gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 2 ein Block-/Ablaufdiagramm des Detektierens und Korrigierens eines anomalen Verhaltens in einem überwachten System gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 3 ein Diagramm eines beispielhaften neuronalen Netzes gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 4 ein Diagramm einer beispielhaften Architektur neuronaler Netze gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 5 ein Blockdiagramm eines Anomaliendetektionssystems gemäß einer Ausführungsform der vorliegenden Erfindung, das dazu ausgelegt ist, anomales Verhalten in einem überwachten System zu detektieren und zu korrigieren; und
    • 6 ein Blockdiagramm eines Verarbeitungssystems gemäß einer Ausführungsform der vorliegenden Erfindung.
  • GENAUE BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSFORMEN
  • Ausführungsformen der vorliegenden Erfindung verwenden eine mit der r-ten Wurzel rangüberwachte gemeinsame Binäreinbettung, um eine Gewinnung von mehrdimensionalen Zeitreihen durchzuführen. Unter Vorgabe eines rohen mehrdimensionalen Zeitreihensegments verwenden die vorliegenden Ausführungsformen Einheiten mit langem Kurzzeitgedächtnis (LSTM-Einheiten), um die zeitliche Dynamik zu codieren, und faltende neuronale Netze (CNNs), um die Korrelationen zwischen verschiedenen Paaren von Zeitreihen zu codieren. Die zeitliche Dynamik und die Korrelationen in rohen Zeitreihensegmenten werden mit zwei separaten Merkmalsvektoren dargestellt. Eine gemeinsame Binäreinbettung wird so erzeugt, dass sowohl die zeitliche Dynamik als auch die Korrelationen berücksichtigt werden. Ein Rangverlust unter Verwendung der r-ten Wurzel wird verwendet, um die Genauigkeit im oberen Teil einer Hamming-Abstand-Rangliste zu optimieren und eine Ausgabe zu erzeugen.
  • Der Rangverlust kann auch erzwingen, dass sich falsch ausgerichtete Segmente ähnliche Binäreinbettungen teilen, wenn sie zu derselben Klasse gehören. Um eine Einbettungsfunktion zu erhalten, lockern einige Ausführungsformen der vorliegenden Erfindung das ursprüngliche diskrete Ziel mit einem kontinuierlichen Ersatz auf und verwenden einen stochastischen Gradientenabstieg, um das Ersatzziel zu optimieren.
  • Unter Bezugnahme auf 1 ist ein Anomaliendetektionssystem 106 im Kontext eines überwachten Systems 102 gezeigt. Das überwachte System 102 kann ein beliebiges geeignetes System einschließlich physischer Systeme wie Fertigungslinien und Operationen physischer Anlagen, elektronischer Systeme wie Computer oder anderer computergestützter Vorrichtung; am Körper tragbarer Vorrichtungen, Fahrzeuge, Internet-der-Dinge-Vorrichtungen und Softwaresystemen wie Betriebssystemen und Anwendungen sein.
  • Ein oder mehrere Sensoren 104 zeichnen Informationen über den Zustand des überwachten Systems 102 auf. Die Sensoren 104 können von jedem geeigneten Sensortyp sein, einschließlich beispielsweise physikalischer Sensoren wie Sensoren für Temperatur, Feuchtigkeit, Schwingung, Druck, Spannung, Stromstärke, Magnetfeld , elektrisches Feld und Licht sowie Softwaresensoren wie z. B. auf einem Computersystem installierten Protokollierungsdienstprogrammen zum Aufzeichnen von Informationen über den Zustand und das Verhalten des Betriebssystems und der auf dem Computersystem ausgeführten Anwendungen. Die von den Sensoren 104 erzeugten Informationen können in einem beliebigen geeigneten Format vorliegen und Sensorprotokollinformationen umfassen, die mit heterogenen Formaten erzeugt sind. Es wird speziell in Betracht gezogen, dass die Sensoren 104 Zeitreihendaten erzeugen können, die als geordnete Liste von Datensätzen dargestellt sind, denen möglicherweise Zeitstempel, die einen Zeitpunkt angeben, zu dem jeder jeweilige Datensatz erzeugt wurde, zugeordnet sind oder nicht.
  • Die Sensoren 104 können die protokollierten Sensorinformationen über ein geeignetes Kommunikationsmedium und -protokoll einschließlich drahtloser und drahtgebundener Kommunikation an ein Anomaliendetektionssystem 106 übertragen. Das Anomaliendetektionssystem 106 vergleicht eine Folge kürzlich gemessener Zeitreihendaten mit einem Körper zuvor aufgezeichneter Datensätze und gewinnt eine oder mehrere passende historische Instanzen. Diesen gewonnenen Instanzen können Kennzeichnungen zugeordnet sein, die Bedingungen oder Aktivitäten des überwachten Systems 102 während Zeiträumen beschreiben, die den abgerufenen Instanzen zugeordnet sind. In einigen Fällen kann die Kennzeichnung einer abgerufenen Instanz angeben, dass sich das überwachte System 102 anomal oder auf andere Weise nachteilig verhält.
  • Sobald ein anomales Verhalten detektiert worden ist, kommuniziert das Anomaliendetektionssystem 106 mit einer Systemsteuereinheit 108, um einen oder mehrere Parameter des überwachten Systems 102 zu ändern, um das anomale Verhalten zu korrigieren. Beispielhafte Korrekturmaßnahmen umfassen ein Ändern einer Sicherheitseinstellung für eine Anwendung oder Hardwarekomponente, ein Ändern eines Betriebsparameters einer Anwendung oder Hardwarekomponente (z. B. eine Betriebsgeschwindigkeit), ein Anhalten und/oder Neustarten einer Anwendung, ein Anhalten und/oder Neustarten einer Hardwarekomponente, ein Ändern eines Umgebungszustands, ein Ändern von Status oder Einstellungen einer Netzschnittstelle usw. Das Anomaliendetektionssystem 106 korrigiert oder mildert dadurch automatisch das anomale Verhalten.
  • Bei einem mehrdimensionalen Zeitreihensegment, zum Beispiel n Zeitreihen mit (x1, ...,xn)T = (x1, ...,xT) ∈ ℝn×T, wobei T die Länge einer Fenstergröße ist, repräsentiert der Term x k = ( x 1 k , , x T k ) T T
    Figure DE112019000739T5_0001
    eine Zeitreihe der Länge t. Der Term x t = ( x t 1 , , x t k ) n
    Figure DE112019000739T5_0002
    repräsentiert einen Vektor von n Eingabereihen zu einem bestimmten Zeitpunkt t. Zudem wird die Frobenius-Norm als ||·||F und die Hamming-Norm eines Vektors x als ||x||H dargestellt. Die Hamming-Norm ist die Anzahl der Einträge ungleich null in einem Vektor. Die ℓ1-Norm eines Vektors x wird als llxll1 dargestellt und liefert die Summe der Beträge der Einträge in x.
  • Bei einem mehrdimensionalen Zeitreihensegment Xq ∈ ℝn×T, das einen Ausschnitt von n Zeitreihen darstellt, die T Zeitschritte dauert, finden die vorliegenden Ausführungsformen die ähnlichsten Zeitreihensegmente in einer Menge einer historischen Datenbank. Dies wird ausgedrückt als:
    Figure DE112019000739T5_0003
    wobei D = { X p }
    Figure DE112019000739T5_0004
    eine Sammlung von Segmenten ist, p einen Index für das p-te Segment für alle 1 ≤ p ≤ N bezeichnet, N die Gesamtzahl der Segmente in der Sammlung bezeichnet und
    Figure DE112019000739T5_0005
    (·) eine Ähnlichkeitsmaßfunktion darstellt.
  • Unter Bezugnahme auf 2 ist ein Verfahren zum Detektieren und Korrigieren von anomalem Verhalten gezeigt. Um eine Gewinnung mehrdimensionaler Zeitreihen durchzuführen, erzielen die vorliegenden Ausführungsformen eine Darstellung der mehrdimensionalen rohen Zeitreihensegmente, die die zeitliche Dynamik erfasst. Bei einem mehrdimensionalen Zeitreihensegment X = (x1, ...,xT) wird eine Abbildung von X auf h als h = F ( X )
    Figure DE112019000739T5_0006
    gezeigt, wobei h ∈ ℝm der Merkmalsvektor ist, m die Dimension von h ist und h m
    Figure DE112019000739T5_0007
    eine nichtlineare Abbildungsfunktion ist.
  • Block 202 verwendet LSTM-Einheiten, um F
    Figure DE112019000739T5_0008
    zu implementieren, um die zeitliche Dynamik sowie langfristige Abhängigkeiten in X zu erfassen. In einer LSTM-Einheit summiert ein Zellzustand Aktivitäten über die Zeit, wodurch das Problem des Verschwindens von Gradienten überwunden wird und die langfristigen Abhängigkeiten einer Zeitreihe besser erfasst werden können. Jede LSTM-Einheit hat eine Speicherzelle mit dem Zustand st zum Zeitpunkt t. Der Zugriff auf die Speicherzelle wird durch drei Sigmoid-Gatter gesteuert: ein Vergessensgatter ft, ein Eingabegatter it und ein Ausgabegatter ot. Die Aktualisierung einer LSTM-Einheit kann wie folgt zusammengefasst werden: f t = σ ( W f [ h t 1 ; x t ] + b f )
    Figure DE112019000739T5_0009
    i t = σ ( W i [ h t 1 ; x t ] + b i )
    Figure DE112019000739T5_0010
    o t = σ ( W t [ h t 1 ; x t ] + b f )
    Figure DE112019000739T5_0011
    s t = f t s t t + i t  tanh  ( W s [ h t 1 ; x t ] + b s )
    Figure DE112019000739T5_0012
    h t = o t  tanh  ( s t )
    Figure DE112019000739T5_0013
    wobei [ht-1; xt]ℝm+n eine Verkettung des vorherigen Zustands ht-1 und der aktuellen Eingabe xt ist. Die Ausdrücke Wf, Wi, Wo, Ws ∈ ℝm×(m+n) und bf, bi, bo, bs ∈ ℝm sind Parameter, die während des Trainings gelernt werden. Die Funktionen σ und ⊙ sind eine logistische Sigmoidfunktion bzw. ein elementweiser Multiplikationsoperator (z. B. das Hadamard-Produkt).
  • Block 204 verwendet CNNs, um die Korrelationen zwischen verschiedenen Paaren von Zeitreihen in einem mehrdimensionalen Zeitreihensegment darzustellen. Es versteht sich, dass die Blöcke 202 und 204 in beliebiger Reihenfolge oder gleichzeitig ausgeführt werden können. Block 204 erstellt eine n × n-Korrelationskarte beispielsweise unter Verwendung des Pearson-Korrelationskoeffizienten. Unter Vorgabe von zwei Zeitreihen x i = ( x 1 i , , x T i ) T T
    Figure DE112019000739T5_0014
    und x j = ( x 1 j , , x T j ) T T ,
    Figure DE112019000739T5_0015
    kann der Pearson-Korrelationskoeffizient wie folgt berechnet werden: c i j = k = 1 T ( x k i x ¯ i ) ( x k j x ¯ j ) k = 1 T ( x k i x ¯ i ) 2 k = 1 T ( x k j x ¯ j ) 2
    Figure DE112019000739T5_0016
    wobei x̅i und x̅j Stichprobenmittel der zwei Zeitreihen bezeichnen.
  • CNNs werden in Block 204 verwendet, um eine kompakte Darstellung der Korrelationskarte C ∈ ℝn×n zu erzeugen. Eine beispielhafte CNN-Architektur umfasst vier Faltungsschichten und zwei vollständig verbundene Schichten. Jede Faltungsschicht ist ein dreidimensionales Array der Größe h × w × d, wobei h und w räumliche Dimensionen sind und d eine Merkmals- oder Kanaldimension ist, gefolgt von einer Chargennormierung und einer linearen Gleichrichtereinheit. Die vollständig verbundenen Schichten transformieren Faltungsmerkmalskarten in einen Vektor und projizieren ihn auf eine feste Dimension m. Es versteht sich, dass diese CNN-Architektur nur beispielhaft ist und in keiner Weise als einschränkend ausgelegt werden sollte. Die Ausgabe des CNN ist l ∈ ℝm und wird verwendet, um die Korrelationen zwischen verschiedenen Paaren von Zeitreihen in einem mehrdimensionalen Zeitreihensegment zu codieren.
  • Unter Vorgabe der Darstellung für ein rohes mehrdimensionales Zeitreihensegment hT sowie der Darstellung für die Korrelationen zwischen verschiedenen Zeitreihenpaaren in demselben Segment / verkettet Block 206 die Darstellungen als y = [hT; l] ∈ ℝ2m miteinander und lernt eine gemeinsame Binäreinbettung, die eine Gruppe von Abbildungen { H c ( y ) } c = 1 v
    Figure DE112019000739T5_0017
    umfasst, so dass eine 2m-dimensionale Gleitkommaeingabe y ∈ ℝ2m in einen v-Bit-Binärcode [ H 1 ( y ) , , H v ( y ) ] T v { 1, 1 } v
    Figure DE112019000739T5_0018
    komprimiert wird. Dies stellt eine Binäreinbettung oder Hash-Funktion dar und kann wie folgt formuliert werden: H c ( y ) = sgn ( F x ( y ) ) , c = 1, , v
    Figure DE112019000739T5_0019
  • Dabei ist sgn(-) die Vorzeichenfunktion, die 1 zurückgibt, wenn die Eingabevariable größer als 0 ist, und andernfalls -1 zurückgibt, und F x : 2 m
    Figure DE112019000739T5_0020
    eine geeignete Vorhersagefunktion. Eine Vielzahl von mathematischen Formen für F c
    Figure DE112019000739T5_0021
    (z. B. linear und nichtlinear) kann verwendet werden, um bestimmten Datendomänen und praktischen Anwendungen zu dienen. Die vorliegenden Ausführungsformen konzentrieren sich auf eine lineare Vorhersagefunktion, es versteht sich jedoch, dass stattdessen eine beliebige geeignete Vorhersagefunktion verwendet werden kann. Somit ist F c ( y ) = w c T y + b c ,
    Figure DE112019000739T5_0022
    wobei wc ∈ ℝ2m und bc ∈ ℝ. Der Bias-Term b c = w c T
    Figure DE112019000739T5_0023
    unter Verwendung eines mittleren Vektors u = i = 1 n y i / n ,
    Figure DE112019000739T5_0024
    wodurch jedes erzeugte Binärbit { H c ( y ) } c = 1 v
    Figure DE112019000739T5_0025
    für c ∈ [1:v] ausgeglichen wird und somit maximale Entropie aufweist. Die gesamte Binäreinbettungsfunktion H
    Figure DE112019000739T5_0026
    ist ferner so definiert, dass sie die Funktionalität von v einzelnen Binäreinbettungsfunktionen { H c } c = 1 v
    Figure DE112019000739T5_0027
    umfasst: H ( y , W ) = sgn ( W T ( y u ) )
    Figure DE112019000739T5_0028
    was durch eine Matrix W = [w1, ..., wv] ∈ ℝ2m×v parametrisiert werden kann. Die Vorzeichenfunktion wird elementweise angewendet.
  • Block 208 bestimmt einen Rangverlust, um relative Segmentähnlichkeiten in Form von Tripletts D t r i p l e t = { X q , X i , X j }
    Figure DE112019000739T5_0029
    zu nutzen, wobei jedes Segmentpaar {Xq, Xi} in dem Triplett ähnlicher ist als das Segmentpaar {Xq, Xj}, so dass Xq und Xi in derselben Klasse sind und Xq und Xj in verschiedenen Klassen sind. Diese relativen ähnlichen Beziehungen bleiben im Hamming-Raum dank einer guten Binäreinbettungsfunktion H ( )
    Figure DE112019000739T5_0030
    erhalten, durch die der Hamming-Abstand zwischen den Einbettungen H ( y q )
    Figure DE112019000739T5_0031
    und H ( y i )
    Figure DE112019000739T5_0032
    kleiner als der Hamming-Abstand zwischen den Einbettungen H ( y q )
    Figure DE112019000739T5_0033
    und H ( y i )
    Figure DE112019000739T5_0034
    wird.
  • Wenn yq ein Abfragesegment bezeichnet, yi ein ähnliches Segment bezeichnet und yj ein unähnliches Segment bezeichnet, kann der „Rang“ von yi in Bezug auf die Abfrage yq als die Anzahl unähnlicher Segmente yj definiert werden, die innerhalb des projizierten Hamming-Raums näher an der Abfrage yq liegen als yi. Daher kann der Rang wie folgt definiert werden: ( y q , y i ) = j J ( H ( y q ) H ( y j ) H H ( y q ) H ( y i ) H )
    Figure DE112019000739T5_0035
  • Dabei ist J ( )
    Figure DE112019000739T5_0036
    eine Indikatorfunktion, die 1 zurückgibt, wenn die Bedingung in Klammern erfüllt ist, und andernfalls 0 zurückgibt. Die Funktion R(yq, yi) misst explizit die Anzahl der falsch im Rang eingestuften unähnlichen Segmente yj, die in Bezug auf den Hamming-Abstand näher an der Abfrage yq liegen als das ähnliche Segment yi. R(yq, yi) gibt daher die Position von yi in einer Hamming-Abstandsrangliste in Bezug auf die Abfrage yq an.
  • Der Rangverlust unter Verwendung der r-ten Wurzel optimiert explizit die Suchgenauigkeit an den oberen Positionen der Rangliste und ist definiert als: L ( R ( y q , y i ) ) = R ( y q , y i ) r = R 1 r ( y q , y i )
    Figure DE112019000739T5_0037
    wobei r > 1. Dieser Verlust bestraft die Segmente, die fälschlicherweise im oberen Teil einer Hamming-Abstandsrangliste stehen, mehr als die im unteren Teil. Dies liegt daran, dass das Inkrement von L ( R )
    Figure DE112019000739T5_0038
    allmählich abnimmt, wenn R linear zunimmt. L ( R )
    Figure DE112019000739T5_0039
    ist eine monotone, zunehmende Eins-zu-Eins-Funktion mit einer ersten Ableitung L ' ( R )
    Figure DE112019000739T5_0040
    die größer als null ist, und einer zweiten Ableitung L"(R), die kleiner als null ist. Da L ( R )
    Figure DE112019000739T5_0041
    als Integral ihres Gradienten angesehen werden kann, konserviert L ' ( R ) > 0
    Figure DE112019000739T5_0042
    den Rang, indem R am oberen Ende stärker bestraft wird als am unteren Ende der Liste.
  • Das Lernziel lautet wie folgt: O ( D t r i p l e t , W ) = q i R 1 r ( y q , y i ) + λ 2 W F 2
    Figure DE112019000739T5_0043
    wobei der erste Term der Rangverlust ist, der zweite Term die Regularisierung erzwingt, und λ > 0 ein positiver Parameter ist, der einen Kompromiss zwischen dem Rangverlust und dem Regularisierungsterm steuert. Der Parameter r > 1 bestimmt, welchen Grad die Bestrafung des oberen Teils der Rangliste hat, so dass ein größeres r Terme stärker bestraft. Durch Optimieren dieser Zielfunktion in Bezug auf W wird die Genauigkeit an den oberen Positionen der Hamming-Abstandsrangliste optimiert.
  • Obwohl der Rangverlust kontinuierlich und in Bezug auf R differenzierbar ist, ist die obige Zielfunktion immer noch schwer zu optimieren. Dies liegt daran, dass die Binäreinbettungsfunktion eine diskrete Abbildung ist und dass die Hamming-Norm in einem diskreten Raum liegt. Daher lockert Block 210 das ursprüngliche diskrete Ziel zu einem kontinuierlichen und differenzierbaren Ersatz auf, bevor eine Optimierung durchgeführt wird. Die Zielbinäreinbettungsfunktion H ( y )
    Figure DE112019000739T5_0044
    kann wie folgt gelockert werden: H ¯ ( y ) = tanh ( W T ( y u ) )
    Figure DE112019000739T5_0045
    was kontinuierlich und differenzierbar ist. Die tanh(·)-Funktion ist eine gute Annäherung an die sgn(·)-Funktion, da sie den Wert in Klammern so transformiert, dass er zwischen -1 und +1 liegt. Die Hamming-Norm wird zu der ℓ1-Norm gelockert, die konvex ist. Die Indikatorfunktion wird mit der Sigmoidfunktion gelockert. Die Indikatorfunktion kann dann angenähert werden mit: J ( H ( y q ) H ( y i ) H H ( y q ) H ( y i ) H ) σ ( H ( y q ) H ( y i ) H H ( y q ) H ( y i ) H )
    Figure DE112019000739T5_0046
    wobei σ ( z ) = 1 1 + e z
    Figure DE112019000739T5_0047
    die Sigmoidfunktion ist und u der oben beschriebene mittlere Vektor ist.
  • Basierend auf diesen Lockerungen kann die Zielfunktion wie folgt angenähert werden: O ( D t r i p l e t , W ) ¯ = q i R ¯ ( 1 r ) ( y q , y i ) + λ 2 W F 2
    Figure DE112019000739T5_0048
    wobei R̅(yq, yi) ein weich angenäherter Rang von yi in Bezug auf die Abfrage yq ist und gegeben ist durch: R ¯ ( y q , y i ) = j σ ( V q i V q j )
    Figure DE112019000739T5_0049
    wobei Vqi ausgedrückt wird als: V q i = H ¯ ( y q ) H ¯ ( y i ) 1
    Figure DE112019000739T5_0050
    und Vqj wird ausgedrückt als: V q j = H ¯ ( y q ) H ¯ ( y j ) 1
    Figure DE112019000739T5_0051
  • Ein stochastischer Gradientenabstieg wird hergeleitet, um die Zielfunktion zu optimieren. Eine Abfrage Xq wird zufällig mit einem ähnlichen Segment Xi ausgewählt. Dann werden Xq und Xi fixiert und s unterschiedliche Xj werden gezogen, um eine Menge von Tripletts { X q , X i , X j } j = 1 s
    Figure DE112019000739T5_0052
    zu bilden, wobei die die gesamten Möglichkeiten für j M sind. Unter der Annahme, dass die verletzten Beispiele gleichmäßig verteilt sind, kann R̅(yq, yi) mit M s j = 1 s σ ( V q i V q j )
    Figure DE112019000739T5_0053
    angenähert werden. Dabei ist
    Figure DE112019000739T5_0054
    die Floor-Funktion.
  • Die Zielfunktion wird dadurch weiter angenähert mit: O ( D t r i p l e t , W ) ¯ = ( M s j = 1 s σ ( V q i V q j ) ) 1 r + λ 2 W F 2
    Figure DE112019000739T5_0055
  • Der zugehörige Gradient ist gegeben durch: O ( D t r i p l e t , W ) W ¯ = λ W + 1 r M s [ j = 1 s σ ( V q i V q j ) ] 1 r 1 j = 1 s σ ( V q i V q j ) σ ( V q i + V q j ) { ( y q u ) [ sgn ( H ¯ ( y q ) H ¯ ( y i ) ) ( 1 H ¯ 2 ( y q ) ) ] T ( y i u ) [ sgn ( H ¯ ( y q ) H ¯ ( y i ) ) ( 1 H ¯ 2 ( y i ) ) ] T ( y q u ) [ sgn ( H ¯ ( y q ) H ¯ ( y j ) ) ( 1 H ¯ 2 ( y q ) ) ] T + ( y j u ) [ sgn ( H ¯ ( y q ) H ¯ ( y j ) ) ( 1 H ¯ 2 ( y j ) ) ] T }
    Figure DE112019000739T5_0056
  • Basierend auf diesem Gradienten kann eine Rückausbreitung über das gesamte Netz unter Verwendung eines stochastischen Minichargen-Gradientenabfalls mit einem Adam-Optimierer durchgeführt werden, um die Netzparameter zu optimieren. Auf diese Weise optimiert Block 210 eine Näherung der Zielfunktion.
  • Das Ergebnis ist eine Rangliste von Segmenten, wobei die ähnlichsten Segmente ganz oben auf der Liste stehen. Block 212 bestimmt dann passende Segmente aus der Liste. In einigen Ausführungsformen wählt Block 212 das ähnlichste Segment (z. B. das Segment mit dem höchsten Rang) aus der Liste als passendes Segment aus. In anderen Ausführungsformen kann Block 212 mehrere passende Segmente auswählen, beispielsweise die oberen n passenden Segmente auswählen oder eine Anzahl von Segmenten gemäß einer Ähnlichkeitsschwelle auswählen.
  • Block 214 bestimmt eine Kennzeichnung der passenden Segmente und bestimmt, ob die Segmente anomales Verhalten identifizieren. In anderen Ausführungsformen kann Block 214 nach jeder Art von Systemverhalten auswählen. Beispielsweise kann Block 214 auf einer tragbaren Vorrichtung bestimmen, welche Art von physischer Anwenderaktivität die aktuellen Sensorinformationen angeben. Andere Arten von detektiertem Verhalten können einen Eingriff in die Computersicherheit, gefährliche Umgebungsbedingungen, medizinische Leiden usw. umfassen. Block 216 ergreift dann eine Korrekturmaßnahme basierend auf der Bestimmung von Block 214. Beispielsweise können Korrekturmaßnahmen, die auf anomales Verhalten reagieren, ein Ändern einer Sicherheitseinstellung für eine Anwendung oder Hardwarekomponente, ein Ändern eines Betriebsparameters einer Anwendung oder Hardwarekomponente (z. B. einer Betriebsgeschwindigkeit), ein Anhalten und/oder Neustarten einer Anwendung, ein Anhalten und/oder Neustarten einer Hardwarekomponente, ein Ändern einer Umgebungsbedingung, ein Ändern des Status oder der Einstellungen einer Netzwerkschnittstelle usw. umfassen. Block 216 korrigiert oder mildert dadurch automatisch das anomale Verhalten.
  • Hierin beschriebene Ausführungsformen können vollständig Hardware sein, vollständig Software sein oder sowohl Hardware- als auch Softwareelemente umfassen. In einer bevorzugten Ausführungsform ist die vorliegende Erfindung in Software implementiert, die Firmware, residente Software, Mikrocode usw. umfasst, aber nicht darauf beschränkt ist.
  • Ausführungsformen können ein Computerprogrammprodukt umfassen, auf das von einem computerverwendbaren oder computerlesbaren Medium aus zugegriffen werden kann und das Programmcode zur Verwendung durch oder in Verbindung mit einem Computer oder einem beliebigen Befehlsausführungssystem bereitstellt. Ein computerverwendbares oder computerlesbares Medium kann eine beliebige Einrichtung umfassen, die das Programm zur Verwendung durch oder in Verbindung mit dem Befehlsausführungssystem, der Einrichtung oder Vorrichtung speichert, kommuniziert, verbreitet oder transportiert. Das Medium kann ein magnetisches, optisches, elektronisches, elektromagnetisches, infrarotes oder halbleitergestütztes System (oder eine derartige Vorrichtung oder Einrichtung) oder ein Ausbreitungsmedium sein. Das Medium kann ein computerlesbares Speichermedium wie einen Halbleiter- oder Festkörperspeicher, ein Magnetband, eine entfernbare Computerdiskette, einen Direktzugriffsspeicher (RAM), einen Nur-Lese-Speicher (ROM), eine starre Magnetplatte und eine optische Platte usw. umfassen.
  • Jedes Computerprogramm kann konkret in einem maschinenlesbaren Speichermedium oder einer maschinenlesbaren Speichervorrichtung (z. B. einem Programmspeicher oder einer Magnetplatte) gespeichert sein, das/die von einem programmierbaren Allzweck- oder Spezial-Computer gelesen werden kann, um den Betrieb eines Computers zu konfigurieren und zu steuern, wenn das Speichermedium oder die Speichervorrichtung von dem Computer gelesen wird, um die hier beschriebenen Prozeduren durchzuführen. Das erfindungsgemäße System kann auch als in einem computerlesbaren Speichermedium verkörpert sein, das mit einem Computerprogramm konfiguriert ist, wobei das so konfigurierte Speichermedium veranlasst, dass ein Computer auf eine spezifische und vordefinierte Weise arbeitet, um die hierin beschriebenen Funktionen auszuführen.
  • Ein Datenverarbeitungssystem, das zum Speichern und/oder Ausführen von Programmcode geeignet ist, kann mindestens einen Prozessor aufweisen, der direkt oder indirekt über einen Systembus mit Speicherelementen gekoppelt ist. Die Speicherelemente können lokalen Speicher, der während der tatsächlichen Ausführung des Programmcodes verwendet wird, Massenspeicher und Cache-Speicher, der eine temporäre Speicherung mindestens eines Teils des Programmcode bereitstellt, um die Häufigkeit zu verringern, mit der Code während der Ausführung aus dem Massenspeicher abgerufen wird, umfassen. Eingabe-/Ausgabe- oder E/A-Vorrichtungen (einschließlich, aber nicht beschränkt auf Tastaturen, Anzeigen, Zeigevorrichtungen usw.) können entweder direkt oder über dazwischenliegende E/A-Controller mit dem System gekoppelt sein.
  • Netzadapter können auch mit dem System gekoppelt sein, um zu ermöglichen, dass das Datenverarbeitungssystem durch dazwischenliegende private oder öffentliche Netze mit anderen Datenverarbeitungssystemen oder entfernten Druckern oder Speichervorrichtungen gekoppelt werden kann. Modems, Kabelmodems und Ethernet-Karten sind nur einige der derzeit verfügbaren Arten von Netzadaptern.
  • Die vorliegenden Ausführungsformen verwenden künstliche neuronale Netze (ANNs), um bestimmte Operationen auszuführen. Ein ANN ist ein Informationsverarbeitungssystem, das von biologischen Nervensystemen wie dem Gehirn inspiriert ist. Das Schlüsselelement von ANNs ist die Struktur des Informationsverarbeitungssystems, das eine große Anzahl stark miteinander verbundener Verarbeitungselemente (sogenannte „Neuronen“) umfasst, die parallel arbeiten, um bestimmte Probleme zu lösen. ANNs werden außerdem im Gebrauch mit Lernen trainiert, was Anpassungen an Gewichte beinhaltet, die zwischen den Neuronen existieren. Ein ANN wird durch einen solchen Lernprozess für eine bestimmte Anwendung wie Mustererkennung oder Datenklassifizierung ausgelegt.
  • Unter Bezugnahme auf 3 ist ein verallgemeinertes Diagramm eines neuronalen Netzes gezeigt. ANNs zeigen die Fähigkeit, aus komplizierten oder ungenauen Daten eine Bedeutung abzuleiten, und können verwendet werden, um Muster zu extrahieren und Trends zu detektieren, die zu komplex sind, um von Menschen oder anderen computergestützten Systemen detektiert zu werden. Es ist allgemein bekannt, dass die Struktur eines neuronalen Netzes Eingabeneuronen 302 aufweist, die Informationen an ein oder mehrere „verdeckte“ Neuronen 304 liefern. Verbindungen 308 zwischen den Eingabeneuronen 302 und verdeckten Neuronen 304 werden gewichtet und diese gewichteten Eingaben werden dann von den verdeckten Neuronen 304 gemäß irgendeiner Funktion in den verdeckten Neuronen 304 mit gewichteten Verbindungen 308 zwischen den Schichten verarbeitet. Es kann eine beliebige Anzahl von Schichten verdeckter Neuronen 304 sowie Neuronen, die unterschiedliche Funktionen ausführen, geben. Es gibt auch verschiedene Strukturen neuronaler Netze wie z. B. ein faltendes neuronales Netz, ein Maxout-Netz usw. Schließlich akzeptiert und verarbeitet eine Menge von Ausgabeneuronen 306 gewichtete Eingaben aus der letzten Menge von verdeckten Neuronen 304.
  • Dies stellt eine „Vorwärtskopplungsberechnung“ dar, bei der sich Informationen von den Eingabeneuronen 302 zu den Ausgabeneuronen 306 ausbreiten. Nach Abschluss einer Vorwärtskopplungsberechnung wird die Ausgabe mit einer gewünschten Ausgabe verglichen, die aus Trainingsdaten verfügbar ist. Der Fehler relativ zu den Trainingsdaten wird dann in einer „Rückkopplungsberechnung“ verarbeitet, wobei die verdeckten Neuronen 304 und Eingabeneuronen 302 Informationen bezüglich des Fehlers empfangen, der sich von den Ausgabeneuronen 306 rückwärts ausbreitet. Sobald die Rückfehlerausbreitung abgeschlossen ist, werden Gewichtsaktualisierungen durchgeführt, wobei die gewichteten Verbindungen 308 aktualisiert werden, um den empfangenen Fehler zu berücksichtigen. Dies ist nur eine Art von ANN.
  • Unter Bezugnahme auf die Zeichnungen, in denen gleiche Zahlen dieselben oder ähnliche Elemente darstellen, und zunächst auf 4, ist eine ANN-Architektur 400 gezeigt. Es versteht sich, dass die vorliegende Architektur rein beispielhaft ist und dass stattdessen andere Architekturen oder Arten von neuronalen Netzen verwendet werden können. Die hierin beschriebene ANN-Ausführungsform ist in der Absicht aufgenommen, allgemeine Prinzipien der Berechnung neuronaler Netze mit einem hohen Grad an Allgemeinheit zu veranschaulichen, und sollte in keiner Weise als einschränkend ausgelegt werden.
  • Darüber hinaus sind die nachstehend beschriebenen Schichten von Neuronen und die sie verbindenden Gewichte allgemein beschrieben und können durch jede Art von Schichten neuronaler Netze mit einem beliebigem geeigneten Grad oder Typ von Zwischenverbindungsfähigkeit ersetzt werden. Beispielsweise können Schichten Faltungsschichten, Zusammenlegungsschichten, vollständig verbundene Schichten, Stopmax-Schichten oder irgendeine andere geeignete Art von Schicht neuronaler Netze umfassen. Darüber hinaus können nach Bedarf Schichten hinzugefügt oder entfernt werden und die Gewichte können für kompliziertere Formen von Zwischenverbindung weggelassen werden. Auf diese Weise kann die gezeigte allgemeine ANN-Struktur an die oben beschriebenen LSTM- und CNN-Netze angepasst werden.
  • Während des Vorwärtskopplungsbetriebs liefert eine Menge von Eingabeneuronen 402 jeweils ein Eingabesignal parallel zu einer jeweiligen Reihe von Gewichten 404. In der hier beschriebenen Hardware-Ausführungsform haben die Gewichte 404 jeweils einen jeweiligen einstellbaren Wert, so dass eine Gewichtsausgabe von dem Gewicht 404 zu einem jeweiligen verdeckten Neuron 406 übergeht, um die gewichtete Eingabe in das verdeckte Neuron 406 darzustellen. In Software-Ausführungsformen können die Gewichte 404 einfach als Koeffizientenwerte dargestellt werden, die mit den relevanten Signalen multipliziert werden. Die Signale aus jedem Gewicht addieren spaltenweise und fließen zu einem verdeckten Neuron 406.
  • Die verdeckten Neuronen 406 verwenden die Signale aus dem Array von Gewichten 404, um irgendeine Berechnung durchzuführen. Die verdeckten Neuronen 406 geben dann ein eigenes Signal an ein anderes Array von Gewichten 404 aus. Dieses Array arbeitet auf die gleiche Weise, wobei eine Spalte von Gewichten 404 ein Signal aus ihrem jeweiligen verdeckten Neuron 406 empfängt, um eine gewichtete Signalausgabe zu erzeugen, die zeilenweise addiert und an das Ausgabeneuron 408 geliefert wird.
  • Es versteht sich, dass eine beliebige Anzahl dieser Stufen implementiert werden kann, indem zusätzliche Schichten von Arrays und verdeckten Neuronen 406 zwischengeschaltet werden. Es sollte auch beachtet werden, dass einige Neuronen konstante Neuronen 409 sein können, die eine konstante Ausgabe an das Array liefern. Die konstanten Neuronen 409 können unter den Eingabeneuronen 402 und/oder verdeckten Neuronen 406 vorhanden sein und werden nur während des Vorwärtskopplungsbetriebs verwendet.
  • Während der Rückausbreitung liefern die Ausgabeneuronen 408 ein Signal zurück über das Array von Gewichten 404 hinweg. Die Ausgabeschicht vergleicht die erzeugte Netzantwort mit Trainingsdaten und berechnet einen Fehler. Das Fehlersignal kann proportional zu dem Fehlerwert gemacht werden. In diesem Beispiel empfängt eine Reihe von Gewichten 404 parallel ein Signal von einem jeweiligen Ausgabeneuron 408 und erzeugt eine Ausgabe, die spaltenweise addiert, um einen Eingabe für verdeckte Neuronen 406 zu liefern. Die verdeckten Neuronen 406 kombinieren das gewichtete mit einer Ableitung ihrer Vorwärtskopplungsberechnung und speichern einen Fehlerwert, bevor ein Rückkopplungssignal an ihre jeweilige Spalte von Gewichten 404 ausgegeben wird. Diese Rückwärtsausbreitung durchläuft das gesamte Netz 400, bis alle verdeckten Neuronen 406 und die Eingabeneuronen 402 einen Fehlerwert gespeichert haben.
  • Während Gewichtsaktualisierungen werden die gespeicherten Fehlerwerte verwendet, um die einstellbaren Werte der Gewichte 404 zu aktualisieren. Auf diese Weise können die Gewichte 404 trainiert werden, um das neuronale Netz 400 an Fehler in seiner Verarbeitung anzupassen. Es ist zu beachten, dass sich die drei Betriebsarten Vorwärtskopplung, Rückausbreitung und Gewichtsaktualisierung nicht überschneiden.
  • Unter Bezugnahme auf 5 ist ein Anomaliendetektions-und-korrektursystem 106 gezeigt. Das System 106 umfasst einen Hardwareprozessor 502 und einen Speicher 504. Eine Netzschnittstelle 506 empfängt Informationen von den Sensoren 104 und sendet Steuerinformationen über ein geeignetes drahtgebundenes oder drahtloses Kommunikationsmedium und über ein geeignetes Protokoll an die Systemsteuerung 108. Das System 106 umfasst ferner ein oder mehrere Funktionsmodule, die in einigen Ausführungsformen als Software implementiert sein können, die in dem Speicher 504 gespeichert ist und auf dem Hardwareprozessor 502 ausgeführt wird. In anderen Ausführungsformen können eines oder mehrere der Funktionsmodule als eine oder mehrere diskrete Hardwarekomponenten beispielsweise in Form von anwendungsspezifischen integrierten Chips oder feldprogrammierbaren Gatteranordnungen implementiert sein.
  • Eine LSTM-Netzeinheit 508 erfasst die zeitliche Dynamik von Zeitreihensequenzen, während ein CNN 510 die Korrelationen zwischen verschiedenen Paaren von Zeitreihen erfasst, die aus verschiedenen Sensoren 104 stammen. Ein Modul für gemeinsame Einbettung 512 erzeugt eine gemeinsame Binäreinbettung unter Verwendung der Ausgaben der LSTM-Netzeinheit 508 und des CNN 510. Ein Rangmodul 514 erzeugt eine Liste von passenden Zeitreihensequenzen, die gemäß der Ähnlichkeit zu einer aktuellen Zeitreihe aus den Sensoren 104 einen Rang erhalten.
  • Das Korrekturmodul 516 verwendet die Rangliste, um den gegenwärtigen Zustand des überwachten Systems 102 durch Bewerten von Kennzeichnungen, die den ähnlichen Sequenzen zugeordnet sind, zu bestimmen. Auf diese Weise identifiziert das Korrekturmodul 516 ein anomales Verhalten. Das Korrekturmodul 516 bestimmt dann eine geeignete Korrekturmaßnahme, die als Reaktion auf das anomale Verhalten ergriffen werden soll, und führt diese Maßnahme aus.
  • Unter Bezugnahme auf 6 ist ein beispielhaftes Verarbeitungssystem 600 gezeigt, das das Anomaliendetektionssystem 106 darstellen kann. Das Verarbeitungssystem 600 umfasst mindestens einen Prozessor (CPU) 604, der über einen Systembus 602 betriebstechnisch mit anderen Komponenten gekoppelt ist. Ein Cache 606, ein Nur-Lese-Speicher (ROM) 608, ein Direktzugriffsspeicher (RAM) 610, ein Eingabe/Ausgabe-Adapter (E/A-Adapter) 620, ein Tonadapter 630, ein Netzadapter 640, ein Anwenderschnittstellenadapter 650 und ein Anzeigeadapter 660 sind betriebstechnisch mit dem Systembus 602 gekoppelt.
  • Eine erste Speichervorrichtung 622 und eine zweite Speichervorrichtung 624 sind durch den E/A-Adapter 620 betriebstechnisch mit dem Systembus 602 gekoppelt. Die Speichervorrichtungen 622 und 624 können eine beliebige Plattenspeichervorrichtung (z. B. eine magnetische oder optische Plattenspeichervorrichtung), eine Festkörpermagnetvorrichtung usw. sein. Die Speichervorrichtungen 622 und 624 können der gleiche Typ von Speichervorrichtung oder verschiedene Typen von Speichervorrichtungen sein.
  • Ein Lautsprecher 632 ist durch den Tonadapter 630 betriebstechnisch mit dem Systembus 602 gekoppelt. Ein Sendeempfänger 642 ist über den Netzadapter 640 betriebstechnisch mit dem Systembus 602 gekoppelt. Eine Anzeigevorrichtung 662 ist über den Anzeigeadapter 660 betriebstechnisch mit dem Systembus 602 gekoppelt.
  • Eine erste Anwendereingabevorrichtung 652, eine zweite Anwendereingabevorrichtung 654 und eine dritte Anwendereingabevorrichtung 656 sind über den Anwenderschnittstellenadapter 650 betriebstechnisch mit dem Systembus 602 gekoppelt. Die Anwendereingabevorrichtungen 652, 654 und 656 können eine Tastatur, einer Maus, ein Tastenfeld, eine Bilderfassungsvorrichtung, eine Bewegungserfassungsvorrichtung, ein Mikrofon, eine Vorrichtung, die die Funktionalität von mindestens zwei der vorhergehenden Vorrichtungen aufweist, und so weiter sein. Natürlich können auch andere Arten von Eingabevorrichtungen verwendet werden und dabei der Gedanke der vorliegenden Prinzipien erhalten bleiben. Die Anwendereingabevorrichtungen 652, 654 und 656 können der gleiche Typ einer Anwendereingabevorrichtung oder verschiedene Typen von Anwendereingabevorrichtungen sein. Die Anwendereingabevorrichtungen 652, 654 und 656 werden zum Eingeben und Ausgeben von Informationen in das und aus dem System 600 verwendet.
  • Natürlich kann das Verarbeitungssystem 600 auch andere Elemente (nicht gezeigt) aufweisen sowie bestimmte Elemente weglassen, wie dies von Fachleuten ohne Weiteres in Betracht gezogen wird. Beispielsweise können in das Verarbeitungssystem 600 abhängig von dessen speziellen Implementierung verschiedene andere Eingabevorrichtungen und/oder Ausgabevorrichtungen aufgenommen werden, wie es für Fachleute leicht verständlich ist. Beispielsweise können verschiedene Arten von drahtlosen und/oder drahtgebundenen Eingabe- und/oder Ausgabevorrichtungen verwendet werden. Darüber hinaus können zusätzliche Prozessoren, Controller, Speicher usw. in verschiedenen Konfigurationen verwendet werden, wie dies von Fachleuten leicht erkannt wird. Diese und andere Variationen des Verarbeitungssystems 600 werden von Fachleuten angesichts der Lehren der hier bereitgestellten vorliegenden Prinzipien ohne Weiteres in Betracht gezogen.
  • Das Vorstehende soll als in jeder Hinsicht veranschaulichend und beispielhaft, aber nicht als einschränkend verstanden werden, und der Umfang der hierin offenbarten Erfindung soll nicht aus der genauen Beschreibung bestimmt werden, sondern vielmehr aus den Ansprüchen und deren Interpretation gemäß der vollen Breite, die nach den Patentgesetzen zulässig ist. Es versteht sich, dass die hier gezeigten und beschriebenen Ausführungsformen nur die vorliegende Erfindung veranschaulichen und dass Fachleute verschiedene Abwandlungen implementieren können, ohne vom Umfang und Gedanken der Erfindung abzuweichen. Fachleute könnten verschiedene andere Merkmalskombinationen implementieren, ohne vom Umfang und Gedanken der Erfindung abzuweichen. Nachdem auf diese Weise Aspekte der Erfindung mit den durch die Patentgesetze geforderten Einzelheiten und Besonderheiten beschrieben wurden, wird in den beigefügten Ansprüchen dargelegt, was durch das Patent beansprucht wird und geschützt werden soll.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 62627922 [0001]
    • US 16/245740 [0001]

Claims (18)

  1. Verfahren zum Detektieren und Korrigieren von anomalem Verhalten, das Folgendes umfasst: Erzeugen einer gemeinsamen Binäreinbettung von jeder von mehreren historischen Zeitreihensequenzen; Erzeugen einer gemeinsamen Binäreinbettung einer jüngsten Zeitreihensequenz; Erzeugen einer Rangliste der mehreren historischen Zeitreihensequenzen gemäß jeweiligen Ähnlichkeiten jeder historischen Zeitreihensequenz mit der jüngsten Zeitreihensequenz basierend auf den jeweiligen gemeinsamen Binäreinbettungen davon; Bestimmen von anomalem Verhalten eines Systems, das der jüngsten Zeitreihensequenz zugeordnet ist, gemäß einer Kennzeichnung einer historischen Zeitreihensequenz mit dem höchsten Rang in der Rangliste; und Durchführen einer Korrekturmaßnahme, um das anomale Verhalten zu korrigieren.
  2. Verfahren nach Anspruch 1, wobei das Erzeugen einer gemeinsamen Binäreinbettung der mehreren historischen Zeitreihensequenzen und der jüngsten Zeitreihensequenz umfasst: Codieren einer Zeitreihensequenz mit einer Einheit mit langem Kurzzeitgedächtnis, um eine erste Darstellung der zeitlichen Dynamik zu erzeugen; und Codieren von Paaren von Zeitreihensequenzen mit faltenden neuronalen Netzen, um zweite Darstellungen für Korrelationen zwischen verschiedenen Paaren von Zeitreihen innerhalb desselben Zeitsegments zu erzeugen.
  3. Verfahren nach Anspruch 2, wobei das Erzeugen einer gemeinsamen Binäreinbettung der mehreren historischen Zeitreihensequenzen und der jüngsten Zeitreihensequenz ferner umfasst: Verketten der Darstellungen; und Abbilden der Verkettung auf einen Wert zwischen 1 und -1.
  4. Verfahren nach Anspruch 1, wobei das Erzeugen der Rangliste ein Bestimmen einer Ähnlichkeit jeder der mehreren historischen Zeitreihensequenzen mit der jüngsten Zeitreihensequenz gemäß einem Hamming-Abstand zwischen den jeweiligen gemeinsamen Binäreinbettungen umfasst.
  5. Verfahren nach Anspruch 1, wobei das Erzeugen der Rangliste ein Optimieren einer Zielfunktion umfasst, die einen Rangverlustterm und einen Regularisierungsterm umfasst.
  6. Verfahren nach Anspruch 5, wobei das Optimieren der Zielfunktion ein Optimieren einer genäherten Zielfunktion umfasst: O ( D t r i p l e t , W ) ¯ = ( M s j = 1 s σ ( V q i V q j ) ) 1 r + λ 2 W F 2
    Figure DE112019000739T5_0057
    wobei D t r i p l e t
    Figure DE112019000739T5_0058
    ein Triplett von Segmenten ist, W eine Parametermatrix ist, M eine Gesamtzahl von Auswahlmöglichkeiten von Triplets ist, s eine Anzahl verschiedener Segmente in den Triplets ist, j = 1 s σ ( V q i V q j )
    Figure DE112019000739T5_0059
    ein weich angenäherter Rang von historischen Zeitreihen yi in Bezug auf die Abfrage yq ist und λ ein Parameter ist, der einen Kompromiss zwischen Rangverlust und Regularisierung steuert.
  7. Verfahren nach Anspruch 5, wobei die Zielfunktion eine genäherte Zielfunktion ist, die auf einem stochastischen Gradientenabstieg basiert.
  8. Verfahren nach Anspruch 1, wobei jede Zeitreihensequenz eine Menge von Sensorwerten darstellt, die nach der Zeit der Aufzeichnung geordnet sind.
  9. Verfahren nach Anspruch 1, wobei die Korrekturmaßnahme aus der folgenden Gruppe ausgewählt ist: Ändern einer Sicherheitseinstellung für eine Anwendung oder Hardwarekomponente des überwachten Systems, Ändern eines Betriebsparameters einer Anwendung oder Hardwarekomponente des überwachten Systems, und Anhalten oder Neustarten einer Anwendung des überwachten Systems, Anhalten oder Neustarten einer Hardwarekomponente des überwachten Systems, Ändern eines Umgebungszustands des überwachten Systems und Ändern des Status einer Netzschnittstelle des überwachten Systems.
  10. System zum Detektieren und Korrigieren von anomalem Verhalten, das Folgendes umfasst: ein Modul für gemeinsame Einbettung, das einen Prozessor aufweist, der dazu ausgelegt ist, eine gemeinsame Binäreinbettung von jeder von mehreren historischen Zeitreihensequenzen zu erzeugen und eine gemeinsame Binäreinbettung einer aktuellen Zeitreihensequenz zu erzeugen; ein Rangmodul, das dazu ausgelegt ist, eine Rangliste der mehreren historischen Zeitreihensequenzen gemäß jeweiligen Ähnlichkeiten jeder historischen Zeitreihensequenz mit der jüngsten Zeitreihensequenz basierend auf den jeweiligen gemeinsamen Binäreinbettungen davon zu erzeugen; und ein Korrekturmodul, das dazu ausgelegt ist, ein anomales Verhalten eines Systems, das der letzten Zeitreihensequenz zugeordnet ist, gemäß einer Kennzeichnung einer historischen Zeitreihensequenz mit dem höchsten Rang in der Rangliste zu bestimmen und eine Korrekturmaßnahme durchzuführen, um das anomale Verhalten zu korrigieren.
  11. System nach Anspruch 10, wobei das Modul für gemeinsame Einbettung ferner dazu ausgelegt ist, eine Zeitreihensequenz mit einer Einheit mit langem Kurzzeitgedächtnis zu codieren, um eine erste Darstellung der zeitlichen Dynamik zu erzeugen, und Paare von Zeitreihensequenzen mit faltenden neuronalen Netzen zu codieren, um zweite Darstellungen für Korrelationen zwischen verschiedenen Zeitreihenpaaren innerhalb desselben Zeitsegments zu erzeugen.
  12. System nach Anspruch 11, wobei das Modul für gemeinsame Einbettung ferner dazu ausgelegt ist, die Darstellungen zu verketten und die Verkettung auf einen Wert zwischen 1 und -1 abzubilden.
  13. System nach Anspruch 10, wobei das Rangmodul ferner dazu ausgelegt ist, eine Ähnlichkeit jeder der mehreren historischen Zeitreihensequenzen mit der jüngsten Zeitreihensequenz gemäß einem Hamming-Abstand zwischen den jeweiligen gemeinsamen Binäreinbettungen zu bestimmen.
  14. System nach Anspruch 10, wobei das Rangmodul ferner dazu ausgelegt ist, eine Zielfunktion zu optimieren, die einen Rangverlustterm und einen Regularisierungsterm umfasst.
  15. System nach Anspruch 14, wobei das Rangfolgenmodul ferner dazu ausgelegt ist, die Zielfunktion als eine genäherte Zielfunktion zu optimieren: O ( D t r i p l e t , W ) ¯ = ( M s j = 1 s σ ( V q i V q j ) ) 1 r + λ 2 W F 2
    Figure DE112019000739T5_0060
    wobei D t r i p l e t
    Figure DE112019000739T5_0061
    ein Triplett von Segmenten ist, W eine Parametermatrix ist, M eine Gesamtzahl von Auswahlmöglichkeiten von Triplets ist, s eine Anzahl verschiedener Segmente in den Triplets ist, j = 1 s σ ( V q i V q j )
    Figure DE112019000739T5_0062
    ein weich angenäherter Rang von historischen Zeitreihen yi in Bezug auf die Abfrage yq ist und λ ein Parameter ist, der einen Kompromiss zwischen Rangverlust und Regularisierung steuert.
  16. System nach Anspruch 14, wobei die Zielfunktion eine genäherte Zielfunktion ist, die auf einem stochastischen Gradientenabstieg basiert.
  17. System nach Anspruch 10, wobei jede Zeitreihensequenz eine Menge von Sensorwerten darstellt, die nach der Zeit der Aufzeichnung geordnet sind.
  18. System nach Anspruch 10, wobei die Korrekturmaßnahme aus der folgenden Gruppe ausgewählt ist: Ändern einer Sicherheitseinstellung für eine Anwendung oder Hardwarekomponente des überwachten Systems, Ändern eines Betriebsparameters einer Anwendung oder Hardwarekomponente des überwachten Systems, und Anhalten oder Neustarten einer Anwendung des überwachten Systems, Anhalten oder Neustarten einer Hardwarekomponente des überwachten Systems, Ändern eines Umgebungszustands des überwachten Systems und Ändern des Status einer Netzschnittstelle des überwachten Systems.
DE112019000739.4T 2018-02-08 2019-01-14 Zeitreihengewinnung zum analysieren und korrigieren eines systemstatus Pending DE112019000739T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862627922P 2018-02-08 2018-02-08
US62/627,922 2018-02-08
US16/245,740 2019-01-11
US16/245,740 US10929220B2 (en) 2018-02-08 2019-01-11 Time series retrieval for analyzing and correcting system status
PCT/US2019/013429 WO2019156777A1 (en) 2018-02-08 2019-01-14 Time series retrieval for analyzing and correcting system status

Publications (1)

Publication Number Publication Date
DE112019000739T5 true DE112019000739T5 (de) 2020-10-22

Family

ID=67475123

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019000739.4T Pending DE112019000739T5 (de) 2018-02-08 2019-01-14 Zeitreihengewinnung zum analysieren und korrigieren eines systemstatus

Country Status (4)

Country Link
US (1) US10929220B2 (de)
JP (1) JP6972389B2 (de)
DE (1) DE112019000739T5 (de)
WO (1) WO2019156777A1 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7131616B2 (ja) * 2018-09-05 2022-09-06 日本電気株式会社 時系列データ処理装置
US11763198B2 (en) * 2019-10-08 2023-09-19 Nec Corporation Sensor contribution ranking
US11175829B2 (en) 2019-10-22 2021-11-16 EMC IP Holding Company LLC Automatic identification of workloads contributing to behavioral changes in storage systems using machine learning techniques
US11175838B2 (en) 2019-10-22 2021-11-16 EMC IP Holding Company LLC Automatic identification of resources in contention in storage systems using machine learning techniques
US11651249B2 (en) 2019-10-22 2023-05-16 EMC IP Holding Company LLC Determining similarity between time series using machine learning techniques
US11062173B2 (en) 2019-10-22 2021-07-13 EMC IP Holding Company LLC Automatic identification of workloads contributing to system performance degradation using machine learning techniques
US11341026B2 (en) * 2020-01-06 2022-05-24 EMC IP Holding Company LLC Facilitating detection of anomalies in data center telemetry
US11645505B2 (en) * 2020-01-17 2023-05-09 Servicenow Canada Inc. Method and system for generating a vector representation of an image
US11416506B2 (en) 2020-04-29 2022-08-16 EMC IP Holding Company LLC Facilitating temporal data management for anomalous state detection in data centers
US11599410B2 (en) * 2020-10-13 2023-03-07 Lakeside Software, Llc Apparatus and method for detecting and correcting problems, failures, and anomalies in managed computer systems such as kiosks and informational displays
US20220382614A1 (en) * 2021-05-26 2022-12-01 Nec Laboratories America, Inc. Hierarchical neural network-based root cause analysis for distributed computing systems

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102195070B1 (ko) * 2014-10-10 2020-12-24 삼성에스디에스 주식회사 시계열 데이터의 분석을 통한 이상 감지 및 예측 시스템 및 방법
US20160154802A1 (en) * 2014-12-02 2016-06-02 Nec Laboratories America, Inc. Quality control engine for complex physical systems
JP6313730B2 (ja) * 2015-04-10 2018-04-18 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited 異常検出システムおよび方法
US20180174062A1 (en) * 2016-12-21 2018-06-21 Ca, Inc. Root cause analysis for sequences of datacenter states
JP6661559B2 (ja) * 2017-02-03 2020-03-11 株式会社東芝 異常検出装置、異常検出方法およびプログラム
US11003561B2 (en) * 2018-01-03 2021-05-11 Dell Products L.P. Systems and methods for predicting information handling resource failures using deep recurrent neural networks

Also Published As

Publication number Publication date
US10929220B2 (en) 2021-02-23
US20190243739A1 (en) 2019-08-08
JP2021512437A (ja) 2021-05-13
WO2019156777A1 (en) 2019-08-15
JP6972389B2 (ja) 2021-11-24

Similar Documents

Publication Publication Date Title
DE112019000739T5 (de) Zeitreihengewinnung zum analysieren und korrigieren eines systemstatus
DE112020000281T5 (de) Vereinigen von modellen, die jeweilige zielklassen aufweisen, mit destillation
DE112016007498T5 (de) Untersuchungseinrichtung und untersuchungsverfahren
DE102016109232A1 (de) Stichprobenmessverfahren mit Stichprobenentnahmeratenentscheidungsschema und Computerprogrammprodukt hiervon
DE112017005651T5 (de) Vorrichtung zur Klassifizierung von Daten
DE102014223220A1 (de) Lernvorrichtung, Lernprogramm und Lernverfahren
DE102016014798A1 (de) Genaues Vorhersagen einer Etikettrelevanz bei einer Bildabfrage
DE112015005427B4 (de) Qualitätssteuermaschine für komplexe physikalische Systeme
DE112017000669T5 (de) Semantische Segmentierung auf der Grundlage einer globalen Optimierung
DE102021200012A1 (de) Optimierte quantisierung für neuronale netze mit verringerter auflösung
EP3557487B1 (de) Generieren von validierungsdaten mit generativen kontradiktorischen netzwerken
DE112019006156T5 (de) Erkennung und behandlung von unsachgemässen eingaben durch neuronale netzwerke
DE112023000011T5 (de) Ein primäres Frequenzmodulationssteuersystem der thermischen Stromerzeugungseinheit mit kleinen Störungen
DE112020000448T5 (de) Kameraselbstkalibrierungsnetz
DE102021207269A1 (de) Verfahren und system zum erlernen von perturbationsmengen beim maschinenlernen
DE112020003050T5 (de) Fehlerkompensation in analogen neuronalen netzen
DE112021003629T5 (de) Kompakte darstellung und zeitreihensegmentabruf durch deep learning
DE112016003235T5 (de) Ausgangseffizienzoptimierung in Produktionssystemen
DE102021127244A1 (de) Künstliche Intelligenz Optimierungsplattform
DE102021109382A1 (de) System und verfahren eines monotonen neuronalen operatornetzes technisches gebiet
DE112021004174T5 (de) Föderiertes lernen zur anomalieerkennung
DE102019210507A1 (de) Vorrichtung und computerimplementiertes Verfahren für die Verarbeitung digitaler Sensordaten und Trainingsverfahren dafür
DE112020007472T5 (de) Lernnutzungssystem, nutzungsvorrichtung, lernvorrichtung, programm und lernnutzungsverfahren
DE112015005501B4 (de) Alterungsprofilbildungsmaschine für physikalische Systeme
WO2020064209A1 (de) Maschinelles lernsystem, sowie ein verfahren, ein computerprogramm und eine vorrichtung zum erstellen des maschinellen lernsystems

Legal Events

Date Code Title Description
R012 Request for examination validly filed