DE102018210427A1 - Verfahren zur klassifikation von zeitreihen - Google Patents

Verfahren zur klassifikation von zeitreihen Download PDF

Info

Publication number
DE102018210427A1
DE102018210427A1 DE102018210427.1A DE102018210427A DE102018210427A1 DE 102018210427 A1 DE102018210427 A1 DE 102018210427A1 DE 102018210427 A DE102018210427 A DE 102018210427A DE 102018210427 A1 DE102018210427 A1 DE 102018210427A1
Authority
DE
Germany
Prior art keywords
time series
data
neural network
data windows
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018210427.1A
Other languages
English (en)
Inventor
Christoph-Nikolas Straehle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of DE102018210427A1 publication Critical patent/DE102018210427A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities

Abstract

Die vorliegende Erfindung umfasst ein Verfahren zur Klassifikation von Zeitreihen, mit den Schritten eines Erfassens (S101) einer Zeitreihe; eines Erzeugens (S102) von mehreren überlappenden Datenfenstern, die jeweils einen Teilbereich der Zeitreihe umfassen; eines Zuordnens (S103) der Datenfenster zu einer Klasse durch ein angelerntes neuronales Netz; und eines Zuordnens (S104) der Zeitreihe zu einer Klasse auf Basis der Klassen der Datenfenster.

Description

  • Stand der Technik
  • Die vorliegende Erfindung betrifft ein Verfahren zur Klassifikation von Zeitreihen, ein Computerprogramm, ein maschinenlesbares Speichermedium und ein elektronisches Gerät.
  • Die Druckschrift EP 1 782 569 B1 betrifft ortsermöglichte Sicherheitsdienste in einem drahtlosen Netz. Mobilfunknetze können derartige Netze sein. Das Verfahren umfasst ein Berechnen eines Sicherheitswertes, der mit dem anfordernden Sicherheitslevel eines Knoten verknüpft ist, basierend auf einer Position des anfragenden Knotens.
  • Die Druckschrift DE 10 2010 047 257 A1 betrifft ein mobilfunkbasiertes Transaktionssystem mit einem Mobiltelefon, einem Transaktionsterminal sowie mit einem Systemserver zur Abwicklung eines bargeldlosen Zahlungsverkehrs. Innerhalb eines Mehrebenen- Sicherheitssystems erfolgt in einer zweiten Ebene ein Standortabgleich des Standortes eines Benutzers bzw. des Clients innerhalb eines Mobilfunknetzes und/oder die Ortung des Teilnehmers in einem Satelliten-Positionssystem. Basierend auf der Annahme, dass der Benutzer des Mobiltelefons nur mit einer bestimmten Geschwindigkeit seinen Standort ändern kann, werden Transaktionen, deren räumlicher Abstand nicht mit dem zeitlichen Abstand plausibilisierbar ist, abgelehnt.
  • Die Druckschrift DE 10 2012 220 130 A1 betrifft den Zugang zu sicheren Einrichtungen mittels biometrischer Authentifizierung mit mehreren Faktoren. Ortsfeste Sensoreinheiten können verwendet werden, um hoch genaue Kontextinformationen (Zeit und Ort) für den Authentifizierungsprozess bereitzustellen. Darüber hinaus können sie mit den Mobileinheits- Daten querzuprüfende Authentifizierungsdaten bereitstellen.
  • Die Druckschrift EP 1 310 077 B1 betrifft kryptografische Techniken für eine gesicherte Verteilung von Daten und Informationen über ein dezentralisiertes öffentliches Netz, und insbesondere auf eine netzbasierte Administration, Verwaltung, Verteilung und Verwendung von Zugangsberechtigungsausweisen oder -codes in netzbasierten Sicherheitsschlüsselverwaltungssystemen. Eine Zeit und ein physikalischer Ort eines Benutzers können ebenfalls als Authentifizierungsparameter verwendet werden.
  • Offenbarung der Erfindung
  • Vorteile der Erfindung
  • Ein erster Aspekt betrifft ein Verfahren zur Klassifikation von Zeitreihen, mit den Schritten eines Erfassens einer Zeitreihe; eines Erzeugens von mehreren überlappenden Datenfenstern, die jeweils einen Teilbereich der Zeitreihe umfassen; eines Zuordnens der Datenfenster zu einer Klasse durch ein angelerntes neuronales Netz; und eines Zuordnens der Zeitreihe zu einer Klasse auf Basis der Klassen der Datenfenster. Das neuronale Netz kann auf Basis von Beispielzeitreihen mit vordefinierten Klassen angelernt werden. Das Zuordnen kann in einem oder beiden Fällen auf Basis von Multiple-Instance-Learning durchgeführt werden. Durch das Anlernen mit den Beispielzeitreihen wird eine anschließende Klassifikation der Datenfenster einer Zeitreihe durch das neuronale Netz ermöglicht. Das Verfahren wird beispielsweise solange durchgeführt, bis festgestellt wird, dass ein Datenfenster in einer vorgegebenen Klasse vorliegt und anschließend abgebrochen. Das Verfahren mit den genannten Merkmalen hat den technischen Vorteil, dass charakteristische Ereignisse in Zeitreihen schnell und mit geringem Lernaufwand erfasst werden können.
  • Ein neuronales Netz ist ein Netz aus künstlichen Neuronen, die untereinander über Kommunikationskanäle verbunden sind. Eingabeinformationen werden an einer Eingabeschicht in das neuronale Netz eingeben und von den einzelnen Neuronen verarbeitet. Das Ergebnis wird gewichtet und über die Kommunikationskanäle an Neuronen einer anderen Schicht weiterpropagiert. Das Endergebnis dieser Verarbeitung wird an einer Ausgabeschicht ausgegeben.
  • Die Zeitreihen umfassen eine Vielzahl von über die Zeit aufgezeichneten Datenpunkten, die beispielsweise von einem oder mehreren Sensoren erfasst werden. Dies kann beispielsweise eine über die Zeit erfasste elektrische Spannung sein. Im Allgemeinen können die Zeitreihen jedoch auch Daten umfassen, die eine andere technisch-physikalische Größe über die Zeit umfassen.
  • Die Datenfenster umfassen jeweils einen zusammenhängenden Teilbereich, d.h. Ausschnitt, der Zeitreihe und somit teilweise die Daten aus der entsprechenden Zeitreihe. Die Klasse einer Zeitreihe zeigt eine Zugehörigkeit der Zeitreihe zu einer bestimmten im Voraus festgelegten, kennzeichnenden Gruppe an, wie beispielsweise „fehlerfrei“, „leichter Fehler“, „mittlerer Fehler“ oder „schwerer Fehler“.
  • In einer technisch vorteilhaften Ausführungsform des Verfahrens wird die Zeitreihe als positiv klassifiziert, wenn zumindest eines der Datenfenster als positiv klassifiziert wird. Dieses Verfahren hat beispielsweise den technischen Vorteil, dass bereits ein charakteristisches Ereignis ausreicht um die Zeitreihe zu klassifizieren.
  • In einer technisch vorteilhaften Ausführungsform des Verfahrens wird die Zeitreihe als negativ klassifiziert, wenn alle der Datenfenster als negativ klassifiziert werden. Dieses Verfahren hat beispielsweise den technischen Vorteil, dass das Vorliegen eines charakteristischen Ereignisses ausgeschlossen werden kann.
  • In einer technisch vorteilhaften Ausführungsform des Verfahrens weisen die Datenfenster einen vorgegebenen gegenseitigen Versatz auf. Der Versatz ist beispielsweise ein zeitlicher Versatz oder ein entsprechender Versatz durch eine Anzahl von Datenpunkten. Dieses Verfahren hat beispielsweise den technischen Vorteil, dass die Zeitfenster die gesamte Zeitreihe äquidistant abdecken.
  • In einer technisch vorteilhaften Ausführungsform des Verfahrens ist der Versatz zwischen den Datenfenstern einstellbar. Dieses Verfahren hat beispielsweise den technischen Vorteil, dass die Geschwindigkeit des Verfahrens erhöht werden kann, wenn der Versatz vergrößert wird oder die Genauigkeit des Verfahrens erhöht werden kann, wenn der Versatz verkleinert wird.
  • In einer technisch vorteilhaften Ausführungsform des Verfahrens ist die Länge der Datenfenster einstellbar. Die Länge der Datenfenster ist durch eine vorgegebene Zeitdauer oder eine vorgegebene Anzahl von Datenpunkten gegeben. Dieses Verfahren hat beispielsweise den technischen Vorteil, dass der Datendurchsatz mit dem Erhöhen der Länge der Datenfenster ebenfalls erhöht werden kann.
  • In einer technisch vorteilhaften Ausführungsform des Verfahrens wird die Zeitreihe durch einen Sensor erfasst. Dieses Verfahren hat beispielsweise den technischen Vorteil, dass die den Sensordaten zugrundeliegenden Objekte klassifiziert werden können.
  • Ein zweiter Aspekt betrifft ein Computerprogramm, das eingerichtet ist, das Verfahren nach dem ersten Aspekt durchzuführen. Das Computerprogramm kann auf einem Computer mit einem Prozessor zum Abarbeiten des Computerprogramms und einem elektronischen Datenspeicher zum Speichern des Computerprogramms und anderer Daten ausgeführt werden.
  • Ein dritter Aspekt betrifft ein maschinenlesbares Speichermedium, auf dem das Computerprogramm nach dem zweiten Aspekt gespeichert ist. Das Speichermedium ist beispielsweise ein USB-Speicherstick oder eine CD-ROM, auf der das Computerprogramm gespeichert ist. Im Allgemeinen kann das Speichermedium jeder Gegenstand sein, auf dem das Computerprogramm dauerhaft gespeichert ist.
  • Ein vierter Aspekt betrifft ein elektronisches Gerät, das eingerichtet ist, das Verfahren nach dem ersten Aspekt durchzuführen. Das elektronische Gerät umfasst beispielsweise eine elektronische Schaltung, mit der das Verfahren ausgeführt werden kann.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigen
    • 1 eine schematische Darstellung des Verfahrens;
    • 2 eine schematische Darstellung eines neuronalen Netzes; und
    • 3 ein Blockdiagramm des Verfahrens.
  • 1 zeigt eine schematische Darstellung des Verfahrens zur Klassifikation von Zeitreihen 100. Die Zeitreihen 100 umfassen eine Vielzahl von über die Zeit aufgezeichneten Datenpunkten, die von einem oder mehreren Sensoren 101 erfasst werden. Der Sensor 101 ist beispielsweise ein Körperschallsensor an einem Bauteil oder einem Motor.
  • Das Verfahren basiert auf Multiple-Instance-Learning (MIL), einem schwach überwachten Lernverfahren, das auf neuronalen Netzen 105 basiert. Das Multiple-Instance-Learning (MIL) erzeugt ein angelerntes neuronales Netz 105, das geeignet ist, einzelne Datenfenster 103-1, 103-2, ..., 103-n der Zeitreihe 100 zu klassifizieren. Beim Anlernen des neuronalen Netzes 105 werden Beispielzeitreihen verwendet, deren Klasse vorgegeben ist. Aus der Sammlung der Beispielzeitreihen lernt das neuronale Netz 105 ein Konzept, um die einzelnen Datenfenster 103-1, 103-2, ..., 103-n korrekt zu klassifizieren. Das neuronale Netz 105 kann dadurch charakteristische Ereignisse (Events) 107 in den Zeitreihen 100 lernen und detektieren. Charakteristische Ereignisse 107 in Zeitreihen 100 sind Folgen von Signalen in einem oder mehreren Kanälen, die diskriminativ für eine Klasse der Zeitreihe 100 sind. Das neuronale Netz 105 ist beispielsweise als Softwaremodul auf einem Computer oder als Hardwareschaltung implementiert.
  • Die Klasse einer Zeitreihe 100 zeigt eine Zugehörigkeit zu einer bestimmten Gruppe an. Eine Zeitreihe 100 kann beispielsweise entweder Signale eines defekten Bauteils oder eines funktionierenden Bauteils darstellen. Die Signale des defekten Bauteils können von denen des funktionierenden Bauteils anhand charakteristischer Signalformen unterschieden werden. Im ersten Fall gehört die Zeitreihe 100 dann zur Gruppe „Bauteil defekt“. Im zweiten Fall gehört die Zeitreihe 100 zur Gruppe „Bauteil in Ordnung“. Wenn diese charakteristische Signalform nicht fortwährend in der Zeitreihe 100 zu erkennen ist, sondern lediglich zu manchen Zeitpunkten auftritt, handelt es sich um ein charakteristisches Ereignis 107.
  • Das Verfahren kann durch das neuronale Netz 105 derartige charakteristische Ereignisse 107 aus Beispielzeitreihen selbstständig lernen und anschließend in unbekannten Zeitreihen 100 detektieren. Beim Lernen der charakteristischen Ereignisse 107 sind diese in den Beispielzeitreihen nicht explizit gekennzeichnet. Stattdessen wird eine vorgegebene Information verwendet, zu welcher Klasse die gesamte Beispielzeitreihe gehört. Aus dieser Information erkennt das neuronale Netz 105 selbstständig, welche Signalformen die eine Zeitreihe 100 von der anderen Zeitreihe 100 unterscheiden.
  • Die Klassifikation der Zeitreihen 100 kann auf univariaten Signalen basieren, d.h. auf Zeitreihen 100, die von nur einem Sensorsignal ausgehen. Allerdings können auch Zeitreihen verarbeitet werden, die mehrere Sensoren 101 gleichzeitig aufzeichnen. Das Verfahren kann eine Klassifikation der Zeitreihe 100 in eine Mehrzahl von Klassen vornehmen, wie beispielsweise in die vier Klassen „fehlerfrei“, „leichter Fehler“, „mittlerer Fehler“ oder „schwerer Fehler“.
  • Das neuronale Netz 105 kann die charakteristischen Ereignisse 107 in den Zeitreihen 100 aus schwachen Labels lernen. In diesem Fall werden die Ereignisse 107 nicht in der Zeitreihe 100 markiert, sondern die gesamte Zeitreihe wird beim Training einer bestimmten Klasse zugeordnet. Der Algorithmus erkennt dann selbstständig, wo charakteristische Ereignisse 107 vorkommen und durch welchen Signalverlauf diese gekennzeichnet sind.
  • Dies wird durch die Anwendung des Multiple-Instance-Learning-Ansatzes auf die Zeitreihen 100 erreicht. Der Algorithmus kann auf multivariaten Zeitreihen arbeiten, d.h. auf Zeitreihen, die aus mehreren Sensorsignalen bestehen. Der Algorithmus kann Ereignisse 107 lernen und detektieren, bei denen Teile des Signals uncharakteristisch sind. Dies wird durch die Verwendung eines neuronalen Netzes erreicht. Das neuronale Netz kann Teile des eingegebenen Signals mit einem Gewicht von Null bearbeiten. Dies ermöglicht es, Teile des Signals auszublenden.
  • Bei dem Multiple-Instance-Learning-Verfahren werden Trainingsbeispiele in Form von Taschen (Bags) vorgegeben, die jeweils mehrere Datenpunkte (Instances) umfassen. Klassifizierungen (Labels) werden jeweils nur für die Taschen angegeben, jedoch nicht für jeden einzelnen Datenpunkt. Die Labels der Datenpunkte in positiven Taschen sind unbekannt, während die Labels von Datenpunkten in negativen Taschen als negativ bekannt sind. Für positive Taschen existiert die Bedingung, dass mindestens ein Datenpunkt der positiven Tasche auch positiv ist.
  • Multiple-Instance-Learning bildet ein schwach überwachtes Lernkonzept und benötigt als solches weniger Labels als ein stark überwachtes Lernverfahren. Labels werden nur für die Taschen verwendet, d.h. Gruppen von Datenpunkten, jedoch nicht für jeden einzelnen Datenpunkt. Diese Art der Kennzeichnung von Datenpunkten mit schwachen Labels erfordert weniger menschlichen Aufwand beim Kennzeichnen und erlaubt es, vorher unbekannte Klassenkonzepte aus Daten zu lernen.
  • Multiple-Instance-Learning wird für das Erfassungsproblem charakteristischer Ereignisse (Characteristic Event Detection Problem) verwendet. Zu diesem Zweck wird jede Zeitreihe 100 als Tasche (Bag) behandelt, für die lediglich ein Label als Klassifizierung für die gesamte Zeitreihe 100 verwendet wird. Die einzelnen Datenpunkte einer Tasche sind uns aus den überlappenden Datenfenstern 103-1, 103-2, ..., 103-n einer Zeitreihe 100 gebildet.
  • Dadurch, dass das Erfassungsproblem charakteristischer Ereignisse 107 auf das Multiple-Instance-Learning-Verfahren übertragen wird, kann in jeder Zeitreihe 100 mindestens ein Datenfenster 103-1, 103-2, ...,103-n vom Algorithmus als positiv, d.h. charakteristisch für die Klasse, identifiziert werden. Die Datenpunkte, d.h. Datenfenster 103-1, 103-2 und 103-3 der Zeitreihe 100, die als negativ bestimmt werden, sind uncharakteristische Ereignisse 107 der Zeitreihe 100. Um das Erfassungsproblem charakteristischer Ereignisse 107 zu lösen, wird auf einem Multiple-Instance-Learning-Ansatz für neuronale Netze 105 aufgebaut, der auf mehrere Klassen erweitert wird.
  • Wenn der Datensatz N Taschen B1, ..., Bn mit jeweils dazugehörigen Labels Yi umfasst, gilt für positive Taschen Yi = 1 und Yi =0 für negative Taschen. Dann besteht jede Tasche aus Mi Datenpunkten, also Bi1, Bi2,..., BiMi. Jeder Datenpunkt besteht aus einem p-dimensionalen Merkmalsvektor (Feature Vektor). Der Fehler ist als die Summe der Taschenfehler definiert. E = i = 1 N E i
    Figure DE102018210427A1_0001
  • Der Taschenfehler ist als E i = 1 2 ( max 1 s j s M i f ( B i j ) y _ i ) 2
    Figure DE102018210427A1_0002
    definiert.
  • f(Bij) ist die Vorhersage des neuronalen Netzes 105 für den j-ten Datenpunkt der Tasche i. Um das neuronale Netz 105 zu trainieren, werden alle Datenpunkte einer Tasche vorhergesagt. Anschließend wird der Taschenfehler durch das Netz zurückpropagiert und die Gewichte des neuronale Netzes 105 entsprechend angepasst.
  • Da Zeitreihenklassifikationsprobleme oft mehr als eine Klasse aufweisen, wird der Taschenfehler auf ein Mehrklassenproblem erweitert. In diesem Fall ist das Taschenlabel ein (C+1)-dimensionaler Indikatorvektor, wobei C die Anzahl der Klassen ist. Das Label yi ist Null für alle k außer der Klasse der Tasche Bi, für welches es Eins ist.
  • Zusätzlich ist f(Bij) ein (C+1)-dimensionaler Vektor, so dass f(Bij)k die Wahrscheinlichkeit für Klasse k für den Datenpunkt Bij ist. Durch den folgenden Multi-Class-Multiple-Instance-Bag-Error: E i = k = 1 C 1 2 ( max 1 s j s M i f ( B i j ) k y i k ) 2
    Figure DE102018210427A1_0003
  • Wird erreicht, dass mindestens ein Datenpunkt einer Tasche das korrekte Klassenlabel erhält, während die anderen Datenpunkte das uninformative Klassenlabel „null“ erhalten. Dies wird durch den vorgeschlagenen Taschenfehler nicht bestraft. Zum Trainieren des Algorithmus werden alle Zeitreihen in überlappende Datenfenster aufgeteilt und dem neuronalen Netz präsentiert. Danach wird der Taschenfehler Ei durch das Netz zurückpropagiert und die Gewichte entsprechend angepasst. Dieser Prozess wird solange wiederholt, bis der Fehler auf dem Trainings- oder Validierungsdatensatz nicht mehr verringert wird.
  • Bei der Klassifikation oder Vorhersage einer unbekannten Zeitreihe 100 wird diese in die überlappenden Datenfenster 103-1, ..., 103-n zerlegt, die einzeln durch das neuronale Netz 105 propagiert werden. Die Netzvorhersage f(Bij)k gibt dann die Wahrscheinlichkeit dafür an, dass ein Ereignis 107 der Klasse k in dem Datenfenster j vorliegt. Diese Ereigniswahrscheinlichkeit kann anschließend zur Fehlerdiagnosezwecke oder Ähnlichem verwendet werden.
  • Bei einer univariaten Zeitreihe besteht ein Datenpunkt Bij aus den Signalwerten von dem Datenfenster j der Zeitreihe i. Die Fensterlänge der Datenfenster ist ein Hyperparameter, der beispielsweise durch Kreuzvalidierung bestimmt werden kann.
  • Im Fall von multivariaten Zeitreihen werden die d-dimensionalen Signale in einem Datenfenster in einer beliebigen - aber für alle Zeitreihen 100 gleichen - Form vektorisiert und dem neuronalen Netz 105 präsentiert. Da das neuronale Netz 105 einem Element des Eingangsvektors ein Gewicht von Null geben kann, können Signale, die in manchen Teilen unterschiedlich sind, der gleichen Klasse zugeordnet werden. Dieses Verhalten wird automatisch gelernt.
  • Eine uni- oder multivariate Zeitreihe 100 wird in überlappende Datenfenster 103-1, 103-2, ...103,-n partitioniert. Diese werden alle dem gleichen neuronalen Netz 105 präsentiert. Danach wird für eine Zeitreihe 100 der Multiple-Instance-Taschenfehler ausgerechnet und durch das neuronale Netz 105 zurückpropagiert und die Gewichte des neuronalen Netzes 105 entsprechend angepasst.
  • 2 zeigt eine schematische Darstellung des neuronalen Netzes 105 für ein Multiple-Instance-Learning. Die einzelnen Datenfenster 103-1, 103-2, ...,103-n werden nacheinander in das neuronale Netz 105 eingegeben. Das neuronale Netz 105 umfasst eine Eingabeschicht 201-1 (Input Layer), ein oder mehrere verarbeitende Schichten 201-2 (Hidden Layer) und eine Ausgabeschicht 201-M (Output Layer). In die Eingabeschicht 201-1 wird ein Eingangsvektor X als Eingabedaten 203 eingegeben, wie beispielsweise die Daten eines Datenfensters 103-1, 103-2, ...,103-n.
  • Die verarbeitenden Schichten 201-2 agieren als Neuronen mit nichtlinearer Aktivierungsfunktion, wie beispielsweise einem Schwellwert (Signum-Funktion), einer Tangens-Hyperbolicus -Funktion, einer Sigmoid-Funktion oder einer ReLU-Funktion (ReLU - Rectified Linear Unit). Die Ausgabe des neuronalen Netzes 105 bezeichnet die Werte der Ausgabeschicht 201-M, die zum Beispiel einen Klassifizierungswert für das eingegebene Datenfenster 103-1, 103-2, ...,103-n umfassen.
  • Bei der Weiterleitung des Eingangsvektors X an die nachfolgende verarbeitende Schicht 101-2 werden die jeweiligen Komponenten des Eingangsvektors X mit entsprechenden Kantengewichten w multipliziert. Dies geschieht ebenfalls bei jeder Weiterleitung an eine nachfolgende Schicht 201-M. Die Kantengewichte einer Schicht 201-1, ..., 201-M können hochpräzise Kantengewichte, wie beispielsweise Fließkommazahlen, oder stochastisch projizierte Werte sein, wie beispielsweise auf eine Ganzzahl gerundete Werte. Diese Vorwärtsprozessierung der Eingangsdaten durch das neuronale Netz 105 wird als Forward-Propagation bezeichnet.
  • 3 zeigt ein Blockdiagramm des Verfahrens zur Klassifikation von Zeitreihen 100. Das Verfahren umfasst den Schritt S101 eines Erfassens einer Zeitreihe 100, beispielsweise mittels eines oder mehrerer Sensoren 101. Anschließend werden in Schritt S102 mehrere überlappende Datenfenster 103-1, 103-2, ..., 103-n erzeugt, die jeweils einen Teilbereich der Zeitreihe 100 umfassen.
  • Die überlappenden Datenfenster 103-1, 103-2, ..., 103-n umfassen daher teilweise die Daten aus der Zeitreihe 100. In Schritt S103 werden die Datenfenster 103-1, 103-2, ..., 103-n in das angelernte neuronale Netz 105 eingegeben und zu einer Klasse durch das angelerntes neuronales Netz 105 zugeordnet. Anschließend wird in Schritt S104 die Zeitreihe 100 auf Basis der eingegebenen Datenfenster 103-1, 103-2, ..., 103-n klassifiziert, indem die Zeitreihe 100 auf Basis der Klassen der Datenfenster 103-1, 103-2, ..., 103-n einer Klasse zugeordnet wird.
  • Das Verfahren kann für die prädiktive Diagnose von Bauteilen und Komponenten eingesetzt werden. Dabei werden beispielsweise Sensorzeitreihen von ordnungsgemäßen und nicht-ordnungsgemäßen Bauteilen aufgezeichnet und mit dem beschriebenen Verfahren ein Klassifikator trainiert, der auch für weitere Bauteile aus deren Sensorsignalen deren Zustand vorhersagen kann. Beispielsweise wird der Körperschall eines elektrischen Motors, als Zeitreihe 100 für das Bauteil gemessen. Wenn das Bauteil zu der Klasse „fehlerhaft“ gehört, umfasst die Zeitreihe 100 charakteristische Ereignisse 107 in Form von außergewöhnlichen Frequenzanteilen die manchmal auftreten. Durch eine Zerlegung der Zeitreihe 100 in überlappende Fenster 103-1, 103-2, ..., 103-n, lässt sich das charakteristische Ereignis 107 das sich von den anderen normalen Frequenzverteilungen unterscheidet zuverlässig erfassen und die gesamte Zeitreihe 100 einer entsprechenden Klasse zuordnen. Hierbei muss das Fenster mit außergewöhnlichen Frequenzanteilen nicht manuell markiert werden, sondern der Algorithmus erkennt dieses charakteristische Fehlerverhalten selbstständig.
  • Der Schutzbereich der vorliegenden Erfindung ist durch die Ansprüche gegeben und wird durch die in der Beschreibung erläuterten oder den Figuren gezeigten Merkmale nicht beschränkt. Daher kann das Verfahren im Rahmen der Ansprüche weiter verbessert werden, um die Effizienz der Kommunikation, die Geschwindigkeit der Berechnungen oder die Robustheit gegenüber bestimmten kryptografischen Angriffen zu erhöhen.
  • Alle in Verbindung mit einzelnen Ausführungsformen der Erfindung erläuterten und gezeigten Merkmale können in unterschiedlicher Kombination in dem erfindungsgemäßen Gegenstand vorgesehen sein, um gleichzeitig deren vorteilhafte Wirkungen zu realisieren.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 1782569 B1 [0002]
    • DE 102010047257 A1 [0003]
    • DE 102012220130 A1 [0004]
    • EP 1310077 B1 [0005]

Claims (10)

  1. Verfahren zur Klassifikation von Zeitreihen (100), mit den Schritten: Erfassen (S101) einer Zeitreihe (100); Erzeugen (S102) von mehreren überlappenden Datenfenstern (103-1, 103-2, ..., 103-n), die jeweils einen Teilbereich der Zeitreihe (100) umfassen; Zuordnen (S103) der Datenfenster (103-1, 103-2, ..., 103-n) zu einer Klasse durch ein angelerntes neuronales Netz (105); und Zuordnen (S104) der Zeitreihe (100) zu einer Klasse auf Basis der Klassen der Datenfenster (103-1, 103-2, ..., 103-n).
  2. Verfahren nach Anspruch 1, wobei die Zeitreihe (100) als positiv klassifiziert wird, wenn zumindest eines der Datenfenster (103-1, 103-2, ..., 103-n) als positiv klassifiziert wird.
  3. Verfahren nach Anspruch 2, wobei die Zeitreihe (100) als negativ klassifiziert wird, wenn alle der Datenfenster (103-1, 103-2, ..., 103-n) als negativ klassifiziert werden.
  4. Verfahren nach einem der vorangehenden Ansprüche, wobei die Datenfenster (103-1, 103-2, ..., 103-n) einen vorgegebenen gegenseitigen Versatz aufweisen.
  5. Verfahren nach Anspruch 4, wobei der Versatz zwischen den Datenfenstern (103-1, 103-2, ..., 103-n) einstellbar ist.
  6. Verfahren nach einem der vorangehenden Ansprüche, wobei die Länge der Datenfenster (103-1, 103-2, ..., 103-n) einstellbar ist.
  7. Verfahren nach einem der vorangehenden Ansprüche, wobei die Zeitreihe (100) durch einen Sensor (101) erfasst wird.
  8. Computerprogramm, das eingerichtet ist, das Verfahren nach einem der Ansprüche 1 bis 7 durchzuführen.
  9. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 8 gespeichert ist.
  10. Elektronisches Gerät, das eingerichtet ist, das Verfahren nach einem der Ansprüche 1 bis 7 durchzuführen.
DE102018210427.1A 2017-07-14 2018-06-26 Verfahren zur klassifikation von zeitreihen Pending DE102018210427A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017212120.3 2017-07-14
DE102017212120 2017-07-14

Publications (1)

Publication Number Publication Date
DE102018210427A1 true DE102018210427A1 (de) 2019-01-17

Family

ID=64745226

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018210427.1A Pending DE102018210427A1 (de) 2017-07-14 2018-06-26 Verfahren zur klassifikation von zeitreihen

Country Status (1)

Country Link
DE (1) DE102018210427A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022207447A1 (de) 2022-07-21 2024-02-01 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Zustandsüberwachung von Wickelmaschinen

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1310077B1 (de) 2000-08-15 2008-01-09 Viaquo Corporation Vorrichtung und verfahren für ein web-basiertes anwendungsdienstmodell für die sicherheitsverwaltung
DE102010047257A1 (de) 2010-03-03 2011-09-08 Patrick Ams Mobilfunkbasiertes Transaktionssystem
DE102012220130A1 (de) 2011-11-20 2013-05-23 International Business Machines Corporation Zugang zu sicheren Einrichtungen
EP1782569B1 (de) 2004-07-07 2013-09-25 Nariste Networks Pty Ltd Standortaktivierte sicherheitsdienste in einem drahtlosen netzwerk

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1310077B1 (de) 2000-08-15 2008-01-09 Viaquo Corporation Vorrichtung und verfahren für ein web-basiertes anwendungsdienstmodell für die sicherheitsverwaltung
EP1782569B1 (de) 2004-07-07 2013-09-25 Nariste Networks Pty Ltd Standortaktivierte sicherheitsdienste in einem drahtlosen netzwerk
DE102010047257A1 (de) 2010-03-03 2011-09-08 Patrick Ams Mobilfunkbasiertes Transaktionssystem
DE102012220130A1 (de) 2011-11-20 2013-05-23 International Business Machines Corporation Zugang zu sicheren Einrichtungen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022207447A1 (de) 2022-07-21 2024-02-01 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Zustandsüberwachung von Wickelmaschinen

Similar Documents

Publication Publication Date Title
CN109978893B (zh) 图像语义分割网络的训练方法、装置、设备及存储介质
DE112020000281T5 (de) Vereinigen von modellen, die jeweilige zielklassen aufweisen, mit destillation
DE102017116017A1 (de) Kraftfahrzeug-Sensorvorrichtung mit mehreren Sensoreinheiten und mehreren neuronalen Netzen zum Erzeugen einer kombinierten Repräsentation einer Umgebung
CN106250858A (zh) 一种融合多种人脸识别算法的识别方法及系统
DE102017111707A1 (de) Verhaltenserkennungsgerät, lerngerät und verfahren
EP2940620A1 (de) Ableiten eines gerätespezifischen wertes mit hilfe einer unklonbaren funktion
EP2102794A1 (de) Portabler datenträger zur biometrischen benutzererkennung
DE112019006156T5 (de) Erkennung und behandlung von unsachgemässen eingaben durch neuronale netzwerke
DE102017006155A1 (de) Verfahren zum Betreiben eines Sensorsystems eines Fahrzeugs
DE102017209262A1 (de) Verfahren und Vorrichtung zur automatischen Gestenerkennung
EP3557487B1 (de) Generieren von validierungsdaten mit generativen kontradiktorischen netzwerken
DE102018202095A1 (de) Verfahren und Vorrichtung zum Überprüfen einer Neuronenfunktion in einem neuronalen Netzwerk
DE102018210427A1 (de) Verfahren zur klassifikation von zeitreihen
DE102020211849A1 (de) Trainieren eines maschinellen lernmodells unter verwendung eines batch-basierten aktiven lernansatzes
DE102017116016A1 (de) Kraftfahrzeug-Sensorvorrichtung mit mehreren Sensoreinheiten und einem neuronalen Netz zum Erzeugen einer integrierten Repräsentation einer Umgebung
DE102018206110A1 (de) Trainingsverfahren
DE112021005982T5 (de) Verfahren und vorrichtung für tiefe neuronale netze mit fähigkeit zur adversarial-erkennung
DE102018220608A1 (de) Maschinelles Lernsystem, sowie ein Verfahren, ein Computerprogramm und eine Vorrichtung zum Erstellen des maschinellen Lernsystems
WO2014180765A1 (de) Sensorsystem und verfahren zur aufnahme eines handvenenmusters
DE102019114049A1 (de) Verfahren zur Validierung eines Fahrerassistenzsystems mithilfe von weiteren generierten Testeingangsdatensätzen
Vázquez et al. A new bi-directional associative memory
DE102019113958A1 (de) Verfahren zur Leistungssteigerung eines Fahrzeugsystems mit einem neuronalen Netz zum Steuern einer Fahrzeugkomponente
DE102004018288A1 (de) Verfahren und Vorrichtung zur näherungsweisen Indentifizierung eines Objekts
DE60223007T2 (de) Benutzung von Gruppendiversität zur automatischen Bestimmung von Merkmalen
DE102012221155A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Auswertematrix zur Erkennung eines Verkehrszeichens sowie Verfahren und Vorrichtung zur Erkennung eines Verkehrszeichens