DE102021200042A1 - Vorrichtung und Verfahren zum Verfahren zum Trainieren des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks einer neuronalen stochastischen Differentialgleichung - Google Patents

Vorrichtung und Verfahren zum Verfahren zum Trainieren des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks einer neuronalen stochastischen Differentialgleichung Download PDF

Info

Publication number
DE102021200042A1
DE102021200042A1 DE102021200042.8A DE102021200042A DE102021200042A1 DE 102021200042 A1 DE102021200042 A1 DE 102021200042A1 DE 102021200042 A DE102021200042 A DE 102021200042A DE 102021200042 A1 DE102021200042 A1 DE 102021200042A1
Authority
DE
Germany
Prior art keywords
neural
data point
network
covariance
prediction time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021200042.8A
Other languages
English (en)
Inventor
Melih Kandemir
Andreas Look
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102021200042.8A priority Critical patent/DE102021200042A1/de
Priority to US17/646,197 priority patent/US20220215254A1/en
Priority to CN202210000802.7A priority patent/CN114722995A/zh
Publication of DE102021200042A1 publication Critical patent/DE102021200042A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

Gemäß verschiedenen Ausführungsformen wird ein Verfahren zum Trainieren des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks einer neuronalen stochastischen Differentialgleichung bereitgestellt. Das Verfahren weist das Ziehen einer Trainings-Trajektorie aus Trainings-Sensordaten, das Ermitteln, ausgehend von dem Trainings-Datenpunkt, den die Trainings-Trajektorie für einen Anfangszeitpunkt enthält, von, für jeden Vorhersagezeitpunkt der Folge von Vorhersagezeitpunkten, des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz an dem Vorhersagezeitpunkt mittels der neuronalen Netzwerke auf. Das Verfahren weist ferner das Ermitteln einer Abhängigkeit der Wahrscheinlichkeit, dass die Datenpunkt-Verteilungen der Vorhersagezeitpunkte, die durch die ermittelten Datenpunkt-Mittelwerte und die ermittelten Datenpunkt-Kovarianzen gegeben sind, die Trainings-Datenpunkte an den Vorhersagezeitpunkten liefern, von den Gewichten des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks und das Anpassen des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks zum Erhöhen der Wahrscheinlichkeit auf.

Description

  • Verschiedene Ausführungsbeispiele betreffen allgemein eine Vorrichtung und ein Verfahren zum Trainieren des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks einer neuronalen stochastischen Differentialgleichung.
  • Als neuronale stochastische Differentialgleichung wird ein neuronales Netzwerk bezeichnet, das Teilnetzwerke aufweist, die den Driftterm und den Diffusionsterm entsprechend einer stochastische Differentialgleichung modellieren. Ein solches neuronales Netzwerk ermöglicht die Vorhersage von Werten (z.B. Temperatur, Materialeigenschaften, Geschwindigkeit etc.) über mehrere Zeitschritte hinweg, die für eine jeweilige Steuerung (z.B. eines Produktionsprozesses oder eines Fahrzeugs) verwendet werden kann.
  • Um genaue Vorhersagen zu treffen, ist ein robustes Training des neuronalen Netzwerks, d.h. der beiden Teilnetzwerke (Driftnetzwerks und Diffusionsnetzwerk) erforderlich. Hierfür sind effiziente und stabile Herangehensweisen wünschenswert.
  • Gemäß verschiedenen Ausführungsformen wird ein Verfahren zum Trainieren des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks einer neuronalen stochastischen Differentialgleichung bereitgestellt. Das Verfahren weist das Ziehen einer Trainings-Trajektorie aus Trainings-Sensordaten, wobei die Trainings-Trajektorie für jeden einer Folge von Vorhersagezeitpunkten einen Trainings-Datenpunkt aufweist und das Ermitteln, ausgehend von dem Trainings-Datenpunkt, den die Trainings-Trajektorie für einen Anfangszeitpunkt enthält, von, für jeden Vorhersagezeitpunkt der Folge von Vorhersagezeitpunkten, des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz an dem Vorhersagezeitpunkt auf. Dies erfolgt durch Ermitteln, aus dem Datenpunkt-Mittelwert und der Datenpunkt-Kovarianz eines Vorhersagezeitpunkts des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts durch Ermitteln der Erwartungswerte der Ableitungen jeder Schicht des neuronalen Driftnetzwerks nach ihren Eingangsdaten, Ermitteln des Erwartungswerts der Ableitung des neuronalen Driftnetzwerks nach seinen Eingangsdaten aus den ermittelten Erwartungswerten der Ableitungen der Schichten des neuronalen Driftnetzwerks und Ermitteln des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts aus dem ermittelten Erwartungswert der Ableitung des neuronalen Driftnetzwerks nach seinen Eingangsdaten. Das Verfahren weist ferner das Ermitteln einer Abhängigkeit der Wahrscheinlichkeit, dass die Datenpunkt-Verteilungen der Vorhersagezeitpunkte, die durch die ermittelten Datenpunkt-Mittelwerte und die ermittelten Datenpunkt-Kovarianzen gegeben sind, die Trainings-Datenpunkte an den Vorhersagezeitpunkten liefern, von den Gewichten des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks und das Anpassen des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks zum Erhöhen der Wahrscheinlichkeit auf.
  • Das oben beschriebene Trainingsverfahren ermöglicht ein deterministisches Trainieren des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks einer neuronale stochastischen Differentialgleichung (d.h. eine deterministische Inferenz der Gewichte dieser neuronalen Netzwerks). Die Stärke neuronaler stochastischen Differentialgleichungen, ihre Nichtlinearität, bleibt dabei erhalten, aber es wird ein stabiles Training erreicht und damit insbesondere ein effiziente und robuste Bereitstellung von genauen Vorhersagen auch für lange Folgen von Vorhersagezeitpunkten (z.B. für lange Vorhersageintervalle).
  • Im Folgenden werden verschiedene Ausführungsbeispiele gegeben.
  • Ausführungsbeispiel 1 ist ein Trainingsverfahren wie oben beschrieben.
  • Ausführungsbeispiel 2 ist das Verfahren nach Ausführungsbeispiel 1, wobei das Ermitteln, aus dem Datenpunkt-Mittelwert und der Datenpunkt-Kovarianz eines Vorhersagezeitpunkts, des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts aufweist:
    • Ermitteln, für den Vorhersagezeitpunkt, des Mittelwerts und der Kovarianz der Ausgabe jeder Schicht des neuronalen Driftnetzwerks ausgehend von dem Datenpunkt-Mittelwert und der Datenpunkt-Kovarianz des Vorhersagezeitpunkts; und
    • Ermitteln des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts aus den für den Vorhersagezeitpunkt ermittelten Datenpunkt-Mittelwerten und Datenpunkt-Kovarianzen der Schichten des neuronalen Driftnetzwerks.
  • Anschaulich wird gemäß verschiedenen Ausführungsformen ein Schicht-weises Moment-Anpassen (engl. layer-wise moment matching) durchgeführt. Damit können die Momente deterministisch durch die neuronalen Netzwerke propagiert werden und es ist kein Sampling erforderlich, um die Verteilungen der Ausgaben der neuronalen Netzwerke zu bestimmen.
  • Ausführungsbeispiel 3 ist das Verfahren nach Ausführungsbeispiel 1 oder 2, wobei das Ermitteln, aus dem Datenpunkt-Mittelwert und der Datenpunkt-Kovarianz eines Vorhersagezeitpunkts, des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts aufweist:
    • Ermitteln, für den Vorhersagezeitpunkt, des Mittelwerts und der Kovarianz der Ausgabe jeder Schicht des neuronalen Diffusionsnetzwerks ausgehend von dem Datenpunkt-Mittelwert und der Datenpunkt-Kovarianz des Vorhersagezeitpunkts; und
    • Ermitteln des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts aus den für den Vorhersagezeitpunkt ermittelten Datenpunkt-Mittelwerten und Datenpunkt-Kovarianzen der Schichten des neuronalen Diffusionsnetzwerks.
  • Auf diese Weise kann auch der Beitrag des Diffusionsnetzwerks zu der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts deterministisch und effizient ermittelt werden.
  • Ausführungsbeispiel 4 ist das Verfahren nach einem der Ausführungsbeispiele 1 bis 3, wobei der Erwartungswert der Ableitung des neuronalen Driftnetzwerks nach seinen Eingangsdaten ermittelt wird durch Multiplizieren der Ableitungen der ermittelten Erwartungswerte der Ableitungen der Schichten des neuronalen Driftnetzwerks.
  • Dies ermöglicht eine exakte und einfache Berechnung der Gradienten der vollständigen Netzwerke aus denen der einzelnen Schichten.
  • Ausführungsbeispiel 5 ist das Verfahren nach einem der Ausführungsbeispiele 1 bis 4, wobei Ermitteln der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts aus dem Datenpunkt-Mittelwert und der Datenpunkt-Kovarianz eines Vorhersagezeitpunkts aufweist:
    • Ermitteln der Kovarianz zwischen Eingabe und Ausgabe des neuronalen Driftnetzwerks für den Vorhersagezeitpunkt durch Multiplikation der Datenpunkt-Kovarianz der des Vorhersagezeitpunkts mit dem Erwartungswert der Ableitung des neuronalen Driftnetzwerks nach seinen Eingangsdaten; und
    • Ermitteln der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts aus der Kovarianz zwischen Eingabe und Ausgabe des neuronalen Driftnetzwerks für den Vorhersagezeitpunkt.
  • Dieses Vorgehen ermöglicht eine effiziente Bestimmung der Kovarianz zwischen Eingabe und Ausgabe des neuronalen Driftnetzwerks. Dies ist von hoher Bedeutung für das Training, da diese Kovarianz nicht notwendigerweise semi-definit ist und eine ungenaue Bestimmung zu numerischer Instabilität führen kann.
  • Ausführungsbeispiel 6 ist das Verfahren nach einem der Ausführungsbeispiele 1 bis 5, aufweisend Bilden des neuronalen Driftnetzwerks und das neuronale Diffusionsnetzwerks (nur) aus ReLU-Aktivierungen, Dropout-Schichten und Schichten für affine Transformationen.
  • Ein Aufbau der neuronalen Netzwerke aus Schichten dieser Art ermöglicht eine präzises Bestimmung der Ermittlung der Gradienten der Ableitungen der Ausgabe der Schichten nach ihren Eingaben ohne Sampling.
  • Ausführungsbeispiel 7 ist das Verfahren nach einem der Ausführungsbeispiele 1 bis 6, aufweisend Bilden des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks, sodass sich die ReLU-Aktivierungen, Dropout-Schichten und Schichten für affine Transformationen in dem neuronalen Driftnetzwerk abwechseln.
  • Dies stellt sicher, dass die Annahme einer Normalverteilung für die Datenpunkte gerechtfertigt ist und die Verteilung eines Datenpunkts zu einem Vorhersagezeitpunkt somit mit hoher Genauigkeit durch Angabe von Datenpunkt-Mittelwert und Datenpunkt-Kovarianz zu dem Vorhersagezeitpunkt angegeben werden kann.
  • Ausführungsbeispiel 8 ist das Verfahren zum Steuern einer Robotervorrichtung aufweisend:
    • Trainieren einer neuronalen stochastischen Differentialgleichung gemäß dem Verfahren nach einem der Ausführungsbeispiele 1 bis 7;
    • Messen von Sensordaten, die einen Zustand der Robotervorrichtung und/oder ein oder mehrerer Objekte in der Umgebung der Robotervorrichtung charakterisieren;
    • Zuführen der Sensordaten zu der stochastischen Differentialgleichung zum Erzeugen eines Regressionsergebnisses; und
    • Steuern der Robotervorrichtung unter Verwendung des Regressionsergebnisses.
  • Ausführungsbeispiel 9 ist eine Trainingsvorrichtung, die eingerichtet ist, das Verfahren nach einem der Ausführungsbeispiele 1 bis 7 auszuführen.
  • Ausführungsbeispiel 10 ist eine Steuervorrichtung für eine Robotervorrichtung, die eingerichtet ist, das Verfahren nach Ausführungsbeispiel 8 auszuführen.
  • Ausführungsbeispiel 11 ist ein Computerprogramm, aufweisend Programminstruktionen, die, wenn sie von ein oder mehreren Prozessoren ausgeführt werden, die ein oder mehreren Prozessoren dazu bringen, ein Verfahren gemäß einem der Ausführungsbeispiele 1 bis 8 durchzuführen.
  • Ausführungsbeispiel 12 ist ein computerlesbares Speichermedium, auf dem Programminstruktionen gespeichert sind, die, wenn sie von ein oder mehreren Prozessoren ausgeführt werden, die ein oder mehreren Prozessoren dazu bringen, ein Verfahren gemäß einem der Ausführungsbeispiele 1 bis 8 durchzuführen.
  • Ausführungsbeispiele der Erfindung sind in den Figuren dargestellt und werden im Folgenden näher erläutert. In den Zeichnungen beziehen sich gleiche Bezugszeichen überall in den mehreren Ansichten allgemein auf dieselben Teile. Die Zeichnungen sind nicht notwendig maßstabsgerecht, wobei der Schwerpunkt stattdessen allgemein auf die Darstellung der Prinzipien der Erfindung liegt.
    • 1 zeigt ein Beispiel für eine Regression beim autonomen Fahren.
    • 2 veranschaulich ein Verfahren zur Ermittlung der Momente der Verteilung von Datenpunkten für einen Zeitpunkt aus den Momenten der Verteilung der Datenpunkte für den vorherigen Zeitpunkt.
    • 3 zeigt ein Flussdiagramm, das ein Verfahren zum Trainieren des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks einer neuronalen stochastischen Differentialgleichung veranschaulicht.
  • Die verschiedenen Ausführungsformen, insbesondere die im Folgenden beschriebenen Ausführungsbeispiele, können mittels ein oder mehrerer Schaltungen implementiert werden. In einer Ausführungsform kann eine „Schaltung“ als jede Art von Logikimplementierender Entität verstanden werden, welche Hardware, Software, Firmware oder eine Kombination davon sein kann. Daher kann in einer Ausführungsform eine „Schaltung“ eine hartverdrahtete Logikschaltung oder eine programmierbare Logikschaltung, wie beispielsweise ein programmierbarer Prozessor, zum Beispiel ein Mikroprozessor sein. Eine „Schaltung“ kann auch Software sein, die von einem Prozessor implementiert bzw. ausgeführt wird, zum Beispiel jede Art von Computerprogramm. Jede andere Art der Implementierung der jeweiligen Funktionen, die im Folgenden ausführlicher beschrieben werden, kann in Übereinstimmung mit einer alternativen Ausführungsform als eine „Schaltung“ verstanden werden.
  • 1 zeigt ein Beispiel für eine Regression beim autonomen Fahren.
  • Im Beispiel von 1 weist ein Fahrzeug 101, zum Beispiel ein Auto, ein Lieferwagen oder ein Motorrad, eine Fahrzeug-Steuereinrichtung 102 auf.
  • Die Fahrzeug-Steuereinrichtung 102 enthält Datenverarbeitungskomponenten, z.B. einen Prozessor (z.B. eine CPU (Zentraleinheit)) 103 und einen Speicher 104 zur Speicherung der Steuersoftware, gemäß der die Fahrzeug-Steuereinrichtung 102 arbeitet, und der Daten, auf denen der Prozessor 103 operiert.
  • In diesem Beispiel weist die gespeicherte Steuersoftware Befehle auf, die, wenn sie vom Prozessor 103 ausgeführt werden, den Prozessor veranlassen, einen Regressionsalgorithmus 105 zu implementieren.
  • Die im Speicher 104 gespeicherten Daten können Eingangssensordaten von einem oder mehreren Sensoren 107 enthalten. Der eine oder die mehreren Sensoren 107 können z.B. einen Sensor enthalten, der die Geschwindigkeit des Fahrzeugs 101 misst, sowie Sensordaten, die die Krümmung der Straße (die z.B. aus Bildsensordaten abgeleitet werden können, die durch Objekterkennung zur Bestimmung der Fahrtrichtung verarbeitet werden), den Zustand der Straße usw. darstellen. So können die Sensordaten z.B. mehrdimensional sein (Krümmung, Straßenzustand, ...). Das Regressionsergebnis kann z.B. eindimensional sein.
  • Die Fahrzeugsteuerung 102 verarbeitet die Sensordaten und ermittelt ein Regressionsergebnis, z.B. eine Höchstgeschwindigkeit, und kann das Fahrzeug anhand des Regressionsergebnisses steuern. Es kann z.B. eine Bremse 108 aktivieren, wenn das Regressionsergebnis eine Höchstgeschwindigkeit anzeigt, die höher ist als eine gemessene aktuelle Geschwindigkeit des Fahrzeugs 101.
  • Der Regressionsalgorithmus 105 kann ein maschinelles Lernmodell 106 aufweisen. Das maschinelle Lernmodell 106 kann unter Verwendung von Trainingsdaten trainiert werden, um Vorhersagen zu treffen (z.B. eine Höchstgeschwindigkeit).
  • Ein weit verbreitetes Modell des maschinellen Lernens ist ein tiefes neuronales Netz (engl. deep neural network). Ein tiefes neuronales Netz wird darauf trainiert, eine Funktion zu implementieren, die Eingabedaten (mit anderen Worten: ein Eingabemuster) nichtlinear in Ausgabedaten (ein Ausgabemuster) umwandelt.
  • Gemäß verschiedenen Ausführungsformen weist das maschinelle Lernmodell eine neuronale stochastische Differentialgleichung auf.
  • Eine nichtlineare zeitinvariante stochastische Differentialgleichung (SDE) hat die Form d x = f θ ( x ) d t + L ϕ ( x ) d w
    Figure DE102021200042A1_0001
    Dabei ist fθ (x) ∈ ℝD die Driftfunktion, die die deterministische Komponente des jeweiligen Vektorfelds modelliert, und Lϕ(x) ∈ ℝD×S die Diffusionsfunktion, die die stochastische Komponente modelliert, dt ist das zeitliche Inkrement und w ∈ ℝS bezeichnet einen Wiener-Prozess.
  • SDEs sind typischerweise nicht analytisch lösbar. Numerische Lösungsansätze verwenden typischerweise eine Diskretisierung des Zeitbereichs und eine Approximation des Übergangs in einem Zeitschritt. Eine Möglichkeit dazu ist die Euler-Maruyama (EM)-Diskretisierung x ˜ k + 1 ( θ , ϕ ) = x k + f θ ( x k ) Δ t + L ϕ ( x k ) Δ w k
    Figure DE102021200042A1_0002
    wobei Δ w k N ( 0, Δ t )
    Figure DE102021200042A1_0003
    Das Lösungsverfahren beginnt bei einem Anfangszustand x0 und der Endzustand wK nach dem letzten Zeitschritt ist beispielsweise das Regressionsergebnis.
  • Die Bezeichnung „neuronale stochastische Differentialgleichung“ bezieht sich auf den Fall, dass fθ(x) und (möglicherweise) LΦ (x) durch neuronale Netze (NNs) mit Gewichten θ bzw. Φ gegeben sind. Selbst für moderate NN-Architekturen kann eine neuronale stochastische Differentialgleichung viele tausend freie Parameter (d.h. Gewichte) haben, was das Finden der Gewichte aus Trainingsdaten, d.h. die Inferenz, zu einer anspruchsvollen Aufgabe macht.
  • Im Folgenden wird angenommen, dass die Parameter einer neuronalen stochastischen Differentialgleichung mittels Maximum Likelihood Estimation (MLE) gefunden werden, d.h. durch max θ , ϕ E [ log p θ , ϕ ( D ) ] .
    Figure DE102021200042A1_0004
  • Dies ermöglicht das gemeinsame Lernen von θ und Φ aus Daten. Alternativ ist es auch möglich, Variationsinferenz durchzuführen, beispielsweise gemäß maximize θ E [ log p θ , ϕ ( D ) 1 2 u ( x ) 2 d t ]
    Figure DE102021200042A1_0005
    wobei L ϕ ( x ) u ( x ) = f θ ( x ) f ψ ( x ) und f ψ ( x )
    Figure DE102021200042A1_0006
    der A-priori-Drift ist.
  • Das Schätzen der erwarteten Likelihood ist typischerweise analytisch nicht möglich. Außerdem führen Sampling-basierte Approximationen typischerweise zu einem instabilem Training und resultieren in neuronalen Netzen mit ungenauen Vorhersagen.
  • Gemäß verschiedenen Ausführungsformen werden diese unerwünschten Effekte des Samplings vermieden und eine deterministische Vorgehensweise für die Inferenz der Gewichte der neuronalen Netze, die die Driftfunktion und den Diffusionsfunktion modellieren, angegeben.
  • Diese Vorgehensweise weist gemäß verschiedenen Ausführungsformen auf, dass eine numerisch handhabbare (engl. tractable) Prozessdichte zur Modellierung verwendet wird, der Wiener-Prozess w marginalisiert wird und die Unsicherheit der Zustände xk marginalisiert wird. Die Unsicherheit in den Zuständen kommt von (i) der ursprünglichen Verteilung p(x0,t0) sowie dem Diffusionsterm Lϕ(xk).
  • Es sollte beachtet werden, dass zur Einfachheit A-priori-Verteilungen für die Gewichte der neuronalen Netze weggelassen werden. Die beschriebenen Ansätze können aber auch für Bayessche neuronale Netze angewendet werden. Eine solche A-priori-Verteilung muss nicht notwendigerweise über die Gewichte gegeben sein, sondern kann auch in Form einer Differentialgleichung vorliegen. Gemäß verschiedenen Ausführungsformen wird p(x,t) ≈ N(x|m(t),P(t)) als die Prozessverteilung verwendet, was zu einer Gaussschen Prozess-Approximation mit Mittelwert und Kovarianz führt, die sich über die Zeit ändern.
  • Wird beispielsweise eine zeitliche Diskretisierung mit K Schritten eines Intervalls [0, T] verwendet, d.h. {tk ∈ [0, T] |k = 1, ..., K}, so haben die Prozessvariablen x1,... , xK (auch als Zustände bezeichnet) die Verteilungen p(x1,t1), p(x2,t2), ..., p(xK,tK). Die Elemente dieser Folge von Verteilungen kann durch rekursives Moment-Anpassen (engl. moment matching) in Vorwärtsrichtung (d.h. in Richtung wachsender Indizes) approximiert werden.
  • Es wird angenommen, dass die Variable xk+1 zum Zeitpunkt tk+1 eine Gauß-Verteilung mit Dichte p θ , ϕ ( x k + 1 , t k + 1 ; p θ , ϕ ( x k , t k ) ) N ( x k + 1 | m k + 1 , P k + 1 )
    Figure DE102021200042A1_0007
    hat, wobei die Momente mk+1.Pk+1 aus den schon angepassten Momenten der Verteilung (bzw. der Dichte) zum vorhergehenden Zeitpunkt pθ,ϕ(xk,tk) ermittelt werden.
  • Es wird angenommen, dass die ersten beiden Momente der Dichte zum nächsten Zeitpunkt gleich der ersten zwei Momente einen EM (Euler-Maruyama)-Schritt vorwärts nach integrieren über den Zustand zum aktuellen Zeitpunkt sind: m k + 1 D × S x ˜ k + 1 ( θ , ϕ ) p θ , ϕ ( x k , t k ) N ( x k | m k , P k ) p ( w k ) d w k d x k .
    Figure DE102021200042A1_0008
    P k + 1 D × S ( x ˜ k + 1 ( θ , ϕ ) m k + 1 ) ( x ˜ k + 1 ( θ , ϕ ) m k + 1 ) T p θ , ϕ ( x k , t k ) N ( x k | m k , P k ) p ( w k ) d w k d x k ,
    Figure DE102021200042A1_0009
  • Hierbei wird die Abhängigkeit von vorhergehenden Zeitpunkt durch N(xk|mk,Pk) hergestellt.
  • Es gilt nun, dass wenn x ˜ k ( θ , ϕ )
    Figure DE102021200042A1_0010
    der EM-Diskretisierung folgt, die oben gegebenen Aktualisierungsregeln für die ersten beiden Momente die folgende analytische Form mit marginalisiertem Wiener-Prozess wk erfüllen: m k + 1 = D x ^ k + 1 ( θ , ϕ ) N ( x k | m k , P k ) d x k .
    Figure DE102021200042A1_0011
    P k + 1 = D [ ( x ^ k + 1 ( θ , ϕ ) m k + 1 ) ( x ^ k + 1 ( θ , ϕ ) m k + 1 ) T + L ϕ L ϕ T ( x k ) Δ t ] N ( x k | m k , P k ) d x k .
    Figure DE102021200042A1_0012
    wobei x ^ k + 1 ( θ , ϕ ) x k + f θ ( x k ) Δ t
    Figure DE102021200042A1_0013
    und Δt ein Zeitschritt ist, der nicht von Δwk abhängt.
  • Um ein deterministisches Inferenzverfahren zu erhalten muss in diesen beiden Gleichungen über xk integriert werden. Da die Integrale im Normalfall nicht analytisch lösbar sind, wird numerische Approximation verwendet.
  • Dazu wird gemäß verschiedenen Ausführungsformen die Moment-Anpassung erweitert dahingehend, dass die beiden Momente mk,Pk (die anschaulich die Unsicherheit im aktuellen Zustand widerspiegeln) durch die beiden neuronalen Netzwerke (die die Driftfunktion und die Diffusionsfunktion modellieren) propagiert werden. Dies wird im Folgenden auch als Schichtweise Momentanpassung (Layerwise Moment Matching LMM) bezeichnet.
  • 2 veranschaulich ein Verfahren zur Ermittlung der Momente mk+1, Pk+1 für einen Zeitpunkt aus den Momenten mk,Pk für den vorherigen Zeitpunkt.
  • Die neuronale SDE 200 weist ein erstes neuronales Netzwerk 201, dass den Driftterm modelliert, und ein zweites neuronales Netzwerk 202, das den Diffusionsterm modelliert, auf.
  • Unter Verwendung der Bilinearität der Kovarianzoperation Cov(·,·) können die obigen Gleichungen umgeschrieben werden zu m k + 1 = m k + E [ f θ ( x k ) ] Δ t , P k + 1 = P k + C o v ( f θ ( x k ) , f θ ( x k ) ) Δ t 2 + ( C o v ( f θ ( x k ) , x k ) + C o v ( x k , f θ ( x k ) ) ) Δ t + E [ L ϕ L ϕ T ( x k ) ] Δ t ,
    Figure DE102021200042A1_0014
    wobei Cov(xk,xk) als Pk bezeichnet wird. Das zentrale Moment des Diffusionsterms E [ L ϕ L ϕ T ( x k ) ]
    Figure DE102021200042A1_0015
    kann mittels LMM geschätzt werden, wenn es diagonal ist. Allerdings kann die Kreuz-Kovarianz Cov(fθ(xk),xk) (außer in trivialen Fällen) nicht mittels üblicher LLM-Techniken geschätzt werden. Es nicht garantiert, dass sie positiv-semidefinit ist und deshalb kann eine ungenaue Schätzung dazu führen, dass Pk+1 singulär wird, was die numerische Stabilität beeinträchtigt.
  • Im Folgenden wird die Ausgabe der 1-ten Schicht eines neuronalen Netzwerks 201, 202 mit x l D l
    Figure DE102021200042A1_0016
    bezeichnet. Diese Ausgabe wird (gemäß der LLM-Vorgehensweise) als multivariate Gauß-Verteilung mit Mittelwert ml und Kovarianz Pl modelliert. Der Index 1=0 wird für die Eingabe zu der ersten Schicht des (jeweiligen) neuronalen Netzwerks 201, 202 verwendet.
  • Um LMM anwendbar zu machen, wird der kritische Term Cov(fθ(xk),xk) umformuliert. Dies erfolgt durch die Anwendung des Lemmas von Stein, mittels welchem dieser Term geschrieben werden kann als C o v ( f θ ( x k ) , x k ) = C o v ( x k , x k ) E [ x f θ ( x ) ]
    Figure DE102021200042A1_0017
    Damit reduziert sich das Problem auf die Ermittlung eines Erwartungswerts über den Gradienten des neuronalen Netzwerks 201 E [ x g ( x ) ] ,
    Figure DE102021200042A1_0018
    wobei g=fθ. (Es wird hier von „Gradient“ gesprochen, auch wenn fθ typischerweise Vektor-wertig ist und damit ∇xfθ die Form einer Matrix hat, d.h. eine Jacobimatrix ist; allgemein wird deshalb auch einfach die Bezeichnung „Ableitung“ verwendet).
  • Bei einem neuronalen Netzwerk ist die Funktion g(x) eine Verkettung von L Funktionen (einer pro Schicht des neuronalen Netzwerks), d.h. g ( x ) = g L g L 1 g 2 g 1 ( x )
    Figure DE102021200042A1_0019
  • Für geeignete Schichten gilt E [ x g ( x ) ] = E [ g L x L 1 g L 1 x L 2 g 2 x 1 g 1 x 0 ] = E x L 1 [ g L x L 1 E x L 2 [ g L 1 x L 2 E x 1 [ g 2 x 1 E x 0 [ g 1 x 0 ] ] ] ] .
    Figure DE102021200042A1_0020
  • Um diese Verschachtelung von Erwartungswerten zu ermitteln, wird die Verteilung von xl, bezeichnet als p(xl), als Gauß-Verteilung angenommen. Die Zwischenergebnisse p(xl) werden für die Ermittlung von mL und PL verwendet. Anschließend wird der erwartete Gradient jeder Schicht in Bezug auf eine Normalverteilung durch VorwärtsModus-Differentiation ermittelt. Als geeignete Funktionen gl, für die ml und Pl bei normalverteilter Eingabe geschätzt werden können und der erwartete Gradient E x l 1 [ g l x l 1 ]
    Figure DE102021200042A1_0021
    ermittelt werden kann, werden gemäß einer Ausführungsform affine Transformation, ReLU-Aktivierung und Dropout verwendet. Es können auch weitere Typen von Funktionen bzw. NN-Schichten eingesetzt werden.
  • Eine affine Transformation bildet eine Eingabe xl auf eine Augabe x l + 1 D l + 1
    Figure DE102021200042A1_0022
    gemäß Axl + b mit Gewichtsmatrix A D l + 1 × D l
    Figure DE102021200042A1_0023
    und Bias b D l + 1
    Figure DE102021200042A1_0024
    ab. Bei Gauß-verteilter Eingabe ist die Ausgabe auch Gauß-verteilt mit den Momenten m l + 1 = A m l + b ,
    Figure DE102021200042A1_0025
    P l + 1 = A P l A T
    Figure DE102021200042A1_0026
    und erwartetem Gradienten E x l [ g l + 1 / x l ] = A .
    Figure DE102021200042A1_0027
  • Die Ausgabe einer ReLU-Aktivierung einer Eingabe xl ist xl+1 = max(0, xl). Aufgrund der Nichtlinearität der ReLU-Aktivierung ist die Ausgabe bei Gauß-verteilter Eingabe im Allgemeinen nicht Gauß-verteilt, aber ihre Momente können geschätzt werden als . m l + 1 = diag ( P l ) SR ( m l / diag ( P l ) ) ,
    Figure DE102021200042A1_0028
    P l + 1 = diag ( P l ) diag ( P l ) T F ( m l , P l ) ,
    Figure DE102021200042A1_0029
    wobei SR ( μ l ) = ( ϕ ( μ l ) + μ l Φ ( μ l ) )
    Figure DE102021200042A1_0030
    wobei Φ und Φ die Dichte und kumulative Verteilungsfunktion eine Standardnormalverteilten Zufallsvariable bezeichnen, sowie . F ( m l , P l ) = ( A ( m l , P l ) + exp Q ( A ( m l , P l ) )
    Figure DE102021200042A1_0031
    bei der A und Q wiederum geschätzt werden können.
  • Die Einträge der Nebendiagonalen des erwarteten Gradienten sind Null und die Diagonaleinträge sind die Erwartung der Heaviside-Funktion: diag ( E x l [ g l + 1 x l ] ) = Φ ( m l / diag ( P l ) ) .
    Figure DE102021200042A1_0032
  • Beim Dropout wird eine multivariate Variable z D l
    Figure DE102021200042A1_0033
    aus einer Bernouli-Verteilung zi ~ Bernoulli(p) unabhängig für jeden Aktivierungskanal gezogen (d.h. gesamplet) und die Nichtlinearität xl+1 = (z ⊙ xl)/p angewendet, wobei ,⊙‘ die Hadamard-Multiplikation bezeichnet und wobei mit p reskaliert wird, um den Erwartungswert zu erhalten. Der Mittelwert und die Kovarianz der Ausgabe können geschätzt werden durch m l + 1 = m l ,
    Figure DE102021200042A1_0034
    P l + 1 = P l + diag ( q p ( P l + ( m l ) ( m l ) T ) ) .
    Figure DE102021200042A1_0035
  • Der erwartete Gradient ist gleich der Identität E x l [ g l + 1 / x l ] = I
    Figure DE102021200042A1_0036
  • Dropout ermöglicht es, dass die Komponenten einer Eingabe x ~ p(x) für eine beliebige Verteilung p(x) näherungsweise entkorreliert werden, da diag(Pl+1) > diag(Pl) aufgrund von diag(Pl + (ml)(ml)T) > 0 (jeweils komponentenweise gesehen). Allerdings können die Einträge außerhalb der Diagonale ungleich Null sein, sodass nur näherungsweise entkorreliert wird. Wird eine näherungsweise entkorrelierte Ausgabe einer Dropout-Schicht xl+1 durch eine affine Transformation verarbeitet, wird angenommen, dass die folgende Ausgabe xl+2 einer Summe von unabhängig verteilten Zufallsvariablen entspricht und deshalb (nach dem zentralen Grenzwertsatz) als Gauß-verteilt angenommen.
  • Für jedes k und das neuronale Driftnetzwerk 201 werden also die Momente mk,Pk als Momente m k 0 , P k 0
    Figure DE102021200042A1_0037
    der Eingabe 203 des neuronalen Driftnetzwerks 201 verwendet und daraus nach den obigen Regeln die Momente m k 1 , P k 1 , m k 2 , P k 2 , m k 3 , P k 3
    Figure DE102021200042A1_0038
    der Ausgaben 204, 205, 206 der Schichten ermittelt. Diese werden zum Ermitteln des Erwartungswerts und der Kovarianz 207 als auch zur Ermittlung des erwarteten Gradienten 208 verwendet.
  • Für das Diffusionsnetzwerk 202 werden außerdem noch E [ L ϕ ]
    Figure DE102021200042A1_0039
    und Cov(Lϕ,LΦ) und aus allen diese Ergebnissen 209 die Momente mk+1, Pk+1 für den nächsten Zeitpunkt k+1 ermittelt.
  • Im Folgenden wird ein Algorithmus zum Trainieren einer NSDE in Pseudo-Code angegeben unter Verwendung eines Trainingsdatensatzes D angegeben.
    Figure DE102021200042A1_0040
  • Das Ergebnis der MLE für eine Trainings-Trajektorie wird zum Anpassen der bisherigen Schätzung von θ, ϕ verwendet, bis ein Konvergenzkriterium erfüllt ist, z.B. θ, Φ sich nur noch wenig ändern (oder alternativ eine maximale Zahl von Iterationen erreicht ist).
  • Die Funktion DNSDE_Stein lautet wie folgt in Pseudocode
  • Figure DE102021200042A1_0041
  • Die vierte Zeile in der „for“-Schleife ist die Anwendung des Lemmas von Stein. Die darauffolgende Zeile ermittelt E [ L ϕ L ϕ T ( x k , t k ) ] .
    Figure DE102021200042A1_0042
  • Die Funktion DriftMomente&Jac lautet wie folgt in Pseudocode
    Figure DE102021200042A1_0043
  • Die Funktion DiffusionMomente lautet wie folgt in Pseudocode
    Figure DE102021200042A1_0044
    m,P = Schicht.nächste_Momente(m,P)
    P = P ⊙ I (Diagonalelemente auf null setzen)
    Gib m,P zurück
  • In dem obigen Pseudocode werden die Momente (vom Anfangszeitpunkt k=1 bis zum Endzeitpunkt k=K) und die Kovarianzen (vom Anfangszeitpunkt k=1 bis zum Endzeitpunkt k=K) mit m1:K bzw. P1:K bezeichnet. The Momente des Anfangszeitpunkts sind m1 und P1. In dem obigen Algorithmus wird P1 ≈ I∈ und m 1 = x ^ 1 ( n )
    Figure DE102021200042A1_0045
    verwendet, um auf den beobachteten Anfangszustand x ^ 1 ( n )
    Figure DE102021200042A1_0046
    (für den n-ten Trainingsdatensatz) zu konditionieren. Hierbei ist ∈ eine kleine Zahl, z.B. ∈ = 10-4. Die Ausgabematrix der Diffusionsfunktion Lϕ (x) ist in dem obigen Beispiel diagonal und ihr zweites Moment ist ebenfalls diagonal. Die Funktionen DriftMomente&Jac und DiffusionMomente schätzen mittels LMM die ersten beiden Momente der Ausgabe des Driftnetzwerks 201 und des Diffusionsnetzwerks 202 für eine Eingabe mit den Momenten, wie sie beiden Funktionen über ihre Argumente erhalten. Außerdem wird in diesem Beispiel angenommen, dass die neuronalen Netzwerke 201, 202 so aufgebaut sind, dass sich ReLU-Aktivierungen, Dropout-Schichten und affine Transformationen abwechseln, so dass die Ausgabe der affinen Transformation näherungsweise normalverteilt sind. Der erwartete Gradient E [ x g ( x ) ]
    Figure DE102021200042A1_0047
    wird im Vorwärtsmodus bei der Auswertung von DriftMomente&Jac geschätzt. Für Dropout-Schichten und affine Transformationen ist der erwartete Gradient unabhängig von der Verteilung der Eingabe. Nur bei einer ReLU-Aktivierung hängt der erwartete Gradient von der Eingabeverteilung ab (die näherungsweise eine Normalverteilung ist).
  • Im obigen Pseudocode wird eine Klasse Schicht verwendet, von der angenommen wird, dass sie Funktionen erwarteter_Gradient und nächste_Momente aufweist, die die oben für die verschiedenen Schichten angegebenen Gleichungen für die Momente der Ausgabe der Schicht und des erwarteten Gradienten implementieren.
  • Zusammenfassend wird gemäß verschiedenen Ausführungsformen ein Verfahren bereitgestellt, wie es in 3 dargestellt ist.
  • 3 zeigt ein Flussdiagramm 300, das ein Verfahren zum Trainieren des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks einer neuronalen stochastischen Differentialgleichung veranschaulicht.
  • In 301 wird eine Trainings-Trajektorie aus Trainings-Sensordaten gezogen (engl. gesampelt, z.B. zufällig ausgewählt), wobei die Trainings-Trajektorie für jeden einer Folge von Vorhersagezeitpunkten einen Trainings-Datenpunkt aufweist.
  • In 302 wird ausgehend von dem Trainings-Datenpunkt, den die Trainings-Trajektorie für einen Anfangszeitpunkt enthält, für jeden Vorhersagezeitpunkt der Folge von Vorhersagezeitpunkten, des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz an dem Vorhersagezeitpunkt ermittelt.
  • Dies erfolgt durch Ermitteln, aus dem Datenpunkt-Mittelwert und der Datenpunkt-Kovarianz eines Vorhersagezeitpunkts des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts durch
    • • Ermitteln der Erwartungswerte der Ableitungen jeder Schicht des neuronalen Driftnetzwerks nach ihren Eingangsdaten;
    • • Ermitteln des Erwartungswerts der Ableitung des neuronalen Driftnetzwerks nach seinen Eingangsdaten aus den ermittelten Erwartungswerten der Ableitungen der Schichten des neuronalen Driftnetzwerks; und
    • • Ermitteln des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts aus dem ermittelten Erwartungswert der Ableitung des neuronalen Driftnetzwerks nach seinen Eingangsdaten.
  • In 303 wird eine Abhängigkeit der Wahrscheinlichkeit, dass die Datenpunkt-Verteilungen der Vorhersagezeitpunkte, die durch die ermittelten Datenpunkt-Mittelwerte und die ermittelten Datenpunkt-Kovarianzen gegeben sind, die Trainings-Datenpunkte an den Vorhersagezeitpunkten liefern, von den Gewichten des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks ermittelt.
  • In 304 werden das neuronalen Driftnetzwerk und das neuronale Diffusionsnetzwerks zum Erhöhen der Wahrscheinlichkeit angepasst.
  • Gemäß verschiedenen Ausführungsformen werden in anderen Worten die Momente der Verteilung der Datenpunkten an den verschiedenen Zeitschritten ermittelt, indem die Erwartungswerte der Ableitungen der neuronalen Netzwerke (Driftnetzwerk und Diffusionsnetzwerk) verwendet werden. Diese Erwartungswerte der Ableitungen wird zunächst schichtweise ermittelt und dann zu den Erwartungswerten der Ableitungen der neuronalen Netzwerke zusammengesetzt.
  • Gemäß verschiedenen Ausführungsformen erfolgt dann das Ermitteln der Momente der Verteilungen der Datenpunkten an den verschiedenen Zeitschritten durch Schicht-weises (z.B. rekursives) Moment-Anpassen. Anschaulich gesprochen werden gemäß verschiedenen Ausführungsformen die Momente der Verteilungen der Datenpunkte (und damit die Unsicherheit der Datenpunkte) durch die Schichten propagiert und über Zeitschritte hinweg propagiert.
  • Dies wird für Trainingsdaten durchgeführt und die Parameter der neuronalen Netzwerke (Gewichte) z.B. mittels Maximum-Likelihood-Schätzen optimiert.
  • Die trainierte neuronale stochastische Differentialgleichung kann zum Steuern einer Robotervorrichtung verwendet werden.
  • Unter „Robotervorrichtung“ kann jegliches physisches System (mit einem mechanischen Teil, dessen Bewegung gesteuert wird), wie eine computergesteuerte Maschine, ein Fahrzeug, ein Haushaltsgerät, ein Elektrowerkzeug, eine Fertigungsmaschine, ein persönlicher Assistent oder ein Zugangskontrollsystem verstanden werden.
  • Die Steuerung kann auf der Grundlage von Sensordaten erfolgen. Diese Sensordaten (und entsprechend in den Trainingsdaten enthaltene Sensordaten) können von verschiedenen Sensoren wie Video, Radar, LiDAR, Ultraschall, Bewegung, Akustik, Wärmebild usw. sein, z.B. Sensordaten über Systemzustände sowie Konfigurationen. Die Sensordaten können in Form von (z.B. skalaren) Zeitreihen vorliegen.
  • Ausführungsformen können insbesondere dazu verwendet werden, ein maschinelles Lernsystem zu trainieren und einen Roboter autonom zu steuern, um verschiedene Manipulationsaufgaben unter verschiedenen Szenarien zu erreichen. Insbesondere sind Ausführungsformen für die Steuerung und Überwachung der Ausführung von Manipulationsaufgaben, z.B. in Fließbändern, anwendbar. Sie können z.B. nahtlos in eine traditionelle GUI für einen Steuerungsprozess integriert werden.
  • Die trainierte neuronale stochastische Differentialgleichung kann beispielsweise zur Vorhersage von Sensordaten bei einem physikalischen oder chemischen Prozess vorhergesagt werden, z.B. einer Temperatur oder einer Materialeigenschaft etc.
  • In solch einem Kontext können Ausführungsformen auch für die Anomaliedetektion verwendet werden. Beispielsweise kann eine OOD (Out of Distribution)-Detektion für Zeitreihen durchgeführt werden. Dazu wird beispielsweise mittels der trainierten neuronalen stochastischen Differentialgleichung ein Mittelwert und eine Kovarianz einer Verteilung von Datenpunkten (z.B. Sensordaten) vorhergesagt und die festgestellt, ob gemessene Sensordaten dieser Verteilung folgen. Bei zu starker Abweichung kann dies als Indiz dafür gesehen werden, dass eine Anomalie vorliegt und z.B. eine Robotervorrichtung entsprechend gesteuert werden (z.B. ein Fließband angehalten werden).
  • Der Trainingsdatensatz kann je nach Anwendungsfall ausgestaltet werden. Er enthält typischerweise eine Vielzahl von Trainings-Trajektorien, die beispielsweise die zeitlichen Verläufe jeweiliger Sensordaten (Temperatur, Geschwindigkeit, Position, Materialeigenschaft, ...) beinhalten. Die Trainingsdatensätze können durch Experimente oder auch durch Simulationen erstellt werden.
  • Das Verfahren ist gemäß einer Ausführungsform Computer-implementiert.
  • Obwohl die Erfindung vor allem unter Bezugnahme auf bestimmte Ausführungsformen gezeigt und beschrieben wurde, sollte es von denjenigen, die mit dem Fachgebiet vertraut sind, verstanden werden, dass zahlreiche Änderungen bezüglich Ausgestaltung und Details daran vorgenommen werden können, ohne vom Wesen und Bereich der Erfindung, wie er durch die nachfolgenden Ansprüche definiert wird, abzuweichen. Der Bereich der Erfindung wird daher durch die angefügten Ansprüche bestimmt, und es ist beabsichtigt, dass sämtliche Änderungen, welche unter den Wortsinn oder den Äquivalenzbereich der Ansprüche fallen, umfasst werden.

Claims (12)

  1. Verfahren zum Trainieren des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks einer neuronalen stochastischen Differentialgleichung aufweisend: Ziehen einer Trainings-Trajektorie aus Trainings-Sensordaten, wobei die Trainings-Trajektorie für jeden einer Folge von Vorhersagezeitpunkten einen Trainings-Datenpunkt aufweist; Ermitteln, ausgehend von dem Trainings-Datenpunkt, den die Trainings-Trajektorie für einen Anfangszeitpunkt enthält, von, für jeden Vorhersagezeitpunkt der Folge von Vorhersagezeitpunkten, des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz an dem Vorhersagezeitpunkt durch Ermitteln, aus dem Datenpunkt-Mittelwert und der Datenpunkt-Kovarianz eines Vorhersagezeitpunkts des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts durch Ermitteln der Erwartungswerte der Ableitungen jeder Schicht des neuronalen Driftnetzwerks nach ihren Eingangsdaten; Ermitteln des Erwartungswerts der Ableitung des neuronalen Driftnetzwerks nach seinen Eingangsdaten aus den ermittelten Erwartungswerten der Ableitungen der Schichten des neuronalen Driftnetzwerks; und Ermitteln des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts aus dem ermittelten Erwartungswert der Ableitung des neuronalen Driftnetzwerks nach seinen Eingangsdaten; und Ermitteln einer Abhängigkeit der Wahrscheinlichkeit, dass die Datenpunkt-Verteilungen der Vorhersagezeitpunkte, die durch die ermittelten Datenpunkt-Mittelwerte und die ermittelten Datenpunkt-Kovarianzen gegeben sind, die Trainings-Datenpunkte an den Vorhersagezeitpunkten liefern, von den Gewichten des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks, und Anpassen des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks zum Erhöhen der Wahrscheinlichkeit.
  2. Verfahren nach Anspruch 1, wobei das Ermitteln, aus dem Datenpunkt-Mittelwert und der Datenpunkt-Kovarianz eines Vorhersagezeitpunkts, des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts aufweist: Ermitteln, für den Vorhersagezeitpunkt, des Mittelwerts und der Kovarianz der Ausgabe jeder Schicht des neuronalen Driftnetzwerks ausgehend von dem Datenpunkt-Mittelwert und der Datenpunkt-Kovarianz des Vorhersagezeitpunkts; und Ermitteln des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts aus den für den Vorhersagezeitpunkt ermittelten Datenpunkt-Mittelwerten und Datenpunkt-Kovarianzen der Schichten des neuronalen Driftnetzwerks.
  3. Verfahren nach Anspruch 1 oder 2, wobei das Ermitteln, aus dem Datenpunkt-Mittelwert und der Datenpunkt-Kovarianz eines Vorhersagezeitpunkts, des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts aufweist: Ermitteln, für den Vorhersagezeitpunkt, des Mittelwerts und der Kovarianz der Ausgabe jeder Schicht des neuronalen Diffusionsnetzwerks ausgehend von dem Datenpunkt-Mittelwert und der Datenpunkt-Kovarianz des Vorhersagezeitpunkts; und Ermitteln des Datenpunkt-Mittelwerts und der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts aus den für den Vorhersagezeitpunkt ermittelten Datenpunkt-Mittelwerten und Datenpunkt-Kovarianzen der Schichten des neuronalen Diffusionsnetzwerks.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei der Erwartungswert der Ableitung des neuronalen Driftnetzwerks nach seinen Eingangsdaten ermittelt wird durch Multiplizieren der Ableitungen der ermittelten Erwartungswerte der Ableitungen der Schichten des neuronalen Driftnetzwerks.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei Ermitteln der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts aus dem Datenpunkt-Mittelwert und der Datenpunkt-Kovarianz eines Vorhersagezeitpunkts aufweist: Ermitteln der Kovarianz zwischen Eingabe und Ausgabe des neuronalen Driftnetzwerks für den Vorhersagezeitpunkt durch Multiplikation der Datenpunkt-Kovarianz der des Vorhersagezeitpunkts mit dem Erwartungswert der Ableitung des neuronalen Driftnetzwerks nach seinen Eingangsdaten; und Ermitteln der Datenpunkt-Kovarianz des nächsten Vorhersagezeitpunkts aus der Kovarianz zwischen Eingabe und Ausgabe des neuronalen Driftnetzwerks für den Vorhersagezeitpunkt.
  6. Verfahren nach einem der Ansprüche 1 bis 5, aufweisend Bilden des neuronalen Driftnetzwerks und das neuronale Diffusionsnetzwerks aus ReLU-Aktivierungen, Dropout-Schichten und Schichten für affine Transformationen.
  7. Verfahren nach einem der Ansprüche 1 bis 6, aufweisend Bilden des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks, sodass sich die ReLU-Aktivierungen, Dropout-Schichten und Schichten für affine Transformationen in dem neuronalen Driftnetzwerk abwechseln.
  8. Verfahren zum Steuern einer Robotervorrichtung aufweisend: Trainieren einer neuronalen stochastischen Differentialgleichung gemäß dem Verfahren nach einem der Ansprüche 1 bis 7; Messen von Sensordaten, die einen Zustand der Robotervorrichtung und/oder ein oder mehrerer Objekte in der Umgebung der Robotervorrichtung charakterisieren; Zuführen der Sensordaten zu der stochastischen Differentialgleichung zum Erzeugen eines Regressionsergebnisses; und Steuern der Robotervorrichtung unter Verwendung des Regressionsergebnisses.
  9. Trainingsvorrichtung, die eingerichtet ist, das Verfahren nach einem der Ansprüche 1 bis 7 auszuführen.
  10. Steuervorrichtung für eine Robotervorrichtung, die eingerichtet ist, das Verfahren nach Anspruch 8 auszuführen.
  11. Computerprogramm, aufweisend Programminstruktionen, die, wenn sie von ein oder mehreren Prozessoren ausgeführt werden, die ein oder mehreren Prozessoren dazu bringen, ein Verfahren gemäß einem der Ansprüche 1 bis 8 durchzuführen.
  12. Computerlesbares Speichermedium, auf dem Programminstruktionen gespeichert sind, die, wenn sie von ein oder mehreren Prozessoren ausgeführt werden, die ein oder mehreren Prozessoren dazu bringen, ein Verfahren gemäß einem der Ansprüche 1 bis 8 durchzuführen.
DE102021200042.8A 2021-01-05 2021-01-05 Vorrichtung und Verfahren zum Verfahren zum Trainieren des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks einer neuronalen stochastischen Differentialgleichung Pending DE102021200042A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102021200042.8A DE102021200042A1 (de) 2021-01-05 2021-01-05 Vorrichtung und Verfahren zum Verfahren zum Trainieren des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks einer neuronalen stochastischen Differentialgleichung
US17/646,197 US20220215254A1 (en) 2021-01-05 2021-12-28 Device and method for training the neural drift network and the neural diffusion network of a neural stochastic differential equation
CN202210000802.7A CN114722995A (zh) 2021-01-05 2022-01-04 训练神经随机微分方程的神经漂移网络和神经扩散网络的设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021200042.8A DE102021200042A1 (de) 2021-01-05 2021-01-05 Vorrichtung und Verfahren zum Verfahren zum Trainieren des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks einer neuronalen stochastischen Differentialgleichung

Publications (1)

Publication Number Publication Date
DE102021200042A1 true DE102021200042A1 (de) 2022-07-07

Family

ID=82020532

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021200042.8A Pending DE102021200042A1 (de) 2021-01-05 2021-01-05 Vorrichtung und Verfahren zum Verfahren zum Trainieren des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks einer neuronalen stochastischen Differentialgleichung

Country Status (3)

Country Link
US (1) US20220215254A1 (de)
CN (1) CN114722995A (de)
DE (1) DE102021200042A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116579217A (zh) * 2023-05-30 2023-08-11 兰州理工大学 一种基于数字孪生的控制阀流致振动疲劳寿命预测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LIU, Xuanqing [et al.]: Neural sde: Stabilizing neural ode networks with stochastic noise. arXiv preprint arXiv:1906.02355, 2019. URL: https://arxiv.org/pdf/1906.02355.pdf [abgerufen am 05.07.2021]
LOOK, Andreas [et al.]: Deterministic Inference of Neural Stochastic Differential Equations. arXiv preprint arXiv:2006.08973v1, 2020. URL: https://arxiv.org/abs/2006.08973v1 [abgerufen am 05.07.2021]

Also Published As

Publication number Publication date
US20220215254A1 (en) 2022-07-07
CN114722995A (zh) 2022-07-08

Similar Documents

Publication Publication Date Title
EP1626317B1 (de) Verfahren zur Erstellung eines nichtlinearen, stationären oder dynamischen Modells einer Steuergrösse einer Arbeitsmaschine
DE102018115413B4 (de) Gerät zur kompensation thermischer verschiebung und maschinenlernvorrichtung zum lernen von formmessdaten
DE102016117773A1 (de) Werkzeugmaschine, die eine optimale Beschleunigung/Verlangsamung erzeugt
DE102018000342A1 (de) Numerische steuerung und maschinelle lernvorrichtung
EP3646122B1 (de) Verfahren und vorrichtung zum einstellen mindestens eines parameters eines aktorregelungssystems und aktorregelungssystem
DE202018102632U1 (de) Vorrichtung zum Erstellen einer Modellfunktion für ein physikalisches System
DE112020003841T5 (de) Verbessertes maschinelles lernen für technische systeme
DE102015107800A1 (de) Schnelle Analyse der Restspannung und der Verzerrung in gegossenen Aluminiumkomponenten
DE102018109835A1 (de) Verfahren und Vorrichtung zum Ermitteln einer Netzkonfiguration eines neuronalen Netzes
DE102018108778A1 (de) Beschleunigungs- und Verzögerungssteuereinheit
DE102019208262A1 (de) Verfahren und Vorrichtung zur Ermittlung von Modellparametern für eine Regelungsstrategie eines technischen Systems mithilfe eines Bayes'schen Optimierungsverfahrens
WO2021058223A1 (de) Verfahren zur effizienten, simulativen applikation automatisierter fahrfunktionen
DE102019112211A1 (de) Simulationsvorrichtung
DE102015216953A1 (de) Verfahren und Vorrichtung zum Vermessen einer zu testenden Einheit
DE102017219492A1 (de) Verfahren und Vorrichtung zum Betreiben eines Systems durch Trainieren und Berechnen eines tiefen rekurrenten Gaußprozesses
DE102021200042A1 (de) Vorrichtung und Verfahren zum Verfahren zum Trainieren des neuronalen Driftnetzwerks und des neuronalen Diffusionsnetzwerks einer neuronalen stochastischen Differentialgleichung
DE102019210507A1 (de) Vorrichtung und computerimplementiertes Verfahren für die Verarbeitung digitaler Sensordaten und Trainingsverfahren dafür
DE102020211262A1 (de) Verfahren und Vorrichtung zum Komprimieren eines neuronalen Netzes
DE102020205532A1 (de) Vorrichtung und Verfahren zum Trainieren einer Steuerungsstrategie für eine Steuereinrichtung über mehrere Iterationen
DE102013212889A1 (de) Verfahren und Vorrichtung zum Erstellen einer Regelungfür eine physikalische Einheit
DE102019207410A1 (de) Verfahren und Vorrichtung für eine automatisierte Beeinflussung eines Aktuators
DE102020205962B3 (de) Vorrichtung und Verfahren zum Betreiben eines Prüfstands
DE102016104658B4 (de) Verfahren zur Prädiktion der Wahrscheinlichkeitsdichte zumindest einer kinematischen Zustandsgröße eines sich bewegenden Objekts und Zielverfolgungsvorrichtung
DE102020215136A1 (de) Verfahren zur automatisierten Bewertung eines Simulationsmodells
DE10222699A1 (de) Regelbasiertes Optimierungsverfahren

Legal Events

Date Code Title Description
R163 Identified publications notified