DE102011004693A1 - Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems - Google Patents

Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems Download PDF

Info

Publication number
DE102011004693A1
DE102011004693A1 DE102011004693A DE102011004693A DE102011004693A1 DE 102011004693 A1 DE102011004693 A1 DE 102011004693A1 DE 102011004693 A DE102011004693 A DE 102011004693A DE 102011004693 A DE102011004693 A DE 102011004693A DE 102011004693 A1 DE102011004693 A1 DE 102011004693A1
Authority
DE
Germany
Prior art keywords
network
vector
causal
retro
causal network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102011004693A
Other languages
English (en)
Inventor
Hans-Georg Zimmermann
Ralph Grothmann
Christoph Tietz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102011004693A priority Critical patent/DE102011004693A1/de
Priority to PCT/EP2012/051822 priority patent/WO2012113634A1/de
Publication of DE102011004693A1 publication Critical patent/DE102011004693A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

Die Erfindung betrifft ein Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems, das zu jeweiligen Zeitpunkten durch einen Observablenvektor umfassend ein oder mehrere Observablen als Einträge charakterisiert wird. Erfindungsgemäß wird sowohl ein kausales Netz mit einem zeitlich vorwärts gerichteten Informationsfluss als auch ein retro-kausales Netz mit einem zeitlich rückwärts gerichteten Informationsfluss gelernt. Die Zustände des dynamischen Systems werden in dem kausalen Netz durch erste Zustandsvektoren und in dem retrokausalen Netz durch zweite Zustandsvektoren charakterisiert, welche jeweils Observablen des dynamischen Systems sowie versteckte Zustände des dynamischen Systems enthalten. Die Observablen der ersten Zustandsvektoren werden durch einen ersten Differenzvektor korrigiert, der beim Lernen des kausalen Netzes den Unterschied zwischen den Observablen des ersten Zustandsvektors und den Observablen eines bekannten Observablenvektors aus Trainingsdaten beschreibt. Das erfindungsgemäße Verfahren zeichnet sich dadurch aus, dass das retro-kausale Netz einen separaten zweiten Differenzvektor umfasst, mit dem die Observablen des zweiten Zustandsvektoren korrigiert werden und welche beim Lernen des retro-kausalen Netzes den Unterschied zwischen den Observablen des zweiten Zustandsvektors und einem bekannten Observablenvektor aus Trainingsdaten beschreibt. Das Verfahren ist dynamisch stabil und eignet sich insbesondere zur Modellierung der zeitlichen Entwicklung von Energiepreisen und/oder Rohstoffpreisen. Ebenso kann das Verfahren zur Modellierung von Observablen beliebiger technischer Systeme eingesetzt werden, wie z. B. Gasturbinen und/oder Windkraftanlagen.

Description

  • Die Erfindung betrifft ein Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems sowie ein Verfahren zur Prädiktion der Observablen eines dynamischen Systems basierend auf einem gelernten rekurrenten neuronalen Netz und ein entsprechendes Computerprogrammprodukt.
  • Rekurrente neuronale Netze werden heutzutage in verschiedenen Anwendungsgebieten dazu verwendet, um die zeitliche Entwicklung eines dynamischen Systems in geeigneter Weise derart zu modellieren, dass ein mit Trainingsdaten des dynamischen Systems gelerntes rekurrentes neuronales Netz gut die Observablen (beobachtbaren Zustände) des betrachteten Systems vorhersagen kann. Dabei werden durch das rekurrente neuronale Netz als Zustände des dynamischen Systems neben den Observablen auch unbekannte versteckte Zustände modelliert, wobei in der Regel lediglich ein kausaler, d. h. zeitlich vorwärts gerichteter, Informationsfluss zwischen zeitlich aufeinander folgenden Zuständen betrachtet wird. Häufig beruhen dynamische Systeme jedoch darauf, dass bei der zeitlichen Entwicklung der Zustände des Systems auch zukünftige Prognosen über Observablen eine Rolle spielen. Solche dynamischen Systeme werden durch bekannte rekurrente neuronale Netze oftmals nur unzureichend beschrieben.
  • Aufgabe der Erfindung ist es deshalb, ein Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zu schaffen, mit dem dynamische Systeme besser modelliert werden können.
  • Diese Aufgabe wird durch die unabhängigen Patentansprüche gelöst. Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen definiert.
  • Das erfindungsgemäße Verfahren dient zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems, das zu jeweiligen Zeitpunkten durch einen Observablenvektor umfassend eine oder mehrere Observablen (d. h. beobachtbare Zustände des dynamischen Systems) als Einträge charakterisiert ist. Das Verfahren ist dabei auf beliebige dynamische Systeme anwendbar, beispielsweise kann mit dem Verfahren die Entwicklung von Energiepreisen und/oder Rohstoffpreisen modelliert werden. Ebenso kann mit dem Verfahren jedes beliebige, sich dynamisch über die Zeit verändernde technische System basierend auf entsprechenden beobachtbaren Zustandsgrößen des technischen Systems modelliert werden, um hierdurch Observablen des technischen Systems mit einem entsprechend gelernten Netz vorherzusagen. Beispielsweise kann mit dem Verfahren eine Gasturbine und/oder eine Windkraftanlage geeignet modelliert werden.
  • Das erfindungsgemäß gelernte rekurrente neuronale Netz umfasst ein kausales Netz, das einen zeitlich vorwärts gerichteten Informationsfluss zwischen ersten Zustandsvektoren des dynamischen Systems über eine Kopplung mit einer ersten Gewichtsmatrix beschreibt, wobei ein erster Zustandsvektor zu einem jeweiligen Zeitpunkt einen oder mehrere erste Einträge umfasst, welche jeweils einem Eintrag des Observablenvektors entsprechen, sowie einen oder mehrere versteckte (d. h. nicht beobachtbare) Zustände des dynamischen Systems. Um auch die zukünftige zeitliche Entwicklung des dynamischen Systems in dem rekurrenten neuronalen Netz zu berücksichtigen, ist ferner ein retro-kausales Netz vorgesehen, das einen zeitlich rückwärts gerichteten Informationsfluss zwischen zweiten Zustandsvektoren des dynamischen Systems über eine zweite Gewichtsmatrix beschreibt, wobei ein zweiter Zustandsvektor zu einem jeweiligen Zeitpunkt einen oder mehrere zweite Einträge umfasst, welche jeweils einem Eintrag des Observablenvektors entsprechen, sowie einen oder mehrere versteckte Zustände des dynamischen Systems.
  • Ein zum jeweiligen Zeitpunkt durch das kausale Netz ermittelter erster Zustandsvektor wird in dem rekurrenten neuronalen Netz im Rahmen der Kopplung mit dem (zeitlich) nachfolgenden ersten Zustandsvektor durch einen ersten Differenzvektor korrigiert, der den zum jeweiligen Zeitpunkt durch das kausale Netz ermittelten ersten Zustandsvektor bzw. dessen erste Einträge mit dem entsprechenden, zum jeweiligen Zeitpunkt durch das retro-kausale Netz ermittelten zweiten Zustandsvektor bzw. dessen zweiten Einträgen koppelt. Im Rahmen des Lernens des rekurrenten neuronalen Netzes wird dabei das kausale Netz mit einem Verfahren gelernt, bei dem der erste Differenzvektor den Unterschied zwischen den ersten Einträgen des zum jeweiligen Zeitpunkt ermittelten ersten Zustandsvektors und einem bekannten Observablenvektor aus Trainingsdaten beschreibt. Das Lernen des kausalen Netzes stellt somit ein an sich bekanntes Teacher-Forcing dar, bei dem ein im kausalen Netz ermittelter Observablenvektor in der Form entsprechender erster Einträge des Zustandsvektors durch einen bekannten Observablenvektor aus Trainingsdaten ersetzt wird. Dies wird dadurch erreicht, dass über den ersten Differenzvektor der im kausalen Netz ermittelte Observablenvektor derart korrigiert wird, dass der daraus erhaltene Observablenvektor den bekannten Observablenvektor aus Trainingsdaten darstellt.
  • In Analogie zum kausalen Netz wird auch im retro-kausalen Netz ein zum jeweiligen Zeitpunkt durch das retro-kausale Netz ermittelter zweiter Zustandsvektor im Rahmen der Kopplung mit dem vorhergehenden zweiten Zustandsvektor durch einen zweiten Differenzvektor korrigiert, der den zum jeweiligen Zeitpunkt ermittelten zweiten Zustandsvektor bzw. dessen zweite Einträge mit dem entsprechenden, zum jeweiligen Zeitpunkt durch das kausale Netz ermittelten ersten Zustandsvektor bzw. dessen ersten Einträgen koppelt. Der zweite Differenzvektor ist ein separater, zusätzlich zum ersten Differenzvektor vorgesehener Vektor. Im Rahmen des Lernens des rekurrenten neuronalen Netzes wird dabei das retro-kausale Netz mit einem Verfahren gelernt, bei dem der zweite Differenzvektor den Unterschied zwischen den zweiten Einträgen des zum jeweiligen Zeitpunkt ermittelten zweiten Zustandsvektors und einem bekannten Observablenvektor aus Trainingsdaten beschreibt. Das Lernen des retro-kausalen Netzes beruht somit ebenfalls auf Teacher-Forcing, bei dem durch eine Korrektur mittels eines (zweiten) Differenzvektors der im retrokausalen Netz ermittelte Observablenvektor, der den zweiten Einträgen des zweiten Zustandsvektors entspricht, auf den bekannten Observablenvektor aus den Trainingsdaten abgebildet wird.
  • Das erfindungsgemäße Verfahren zeichnet sich dadurch aus, dass im rekurrenten neuronalen Netz ein erster Differenzvektor für das kausale Netz und separat ein zweiter Differenzvektor für das retro-kausale Netz zur Modellierung des Teacher-Forcings verwendet werden. Hierdurch kann ein effizientes und dynamisch stabiles Lernen erreicht werden. Ziel des Lernens des kausalen und des retro-kausalen Netzes ist dabei eine Minimierung des ersten bzw. zweiten Differenzvektors. Das erfindungsgemäße Verfahren zeichnet sich ferner dadurch aus, dass ein dynamisches System durch ein rekurrentes neuronales Netz beschrieben wird, welches sowohl einen Informationsfluss von der Vergangenheit in die Zukunft als auch einen Informationsfluss von der Zukunft in die Vergangenheit berücksichtigt. Hierdurch können dynamische Systeme geeignet modelliert werden, bei denen die Observablen zu einem jeweiligen Zeitpunkt auch durch prognostizierte zukünftige Observablenwerte beeinflusst werden.
  • In einer besonders bevorzugten Ausführungsform des erfindungsgemäßen Lernverfahrens werden zum Lernen des rekurrenten neuronalen Netzes zwei Kopien des rekurrenten neuronalen Netzes gleichzeitig gelernt, wobei in der einen Kopie ausschließlich das kausale Netz gelernt wird und in der anderen Kopie ausschließlich das retro-kausale Netz gelernt wird. Dieses Verfahren gewährleistet, dass keine Schleifen im Netzwerk auftreten und gleichzeitig sowohl für das kausale als auch für das retro-kausale Netz Teacher-Forcing modelliert wird.
  • In einer weiteren, besonders bevorzugten Ausführungsform der Erfindung wird das kausale Netz derart gelernt, dass neben dem kausalen Netz ein oder mehrere zweite kausale Netze gelernt werden, welche jeweils mit dem kausalen Netz mit dem Unterschied übereinstimmen, dass in dem jeweiligen zweiten kausalen Netz für einen Teil der Zeitpunkte die Differenzvektoren weggelassen werden. Das heißt, in einem jeweiligen zweiten kausalen Netz ist das Teacher-Forcing nur für einen Teil der Zeitpunkte realisiert. Demzufolge ist das Modell weniger abhängig von dem Teacher-Forcing, wodurch das Lernen verbessert werden kann. Für das oder die zweiten kausalen Netze wird dabei die gleiche erste Gewichtsmatrix gelernt wie für das ursprüngliche kausale Netz des rekurrenten neuronalen Netzes. Ein Lernverfahren basierend auf einem oder mehreren zweiten kausalen Netzen wird detailliert in der deutschen Patentanmeldung mit dem Anmelder-Aktenzeichen 2011P02814DE beschrieben, welche von der gleichen Anmelderin am gleichen Tag wie die vorliegende Anmeldung beim Deutschen Patent- und Markenamt eingereicht wurde. Der gesamt Offenbarungsgehalt dieser Anmeldung wird durch Verweis zum Inhalt der vorliegenden Anmeldung gemacht. In einer bevorzugten Variante des soeben beschriebenen Lernens mittels zweiter kausaler Netze ist in einem jeweiligen zweiten kausalen Netz nur noch für jeden n-ten Zeitpunkt ein Differenzvektor enthalten, wobei n eine natürliche Zahl größer gleich zwei ist.
  • In Analogie zu dem kausalen Netz kann auch das retro-kausale Netz derart gelernt werden, dass neben dem retro-kausalen Netz ein oder mehrere zweite retro-kausale Netze gelernt werden, welche jeweils mit dem zweiten retro-kausalen Netz mit dem Unterschied übereinstimmen, dass in dem jeweiligen zweiten retro-kausalen Netz für einen Teil der Zeitpunkte die Differenzvektoren weggelassen werden. Dieses Lernen erfolgt somit analog wie für das kausale Netz mit dem einzigen Unterschied, dass die Kausalitätsrichtung umgekehrt ist. Wiederum wird für das oder die zweiten retro-kausalen Netze die gleiche zweite Gewichtsmatrix gelernt wie für das ursprüngliche retro-kausale Netz. In einer bevorzugten Ausführungsform des soeben beschriebenen Lernens mittels zweiter retro-kausaler Netze ist in einem jeweiligen zweiten retro-kausalen Netz nur noch für jeden n-ten Zeitpunkt ein Differenzvektor enthalten, wobei n eine natürliche Zahl größer gleich zwei ist.
  • In einer weiteren, besonders bevorzugten Ausführungsform werden das kausale und das retro-kausale Netz basierend auf einer Fehler-Rückpropagation mit geteilten Gewichten gelernt. Dieses auch unter dem englischen Begriff ”error backpropagation with shared weights” bekannte Verfahren ist dem Fachmann hinlänglich geläufig und wird häufig in rekurrenten neuronalen Netzen beim Lernen eingesetzt. Durch die Verwendung dieses Verfahrens wird ein einfaches und effizientes Lernen des rekurrenten neuronalen Netzes erreicht.
  • In einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens wird in dem kausalen Netz ein erster Zustandsvektor zu einem jeweiligen Zeitpunkt in einen ersten Zustandsvektor zu einem nachfolgenden Zeitpunkt durch eine Multiplikation mit der ersten Gewichtsmatrix und das Anwenden einer Aktivierungsfunktion überführt. In einer besonders bevorzugten Variante wird dabei zunächst die Aktivierungsfunktion auf den Zustandsvektor zu dem jeweiligen Zeitpunkt angewendet und erst anschließend erfolgt eine Multiplikation mit der ersten Gewichtsmatrix. Hierdurch wird sichergestellt, dass Observablen beschrieben werden können, welche nicht durch den Wertebereich der Aktivierungsfunktion beschränkt sind.
  • In einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens wird in dem retro-kausalen Netz ein zweiter Zustandsvektor zu einem jeweiligen Zeitpunkt in einen zweiten Zustandsvektor zu einem vorhergehenden Zeitpunkt durch eine Multiplikation mit der zweiten Gewichtsmatrix und das Anwenden einer Aktivierungsfunktion überführt. Vorzugsweise wird wiederum zunächst die Aktivierungsfunktion auf den zweiten Zustandsvektor zu dem jeweiligen Zeitpunkt angewendet und erst anschließend erfolgt eine Multiplikation mit der zweiten Gewichtsmatrix. Hierdurch wird auch für das retro-kausale Netz sichergestellt, dass die Observablen nicht durch den Wertebereich der Aktivierungsfunktion beschränkt sind.
  • In einer besonders bevorzugten Variante sind die oben beschriebenen Aktivierungsfunktionen tanh-Funktionen (tangens hyperbolicus), welche häufig in rekurrenten neuronalen Netzen zum Einsatz kommen.
  • Neben dem oben beschriebenen Verfahren umfasst die Erfindung ein Verfahren zur Prädiktion von Observablen eines dynamischen Systems, bei dem die Prädiktion mit einem rekurrenten neuronalen Netz durchgeführt wird, welches mit dem erfindungsgemäßen Lernverfahren basierend auf Trainingsdaten umfassend bekannte Observablenvektoren des dynamischen Systems gelernt ist.
  • Die Erfindung betrifft darüber hinaus ein Computerprogrammprodukt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung der oben beschriebenen Verfahren, wenn das Programm auf einem Rechner abläuft.
  • Ausführungsbeispiele der Erfindung werden nachfolgend anhand der beigefügten Figuren detailliert beschrieben.
  • Es zeigen:
  • 1 und 2 zwei Varianten von bekannten rekurrenten neuronalen Netzen zur Modellierung eines dynamischen Systems;
  • 3 eine auf 2 basierende Variante eines rekurrenten neuronalen Netzes, welches erfindungsgemäß als kausales Teilnetz zum Einsatz kommt;
  • 4 eine aus dem Stand der Technik bekannte Variante des Lernens des kausalen Netzes gemäß 3;
  • 5 und 6 Varianten des Lernens des kausalen Netzes der 3, welche in Ausführungsformen des erfindungsgemäßen Verfahrens zum Einsatz kommen;
  • 7 ein retro-kausales Netz, welches in dem erfindungsgemäßen Verfahren in Kombination mit dem kausalen Netz der 3 zum Einsatz kommt;
  • 8 und 9 Varianten des Lernens des retro-kausalen Netzes der 7, welche in Ausführungsformen des erfindungsgemäßen Verfahrens zum Einsatz kommen;
  • 10 eine Ausführungsform eines rekurrenten neuronalen Netzes, welches die Netze der 3 und 7 miteinander kombiniert und basiernd auf der Erfindung gelernt wird;
  • 11 und 12 Ausführungsformen eines vorbekannten Lernens des in 10 gezeigten rekurrenten neuronalen Netzes; und
  • 13 und 14 Ausführungsformen eines erfindungsgemäßen Lernens des in 10 gezeigten rekurrenten neuronalen Netzes.
  • Rekurrente neuronale Netze zur Modellierung des zeitlichen Verhaltens eines dynamischen Systems sind hinlänglich aus dem Stand der Technik bekannt. Diese Netze umfassen in der Regel mehrere Schichten, welche eine Mehrzahl von Neuronen beinhalten und in geeigneter Weise basierend auf Trainingsdaten aus bekannten Zuständen des dynamischen Systems derart gelernt werden können, dass zukünftige Zustände des dynamischen Systems prädiziert werden können. In allen nachfolgenden Figuren sind entsprechende Neuronencluster, welche Zustandsvektoren bzw. Observablenvektoren bzw. Differenzvektoren modellieren, durch Kreise wiedergegeben.
  • 1 zeigt eine aus dem Stand der Technik bekannte Variante eines neuronalen Netzes, welches ein offenes dynamisches System modelliert. Das Netz umfasst dabei eine Eingangsschicht I mit zeitlich aufeinander folgenden Zustandsvektoren ut-3, ut-2, ut-1 und ut, welche entsprechende Eingangsgrößen des dynamischen Systems darstellen. Diese Eingangsgrößen können beispielsweise Stellgrößen eines mit dem neuronalen Netz modellierten technischen Systems sein. Die einzelnen Zustandsvektoren der Eingangsschicht I sind über Matrizen B mit entsprechenden versteckten Zustandsvektoren st-2, st-1, usw. einer versteckten Schicht verbunden. Die versteckten Zustandsvektoren umfassen eine Mehrzahl von versteckten Zuständen des dynamischen Systems und bilden den (nicht beobachtbaren) Zustandsraum des dynamischen Systems. Die einzelnen versteckten Zustandsvektoren sind über Matrizen A miteinander verbunden. Das Netz umfasst ferner eine Ausgangsschicht O mit Ausgangsgrößen in der Form von Zustandsvektoren yt-2, yt-1, ..., yt+4, welche mit entsprechenden versteckten Zustandsvektoren st-2, st-1, ..., st+4 über die Matrix C gekoppelt sind. Die Zustände der Ausgangsschicht sind dabei Zustände des dynamischen Systems, welche sich aus den entsprechenden Eingangsgrößen der Eingangsschicht I ergeben. Basierend auf Trainingsdaten, welche aus bekannten Eingangsgrößen und sich daraus ergebenden bekannten Ausgangsgrößen bestehen, kann das neuronale Netz der 1 in geeigneter Weise mit bekannten Verfahren, wie z. B. Fehler-Rückpropagation, gelernt werden und anschließend dazu eingesetzt werden, um basierend auf vergangenen Eingangsgrößen ut-3, ut-2, ... ut-1 sowie der gegenwärtigen Eingangsgröße ut in der Eingangsschicht I zukünftige Ausgangsgrößen yt+1, yt+2, usw. in der Ausgangsschicht O vorherzusagen. Das Netz der 1 beruht dabei auf einer Modellierung des betrachteten dynamischen Systems in der Form einer Überlagerung eines autonomen und eines extern getriebenen Teilsystems.
  • 2 zeigt eine weitere Variante eines rekurrenten neuronalen Netzes, welches in den weiter unten beschriebenen Ausführungsformen des erfindungsgemäßen Verfahrens zum Einsatz kommt. Dieses Netz modelliert ein geschlossenes dynamisches System und unterscheidet sich von dem Netz der 1 darin, dass nicht mehr zwischen Eingangsgrößen uτ und Ausgangsgrößen yτ unterschieden wird, wobei τ im Folgenden einen beliebigen Zeitpunkt bezeichnet. Vielmehr werden sowohl die Eingangsgrößen als auch die Ausgangsgrößen als Observablen, d. h. beobachtbare Zustände eines Observablenvektors des dynamischen Systems, betrachtet. Das Netz der 2 umfasst eine erste Schicht L1 und eine zweite Schicht L2, wobei die erste Schicht L1 einen zeitlich vorwärts gerichteten Informationsfluss zwischen einzelnen Zustandsvektoren st-2, st-1, ..., st+3 des modellierten dynamischen Systems darstellt. Im Unterschied zu 1 enthält in der Ausführungsform der 2 ein Zustandsvektor sτ zunächst als Einträge die beobachtbaren Observablen, welche den Zustandsvektoren yt und ut der 1 entsprechen, und anschließend die nicht beobachtbaren versteckten Zustände, wobei die Anzahl an versteckten Zuständen in der Regel wesentlich größer ist als die Anzahl der Observablen. Die einzelnen Zustandsvektoren in der Schicht L1 werden durch Matrizen A ineinander überführt, welche basierend auf Trainingsdaten in geeigneter Weise gelernt werden. Zu Beginn des Lernens wird dabei ein geeigneter Bias in der Schicht L1 vorgegeben, der in 2 und auch in allen nachfolgenden Figuren mit so bezeichnet ist.
  • Ein geeignet gelerntes rekurrentes neuronales Netz der 2 liefert in der zweiten Schicht die Observablen yt-1, ut-2, yt-1, ut-1, ... usw. zu den jeweiligen Zeitpunkten. Dabei werden über die Matrix [Id, 0] diejenigen Einträge der entsprechenden Zustandsvektoren sτ erhalten, welche Observablen entsprechen. Die Matrix [Id, 0] weist für die Spalten die Dimension des Zustandsvektors sτ auf und für die Zeilen die Dimension gemäß der Anzahl von Observablen. Der linke Teil der Matrix bildet eine quadratische Identitätsmatrix und für die restlichen Spalten enthält die Matrix nur Nullen, wodurch die Filterung der Observablen aus dem Zustandsvektor sτ erreicht wird. Mit dem Netz der 2 werden die Observablen in einem großen Zustandsvektor sτ eingebettet. Es wird dabei eine dynamisch konsistente und in allen Variablen symmetrische Modellierung eines dynamischen Systems erreicht, wobei die Zeit keine spezielle Rolle spielt. Das Netz der 2 stellt ferner ein kausales Netz dar, da der Informationsfluss zwischen den Zuständen der Schicht L1 zeitlich vorwärts gerichtet von der Vergangenheit in die Zukunft erfolgt.
  • 3 zeigt ein auf der 2 basierendes rekurrentes neuronales Netz, wobei nunmehr alle Observablen durchgängig als Observablenvektoren yt-6, yt-S, ..., yt+3 bezeichnet werden. Die Notation yτ umfasst somit sowohl die Ausgangsgröße uτ als auch die Eingangsgröße uτ aus 2. Diese Notation wird im Folgenden auch bei allen weiteren beschriebenen Varianten von rekurrenten neuronalen Netzen verwendet. Darüber hinaus sind in 3 zur Verdeutlichung die mit dem Netz vorherzusagenden Observablenvektoren yt+1, yt+2, und yt+3 durch gestrichelte Kreise angedeutet. Das heißt, der gegenwärtige Zeitpunkt wird in 3 und auch in allen weiteren Figuren mit t bezeichnet. Vergangene Zeitpunkte sind somit die Zeitpunkte t – 1, t – 2 usw. und zukünftige Zeitpunkte sind die Zeitpunkte t + 1, t + 2, t + 3 usw.
  • 4 zeigt eine bekannte Variante des Lernens des rekurrenten neuronalen Netzes der 3, wobei yd t-3, yd t-2, yd t-1 und yd t bekannte Observablenvektoren gemäß vorgegebenen Trainingsdaten des zu modellierenden dynamischen Systems darstellen. Die Matrix [Id, 0] entspricht der oben erläuterten Matrix zur Filterung der Observablen aus dem entsprechenden Zustandsvektor sτ. Demgegenüber wird durch die Matrix [ Id / 0 ] eine Umwandlung des bekannten Observablenvektors yd t in einen Observablenvektor erreicht, der neben den Einträgen für die bekannten Observablen auch Einträge für die weiteren versteckten Zustände enthält, welche jedoch alle auf Null gesetzt sind. Die Matrix [ Id / 0 ] umfasst dabei eine der Anzahl der Observablen entsprechende Anzahl an Spalten und eine der Dimension des Zustandsvektors sτ entsprechende Anzahl an Zeilen. Im oberen Teil bildet die Matrix eine quadratische Identitätsmatrix und die restlichen Zeilen der Matrix enthalten ausschließlich Nullen. Das Netz der 4 enthält ferner die Matrix C, mit der ein Zustand sτ in einen Zustand rτ überführt wird. Der Zustand rτ stellt dabei einen gefilterten Zustand dar, der nur die versteckten Zustände des Vektors sτ enthält. Demzufolge ist die Matrix C eine Matrix, welche an den Diagonalelementen, die den entsprechenden Zeilen bzw. Spalten der versteckten Zustände entsprechen, Einsen enthält und deren restliche Einträge auf Null gesetzt sind.
  • Durch die in 4 gezeigte Kopplung der bekannten Zustände yd τ mit dem Zustand rτ wird erreicht, dass die durch das neuronale Netz ermittelten Werte der Observablen durch die Observablen yd τ gemäß den Trainingsdaten ausgetauscht werden. Somit wird in jedem Zeitschritt τ ≤ t ein Ersetzen der ermittelten Observablen durch die tatsächlichen Observablen gemäß den Trainingsdaten erreicht. Ein derartiges Lernverfahren ist auch unter dem Begriff ”Teacher-Forcing” bekannt. Gemäß der Darstellung der 4 werden mit dem rekurrenten neuronalen Netz die folgenden Zusammenhänge modelliert, wobei – wie oben erwähnt – der Zeitpunkt t dem aktuellen Gegenwartszeitpunkt entspricht:
    Figure 00130001
    τ > t: sτ+1 = tanh(Asτ) (2) für alle τ: yτ = [Id,0]sτ (3).
  • Das Lernen beruht dabei auf dem folgenden Optimierungsziel:
    Figure 00130002
  • Das heißt, es wird nach der Matrix A gesucht, welche den über die Zeitpunkte t – m ≤ τ ≤ t summierten quadratischen Fehler zwischen über das Netz ermittelten und bekannten Observablenvektoren minimiert.
  • Auch in dem rekurrenten neuronalen Netz, welches in dem erfindungsgemäßen Verfahren verwendet wird, kommt das oben beschriebene Teacher-Forcing zum Einsatz, jedoch in abgewandelten Varianten, welche in 5 und 6 für das kausale Netz der 3 verdeutlicht sind. Es werden dabei die analogen Notationen (bis auf etwaige Vorzeichen) wie in 4 beibehalten. Die zusätzlich in 5 hinzukommende Matrix Id bezeichnet eine entsprechende Identitätsabbildung für den Zustandsvektor, an dem der mit der Matrix bezeichnete Pfeil beginnt. Im Unterschied zur Ausführungsform der 4 wird nunmehr in 5 eine Zielgröße bzw. ein Targetwert tar eingeführt, welcher den Differenzvektor zwischen dem durch das rekurrente neuronale Netz ermittelten Observablenvektor yτ innerhalb des Zustandsvektors sτ und dem bekannten Observablenvektor yd τ darstellt. Dieser Targetwert, der im Idealfall Null ist, dient wiederum dazu, um die entsprechenden ermittelten Observablen in den Vektoren sτ durch die bekannten Observablen gemäß den Trainingsdaten zu ersetzen, was durch die Kopplung über die Matrix [ –Id / 0 ] zum Ausdruck gebracht wird. Der auf dem Targetwert basierende Differenzvektor wird in weiter unten beschriebenen Figuren auch mit D bzw. D' bezeichnet.
  • Mit der Struktur des Netzes gemäß 5 werden folgende Gleichungen modelliert:
    Figure 00140001
    τ > t: sτ+1 = tanh(Asτ) (6) für alle τ: yτ = [Id,0]sτ (7).
  • Das Optimierungsziel ist dabei analog zu dem Netz der 4 gegeben durch:
    Figure 00140002
  • Mit der Architektur gemäß 5 können aufgrund der verwendeten tanh-Funktion nur Observablen zwischen –1 und +1 modelliert werden, da zunächst die Matrixmultiplikation mit der Matrix A und erst anschließend das Anwenden der tanh-Funktion erfolgt, welche einen Wertebereich zwischen –1 und 1 aufweist. In einer abgewandelten Variante des Lernens gemäß 5 wird nunmehr zunächst die tanh-Funktion auf den entsprechenden Zustand rτ bzw. sτ angewendet, und erst anschließend erfolgt die Matrixmultiplikation mit der Matrix A. Eine solche Variante des Netzes ist in 6 verdeutlicht, wobei das Anwenden der tanh-Funktion vor der Matrixmultiplikation mit der Matrix A dadurch verdeutlicht wird, dass in den Kreisen, welche in 5 die Zustände rτ enthalten, sowie zwischen den Zuständen st+1 und st+2 nunmehr die tanh-Funktion wiedergegeben ist. Gemäß dieser Variante können auch Observablen außerhalb des Wertebereichs zwischen –1 und +1 modelliert werden. 6 stellt dabei eine bevorzugte Variante eines Lernens dar, welche auch in der weiter unten beschriebenen erfindungsgemäßen neuronalen Netzstruktur eingesetzt wird. Mathematisch äußert sich der Unterschied zwischen dem rekurrenten neuronalen Netz der 6 gegenüber dem rekurrenten neuronalen Netz der 5 darin, dass in den obigen Gleichungen (5) und (6) die Position der Matrix A mit der Position der Funktion tanh vertauscht wird.
  • Die in 5 und 6 gezeigten neuronalen Netze berücksichtigen beim Lernen alle vergangenen Zustandsvektoren, für welche Observablenvektoren aus Trainingsdaten vorliegen, wobei der initiale Zustand basierend auf dem Biasvektor s0 zusammen mit der Gewichtsmatrix A gelernt wird. Diese Netzstruktur eignet sich beispielsweise zur rechnergestützten Vorhersage von Energiepreisen bzw. Rohstoffpreisen. Bei der Modellierung des dynamischen Verhaltens eines technischen Systems, welches durch eine Anzahl von Observablen beschrieben ist, werden beim Lernen des Netzes nicht alle Trainingsdaten auf einmal berücksichtigt, sondern das Lernen beruht immer auf einem Ausschnitt der Netzstruktur für eine Anzahl von aufeinanderfolgenden Zustandsvektoren, für welche bekannte Observablenvektoren aus Trainingsdaten vorliegen. Das Netz wird dabei in Zeitfenstern gelernt, welche verschiedene Ausschnitte aus aufeinander folgenden Observablenvektoren der Trainingsdaten repräsentieren. Dabei besteht das Problem, dass kein initialer Zustand existiert. In manchen Lernverfahren wird die sich aus dem fehlenden initialen Zustand ergebende Inkonsistenz vernachlässigt. Vorzugsweise wird anstatt des Biasvektors s0 jedoch ein initialer verrauschter Zustand verwendet.
  • Um den initialen verrauschten Zustand geeignet zu modellieren, kann insbesondere das in der Druckschrift DE 10 2008 014 126 B4 beschriebene Verfahren verwendet werden, welche das Netz gegen die Unsicherheit der unbekannten, weit zurückliegenden Vergangenheit versteift. Auch in den weiter unten beschriebenen Varianten des erfindungsgemäßen Verfahrens kann je nach Anwendungsfall eine Netzwerkstruktur mit der gesamten Vergangenheit gemäß den Trainingsdaten beim Lernen berücksichtigt werden bzw. eine verkürzte Netzwerkstruktur, bei der immer nur ein Ausschnitt aus aufeinander folgenden Zustandsvektoren mit zugeordneten Observablenvektoren gemäß den Trainingsdaten einfließt. Im ersten Fall wird der initiale Zustand durch den Bias s0 repräsentiert, wohingegen im zweiten Fall vorzugsweise ein entsprechender Rauschterm verwendet wird.
  • Im Vorangegangenen wurde ein geeignetes Lernen eines kausalen Netzes mit zeitlich vorwärts gerichtetem Informationsfluss beschrieben. Der Erfindung liegt dabei die Erkenntnis zu Grunde, dass ein kausales Modell nicht immer für die Beschreibung eines dynamischen Systems geeignet ist. Insbesondere gibt es dynamische Systeme, welche auch einen retro-kausalen Informationsfluss in zeitlich umgekehrter Richtung aus der Zukunft in die Gegenwart aufweisen. Es handelt sich hierbei um dynamische Systeme, bei deren zeitlicher Entwicklung auch eine Planung unter Einbeziehung der Prognose von zukünftigen Observablen einfließt. Es werden somit bei der zeitlichen Veränderung eines entsprechenden Zustandsvektors des dynamischen Systems nicht nur zeitlich vorhergehende Zustandsvektoren, sondern auch prognostizierte zukünftige Zustandsvektoren berücksichtigt. Betrachtet man beispielsweise die Entwicklung des Marktpreises von Energie oder Rohstoffen, so wird der Preis nicht nur durch Angebot und Nachfrage bestimmt, sondern auch durch planerische Aspekte der Verkäufer bzw. Käufer beim Verkauf bzw. Kauf von Energie oder Rohstoffen.
  • Das erfindungsgemäße Verfahren beruht auf der Idee, ein dynamisches System derart zu modellieren, dass ein Informationsfluss nicht nur in kausaler Richtung aus der Vergangenheit in die Zukunft betrachtet wird, sondern auch ein Informationsfluss in retro-kausaler Richtung aus der Zukunft in die Vergangenheit. Ein solcher Informationsfluss kann durch ein retro-kausales Netz realisiert werden. Ein solches Netz ist in 7 wiedergegeben. Das Netz der 7 unterscheidet sich von dem Netz der 3 darin, dass der Informationsfluss zwischen den Zuständen sτ in umgekehrter Richtung von der Zukunft in die Vergangenheit läuft, wobei das Verfahren wiederum mit einem Bias so initialisiert wird, der nunmehr jedoch ein Zustand in der Zukunft ist. Das Netz der 7 kann analog zu dem Netz der 3 über die Minimierung eines Zielwerts tar gelernt werden, wie in 8 angedeutet ist. Die 8 entspricht dabei der Darstellung der 5, wobei nunmehr jedoch die Kausalitätsrichtung umgekehrt ist. Die Gleichungen (5) bis (8) können analog angewendet werden mit dem Unterschied, dass sτ+1 in Gleichungen (5) und (6) ersetzt wird durch sτ-1. Es kann somit auch für das retro-kausale Netz das oben beschriebene Teacher-Forcing zum Lernen des Netzes verwendet werden. Ebenso kann für das retro-kausale Netz analog das in 6 gezeigte Lernen eingesetzt werden, bei dem beim Übergang von einem Zustand in einen Folgezustand zunächst die tanh-Funktion und erst anschließend die Matrixmultiplikation angewendet wird. Dies wird in der Darstellung der 9 verdeutlicht, welche der Darstellung der 6 mit dem Unterschied entspricht, dass der Informationsfluss von der Zukunft in die Gegenwart läuft.
  • Die Erfindung beruht nunmehr auf einer Kombination eines kausalen Netzes mit einem retro-kausalen Netz, wodurch ein rekurrentes neuronales Netz mit einem Informationsfluss von sowohl aus der Vergangenheit in die Zukunft als auch aus der Zukunft in die Vergangenheit ermöglicht wird. Hierdurch können auch dynamische Systeme modelliert werden, bei denen bei der dynamischen Entwicklung der Zustände auch prognostizierte zukünftige Zustände eine Rolle spielen.
  • 10 zeigt generisch eine Kombination eines kausalen Netzes mit einem retro-kausalen Netz, wodurch ein rekurrentes neuronales Netz geschaffen wird, welches in geeigneter Weise mit dem erfindungsgemäßen Verfahren gelernt werden kann. Das Netz setzt sich dabei im unteren Teil aus einem kausalen Netz N1 und in dem oberen Teils aus einem retro-kausalen Netz N2 zusammen. Das Netz N1 entspricht dem kausalen Netz der 3 und das Netz N2 entspricht dem retro-kausalen Netz der 7, wobei im retro-kausalen Netz die Matrizen nunmehr mit A' und die Zustände mit sτ' bezeichnet sind, da Matrizen und Zustände für das kausale und das retro-kausale Netz unterschiedlich sein können. Beide Netze sind über den entsprechenden Observablenvektor yτ miteinander gekoppelt.
  • 11 zeigt basierend auf dem Netz der 10 ein Lernen des Netzes mittels Teacher-Forcing basierend auf dem in der deutschen Patentanmeldung 10 2010 014 906.3 beschriebenen Verfahren. Dieses Teacher-Forcing wurde im Vorangegangenen getrennt für das kausale Netz in 6 und das retro-kausale Netz in 9 erläutert. In 11 sind beispielhaft für den Zeitpunkt t die im Zustandsvektor st enthaltenen Observablen mit Δt und die im Zustandsvektor st' enthaltenen Observablen mit Δt' bezeichnet. Die Summe von Δt und Δt' stellt dabei den durch das rekurrente Netz ermittelten Observablenvektor dar und der Targetwert ist die Differenz zwischen dieser Summe und dem tatsächlichen Observablenvektor yd t gemäß den Trainingsdaten. Der Targetwett wird somit durch einen Differenzvektor repräsentiert, der in 11 mit D bezeichnet ist. Durch die Kopplung der Targetwerte über die entsprechenden Matrizen [ –Id / 0 ] mit dem Zustandsvektor sτ bzw. sτ' wird wiederum für jeden Zeitschritt τ ≤ t ein Teacher-Forcing erreicht. In 11 ist dabei der entsprechende Zustand rτ bzw. rτ', der sich durch das Teacher-Forcing ergibt, beispielhaft nur für den Zeitpunkt τ = t angegeben. Auf diesen Zustand wird zunächst die tanh-Funktion und anschließend die Multiplikation mit der Matrix A bzw. A' angewendet.
  • Um ein Lernen gemäß 11 umzusetzen, wird die hinlänglich aus dem Stand der Technik bekannte Fehler-Rückpropagation mit geteilten Gewichten verwendet, was in 12 wiedergegeben ist. Die Fehler-Rückpropagation mit geteilten Gewichten wird dabei dadurch erreicht, dass in zwei Kopien des Netzes der 11 einmal die Fehler-Rückpropagation für das kausale Netz N1 und einmal die Fehler-Rückpropagation für das retro-kausale Netz N2 gerechnet wird, wobei gleichzeitig sichergestellt wird, dass immer die gleiche Matrix A in beiden Kopien des Netzes und immer die gleiche Matrix A' in beiden Kopien des Netzes verwendet wird. Mit dem Lernen gemäß 12 werden die im Netzwerk der 11 enthaltenen geschlossenen Schleifen (auch als Fix-Point-Loops bezeichnet) aufgelöst.
  • Das anhand von 10 und 11 beschriebene Lernen des aus einem kausalen und einem retro-kausalen Anteil bestehenden rekurrenten neuronalen Netzes weist den Nachteil auf, dass für beide Netzanteile im jeweiligen Zeitschritt ein gemeinsamer Differenzvektor verwendet wird, mit dem sowohl für das kausale Netz als auch für das retro-kausale Netz ein Teacher-Forcing realisiert wird. Folglich wird beim Lernen des Netzes gemäß 12 das Teacher-Forcing in der jeweiligen Kopie des Netzes entweder nur im kausalen Anteil oder nur im retrokausalen Anteil modelliert. Dies kann in manchen Anwendungsfallen zu dynamischen Instabilitäten führen.
  • Zur Verbesserung des anhand von 11 und 12 beschriebenen Lernens wird erfindungsgemäß vorgeschlagen, dass sowohl ein Differenzvektor für das kausale Netz N1 als auch ein separater Differenzvektor für das retro-kausale Netz N2 verwendet wird, um hierüber Teacher-Forcing zu realisieren. 13 zeigt eine Ausführungsform einer solchen Netzstruktur. Die einzelnen Vektoren sowie deren Kopplungen entsprechen dabei weitestgehend den Vektoren bzw. Kopplungen gemäß 11, so dass auf eine nochmalige detaillierte Beschreibung des Netzaufbaus verzichtet wird.
  • Im Unterschied zu dem Netz der 11 umfasst das rekurrente neuronale Netz der 13 für einen jeweiligen Zeitpunkt τ sowohl für das kausale Netz N1 einen Differenzvektor D als auch für das retro-kausale Netz N2 einen Differenzvektor D'. Sowohl die Differenzvektoren D als auch die Differenzvektoren D' erhalten als Eingangsgröße die im Zustand sτ des kausalen Netzes enthaltenen Observablen und die im Zustand s'τ des retro-kausalen Netzes enthaltenen Observablen. Ferner fließen in die entsprechenden Differenzvektoren wiederum die bekannten Observablenvektoren yd τ gemäß den Trainingsdaten ein. In dem Netz der 13 dienen die Differenzvektoren D nur zur Modellierung der Korrektur für die Observablen der Zustandsvektoren des kausalen Netzes, wohingegen die Differenzvektoren D' nur zur Modellierung der Korrektur für die Observablen der Zustandsvektoren des retro-kausalen Netzes verwendet werden.
  • Durch die Netzstruktur der 13 kann eine gegenüber der 12 verbesserte Variante des Lernens erreicht werden, welche in 14 gezeigt wird. In Analogie zu 12 werden wiederum zwei Kopien des in 13 gezeigten rekurrenten Netzes gleichzeitig gelernt. Dabei wird in der Kopie K1 nur das kausale Netz N1 mittels Fehler-Rückpropagation mit geteilten Gewichten gelernt, wohingegen das retro-kausale Netz nicht gelernt wird, was dadurch angedeutet ist, dass die Differenzvektoren D' durch gestrichelte Kreise wiedergegeben werden. Nichtsdestotrotz bleibt auch im retro-kausalen Netz N2 die für das Teacher-Forcing verwendete Netzstruktur erhalten, was dadurch ermöglicht wird, dass für das retro-kausale Netz separate Differenzvektoren D' verwendet werden. Im Unterschied zu der Kopie K1 wird in der Kopie K2 nur das retro-kausale Netz N2 gelernt. Das kausale Netz wird in dieser Kopie nicht gelernt, was wiederum durch Differenzvektoren D mit gestrichelten Linien angedeutet wird. Auch das Netz K2 wird über Fehler-Rückpropagation mit geteilten Gewichten gelernt. Insgesamt werden somit gleichzeitig die Netze K1 und K2 mit Fehler-Rückpropagation gelernt.
  • Das anhand von 13 und 14 beschriebene Lernverfahren weist den Vorteil auf, dass kausale und retro-kausale Anteile des modellierten dynamischen Systems symmetrisch über Teacher-Forcing gelernt werden. Dabei werden in dem Lernen der 14 wiederum geschlossene Schleifen durch das parallele Lernen von zwei Kopien verhindert.
  • Das anhand von 13 und 14 beschriebene Lernverfahren kann in geeigneter Weise abgewandelt werden. Insbesondere kann als kausales Netz N1 anstatt des Netzes der 6 das Netz der 5 verwendet werden, bei dem zunächst die Multiplikation mit der Matrix A und erst anschließend die tanh-Funktion angewendet wird, was der Dynamik der obigen Gleichungen (5) bis (7) entspricht. In gleicher Weise kann auch für das retro-kausale Netz N2 statt des Netzes der 9 das Netz der 8 verwendet werden, bei dem zunächst die Multiplikation mit der Matrix A und erst anschließend die tanh-Funktion angewendet wird.
  • In einer besonders bevorzugten Ausgestaltung wird das Lernen gemäß 13 bzw. 14 mit dem Lernverfahren kombiniert, welches in der bereits oben erwähnten deutschen Patentanmeldung mit dem Anmelder-Aktenzeichen 2011P02814DE beschrieben ist. Dabei kann beim Lernen des kausalen Netzes N1 dieses Netz mit einem oder mehreren zweiten kausalen Netzen kombiniert werden, welche gleichzeitig mit dem kausalen Netz N1 gelernt werden und die gleiche Gewichtsmatrix A zur Kopplung der Zustandsvektoren verwenden. Das oder die zweiten kausalen Netze weisen nur für einen Teil der Zeitschritte einen Differenzvektor D auf und führen somit nicht in allen Zeitschritten ein Teacher-Forcing durch. In Analogie zum kausalen Netz N1 kann auch das retro-kausale Netz N2 mit einem oder mehreren zweiten retro-kausalen Netzen kombiniert werden, welche gleichzeitig mit dem retro-kausalen Netz N2 gelernt werden und die gleiche Gewichtsmatrix A' zur Kopplung der Zustandsvektoren verwenden. Auch diese zweiten retro-kausalen Netze führen ein Teacher-Forcing nur für einen Teil der Zeitschritte durch.
  • Das im Vorangegangenen beschriebene erfindungsgemäße Verfahren weist eine Reihe von Vorteilen auf. Insbesondere können auch solche dynamischen Systeme gelernt werden, bei denen zukünftige prognostizierte Zustände des dynamischen Systems eine Rolle für den aktuellen Zustand spielen. Das Verfahren kann dabei für unterschiedliche dynamische Systeme eingesetzt werden. Beispielsweise kann das dynamische System die zeitliche Entwicklung von Energiepreisen bzw. Strompreisen und/oder Rohstoffpreisen darstellen, wobei als Observablen verschiedene Arten von Energie (z. B. Gas, Öl) und/oder Rohstoffe sowie weitere wirtschaftliche Faktoren, wie z. B. die Umrechnung verschiedener Währungen und Aktienindizes, berücksichtigt werden können. Mit einem durch entsprechende Trainingsdaten gelernten rekurrenten neuronalen Netz können dann geeignete Vorhersage über zukünftige Preisentwicklungen für Energie und/oder Rohstoffe getroffen werden. Das anhand von 13 und 14 beschriebene Lernverfahren wurde anhand von dynamischen Systemen zur zeitlichen Entwicklung von Strompreisen und Kupferpreisen getestet und lieferte gute Prognosen für die zukünftige Preisentwicklung.
  • Ein anderer Anwendungsbereich ist die Modellierung des dynamischen Verhaltens eines technischen Systems. Beispielsweise kann das erfindungsgemäße rekurrente neuronale Netz zur Prädiktion der beobachtbaren Zustände einer Gasturbine und/oder einer Windkraftanlage oder auch beliebiger anderer technischer Systeme eingesetzt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 201102814 [0011, 0057]
    • DE 102008014126 B4 [0044]
    • DE 102010014906 [0049]

Claims (17)

  1. Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems, das zu jeweiligen Zeitpunkten durch einen Observablenvektor (yt-3, yt-4, ..., yt+3) umfassend eine oder mehrere Observablen als Einträge charakterisiert wird, bei dem – das rekurrente neuronale Netz ein kausales Netz (N1) umfasst, das einen zeitlich vorwärts gerichteten Informationsfluss zwischen ersten Zustandsvektoren (st-3, st-2, ..., st+3) des dynamischen Systems über eine Kopplung mit einer ersten Gewichtsmatrix (A) beschreibt, wobei ein erster Zustandsvektor (st-3, st-2, ..., st+3) zu einem jeweiligen Zeitpunkt (t – 3, t – 2, ..., t + 3) einen oder mehrere erste Einträge umfasst, welche jeweils einem Eintrag des Observablenvektors (yt-3, yt-2, ..., yt+3) entsprechen, sowie einen oder mehrere versteckte Zustände des dynamischen Systems; – das rekurrente neuronale Netz ein retro-kausales Netz (N2) umfasst, das einen zeitlich rückwärts gerichteten Informationsfluss zwischen zweiten Zustandsvektoren (s't-3, s't-2, ..., s't+3) des dynamischen Systems über eine zweite Gewichtsmatrix (A') beschreibt, wobei ein zweiter Zustandsvektor (s't-3, s't-2, ..., s't+3) zu einem jeweiligen Zeitpunkt (t – 3, t – 2, ..., t + 3) einen oder mehrere zweite Einträge umfasst, welche jeweils einem Eintrag des Observablenvektors (yt-3, yt-2, ..., yt+3) entsprechen, sowie einen oder mehrere versteckte Zustände des dynamischen Systems; – wobei ein zum jeweiligen Zeitpunkt (t – 3, t – 2, ..., t + 3) durch das kausale Netz (N1) ermittelter erster Zustandsvektor (st-3, st-2, ..., St+3) im Rahmen der Kopplung mit dem nachfolgenden ersten Zustandvektor (st-3, st-2, ..., st+3) durch einen ersten Differenzvektor (D) korrigiert wird, der den zum jeweiligen Zeitpunkt (t – 3, t – 2, ..., t + 3) ermittelten ersten Zustandsvektor (st-3, st-2, ..., st+3) mit dem entsprechenden, zum jeweiligen Zeitpunkt (t – 3, t – 2, ..., t + 3) durch das retro-kausale Netz (N2) ermittelten zweiten Zustandsvektor (s't-3, s't-2, ..., s't+3) koppelt, wobei beim Lernen des rekurrenten neuronalen Netzes das kausale Netz (N1) mit einem Verfahren gelernt wird, bei dem der erste Differenzvektor (D) den Unterschied zwischen den ersten Einträgen des zum jeweiligen Zeitpunkt (t – 3, t – 2, ..., t + 3) ermittelten ersten Zustandsvektors (st-3, st-2, ..., st+3) und einem bekannten Observablenvektor (yd t-3, yd t-2, ..., yd t) aus Trainingsdaten beschreibt; – wobei ein zum jeweiligen Zeitpunkt (t – 3, t – 2, ..., t + 3) durch das retro-kausale Netz (N2) ermittelter zweiter Zustandsvektor s't-3, s't-2, ..., s't+3) im Rahmen der Kopplung mit dem vorhergehenden zweiten Zustandvektor (s't-3, s't-2, ..., s't+3) durch einen zweiten Differenzvektor (D') korrigiert wird, der den zum jeweiligen Zeitpunkt (t – 3, t – 2, ..., t + 3) ermittelten zweiten Zustandsvektor (s't-3, s't-2, ..., s't+3) mit dem entsprechenden, zum jeweiligen Zeitpunkt (t – 3, t – 2, ..., t + 3) durch das kausale Netz (N1) ermittelten ersten Zustandsvektor (st-3, st-2, ..., st+3) koppelt, wobei beim Lernen des rekurrenten neuronalen Netzes das retro-kausale Netz mit einem Verfahren gelernt wird, bei dem der zweite Differenzvektor (D') den Unterschied zwischen den zweiten Einträgen des zum jeweiligen Zeitpunkt (t – 3, t – 2, ..., t + 3) ermittelten zweiten Zustandsvektors (s't-3, s't-2, ..., s't+3) und einem bekannten Observablenvektor (yt-3, yt-2, ..., yt+3) aus Trainingsdaten beschreibt.
  2. Verfahren nach Anspruch 1, wobei zum Lernen des rekurrenten neuronalen Netzes zwei Kopien (K1, K2) des rekurrenten neuronalen Netzes gleichzeitig gelernt werden, wobei in der einen Kopie (K1) ausschließlich das kausale Netz (N1) gelernt wird und in der anderen Kopie ausschließlich das retro-kausale Netz (N2) gelernt wird.
  3. Verfahren nach Anspruch 1 oder 2, bei dem das kausale Netz (N1) derart gelernt wird, dass neben dem kausalen Netz (N1) ein oder mehrere zweite kausale Netze gelernt werden, welche jeweils mit dem kausalen Netz (N1) mit dem Unterschied übereinstimmen, dass in dem jeweiligen zweiten kausalen Netz für einen Teil der Zeitpunkte (t – 3, t – 2, ..., t + 3) die Differenzvektoren (D) weggelassen werden.
  4. Verfahren nach Anspruch 3, bei dem in einem jeweiligen zweiten kausalen Netz nur noch für jeden n-ten Zeitpunkt ein Differenzvektor (D) enthalten ist, wobei n eine natürliche Zahl größer gleich zwei ist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das retro-kausale Netz (N2) derart gelernt wird, dass neben dem retro-kausalen Netz (N2) ein oder mehrere zweite retro-kausale Netze gelernt werden, welche jeweils mit dem zweiten retro-kausalen Netz (N2) mit dem Unterschied übereinstimmen, dass in dem jeweiligen zweiten retro-kausalen Netz für einen Teil der Zeitpunkte (t – 3, t – 2, ..., t + 3) die Differenzvektoren (D') weggelassen werden.
  6. Verfahren nach Anspruch 5, bei dem in einem jeweiligen zweiten retro-kausalen Netz (N2) nur noch für jeden n-ten Zeitpunkt ein Differenzvektor (D') enthalten ist, wobei n eine natürliche Zahl größer gleich zwei ist.
  7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das kausale Netz (N1) und das retro-kausale Netz (N2) basierend auf einer Fehler-Rückpropagation mit geteilten Gewichten gelernt werden.
  8. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in dem kausalen Netz (N1) ein erster Zustandsvektor (st-3, st-2, ..., st+3) zu einem jeweiligen Zeitpunkt (t – 3, t – 2, ..., t + 3) in einen ersten Zustandsvektor (st-3, St-2, ..., st+3) zu einem nachfolgenden Zeitpunkt durch eine Multiplikation mit der ersten Gewichtsmatrix (A) und das Anwenden einer Aktivierungsfunktion überführt wird.
  9. Verfahren nach Anspruch 8, wobei zunächst die Aktivierungsfunktion auf den ersten Zustandsvektor (st-3, st-2, ..., st+3) zu dem jeweiligen Zeitpunkt (t – 3, t – 2, ..., t + 3) angewendet wird und anschließend eine Multiplikation mit der ersten Gewichtsmatrix (A) erfolgt.
  10. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in dem retro-kausalen Netz (N2) ein zweiter Zustandsvektor (s't-3, s't-2, ..., s't+3) zu einem jeweiligen Zeitpunkt (t – 3, t – 2, ..., t + 3) in einen zweiten Zustandsvektor (s't-3, s't-2, ..., s't + 3) zu einem vorhergehenden Zeitpunkt durch eine Multiplikation mit der zweiten Matrix (A') und das Anwenden einer Aktivierungsfunktion überführt wird.
  11. Verfahren nach Anspruch 9, wobei zunächst die Aktivierungsfunktion auf den zweiten Zustandsvektor (s't-3, s't-2, ..., s't+3) zu dem jeweiligen Zeitpunkt (t – 3, t – 2, ..., t + 3) angewendet wird und anschließend eine Multiplikation mit der zweiten Gewichtsmatrix (A') erfolgt.
  12. Verfahren nach einem der Ansprüche 8 bis 11, bei dem die Aktivierungsfunktion eine tanh-Funktion ist.
  13. Verfahren nach einem der vorhergehenden Ansprüche, bei dem mit dem rekurrenten neuronalen Netz die zeitliche Entwicklung von Energiepreisen und/oder Rohstoffpreisen modelliert wird.
  14. Verfahren nach einem der vorhergehenden Ansprüche, bei dem mit dem rekurrenten neuronalen Netz ein technisches System modelliert wird.
  15. Verfahren nach Anspruch 14, bei dem das technische System eine Gasturbine und/oder eine Windkraftanlage ist.
  16. Verfahren zur Prädiktion von Observablen eines dynamischen Systems, bei dem die Prädiktion mit einem rekurrenten neuronalen Netz durchgeführt wird, welches mit einem Verfahren nach einem der vorhergehenden Ansprüche basierend auf Trainingsdaten umfassend bekannte Observablenvektoren (yd t-3, yd t-2, ..., yd t) des dynamischen Systems gelernt ist.
  17. Computerprogrammprodukt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche, wenn das Programm auf einem Rechner abläuft.
DE102011004693A 2011-02-24 2011-02-24 Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems Ceased DE102011004693A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102011004693A DE102011004693A1 (de) 2011-02-24 2011-02-24 Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems
PCT/EP2012/051822 WO2012113634A1 (de) 2011-02-24 2012-02-03 Verfahren zum rechnergestützten lernen eines rekurrenten neuronalen netzes zur modellierung eines dynamischen systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011004693A DE102011004693A1 (de) 2011-02-24 2011-02-24 Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems

Publications (1)

Publication Number Publication Date
DE102011004693A1 true DE102011004693A1 (de) 2012-08-30

Family

ID=45614819

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011004693A Ceased DE102011004693A1 (de) 2011-02-24 2011-02-24 Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems

Country Status (2)

Country Link
DE (1) DE102011004693A1 (de)
WO (1) WO2012113634A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008014126B4 (de) 2008-03-13 2010-08-12 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes
WO2011128313A1 (de) 2010-04-14 2011-10-20 Siemens Aktiengesellschaft Verfahren zum rechnergestützten lernen eines rekurrenten neuronalen netzes zur modellierung eines dynamischen systems
DE102011002814A1 (de) 2011-01-18 2012-07-19 Robert Bosch Gmbh Rollenstößel

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003079285A2 (de) * 2002-03-20 2003-09-25 Siemens Aktiengesellschaft Verfahren und anordnung sowie computerprogramm mit programmcode-mitteln und computerprogramm-produkt zur gewichtung von eingangsgrössen für eine neuronale struktur sowie neuronale struktur

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008014126B4 (de) 2008-03-13 2010-08-12 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes
WO2011128313A1 (de) 2010-04-14 2011-10-20 Siemens Aktiengesellschaft Verfahren zum rechnergestützten lernen eines rekurrenten neuronalen netzes zur modellierung eines dynamischen systems
DE102011002814A1 (de) 2011-01-18 2012-07-19 Robert Bosch Gmbh Rollenstößel

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DREYFUS G.: Neural networks: methodology and applications. 2. Auflage. Berlin : Springer, 2005. 9-10, 22-26, 72-74, 149-155, 160-179, 231-232, 272-283. - ISBN 3-540-22980-9. http://www.springerlink.com/content/978-3-540-22980-3/contents/ [abgerufen am 21.10.2010] *
NeuroSolutions Product Summary; NeuroDimension Inc.; Stand: 29.05.2008. URL: http://web.archive.org/web/20080529145212/http:/www.neurosolutions.com/products/ns/features.html [abgerufen am 19.10.2010] *

Also Published As

Publication number Publication date
WO2012113634A1 (de) 2012-08-30

Similar Documents

Publication Publication Date Title
EP2543006A1 (de) Verfahren zum rechnergestützten lernen eines rekurrenten neuronalen netzes zur modellierung eines dynamischen systems
EP2106576B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems
EP2112568B1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
EP2649567B1 (de) Verfahren zur rechnergestützten modellierung eines technischen systems
EP2519861B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems
EP2724296B1 (de) Verfahren zur rechnergestützten modellierung eines technischen systems
WO2014121863A1 (de) Verfahren und vorrichtung zur steuerung einer mit einer erneuerbaren energiequelle betreibbaren energieerzeugungsanlage
WO2009033944A1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung mit hilfe neuronaler netze
DE102018109835A1 (de) Verfahren und Vorrichtung zum Ermitteln einer Netzkonfiguration eines neuronalen Netzes
EP3751466A1 (de) Verfahren zur vorhersage eines schadstoffwertes in der luft
DE102018220941A1 (de) Auswertung von Messgrößen mit KI-Modulen unter Berücksichtigung von Messunsicherheiten
DE102019211672A1 (de) Trainingsverfahren für ein künstliches neuronales Netzwerk
EP1627263B1 (de) Verfahren sowie computerprogramm mit programmcode-mitteln und computerprogramm-produkt zur ermittlung eines zukünftigen systemverhaltens eines dynamischen systems
WO2012113635A1 (de) Verfahren zum rechnergestützten lernen eines rekurrenten neuronalen netzes zur modellierung eines dynamischen systems
DE102020207792A1 (de) Training eines künstlichen neuronalen Netzwerkes, künstliches neuronales Netzwerk, Verwendung, Computerprogramm, Speichermedium und Vorrichtung
DE19703964C1 (de) Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz
DE102011004693A1 (de) Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems
DE102008014126B4 (de) Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes
EP3432093A1 (de) Verfahren zur modellierung eines dynamischen systems durch rechnergestütztes lernen von datengetriebenen modellen
WO1998007100A1 (de) Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz
DE102011076969A1 (de) Verfahren zum rechnergestützten Lernen einer Regelung und/oder Steuerung eines technischen Systems
DE10356655B4 (de) Verfahren und Anordnung sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Ermittlung eines zukünftigen Systemzustandes eines dynamischen Systems
DE112021005432T5 (de) Verfahren und System zum Vorhersagen von Trajektorien zur Manöverplanung basierend auf einem neuronalen Netz
WO2022043455A1 (de) Verfahren und ein system zum erstellen einer industriellen lösung mit einer künstlichen intelligenz
DE102021202564A1 (de) Vorrichtung und insbesondere computerimplementiertes Verfahren zur Klassifizierung von Datensätzen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final

Effective date: 20120821