DE102008014126B4 - Method for computer-aided learning of a recurrent neural network - Google Patents

Method for computer-aided learning of a recurrent neural network Download PDF

Info

Publication number
DE102008014126B4
DE102008014126B4 DE102008014126A DE102008014126A DE102008014126B4 DE 102008014126 B4 DE102008014126 B4 DE 102008014126B4 DE 102008014126 A DE102008014126 A DE 102008014126A DE 102008014126 A DE102008014126 A DE 102008014126A DE 102008014126 B4 DE102008014126 B4 DE 102008014126B4
Authority
DE
Germany
Prior art keywords
time interval
network
state
neural network
beginning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102008014126A
Other languages
German (de)
Other versions
DE102008014126A1 (en
Inventor
Ralph Dr. Grothmann
Christoph Dr. Tietz
Hans-Georg Dr. Zimmermann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102008014126A priority Critical patent/DE102008014126B4/en
Publication of DE102008014126A1 publication Critical patent/DE102008014126A1/en
Application granted granted Critical
Publication of DE102008014126B4 publication Critical patent/DE102008014126B4/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes (RNN) mit zeitlich aufeinander folgenden Zuständen (st-2, ..., st+4) in einem endlichen Zeitintervall, wobei die Zustände (st-2, ..., st+4) mit zeitlich aufeinander folgenden Eingaben (ut-3, ..., ut) und Ausgaben (yt-2, ..., yt+4) eines dynamischen Systems verbunden sind und wobei die Zustände (st-2, ..., st+4) untereinander und mit den Eingaben und Ausgaben über Konvektoren verbunden sind, welche zur Fehler-Rückpropagierung einen zeitlich vorwärts gerichteten und einen zeitlich rückwärts gerichteten Informationsfluss ermöglichen, dadurch gekennzeichnet, dass der Informationsfluss im rekurrenten neuronalen Netz (RNN) vor Beginn des Zeitintervalls und/oder nach Ende des Zeitintervalls mit Hilfe von zumindest einem retro-kausalen Netz (RC1, RC2) oder mit Hilfe von zumindest einem vorwärts gerichteten und/oder zumindest einem rückwärts gerichteten Konnektor (C1, ..., C6) berücksichtigt wird, wobei der zumindest eine vorwärts gerichtete Konnektor (C1, C2, C3) ausschließlich einen zeitlich vorwärts gerichteten Informationsfluss ermöglicht und wobei der zumindest eine rückwärts gerichtete Konnektor (C4,...A method for computer-aided learning of a recurrent neural network (RNN) with temporally successive states (s t-2 , ..., s t + 4 ) in a finite time interval, wherein the states (s t-2 , ..., s t + 4 ) are connected to successive inputs (u t-3 , ..., u t ) and outputs (y t-2 , ..., y t + 4 ) of a dynamic system and wherein the states (s t-2 , ..., s t + 4 ) are interconnected with each other and with the inputs and outputs via convectors, which allow for error backpropagation a time-forward and a time backward information flow, characterized in that the information flow in the recurrent neural network (RNN) before the start of the time interval and / or after the end of the time interval with the aid of at least one retro-causal network (RC1, RC2) or with the aid of at least one forward-facing and / or at least one rearward-facing connector (C1,. .., C6) wherein the at least one forward connector (C1, C2, C3) allows only a forward flow of information and wherein the at least one backward connector (C4, ...

Figure 00000001
Figure 00000001

Description

Die Erfindung betrifft ein Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes sowie ein Verfahren zur Prädiktion der Ausgaben eines dynamischen Systems basierend auf einem gelernten rekurrenten neuronalen Netz sowie ein entsprechendes Computerprogrammprodukt.The The invention relates to a method for computer-aided learning of a recurrent patient neural network and a method for predicting the output of a dynamic system based on a trained neuronal recurrent Network and a corresponding computer program product.

Durch rekurrente neuronale Netze werden zeitlich aufeinander folgende interne Zustände eines dynamischen Systems modelliert, wobei zum Lernen der Netze ein endliches Zeitintervall von Zuständen betrachtet wird. Die internen Zustände stellen dabei eine sog. versteckte Schicht des rekurrenten neuronalen Netzes dar, und diese Zustände sind mit zeitlich aufeinander folgenden Eingaben und Ausgaben eines zu modellierenden dynamischen Systems verbunden. Die rekurrente Struktur des Netzes wird dadurch geschaffen, dass die Zustände in der versteckten Schicht untereinander sowie mit den Eingaben und Ausgaben über Konnektoren verbunden sind, welche zur Fehler-Rückpropagierung (englisch: Error Backpropagation) einen zeitlich vorwärts gerichteten und einen zeitlich rückwärts gerichteten Informationsfluss ermöglichen. Mit der Fehler-Rückpropagierung wird die Modellierung des dynamischen Systems dadurch erreicht, dass die Gewichte im neuronalen Netz dahingehend optimiert werden, dass der Fehler zwischen modellierter Ausgabe und vorgegebener Ausgabe minimal ist.By recurrent neural networks become temporally consecutive internal states of a dynamic system, where to learn the networks a finite time interval of states is considered. The internal conditions make a so-called hidden layer of the recurrent neuronal Net, and these states are with temporally successive inputs and outputs one connected to be modeled dynamic system. The recurrent Structure of the network is created by the states in the hidden layer among each other as well as with the inputs and outputs via connectors which are used for error backpropagation (English: Error Back propagation) one temporally forward and one temporally backwards Enable information flow. With the error backpropagation the modeling of the dynamic system is achieved by that the weights in the neural network are optimized to that the error between modeled output and given output is minimal.

Bei rekurrenten neuronalen Netzen besteht das Problem, dass die Netze nur ein endliches Zeitintervall abdecken und keine geeigneten initialen internen Zustandswerte zur Initialisierung des Lernens des neuronalen Netzes vorliegen. Herkömmlicherweise wird die sich aus den fehlenden initialen Zustandswerten ergebende Inkonsistenz in dem neuronalen Netz vernachlässigt. Es ist jedoch auch eine Lösung bekannt, bei der ein Rausch-Generator in Abhängigkeit von dem rückpropa gierten Fehler ein Rauschen generiert, mit dem die Unsicherheit des unbekannten initialen Zustands abgeschätzt wird. Jedoch berücksichtigt die Lösung nicht ausreichend weit vom Anfang des Zeitintervalls entfernte vergangene Zustände. Darüber hinaus wird auch nicht das zukünftige Verhalten des dynamischen Systems berücksichtigt.at recurrent neural networks, the problem is that the networks cover only a finite time interval and no suitable initials internal state values for initializing the learning of the neural Network available. traditionally, becomes the result of the missing initial state values Inconsistency in the neural network neglected. But it is also one solution known in which a noise generator depending on the backpropa gierte Error generates a noise with which the uncertainty of the unknown estimated initial state becomes. However, considered the solution not far away from the beginning of the time interval Conditions. About that also not the future Behavior of the dynamic system considered.

Die Druckschrift Holk Cruse: Neural Networks as Cybernetic Systems, 2nd and revised edition, Brains, Minds and Media, Auszug, publ. Oktober 2006, ”Table of Contents” (4 Seiten) und Seiten 103 bis 139, beschreibt das Konzept von rekurrenten neuronalen Netzen sowie entsprechende Lernverfahren für diese Netze.The Holk Cruse: Neural Networks as Cybernetic Systems, 2nd and revised edition, Brains, Minds and Media, excerpt, publ. October 2006, "Table of Contents "(4 Pages) and pages 103 to 139, describes the concept of recurring neural networks and corresponding learning methods for them Networks.

In dem Dokument US 2007/0022062 A1 wird ein Verfahren zur Vorhersage des Verhaltens eines dynamischen Systems beschrieben, bei dem das zukünftige Verhalten basierend auf einer Ähnlichkeitsanalyse approximiert wird und mit Hilfe einer Kausalitätsanalyse basierend auf einem kausal-retro-kausalen neuronalen Netz das dynamische Verhalten des Systems vorhergesagt wird.In the document US 2007/0022062 A1 describes a method for predicting the behavior of a dynamic system, which approximates the future behavior based on a similarity analysis and predicts the dynamic behavior of the system by means of a causality analysis based on a causal-retro-causal neural network.

In der Druckschrift US 2004/0267684 A1 wird das Konzept von kausal-retro-kausalen neuronalen Netzen beschrieben.In the publication US 2004/0267684 A1 the concept of causal-retro-causal neural networks is described.

Aufgabe der Erfindung ist es, ein Verfahren zum Lernen eines neuronalen Netzes zu schaffen, bei dem zur Verbesserung der Vorhersagegenauigkeit dieses Netzes der Informationsfluss aus der Vergangenheit bzw. aus der Zukunft geeignet berücksichtigt wird.task The invention is a method for learning a neural To create network, which helps to improve the prediction accuracy This network of information flow from the past or from suitable for the future becomes.

Diese Aufgabe wird durch die unabhängigen Patentansprüche gelöst. Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen definiert.These Task is by the independent claims solved. Further developments of the invention are defined in the dependent claims.

Das erfindungsgemäße Verfahren zum Lernen eines rekurrenten neuronalen Netzes zeichnet sich dadurch aus, dass der Informationsfluss im rekurrenten neuronalen Netz vor Beginn des Zeitintervalls und/oder nach Beginn des Zeitintervalls mit Hilfe von zumindest einem retro-kausalen Netz oder mit Hilfe von zumindest einem vorwärts gerichteten und/oder zumindest einem rückwärts gerichteten Konnektor berücksichtigt wird. Ein vorwärts gerichteter Konnektor ermöglicht dabei ausschließlich einen zeitlich vorwärts gerichteten Informationsfluss, wohingegen ein rückwärts gerichteter Konnektor ausschließlich einen zeitlich rückwärts gerichteten Informationsfluss ermöglicht.The inventive method to learn a recurrent neural network is characterized from that the information flow in the recurrent neural network ago Start of the time interval and / or after the beginning of the time interval with the help of at least one retro-causal network or with help from at least one forward directed and / or at least a backward connector considered becomes. A forward directed connector allows exclusively a time forward directed information flow, whereas a backward-looking connector uses only one temporally backward information flow allows.

Erfindungsgemäß kann somit die Vergangenheit bzw. Zukunft durch entsprechende retro-kausale Netze bzw. entsprechende gerichtete Konnektoren berücksichtigt werden. In retro-kausalen Netzen ist die Kausalitätsrichtung umgekehrt, d. h. diese Netze laufen von der Gegenwart in die Vergangenheit bzw. von der Zukunft in die Gegenwart.Thus, according to the invention the past or future through appropriate retro-causal Networks or corresponding directional connectors become. In retro-causal Networks is the causality direction conversely, d. H. these nets run from the present into the past or from the future to the present.

Bei der Verwendung von vorwärts bzw. rückwärts gerichteten Konnektoren kann ein Netzwerkmodell geschaffen werden, welches den Effekt der unbekannten Zukunft bzw. Vergangenheit in geeigneter Weise durch Rauschen in Bezug auf den initialen Zustand und auf den zukünftigen Fehler berücksichtigt. Das Netzwerkmodell wird dabei gegenüber diesem Rauschen versteift. Die Berücksichtigung des Informationsflusses vor Beginn des Zeitintervalls und nach Ende des Zeitintervalls erfolgt dabei insbesondere derart, dass:

  • – eine Zustandsverteilung am Ende des Zeitintervalls gemessen wird, wobei die gemessene Zustandsverteilung über einen vorwärts gerichteten Konnektor mit dem Zustand am Ende des Zeitintervalls verbunden ist;
  • – in Abhängigkeit von der gemessenen Zustandsverteilung ein Rauschen generiert wird, wobei das generierte Rauschen über einen rückwärts gerichteten Konnektor mit der gemessenen Zustandsverteilung am Ende des Zeitintervalls und über einen vorwärts gerichteten Konnektor mit dem Zustand am Anfang des Zeitintervalls verbunden ist;
  • – die Fehlerverteilung am Anfang des Zeitintervalls gemessen wird, wobei die gemessene Fehlerverteilung am Anfang des Zeitintervalls über einen rückwärts gerichteten Konnektor mit dem Zustand am Anfang des Zeitintervalls verbunden ist;
  • – in Abhängigkeit von der gemessenen Fehlerverteilung am Anfang des Zeitintervalls eine Fehlerverteilung am Ende des Zeitintervalls generiert wird, wobei die generierte Fehlerverteilung am Ende des Zeitintervalls über einen vorwärts gerichteten Konnektor mit der gemessenen Fehlerverteilung am Anfang des Zeitintervalls und über einen rückwärts gerichteten Konnektor mit dem Zustand am Ende des Zeitintervalls verbunden ist.
When using forward or backward connectors, a network model can be used which takes into account the effect of the unknown future or past suitably by noise with respect to the initial state and the future error. The network model is stiffened against this noise. The consideration of the information flow before the beginning of the time interval and after the end of the time interval is carried out in particular such that:
  • A state distribution is measured at the end of the time interval, the measured state distribution being connected via a forward connector to the state at the end of the time interval;
  • A noise is generated in dependence on the measured state distribution, wherein the generated noise is connected via a backward connector to the measured state distribution at the end of the time interval and via a forward connector to the state at the beginning of the time interval;
  • The error distribution at the beginning of the time interval is measured, the measured error distribution at the beginning of the time interval being connected via a backward connector to the state at the beginning of the time interval;
  • - An error distribution at the end of the time interval is generated as a function of the measured error distribution at the beginning of the time interval, wherein the generated error distribution at the end of the time interval via a forward connector with the measured error distribution at the beginning of the time interval and via a backward connector with the state connected at the end of the time interval.

Unter Zustandsverteilung wird hierbei die über einen Zeitraum ermittelte Wahrscheinlichkeitsverteilung der Zustände verstanden. Mit der oben beschriebenen Struktur wird in geeigneter Weise durch Verwendung der vorwärts- bzw. rückwärts gerichteten Konnektoren eine Versteifung des Netzes gegenüber der Unsicherheit der Zustände in der fernen Zukunft bzw. der fernen Vergangenheit erreicht. Vorzugsweise werden dabei die gemessene Zustandsverteilung am Ende des Zeitintervalls und/oder die generierte Fehlerverteilung am Ende des Zeitintervalls jeweils durch einen Ziel-Cluster modelliert, wobei dessen Zielwert insbesondere auf Null gesetzt ist. Ebenso werden vorzugsweise die gemessene Fehlerverteilung am Anfang des Zeitintervalls und/oder das generierte Rauschen am Anfang des Zeitintervalls durch einen Eingabe-Cluster modelliert, dessen erwarteter Eingabewert ebenfalls vorzugsweise auf Null gesetzt ist.Under State distribution here is the determined over a period of time Probability distribution of the states understood. With the above described structure is suitably by using the forward- or backward Connectors a stiffening of the network against the uncertainty of the states in the reached the distant future or the distant past. Preferably In this case, the measured state distribution at the end of the time interval and / or the generated error distribution at the end of the time interval each modeled by a target cluster, with its target value in particular set to zero. Likewise, preferably the measured error distribution at the beginning of the time interval and / or the generated noise at the beginning of the time interval by a Input cluster is modeled, its expected input value also is preferably set to zero.

Das zu lernende neuronale Netz beschreibt in einer bevorzugten Ausführungsform ein Zeitintervall, welches eine oder mehrere aufeinander folgende vergangene Zustände, einen gegenwärtigen Zustand sowie einen oder mehrere aufeinander folgende zukünftige Zustände umfasst. Bei der Verwendung von retro-kausalen Netzen zur Modellierung des Informationsflusses vor Beginn des Zeitintervalls wird hierbei vorzugsweise ein erstes retro-kausales Netz verwendet, wobei sich das erste retro-kausale Netz von einem gegenwärtigen Zustand zu dem Zustand am Anfang des Zeitintervalls erstreckt. Analog wird zur Modellierung des Informationsflusses nach dem Ende des Zeitintervalls vorzugsweise ein zweites retro-kausales Netz verwendet, wobei sich das zweite retro-kausale Netz von dem Zustand am Ende des Zeitintervalls zu einem gegenwärtigen Zustand erstreckt. Um das Lernen des neuronalen Netzes zu verbessern, wird dabei in einer bevorzugten Variante ein Fehler im zweiten retro-kausalen Netz durch Vergleich des gegenwärtigen Zustands im Zeitintervall mit dem gegenwärtigen Zustand des zweiten retro-kausalen Netzes ermittelt. Dieser Fehler wird in das rekurrente neuronale Netz rückpropagiert. Vorzugsweise ist dabei der ermittelte Fehler mit dem gegenwärtigen Zustand im Zeitintervall über einen vorwärts gerichteten Konnektor verbunden, um hierdurch einen Rückfluss des Fehlers direkt zu dem gegenwärtigen Zustand im Zeitintervall zu verhindern.The to be learned neural network describes in a preferred embodiment a time interval which is one or more consecutive past states, a present one State and one or more consecutive future states. When using retro-causal Networks for modeling the flow of information before the beginning of the time interval in this case preferably a first retro-causal network is used, where the first retro-causal network is of a current state extends to the state at the beginning of the time interval. Analog becomes to model the flow of information after the end of the time interval preferably a second retro-causal network is used, wherein the second retro-causal network of the state at the end of the time interval to a current one State extends. To improve the learning of the neural network, is in a preferred variant, an error in the second retro-causal Net by comparison of the current one State in the time interval with the current state of the second determined retro-causal network. This error is in the recurrent neural network back propagated. Preferably, the determined error is with the current state in the time interval over a forward directed connector, thereby providing a reflux the error directly to the current one Prevent state in the time interval.

Das erfindungsgemäße Verfahren kann für beliebige Ausführungen von rekurrenten neuronalen Netzen verwendet werden. Insbesondere kann das Verfahren auch zum Lernen komplexer rekurrenter neuronaler Netze eingesetzt werden, wie z. B. sog. DCNN-Netzen (DCNN = Dynamical Consistent Neural Networks) bzw. NRNN-Netzen (NRNN = Normalized Recurrent Neural Network). Diese Netzwerkstrukturen sind hinlänglich aus dem Stand der Technik bekannt.The inventive method can for any designs used by recurrent neural networks. Especially The method can also be used to learn complex recurrent neural networks be used, such. B. so-called. DCNN networks (DCNN = Dynamical Consistent Neural Networks) or NRNN networks (NRNN = Normalized Recurrent Neural Network). These network structures are sufficient known in the art.

Vorzugsweise werden mit dem zu lernenden neuronalen Netz die Eingaben und Ausgaben eines technischen Systems modelliert, d. h. das neuronale Netz wird mit Eingabe- bzw. Ausgabedaten eines technischen Systems gelernt. Das technische System kann eine beliebige technische Vorrichtung sein, beispielsweise eine Gasturbine oder eine Windkraftanlage. Gegebenenfalls kann das erfindungsgemäße Verfahren jedoch auch für dynamische ökonomische Systeme eingesetzt werden, beispielsweise kann das rekurrente neuronale Netz die Eingaben und Ausgaben einer Energiehandelsbörse modellieren, um hierdurch beispielsweise einen Energiepreis vorherzusagen.Preferably become the inputs and outputs with the neural network to be learned of a technical system, d. H. the neural network becomes learned with input or output data of a technical system. The technical system can be any technical device be, for example, a gas turbine or a wind turbine. Optionally, the inventive method, however, also for dynamic economic Systems can be used, for example, the recurrent neuronal Network modeling the inputs and outputs of an energy trading exchange, to predict, for example, an energy price.

Neben dem oben beschriebenen Verfahren zum Lernen eines rekurrenten neuronalen Netzes umfasst die Erfindung ferner ein Verfahren zur Prädiktion der Ausgaben eines dynamischen Systems basierend auf Eingaben des dynamischen Systems, wobei die Prädiktion mit einem neuronalen Netz durchgeführt wird, welches mit dem oben beschriebenen Lernverfahren gelernt ist.In addition to the method described above for learning a recurrent neural network the invention further provides a method for predicting the outputs of a dynamic system based on inputs of the dynamic system, wherein the prediction is performed with a neural network learned with the learning method described above.

Die Erfindung betrifft darüber hinaus ein Computerprogrammprodukt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung der oben beschriebenen erfindungsgemäßen Verfahren, wenn das Programm auf einem Rechner abläuft.The Invention relates to this a computer program product with one on a machine-readable one carrier stored program code for performing the above inventive method, if the program runs on a computer.

Ausführungsbeispiele der Erfindung werden nachfolgend anhand der beigefügten Figuren detailliert beschrieben.embodiments The invention will be described below with reference to the attached figures described in detail.

Es zeigen:It demonstrate:

1 bis 3 schematische Darstellungen von rekurrenten neuronalen Netzen und deren Lernverfahren gemäß dem Stand der Technik; 1 to 3 schematic representations of recurrent neural networks and their learning methods according to the prior art;

4 eine schematische Darstellung der Lösung der erfindungsgemäßen Problemstellung basierend auf einer ersten Ausführungsform der Erfindung; 4 a schematic representation of the solution of the problem according to the invention based on a first embodiment of the invention;

5 eine schematische Darstellung eines rekurrenten neuronalen Netzes basierend auf einer ersten Ausführungsform der Erfindung; 5 a schematic representation of a recurrent neural network based on a first embodiment of the invention;

6 eine schematische Darstellung eines rekurrenten neuronalen Netzes basierend auf einer zweiten Ausführungsform der Erfindung; 6 a schematic representation of a recurrent neural network based on a second embodiment of the invention;

7 eine schematische Darstellung eines rekurrenten neuronalen Netzes basierend auf einer dritten Ausführungsform der Erfindung; 7 a schematic representation of a recurrent neural network based on a third embodiment of the invention;

8 eine Ausführungsform eines DCNN-Netzes gemäß dem Stand der Technik; 8th an embodiment of a DCNN network according to the prior art;

9 eine schematische Darstellung eines DCNN-Netzes basierend auf einer vierten Ausführungsform der Erfindung; 9 a schematic representation of a DCNN network based on a fourth embodiment of the invention;

10 eine schematische Darstellung eines DCNN-Netzes basierend auf einer fünften Ausführungsform der Erfindung; und 10 a schematic representation of a DCNN network based on a fifth embodiment of the invention; and

11 eine schematische Darstellung eines DCNN-Netzes basierend auf einer sechsten Ausführungsform der Erfindung. 11 a schematic representation of a DCNN network based on a sixth embodiment of the invention.

1 zeigt schematisiert den prinzipiellen Ablauf des Lernens eines rekurrenten neuronalen Netzes mit dem sog. Error-Backpropagation-Algorithmus (deutsch: Fehler-Rückpropagations-Algorithmus). In der 1 ist schematisch ein rekurrentes neuronales Netz mit einer Eingangsschicht I, einer versteckten Schicht H sowie einer Ausgangsschicht O wiedergegeben. Über die Eingabeschicht I werden Eingaben x dem neuronalen Netz zugeführt, wobei diese Schicht mit der versteckten Schicht H verbunden ist. Die versteckte Schicht H ist wiederum mit Ausgaben y der Ausgabeschicht O verbunden. Durch entsprechende Pfeile P1 und P2 wird der Informationsfluss von der Eingangsschicht I über die versteckte Schicht H zur Ausgangsschicht O wiedergegeben. Die Eingangsschicht und die versteckte Schicht sind dabei über Gewichte W1 und die versteckte Schicht und die Ausgangsschicht über Gewichte W2 miteinander verknüpft. Die Nichtlinearität des Netzes wird durch die Funktion f(z) = tanh(z) in der versteckten Schicht H ausgedrückt und insgesamt ergibt sich gemäß 1 eine Multilayer-Perceptron-Architektur, in der die Ausgabe y wie folgt beschrieben ist: y = W2f(W1x). 1 schematically shows the basic process of learning a recurrent neural network with the so-called. Error Back Propagation Algorithm (German: error-backpropagation algorithm). In the 1 schematically a recurrent neural network with an input layer I, a hidden layer H and an output layer O is reproduced. Inputs I are fed via the input layer I to the neural network, this layer being connected to the hidden layer H. The hidden layer H is in turn connected to outputs y of the output layer O. By appropriate arrows P1 and P2, the information flow from the input layer I via the hidden layer H to the output layer O is reproduced. The input layer and the hidden layer are linked via weights W1 and the hidden layer and the output layer via weights W2. The non-linearity of the network is expressed by the function f (z) = tanh (z) in the hidden layer H and overall it follows 1 a multilayer perceptron architecture in which the output y is described as follows: y = W 2 f (W 1 x).

Üblicherweise wird ein derartiges Netz mit dem Fehler-Rückpropagation-Algorithmus gelernt, der auf folgender lokalen Lösung beruht:

Figure 00080001
Typically, such a network is learned with the error backpropagation algorithm based on the following local solution:
Figure 00080001

Hierbei bezeichnet E den gemittelten Fehler und Et den Fehler zu den einzelnen Zeitschritten t in dem Zeitintervall [1, ..., T]. yt d bezeichnet Ausgabedaten, auf deren Basis das Netz gelernt wird, und NN(xt, w) die entsprechende Ausgabe des neuronalen Netzes. Die Gewichte werden in dem neuronalen Netz somit basierend auf dem rückpropagierten Fehler derart gelernt, dass der gemittelte Fehler E minimal ist. Die Rückpropagation des Fehlers wird dabei durch die nach unten gerichteten Pfeile P3 und P4 in 1 angedeutet.Here E denotes the averaged error and E t the error at the individual time steps t in the time interval [1, ..., T]. y t d denotes output data on the basis of which the network is learned and NN (x t , w) the corresponding output of the neural network. The weights are thus based in the neural network learned on the backpropagated error such that the averaged error E is minimal. The backpropagation of the error is indicated by the downwards arrows P3 and P4 in FIG 1 indicated.

2 verdeutlicht zum besseren Verständnis nochmals die prinzipielle Vorgehensweise zur Modellierung eines dynamischen Systems mit einem rekurrenten neuronalen Netzwerk. Das rekurrente neuronale Netzwerk beruht auf einer finiten Entfaltung in zeitlicher Richtung, wodurch die Zeit in eine räumliche Architektur transformiert wird. Gemäß 2 wird die prinzipielle neuronale Netzwerkstruktur NN beschrieben durch Eingaben u und Ausgaben y, wobei zwischen den Eingaben und Ausgaben eine Transformation erfolgt, bei der interne Zustände s berücksichtigt werden. Insbesondere wird zum Zeitpunkt t die Eingabe ut des Systems mit Hilfe des internen Zustands st zu diesem Zeitpunkt auf den internen Zustand st+1 wie folgt transformiert: st+1 = f(st, ut) 2 clarifies the basic procedure for modeling a dynamic system with a recurrent neural network for a better understanding. The recurrent neural network is based on a finite unfolding in temporal direction, which transforms time into a spatial architecture. According to 2 the basic neural network structure NN is described by inputs u and outputs y, whereby a transformation takes place between the inputs and outputs, taking into account internal states s. In particular, at time t, the input u t of the system is transformed to the internal state s t + 1 at this time using the internal state s t as follows: s t + 1 = f (s t , u t )

Aus dem internen Zustand st zum Zeitpunkt t ergibt sich ferner die Ausgabe yt zum Zeitpunkt t durch folgende Gleichung: yt = g(st) From the internal state s t at the time t, the output y t at the time t also results from the following equation: y t = g (s t )

Der interne Zustand st zum Zeitpunkt t wird somit zur Bestimmung des internen Zustands st+1 zu dem nachfolgenden Zeitpunkt t + 1 verwendet, was durch die Schleife L angedeutet ist. Wie durch den Pfeil A1 und die Gleichungen (1) und (2) wiedergegeben ist, können in einer speziellen Variante die Gleichungen zur Bestimmung von st+1 und yt durch Matrizen A, B und C sowie den Parameter c beschrieben werden. Das Lernen erfolgt basierend auf der Gleichung (3), wonach der in dem Zeitintervall [1, ..., T] gemittelte quadratische Fehler zwischen berechneter yt Ausgabe und der Ausgabe yt d gemäß dem zum Lernen verwendeten Datensatz minimiert wird. Wie durch den Pfeil A2 angedeutet ist, kann die soeben erklärte Netzwerkstruktur durch eine entsprechende Darstellung als Netz RNN wiedergegeben werden. In dem Netz RNN werden durch entsprechende Kreise die Eingaben ut-3, ut-2, ut-1 und ut, die internen Zustände st-2, st-1, st, st+1, st+2, st+3, st+4 und die Ausgaben yt-2, yt-1, yt, yt+1, yt+2, yt+3 und yt+4 des neuronalen Netzes dargestellt. Ebenso werden durch entsprechende Pfeile die Parameter A, B und C zur Berechnung der einzelnen Größen gemäß den Gleichungen (1) und (2) spezifiziert. Die Pfeile stellen dabei Konnektoren dar, welche sowohl einen zeitlich vorwärts gerichteten als auch einen zeitlich rückwärts gerichteten Informationsfluss ermöglichen, um hierdurch eine Fehler-Rückpropagierung sicherzustellen.The internal state s t at time t is thus used to determine the internal state s t + 1 at the subsequent time t + 1, which is indicated by the loop L. As represented by the arrow A1 and the equations (1) and (2), the equations for determining s t + 1 and y t by matrices A, B and C and the parameter c can be described in a specific variant. The learning is based on the equation (3), according to which the quadratic error averaged between the calculated y t output and the output y t d in the time interval [1, ..., T] is minimized according to the record used for learning. As indicated by the arrow A2, the just explained network structure can be represented by a corresponding representation as network RNN. In the network RNN, the inputs u t-3 , u t-2 , u t-1 and u t , the internal states s t-2 , s t-1 , s t , s t + 1 , s t + 2 , s t + 3 , s t + 4 and the outputs y t-2 , y t-1 , y t , y t + 1 , y t + 2 , y t + 3 and y t + 4 of the neural Network shown. Similarly, arrows A, B and C are used to calculate the individual quantities according to equations (1) and (2). In this case, the arrows represent connectors which enable both a time-forwarded and a backward-looking information flow in order to ensure error backpropagation.

Ein Problem des anhand von 2 beschriebenen rekurrenten neuronalen Netzes besteht darin, dass das Netz nur einen finiten Zeitraum beschreibt, der in der Ausführungsform gemäß 2 die vergangenen Zeitschritte t – 2 und t – 1, den gegenwärtigen Zeitschritt t sowie die zukünftigen Zeitschritte t + 1, t + 2, t + 3 und t + 4 umfasst. Aufgrund dieser finiten Struktur fehlt ein geeigneter interner Zustand st-m zur Initialisierung des Netzes. Dieses Problem wird umso größer, je größer die Dimension des internen Zustandsraums ist. Üblicherweise wird das Problem des fehlenden initialen Zustands ignoriert, und es wird st-m = 0 gesetzt bzw. es wird die Unabhängigkeit vom initialen Zustand postuliert.A problem of the basis of 2 The recurrent neural network described is that the network only describes a finite time period, which in the embodiment according to FIG 2 the past time steps t - 2 and t - 1, the current time step t and the future time steps t + 1, t + 2, t + 3 and t + 4 includes. Due to this finite structure, a suitable internal state s tm is missing for the initialization of the network. This problem increases the larger the dimension of the internal state space. Usually, the problem of the missing initial state is ignored and s tm = 0 is set or the independence from the initial state is postulated.

3 zeigt eine Lösung gemäß dem Stand der Technik zur Festlegung eines initialen Zustands. Die Lösung beruht auf dem sog. Cleaning-Kalkül, gemäß dem die Unsicherheit eines unbekannten initialen Zustands st-m in geeigneter Weise abgeschätzt wird. Diese Abschätzung erfolgt durch das Modellieren von Rauschen, welches über einen entsprechenden Konnektor id dem neuronalen Netz RNN der 3 zugeführt wird. Das Rauschen wird dabei mit n (n = noise) bezeichnet und zu dem ursprünglichen Zustand hinzuaddiert. Das Rauschen des initialen Zustands wird mit Hilfe von adaptivem Gaußschen Rauschen in Abhängigkeit von dem Restfehler berechnet, der sich durch die Fehler-Rückpropagierung ergibt. Die Rückpropagierung des Feh lers ist dabei in dem Diagramm EBP der 3 angedeutet. Gemäß dem Diagramm wird eine Eingabe x der Eingabeschicht I durch entsprechend nach oben gerichtete Pfeile über die versteckte Schicht H der Ausgabeschicht O zugeführt, welche eine entsprechende Ausgabe yt liefert. Mit Hilfe der Ziel-Ausgabe yt d gemäß dem zum Lernen verwendeten Datensatz wird dann der Fehler berechnet und rückpropagiert, wodurch die ursprünglichen Gewichte w zwischen den Schichten entsprechend angepasst werden und zu den Gewichten w+ führen. Dies ist durch die entsprechenden mathematischen Formeln F1 und F2 angedeutet. Schließlich erhält man am Ende den rückpropagierten Fehler ∂. In Abhängigkeit von diesem Fehler wird die entsprechende Standardabweichung des Gaußschen Rauschens festgelegt, so dass sie insgesamt als initialer Zugstand st-m ergibt: st-m = 0 + AGN(0, σ(∂t)) (4) 3 shows a solution according to the prior art for determining an initial state. The solution is based on the so-called cleaning calculus, according to which the uncertainty of an unknown initial state s tm is estimated in a suitable manner. This estimation is done by modeling noise which is transmitted through a corresponding connector id to the neural network RNN of the 3 is supplied. The noise is denoted by n (n = noise) and added to the original state. The noise of the initial state is calculated by adaptive Gaussian noise as a function of the residual error that results from error backpropagation. The backpropagation of the fault is in the diagram EBP of 3 indicated. According to the diagram, an input x is applied to the input layer I by correspondingly upwardly directed arrows via the hidden layer H to the output layer O, which provides a corresponding output y t . With the aid of the target output y t d according to the data set used for learning, the error is then calculated and backpropagated, whereby the original weights w between the layers are adapted accordingly and lead to the weights w + . This is indicated by the corresponding mathematical formulas F1 and F2. Finally, one gets the backpropagated error ∂ at the end. Depending on this error, the corresponding standard deviation of the Gaussian noise is determined, so that it results in total as the initial stress level s tm : s tm = 0 + AGN (0, σ (∂ t )) (4)

Dabei bezeichnet AGN das adaptive Gaußsche Rauschen und σ dessen von ∂t abhängige Standardabweichung. Mit Hilfe des adaptiven Gaußschen Rauschens wird dabei eine Versteifung des Modells gegenüber dem unbekannten und somit unsicheren initialen Zustand st-m erreicht. Dies wird durch das Diagramm D in 3 angedeutet, welches die Veränderung der Unsicherheit des Zustands st über die Zeit t verdeutlicht. Hierbei wird ersichtlich, dass die Trajektorie der zeitlichen Entwicklung des Zustands st als finiter Volumenschlauch beschrieben werden kann, wobei ein anfänglich sehr großer und unsicherer Zustand mit großem Volumen in einen Zustand mit kleinem Schlauchvolumen überführt wird. Die verwendete Matrix A wird somit eine Kontraktion, um die anfängliche Unsicherheit aus dem System herauszudrücken.Here, AGN denotes the adaptive Gaussian noise and σ its standard dependent on ∂ t deviation. With the aid of the adaptive Gaussian noise, a stiffening of the model with respect to the unknown and therefore uncertain initial state s tm is achieved. This is indicated by the diagram D in 3 indicated, which illustrates the change in the uncertainty of the state s t over time t. It can be seen here that the trajectory of the temporal evolution of the state s t can be described as a finite volume tube, wherein an initially very large and unsafe state with a high volume is converted into a state with a small tube volume. The matrix A used thus becomes a contraction to push out the initial uncertainty from the system.

In der Lösung gemäß 3 wird zwar ein initialer Zustand berechnet, jedoch wird mit diesem initialen Zustand nicht ausreichend der fehlende Informationsfluss der Vergangenheit und der Zukunft berücksichtigt. Insbesondere wird keine geeignete Einbettung eines finiten zeitlich entfalteten rekur renten neuronalen Netzwerks in einem infiniten Zeitprozess erreicht. Die allgemeine Problemstellung besteht hierbei darin, dass in dem Netz RNN der 2 der Informationsfluss von der weit zurückliegenden Vergangenheit und der weit entfernten zukünftigen Entwicklung des Systems fehlt, so dass eine Unsicherheit im initialen Zustand der finiten Entfaltung besteht.In the solution according to 3 If an initial state is calculated, however, this initial state does not sufficiently take into account the missing information flow of the past and the future. In particular, no suitable embedding of a finite temporally unfolded recursive neural network is achieved in an infinite time process. The general problem here is that in the network RNN the 2 the flow of information from the distant past and the distant future development of the system is missing, so that there is an uncertainty in the initial state of finite development.

Zur Lösung der obigen Problemstellung wird die in 4 schematisch dargestellte Vorgehensweise gemäß einer ersten Ausführungsform der Erfindung vorgeschlagen. 4 zeigt ein rekurrentes neuronales Netz RNN basierend auf der Darstellung aus 2, wobei nunmehr jedoch die lang zurückliegende Vergangenheit und die weit entfernte Zukunft berücksichtigt wird, wie durch gestrichelte Pfeile PA (PA = Vergangenheit) und FU (FU = Zukunft) angedeutet ist. In dem Netz der 4 wird die Verteilung der initialen Zustände durch eine Verteilung der finalen Zustände des mit dem neuronalen Netz modellierten dynamischen Systems abgeschätzt, wobei die finale Verteilung als Rauschen in das Netz injiziert wird, um das neuronale Netz gegen die Unsicherheit des initialen Zustands zu versteifen. Die Abschätzung der Verteilung der initialen Zustände basierend auf der Verteilung der finalen Zustände wird durch den Pfeil A3 in 4 angedeutet. Darüber hinaus wird die Verteilung der zukünftigen Fehler durch eine Verteilung der rückpropagierten Fehler am Anfang des Zeitintervalls (d. h. zum Zeitpunkt t – 2) approximiert, wobei die Verteilung der zukünftigen Fehler als Rauschen in das Netz injiziert wird, um das Netz gegen die Unsicherheit von zukünftigen Fehlern zu versteifen. Die Abschätzung der Verteilung der zukünftigen Fehler durch die Verteilung der rückpropagierten Fehler ist dabei durch den Pfeil A4 in 4 angedeutet.To solve the above problem, the in 4 schematically presented procedure according to a first embodiment of the invention proposed. 4 shows a recurrent neural network RNN based on the illustration 2 taking into account, however, the long past and the distant future, as indicated by dashed arrows PA (PA = past) and FU (future = FU). In the network of 4 For example, the distribution of the initial states is estimated by a distribution of the final states of the dynamic system modeled with the neural network, the final distribution being injected as noise into the network to stiffen the neural network against the uncertainty of the initial state. The estimation of the distribution of the initial states based on the distribution of the final states is indicated by the arrow A3 in FIG 4 indicated. Moreover, the distribution of future errors is approximated by a distribution of the backpropagated errors at the beginning of the time interval (ie at time t - 2), where the distribution of future errors is injected as noise into the network to protect the network against the uncertainty of future ones To stiffen errors. The estimation of the distribution of the future errors by the distribution of the backpropagated errors is indicated by the arrow A4 in FIG 4 indicated.

5 zeigt die technische Umsetzung der anhand von 4 allgemein beschriebenen Lösung. Die technische Realisierung erfolgt hierbei basierend auf vorwärts gerichteten und rückwärts gerichteten Konnektoren. Hierbei ist zunächst zu berücksichtigen, dass die ursprüngliche Netzstruktur RNN nur Konnektoren enthält, welche in beide Richtungen wirken, d. h. sowohl zeitlich vorwärts gerichtet als auch zeitlich rückwärts gerichtet sind, wobei über die zeitliche Rückwärts-Orientierung die Fehlerpropagation gewährleistet wird. Demgegenüber enthält die Ausführungsform des neuronalen Netzes gemäß 5 nunmehr neben den ursprünglichen Konnektoren des Netzes RNN, die mit den entsprechenden Matrizen A, B und C verknüpft sind, auch ausschließlich zeitlich vorwärts gerichtete bzw. ausschließlich zeitlich rückwärts gerichtete Konnektoren. Gemäß 5 sind hierbei die Konnektoren C1, C2 und C3 ausschließlich vorwärts gerichtete Konnektoren, wohingegen die Konnektoren C4, C5 und C6 ausschließlich rückwärts gerichtete Konnektoren sind. Alle Konnektoren beschreiben dabei eine entsprechende Identitätsabbildung Id. Das Netz gemäß 5 enthält ferner zwei Target-Cluster T1 und T2 sowie zwei Input-Cluster I1 und I2. Für die Target-Cluster wird als Target-Wert tar der Wert 0 vorgegeben. Für die Input-Cluster I1 und I2 wird ebenfalls von einem Input-Wert von 0 ausgegangen. Die Netzwerkstruktur gemäß 5 setzt sich insgesamt aus einem oberen Teilnetzwerk N1 und einem unteren Teilnetzwerk N2 zusammen, wobei durch die Target-Cluster T1 und T2 und die Input-Cluster I1 und I2 sowie die entsprechenden Konnektoren C1 bis C6 ein dynamisch konsistentes Lernen des rekurrenten neuronalen Netzwerks erfolgt. 5 shows the technical implementation of the basis of 4 generally described solution. The technical realization takes place here based on forward and backward connectors. It should first be noted that the original network structure RNN contains only connectors, which act in both directions, ie both directed forward in time and are directed backward in time, which over the temporal backward orientation, the error propagation is guaranteed. In contrast, the embodiment of the neural network according to 5 now, in addition to the original connectors of the network RNN, which are linked to the corresponding matrices A, B and C, also exclusively temporally forward or exclusively time-backward connectors. According to 5 Here, the connectors C1, C2 and C3 are exclusively forward-facing connectors, whereas the connectors C4, C5 and C6 are exclusively backward connectors. All connectors describe a corresponding identity map Id. The network according to 5 also contains two target clusters T1 and T2 and two input clusters I1 and I2. For the target clusters, the target value tar is set to 0. For input clusters I1 and I2, an input value of 0 is also assumed. The network structure according to 5 consists overall of an upper subnetwork N1 and a lower subnetwork N2, wherein through the target clusters T1 and T2 and the input clusters I1 and I2 and the corresponding connectors C1 to C6, a dynamic consistent learning of the recurrent neural network takes place.

Gemäß der Struktur nach 5 wird über den Target-Cluster T1, der über den vorwärts gerichteten Konnektor C1 mit dem Zustand st+4 am Ende des finiten Zeitintervalls verbunden ist, die Verteilung der Zustände am Ende des Zeitintervalls ermittelt. Es ergibt sich somit als Wert des Target-Clusters der Wert tar = 0 + s (s entspricht dem Wert des gemessenen Zustands). Da dieser Wert von der Target-Vorgabe von Null abweicht, wird die gemessene Zustandsverteilung als Fehler interpretiert und über den rückwärts gerichteten Konnektor C4 dem Input-Cluster I1 zugeführt. Das Input-Cluster I1 erhält somit als Eingabewert den Zustandswert s und generiert hieraus ein entsprechendes Rauschen. Die Generierung des Rauschens erfolgt mit Hilfe eines Rausch-Generators, wobei Rausch-Generatoren hinlänglich aus dem Stand der Technik bekannt sind und deshalb an dieser Stelle nicht näher erläutert werden. Das generierte Rauschen wird dann über den vorwärts gerichteten Konnektor C2 dem Zustand st-2 am Anfang des Zeitintervalls zugeführt. Darüber hinaus fließt der in dem Netzwerk rückpropagierte Fehler aus dem Zustand st-2 heraus und wird über den rückwärts gerichteten Konnektor C5 dem weiteren Input-Cluster I2 zugeführt, welches hieraus eine Fehlerverteilung ermittelt. Die Fehlerverteilung wird dann über den vorwärts gerichteten Konnektor C3 dem Target-Cluster T2 zugeführt, woraufhin wiederum mit einem entsprechenden Rausch-Generator ein Rauschen generiert wird, welches schließlich über den rückwärts gerichteten Konnektor C6 und den Zustand st+4 in das rekurrente neuronale Netz rückpropagiert wird.According to the structure 5 is determined via the target cluster T1, which is connected via the forward connector C1 to the state s t + 4 at the end of the finite time interval, the distribution of the states at the end of the time interval. The value of the target cluster thus results in the value tar = 0 + s (s corresponds to the value of the measured state). Since this value deviates from the target specification of zero, the measured state distribution is interpreted as an error and fed via the backward connector C4 to the input cluster I1. The input cluster I1 thus receives as input value the state value s and generates a corresponding noise from this. The generation of the noise takes place with the aid of a noise generator, wherein noise generators are well known from the prior art and therefore will not be explained in detail at this point. The generated noise is then supplied via the forward connector C2 to the state s t-2 at the beginning of the time interval. In addition, the error propagated backward in the network flows out of state s t-2 and goes backward Connector C5 supplied to the further input cluster I2, which determines therefrom an error distribution. The error distribution is then fed via the forward connector C3 to the target cluster T2, whereupon again a noise is generated with a corresponding noise generator, which finally via the backward connector C6 and the state s t + 4 in the recurrent neural network is propagated back.

Der Fehler E ergibt sich in der Ausführungsform gemäß 5 hierbei durch folgende Berechnung, wobei out den Ausgabewert und tar den Target-Wert bezeichnet: E = 12 (out – tar)2 The error E results in the embodiment according to 5 here by the following calculation, where out denotes the output value and tar the target value: E = 1 2 (out - tar) 2

Zusammenfassend erzeugt das obere Teilnetz N1 ein Eingangsrauschen in Abhängigkeit von der finalen Zustandsverteilung, wohingegen das untere Teilnetz N2 die Eingangsunsicherheit misst und einen zusätzlichen Fehlerfluss in das neuronale Netz injiziert. Das Prinzip des neuronalen Netzes gemäß 5 beruht darauf, dass davon ausgegangen wird, dass eine Vorhersage der fernen Zukunft und der fernen Vergangenheit nicht möglich ist. Aufgrund dieses Unwissens über die ferne Zukunft und die ferne Vergangenheit wird das Modell durch entsprechendes Rauschen gegenüber diesen fernen Zeitpunkten abgehärtet bzw. steif gemacht. In der Ausführungsform der 5 wird somit der Effekt der unbekannten Zeit in der Zukunft und der Vergangenheit auf die finite Modellierung innerhalb eines Zeitintervalls durch ein geeignetes Rauschen des initialen Zustands sowie des zukünftigen Fehlers begrenzt. Trajektorien sind keine Sequenz von Punkten mehr, sondern kontrahierende finite Volumenschläuche.In summary, the upper subnetwork N1 generates an input noise depending on the final state distribution, whereas the lower subnetwork N2 measures the input uncertainty and injects an additional error flow into the neural network. The principle of the neural network according to 5 It is based on the assumption that predicting the distant future and the distant past is not possible. Due to this ignorance of the distant future and the distant past, the model is hardened by corresponding noise towards these distant times. In the embodiment of the 5 Thus, the effect of the unknown time in the future and the past on the finite modeling within a time interval is limited by a suitable noise of the initial state as well as the future error. Trajectories are no longer a sequence of points, but contracting finite volume tubes.

6 zeigt eine zweite Ausführungsform eines erfindungsgemäßen neuronalen Netzes. In der Ausführungsform der 6 wird der initiale Zustand des neuronalen Netzes durch ein sog. retro-kausales Netz modelliert, welches sich an den Zustand st-3 zu Beginn des Zeitintervalls des rekurrenten neuronalen Netzes RNN anschließt. Das retro-kausale neuronale Netz ist in 6 mit RC1 bezeichnet. Mit dem Netz werden ausgehend vom Zustand st-3 gegen die Kausalitätsrichtung mit entsprechenden Matrizen A ← die internen Zustände rt-2, rt-1 und rt ermittelt, und dem rückgerechneten Zustand rt wird ein Input-Cluster I' mit Rauschen zugeführt. Das Rauschen wird mit einem Rausch-Generator erzeugt, wobei das Rauschen – wie in 3 – in Abhängigkeit von dem Restfehler als Gaußsches Rauschen modelliert wird. Oberhalb des retro-kausalen Netzes RC1 sind die entsprechenden Gleichungen zur Beschreibung des Netzes RC1 wiedergegeben. Dabei bezeichnet s ←t den internen Zustand des retro-kausalen Netzes. s ←t entspricht dabei rt. Ferner sind im rechten Teil oberhalb des ursprünglichen rekurrenten neuronalen Netzes RNN die Gleichungen zur Beschreibung dieses Netzes wiedergegeben. 6 shows a second embodiment of a neural network according to the invention. In the embodiment of the 6 the initial state of the neural network is modeled by a so-called retro-causal network, which adjoins the state s t-3 at the beginning of the time interval of the recurrent neural network RNN. The retro-causal neural network is in 6 designated RC1. With the network starting from the state s t-3 against the causality direction with corresponding matrices A ← the internal states r t-2 , r t-1 and r t determined, and the recalculated state r t is fed to an input cluster I 'with noise. The noise is generated with a noise generator, with the noise - as in 3 Is modeled as Gaussian noise as a function of the residual error. Above the retro-causal network RC1 the corresponding equations for the description of the network RC1 are shown. This designates s ← t the internal state of the retro-causal network. s ← t corresponds to r t . Furthermore, the equations for describing this network are reproduced in the right part above the original recurrent neural network RNN.

Mit der Ausführungsform gemäß 6 wird eine kausal-retrokausale Einbettung zur Rückwärts-Formulierung des rekurrenten Modells geschaffen, wobei mit dem rekurrenten Netz RC1 ausgehend vom Input-Cluster I' zunächst von der Gegenwart in die Vergangenheit gegangen wird und schließlich mit dem sich daran anschließenden rekurrenten neuronalen Netz RNN von der Vergangenheit in die Gegenwart und von dort in die Zukunft gelaufen wird. In der Ausführungsform gemäß 6 sind die Matrizen B, C für das retro-kausale Netz RC1 identisch mit den Matrizen B, C des rekurrenten neuronalen Netzes RNN, dies ist jedoch nicht zwangsläufig immer der Fall. Das Modell gemäß 6 wurde in Kombination mit einem rekurrenten Netz RNN beschrieben, lässt sich jedoch auch anwenden auf NRNN-Netze (NRNN = Normalized Recurrent Neural Network) und DCNN- Netze (DCNN = Dynamical Consistent Neural Network), welche spezielle Ausführungsformen von rekurrenten neuronalen Netzen darstellen.With the embodiment according to 6 a causal-retro-causal embedding is created for the backward formulation of the recurrent model, with the recurrent network RC1 proceeding from the input cluster I 'first going from the present into the past and finally with the adjoining recurrent neural network RNN of the Past into the present and from there into the future. In the embodiment according to 6 For example, the matrices B, C for the retro-causal network RC1 are identical to the matrices B, C of the recurrent neural network RNN, but this is not necessarily always the case. The model according to 6 has been described in combination with a recurrent network RNN, but can also be applied to NRNN (Normalized Recurrent Neural Network) and DCNN (Dynamic Consistent Neural Network) networks, which are specific embodiments of recurrent neural networks.

7 zeigt eine dritte Ausführungsform eines erfindungsgemäßen neuronalen Netzes. In der Ausführungsform gemäß 7 wird die finite kausale Entfaltung ebenfalls in ein retro-kausales Netzwerk eingebettet. Hierzu wird für die Vergangenheit das bereits anhand von 6 beschriebene retro-kausale Netz RC1 eingesetzt. Die ferne Zukunft wird mit einem weiteren retro-kausalen Netz RC2 modelliert, mit dem ausgehend von dem Zustand st+3 am Ende des finiten Zeitintervalls von der Zukunft zurück in die Gegenwart gerechnet wird. Es ergeben sich hierbei die internen Zustände rt+2, rt+1 und rt'. Das Netzwerk der 7 weist ferner einen ausschließlich vorwärts gerichteten Konnektor C7 auf, der mit einem Target-Cluster T' verbunden ist. Dieser Konnektor ist optional und kann gegebenenfalls auch weggelassen werden. Insgesamt ergibt sich durch 7 ein Netzwerk, welches über den Identitätskonnektor Id von links mit der Gegenwart im Zustand rt startet und über das retro-kausale Netz RC1 gegen die Kausalitätsrichtung zunächst in die Vergangenheit zum Zustand st-3 läuft. Anschließend wird das rekurrente neuronale Netz RNN in kausaler Richtung von der Vergangenheit über die Gegenwart (Zustand st) bis zur Zukunft (Zustand st+3) durchlaufen. Schließlich wird wiederum in retro-kausaler Richtung das zweite retro-kausale Netz RC2 von der Zukunft bis zum gegenwärtigen Zustand rt' durchlaufen. Im Unterschied zu der Ausführungsform gemäß 5 verfolgt das Netzwerk gemäß 7 den Ansatz, die finite Modellierung gemäß dem Netz RNN als eine Expansion der bekannten Gegenwart in die Zukunft und die Vergangenheit zu beschreiben. Die Trajektorien der Zustände sind hierbei eine Sequenz von Punkten. Mit dem zusätzlichen Konnektor C7 erfolgt durch das Target-Cluster T' ein Vergleich des gegenwärtigen Zustands st mit dem rückgerechneten Zustand rt', wobei diese Zustände übereinstimmen sollten. Die Abweichung dieser Zustände wird wiederum als Fehler in das Netz rückpropagiert. Auf diese Weise wird die logische Kon sistenz st = rt' in dem Informationsfluss berücksichtigt. Da der Konnektor C7 nur vorwärts gerichtet ist, erfolgt kein Fehlerfluss in Rückwärtsrichtung über diesen Konnektor zum Zustand st. 7 shows a third embodiment of a neural network according to the invention. In the embodiment according to 7 finite causal development is also embedded in a retro-causal network. This is done for the past already on the basis of 6 described retro-causal network RC1 used. The distant future is modeled with another retro-causal network RC2, which is calculated starting from the state back to the present, starting from the state s t + 3 at the end of the finite time interval. This results in the internal states r t + 2 , r t + 1 and r t '. The network of 7 also has an exclusively forward connector C7 connected to a target cluster T '. This connector is optional and can be omitted if necessary. Overall, results from 7 a network which starts via the identity connector Id from the left with the presence in the state r t and, via the retro-causal network RC1 against the causality direction, first runs into the past to the state s t-3 . Subsequently, the recurrent neural network RNN is traversed in the causal direction from the past to the present (state s t ) to the future (state s t + 3 ). Finally, in turn, the second retro-causal network RC2 is traversed from the future to the current state of r t 'in retro-causal direction. Unlike the embodiment according to 5 Follow the network according to 7 the approach, to describe the finite modeling according to the network RNN as an expansion of the known present in the future and the past. The trajectories of the states are here a sequence of points. With the additional connector C7 done by the target cluster T ', a comparison of the current state s t with the recalculated state r t ', these states should match. The deviation of these states is in turn propagated back as an error in the network. In this way, the logical consistency s t = r t 'is taken into account in the information flow. Since the connector C7 is directed only forward, no error flow in the reverse direction via this connector to the state s t .

Im Vorangegangenen wurde die Erfindung basierend auf einem herkömmlichen rekurrenten neuronalen Netz RNN beschrieben. Die Erfindung ist jedoch in einfacher Weise auch auf DCNN-Netze erweiterbar. DCNN-Netze sind hinlänglich aus dem Stand der Technik bekannt und ermöglichen eine dynamisch konsistente Beschreibung eines dynamischen Systems. Zwecks genauerer Beschreibung von DCNN-Netzen wird insbesondere auf die Druckschrift DE 10 2004 059 684 B3 verwiesen, deren gesamter Offenbarungsinhalt durch Verweis zum Inhalt der vorliegenden Anmeldung gemacht wird. 8 zeigt die herkömmliche Struktur eines DCNN-Netzes nach dem Stand der Technik. Man erkennt, dass in dem Netz zum Lernen verwendete Daten yt-1 d und yt d als Eingaben unter Verwendung der Vektoren V1 in das Netz einfließen. Ferner sind die zu modellierenden Ausgaben yt-1 bzw. yt mit den internen Zuständen st-1 bzw. st über entsprechende Vektoren V2 verbunden. Darüber hinaus findet sich neben den durch die Matrizen A, C bzw. C> beschriebenen linearen Teil auch ein nicht-linearer Teil, welcher in 8 durch NL bezeichnet ist. Dieser Teil wird durch eine entsprechende tanh-Funktion beschrieben.In the foregoing, the invention has been described based on a conventional recurrent neural network RNN. However, the invention can be easily extended to DCNN networks. DCNN networks are well known in the art and enable a dynamically consistent description of a dynamic system. For a more detailed description of DCNN networks is in particular the publication DE 10 2004 059 684 B3 Reference is made to the entire contents of the disclosure by reference to the content of the present application. 8th shows the conventional structure of a DCNN network according to the prior art. It can be seen that data y t-1 d and y t d used in the network for learning flow into the network as inputs using the vectors V1. Furthermore, the outputs y t-1 and y t to be modeled are connected to the internal states s t-1 and s t via corresponding vectors V2. In addition, in addition to the linear part described by the matrices A, C and C > , there is also a nonlinear part, which in 8th denoted by NL. This part is described by a corresponding tanh function.

Das Netz gemäß 8 wird somit durch folgende Gleichungen beschrieben:

Figure 00170001
Figure 00180001
für alle τ: yτ=[Id 0 0]sτ The network according to 8th is thus described by the following equations:
Figure 00170001
Figure 00180001
for all τ: y τ = [Id 0 0] s τ

Aus Übersichtlichkeitsgründen wurde das DCNN-Netz der 8 lediglich für ein finites Zeitintervall bestehend aus den Zeitpunkten t – 1, t und t + 1 wiedergegeben. Üblicherweise umfasst ein DCNN-Netz eine viel größere Anzahl an Zeitschritten.For clarity, the DCNN network was the 8th only for a finite time interval consisting of the times t - 1, t and t + 1 reproduced. Typically, a DCNN network involves a much larger number of time steps.

Die erste, anhand von 5 beschriebe Ausführungsform der Erfindung lässt sich analog auch auf DCNN-Netze übertragen, wie in 9 wiedergegeben ist. Hierbei bezeichnen gleiche Bezugszeichen die gleichen Komponenten. Analog zu 5 werden zur Modellierung der fernen Zukunft und der fernen Vergangenheit vorwärts gerichtete Konnektoren C1 bis C3 sowie rückwärts gerichtete Konnektoren C4 bis C6 eingesetzt.The first, based on 5 described embodiment of the invention can be analogously also transferred to DCNN networks, as in 9 is reproduced. Here, like reference numerals designate the same components. Analogous to 5 For example, forward-facing connectors C1 through C3 and backward connectors C4 through C6 are used to model the far-future and far-past.

Analog zu den Konnektoren C3 und C4 in 5 sind auch die Konnektoren C3 und C4 in 9 Identitäts-Konnektoren. Im Unterschied zu den Konnektoren C1, C2, C5 und C6, welche in 5 auch Identitäts-Konnektoren darstellen, sind diese Konnektoren in 9 nunmehr Konnektoren, welche durch folgende Matrix beschrieben werden:

Figure 00180002
Analogous to the connectors C3 and C4 in 5 are also the connectors C3 and C4 in 9 Identity connectors. In contrast to the connectors C1, C2, C5 and C6, which are in 5 also represent identity connectors, these connectors are in 9 now connectors, which are described by the following matrix:
Figure 00180002

In dem Netz der 9 fließt ferner der Target-Wert yt-1 tar der Ausgabe zum Zeitpunkt t – 1 in den Zustand st-1 ein.In the network of 9 Further, the target value y t-1 tar of the output at time t-1 enters state s t-1 .

Analog zu dem Netzwerk gemäß 5 wird in der 9 mit dem oberen Teilnetzwerk N1 ein Eingangsrauschen in Abhängigkeit von der finalen Zustandsverteilung erzeugt, wohingegen durch das untere Teilnetzwerk N2 eine Eingangsunsicherheit gemessen wird und als zusätzlicher Fehlerfluss in das Netzwerk injiziert wird.Analogous to the network according to 5 will be in the 9 with the upper subnetwork N1 generates an input noise in dependence on the final state distribution, whereas an input uncertainty is measured by the lower subnetwork N2 and injected into the network as an additional error flow.

10 zeigt die Übertragung der zweiten Ausführungsform der Erfindung gemäß 6 auf ein DCNN-Netzwerk. Analog zu 6 umfasst das Netzwerk der 10 wiederum einen retro-kausalen Teil RC1, der aus Übersichtlichkeitsgründen nur aus einem Zeitschritt von der Vergangenheit (Zeitpunkt t – 1) zum gegenwärtigen Zeitpunkt t besteht. Der retro-kausale Teil rechnet wiederum einen vergangenen Systemzustand auf die Gegenwart zurück und dieser rückgerechnete Systemzustand wird als initialer Zustand der kausalen Netzwerkanalyse verwendet. In dem Beispiel der 10 wird im Teilnetz RC1 die gleiche Konsistenzmatrix C wie in dem restlichen DCNN-Netz DCNN verwendet. Das System wird wiederum mit Rauschen über einen Input-Cluster I' initialisiert. Das Netzwerk gemäß 10 eignet sich insbesondere, wenn kurze Zeitserien betrachtet werden. 10 shows the transmission of the second embodiment of the invention according to 6 on a DCNN network. Analogous to 6 includes the network of 10 again a retro-causal part RC1, which for reasons of clarity consists only of a time step from the past (time t-1) to the current time t. In turn, the retro-causal part calculates a past system state back to the present, and this recalculated system state is used as the initial state of the causal network analysis. In the example of 10 In subnet RC1, the same consistency matrix C as in the remaining DCNN network DCNN is used. The system is again initialized with noise via an input cluster I '. The network according to 10 is particularly suitable when considering short time series.

11 zeigt eine Übertragung der dritten Ausführungsform der Erfindung gemäß 7 auf ein DCNN-Netz. Analog zu 7 schließt sich an den Zustand st-1 das retro-kausale Netz RC1 an, und nach dem Zustand st+1 des Netzes DCNN folgt das retro-kausale Netz RC2. Beide Netze RC1 und RC2 beinhalten zwecks übersichtlicher Darstellung wiederum nur einen Zeitschritt, mit dem von der Vergangenheit in die Gegenwart bzw. von der Zukunft in die Gegenwart rückgerechnet wird. Darüber hinaus wird durch einen entsprechenden Konnektor C7 wiederum der Fehler zwischen dem berechneten Zustand rt' und st über den Target-Cluster T' in das Netz rückpropagiert. Analog zur Ausführungsform der 7 wird durch die Ausführungsform der 11 eine finite kausale Entfaltung in ein retro-kausales Netzwerk eingebettet. Das Netzwerk startet in der Gegenwart und endet wiederum in der Gegenwart. Sowohl im kausalen als auch in den retro-kausalen Teilen werden die gleichen Konsistenzmatrizen C verwendet. 11 shows a transmission of the third embodiment of the invention according to 7 on a DCNN network. Analogous to 7 The state s t-1 is followed by the retro-causal network RC1, and the state s t + 1 of the network DCNN is followed by the retro-causal network RC2. For clarity, both grids RC1 and RC2 contain only one time step, which recalculates from the past to the present or from the future to the present. In addition, the error between the calculated state r t 'and s t is again propagated back into the network via the target cluster T' by a corresponding connector C7. Analogous to the embodiment of the 7 is achieved by the embodiment of 11 a finite causal unfolding embedded in a retro-causal network. The network starts in the present and ends again in the present. Both the causal and the retro-causal parts use the same consistency matrices C .

Durch die im Vorangegangenen beschriebenen Ausführungsformen werden neuronale Netzstrukturen geschaffen, welche mit entsprechenden Eingaben und Ausgaben aus bekannten Datensätzen gelernt werden. Die Eingaben und Ausgaben stellen hierbei Messwerte eines dynamischen Systems dar. Es können mit dem Verfahren beliebige dynamische Systeme, insbesondere ökonomische Systeme und technische Systeme, modelliert werden. Das entsprechende Netz wird dabei zunächst mit bekannten Datensätzen gelernt, und anschließend wird das gelernte Netz zur Prädiktion von Ausgaben basierend auf Eingaben verwendet. Ein Anwendungsbereich des erfindungsgemäßen Verfahrens ist beispielsweise die Prädiktion von Energiepreisen einer Energiehandelsbörse. Ein weiterer bevorzugter Anwendungsbereich ist die Prädiktion des dynamischen Verhaltens von technischen Systemen. Beispielsweise kann basierend auf Einstellparametern des technischen Systems ein Ausgabeparameter des technischen Systems vorhergesagt werden. Eine mögliche Anwendung ist hierbei eine Gasturbine, bei der basierend auf Einstellparametern, wie z. B. zugeführte Treibstoffmenge, das Brummen bzw. die Energieausgabe der Gasturbine berechnet wird. Ebenso kann das Verfahren für Windkraftanlagen eingesetzt werden, bei denen basierend auf Einstellwerten der Windkraftanlage, wie z. B. der Stellung der Rotorblätter des Windgenerators, die sich daraus ergebende ausgegebene Energie berechnet wird.By The embodiments described above become neural Network structures created, which with appropriate inputs and Outputs from known datasets be learned. The inputs and outputs represent measured values a dynamic system. It can with the method any dynamic systems, in particular economic systems and technical Systems to be modeled. The corresponding network is initially with known records learned, and then the learned net becomes a prediction used by expenses based on inputs. A scope the method according to the invention is for example the prediction of energy prices of an energy trading exchange. Another preferred Scope is the prediction the dynamic behavior of technical systems. For example can be based on setting parameters of the technical system Output parameters of the technical system are predicted. A possible Application here is a gas turbine, in which based on setting parameters, such as B. supplied Fuel quantity, the hum or the energy output of the gas turbine is calculated. Likewise, the method can be used for wind turbines where, based on wind turbine settings, such as B. the position of the rotor blades of the wind generator, the resulting energy is calculated.

Claims (15)

Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes (RNN) mit zeitlich aufeinander folgenden Zuständen (st-2, ..., st+4) in einem endlichen Zeitintervall, wobei die Zustände (st-2, ..., st+4) mit zeitlich aufeinander folgenden Eingaben (ut-3, ..., ut) und Ausgaben (yt-2, ..., yt+4) eines dynamischen Systems verbunden sind und wobei die Zustände (st-2, ..., st+4) untereinander und mit den Eingaben und Ausgaben über Konvektoren verbunden sind, welche zur Fehler-Rückpropagierung einen zeitlich vorwärts gerichteten und einen zeitlich rückwärts gerichteten Informationsfluss ermöglichen, dadurch gekennzeichnet, dass der Informationsfluss im rekurrenten neuronalen Netz (RNN) vor Beginn des Zeitintervalls und/oder nach Ende des Zeitintervalls mit Hilfe von zumindest einem retro-kausalen Netz (RC1, RC2) oder mit Hilfe von zumindest einem vorwärts gerichteten und/oder zumindest einem rückwärts gerichteten Konnektor (C1, ..., C6) berücksichtigt wird, wobei der zumindest eine vorwärts gerichtete Konnektor (C1, C2, C3) ausschließlich einen zeitlich vorwärts gerichteten Informationsfluss ermöglicht und wobei der zumindest eine rückwärts gerichtete Konnektor (C4, C5, C6) ausschließlich einen zeitlich rückwärts gerichteten Informationsfluss ermöglicht.A method for computer-aided learning of a recurrent neural network (RNN) with temporally successive states (s t-2 , ..., s t + 4 ) in a finite time interval, wherein the states (s t-2 , ..., s t + 4 ) are connected to successive inputs (u t-3 , ..., u t ) and outputs (y t-2 , ..., y t + 4 ) of a dynamic system and wherein the states (s t-2 , ..., s t + 4 ) are interconnected with each other and with the inputs and outputs via convectors, which allow for error backpropagation a time-forward and a time backward information flow, characterized in that the information flow in the recurrent neural network (RNN) before the start of the time interval and / or after the end of the time interval with the aid of at least one retro-causal network (RC1, RC2) or with the help of at least ei a forward-facing connector (C1, ..., C6) is considered, wherein the at least one forward connector (C1, C2, C3) only allows a forward flow of information and wherein the at least one backward Directed connector (C4, C5, C6) allows only a time backward information flow. Verfahren nach Anspruch 1, bei dem die Berücksichtigung des Informationsflusses im rekurrenten neuronalen Netz (RNN) vor Beginn des Zeitintervalls und nach Ende des Zeitintervalls derart erfolgt, dass – eine Zustandsverteilung am Ende des Zeitintervalls gemessen wird, wobei die gemessene Zustandsverteilung über einen vorwärts gerichteten Konnektor (C1) mit dem Zustand (st+4) am Ende des Zeitintervalls verbunden ist; – in Abhängigkeit von der gemessenen Zustandverteilung am Ende des Zeitintervalls ein Rauschen generiert wird, wobei das generierte Rauschen über einen rückwärts gerichteten Konnektor (C4) mit der gemessenen Zustandsvertei lung am Ende des Zeitintervalls und über einen vorwärts gerichteten Konnektor (C2) mit dem Zustand (st-2) am Anfang des Zeitintervalls verbunden ist; – die Fehlerverteilung am Anfang des Zeitintervalls gemessen wird, wobei die gemessene Fehlerverteilung am Anfang des Zeitintervalls über einen rückwärts gerichteten Konnektor (C5) mit dem Zustand (st-2) am Anfang des Zeitintervalls verbunden ist; – in Abhängigkeit von der gemessenen Fehlerverteilung am Anfang des Zeitintervalls eine Fehlerverteilung am Ende des Zeitintervalls generiert wird, wobei die generierte Fehlerverteilung am Ende des Zeitintervalls über einen vorwärts gerichteten Konnektor (C3) mit der gemessenen Fehlerverteilung am Anfang des Zeitintervalls und über einen rückwärts gerichteten Konnektor (C6) mit dem Zustand (st+4) am Ende des Zeitintervalls verbunden ist.The method of claim 1, wherein the consideration of the information flow in the recurrent neural network (RNN) before the beginning of the time interval and after the end of the time interval is such that - a state distribution at the end of the time interval is measured, wherein the measured state distribution via a forward connector (C1) is connected to the state (s t + 4 ) at the end of the time interval; - Noise is generated as a function of the measured state distribution at the end of the time interval, wherein the generated noise via a backward connector (C4) with the measured state distribution at the end of the time interval and via a forward connector (C2) with the state ( s t-2 ) is connected at the beginning of the time interval; The error distribution at the beginning of the time interval is measured, the measured error distribution at the beginning of the time interval being connected via a backward connector (C5) to the state (s t-2 ) at the beginning of the time interval; - An error distribution at the end of the time interval is generated depending on the measured error distribution at the beginning of the time interval, wherein the generated error distribution at the end of the time interval via a forward connector (C3) with the measured error distribution at the beginning of the time interval and via a backward connector (C6) is connected to the state (s t + 4 ) at the end of the time interval. Verfahren nach Anspruch 2, bei dem die gemessene Zustandsverteilung am Ende des Zeitintervalls und/oder die generierte Fehlerverteilung am Ende des Zeitintervalls durch einen Ziel-Cluster (T1, T2) modelliert werden.The method of claim 2, wherein the measured State distribution at the end of the time interval and / or the generated Error distribution at the end of the time interval by a target cluster (T1, T2) be modeled. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die gemessene Fehlerverteilung am Anfang des Zeitintervalls und/oder das generierte Rauschen am Anfang des Zeitintervalls durch einen Eingabe-Cluster (I1, I2) modelliert werden.Method according to one of the preceding claims, in the measured error distribution at the beginning of the time interval and / or the generated noise at the beginning of the time interval an input cluster (I1, I2) are modeled. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das endliche Zeitintervall einen oder mehrere aufeinander folgende vergangene Zustände (st-2, ..., st-1), einen gegenwärtigen Zustand (st) sowie einen oder mehrere aufeinander folgende zukünftige Zustände (st+1, st+4) umfasst.Method according to one of the preceding claims, wherein the finite time interval one or more successive past states (s t-2 , ..., s t-1 ), a current state (s t ) and one or more successive future states (s t + 1 , s t + 4 ). Verfahren nach Anspruch 5, bei dem der Informationsfluss vor Beginn des Zeitintervalls durch ein erstes retro-kausales Netz (RC1) modelliert wird, wobei sich das erste retro-kausale Netz (RC1) von einem gegenwärtigen Zustand (rt) zu dem Zustand (st-3) am Anfang des Zeitintervalls erstreckt.The method of claim 5, wherein the flow of information before the beginning of the time interval by a first retro-causal network (RC1) is modeled, wherein the first retro-causal network (RC1) (t r) from a current state to the state (s t-3 ) at the beginning of the time interval. Verfahren nach Anspruch 5 oder 6, bei dem der Informationsfluss nach dem Ende des Zeitintervalls durch ein zweites retro-kausales Netz (RC2) modelliert wird, wobei sich das zweite retro-kausale Netz (RC2) von dem Zustand am Ende des Zeitintervalls (st+3) zu einem gegenwärtigen Zustand (rt') erstreckt.Method according to Claim 5 or 6, in which the information flow after the end of the time interval is modeled by a second retro-causal network (RC2), the second retro-causal network (RC2) being dependent on the state at the end of the time interval (s t +3 ) to a current state (r t '). Verfahren nach Anspruch 7, bei dem ein Fehler im zweiten retro-kausalen Netz (RC2) durch Vergleich des gegenwärtigen Zustands (st) im Zeitintervall mit dem gegenwärtigen Zustand (rt') des zweiten retro-kausalen Netzes (RC2) ermittelt wird, wobei der Fehler in das rekurrente neuronale Netz (RNN) rückpropagiert wird.Method according to Claim 7, in which an error in the second retro-causal network (RC2) is determined by comparing the current state (s t ) in the time interval with the current state (r t ') of the second retro-causal network (RC2), the error is back propagated into the recurrent neural network (RNN). Verfahren nach Anspruch 8, bei dem der ermittelte Fehler mit dem gegenwärtigen Zustand (st) im Zeitintervall über einen vorwärts gerichteten Konnektor (C7) verbunden ist.The method of claim 8, wherein the detected error is associated with the current state (s t ) at the time interval via a forward connector (C7). Verfahren nach einem der vorhergehenden Ansprüche, bei dem das rekurrente neuronale Netz ein DCNN-Netz und/oder ein NRNN-Netz umfasst.Method according to one of the preceding claims, in the recurrent neural network is a DCNN network and / or an NRNN network includes. Verfahren nach einem der vorhergehenden Ansprüche, bei dem mit dem rekurrenten neuronalen Netz (RNN) die Eingaben (ut-3, ..., ut) und Ausgaben (yt-2, ..., yt+4) eines technischen Systems modelliert werden.Method according to one of the preceding claims, wherein with the recurrent neural network (RNN) the inputs (u t-3 , ..., u t ) and outputs (y t-2 , ..., y t + 4 ) of a technical system can be modeled. Verfahren nach Anspruch 11, bei dem das technische System eine Gasturbine und/oder eine Windkraftanlage umfasst.The method of claim 11, wherein the technical System comprises a gas turbine and / or a wind turbine. Verfahren nach einem der Ansprüche 1 bis 10, bei dem mit dem neuronalen Netz (RNN) die Eingaben (ut-3, ..., ut) und Ausgaben (yt-2, ..., yt+4) einer Energiehandelsbörse modelliert werden.Method according to one of Claims 1 to 10, in which the neural network (RNN) inputs (u t-3 , ..., u t ) and outputs (y t-2 , ..., y t + 4 ) of an energy trading exchange. Verfahren zur Prädiktion der Ausgaben (yt-2, ..., yt+4) eines dynamischen Systems basierend auf Eingaben (ut-3, ..., ut) des dynamischen Systems, bei dem die Prädiktion mit einem neuronalen Netz durchgeführt wird, welches mit einem Verfahren nach einem der vorhergehenden Ansprüche gelernt ist.A method of predicting the outputs (y t-2 , ..., y t + 4 ) of a dynamic system based on inputs (u t-3 , ..., u t ) of the dynamic system in which the prediction with a neural A network is performed, which is learned with a method according to any one of the preceding claims. Computerprogrammprodukt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche, wenn das Programm auf einen Rechner abläuft.Computer program product with one on a machine-readable carrier stored program code for performing a method according to one of the preceding claims, when the program runs on a computer.
DE102008014126A 2008-03-13 2008-03-13 Method for computer-aided learning of a recurrent neural network Expired - Fee Related DE102008014126B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102008014126A DE102008014126B4 (en) 2008-03-13 2008-03-13 Method for computer-aided learning of a recurrent neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008014126A DE102008014126B4 (en) 2008-03-13 2008-03-13 Method for computer-aided learning of a recurrent neural network

Publications (2)

Publication Number Publication Date
DE102008014126A1 DE102008014126A1 (en) 2009-10-01
DE102008014126B4 true DE102008014126B4 (en) 2010-08-12

Family

ID=41010959

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008014126A Expired - Fee Related DE102008014126B4 (en) 2008-03-13 2008-03-13 Method for computer-aided learning of a recurrent neural network

Country Status (1)

Country Link
DE (1) DE102008014126B4 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011004693A1 (en) 2011-02-24 2012-08-30 Siemens Aktiengesellschaft Method for computer-aided learning of a recurrent neural network for modeling a dynamic system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2543006A1 (en) 2010-04-14 2013-01-09 Siemens Aktiengesellschaft Method for the computer-aided learning of a recurrent neural network for modelling a dynamic system
US12014267B2 (en) * 2018-07-13 2024-06-18 Arizona Board Of Regents On Behalf Of Arizona State University Systems and methods for sequential event prediction with noise-contrastive estimation for marked temporal point process

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040267684A1 (en) * 2001-09-19 2004-12-30 Caglayan Erdem Method and system for determining a current first state of a first temporal sequence of respective first states of a dynamically modifiable system
US20070022062A1 (en) * 2003-05-27 2007-01-25 Ralph Grothmann Method computer program with program code means, and computer program product for determining a future behavior of a dynamic system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004059684B3 (en) 2004-12-10 2006-02-09 Siemens Ag Computer process and assembly to predict a future condition of a dynamic system e.g. telecommunications neural-network within defined limits

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040267684A1 (en) * 2001-09-19 2004-12-30 Caglayan Erdem Method and system for determining a current first state of a first temporal sequence of respective first states of a dynamically modifiable system
US20070022062A1 (en) * 2003-05-27 2007-01-25 Ralph Grothmann Method computer program with program code means, and computer program product for determining a future behavior of a dynamic system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Holk Cruse: Neural Networks as Cybernetic Systems, 2nd and revised edition, Brains, Minds and Media, Auszug, publ. Oct. 2006 "Table of Contents" (4S.) & S. 103-139 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011004693A1 (en) 2011-02-24 2012-08-30 Siemens Aktiengesellschaft Method for computer-aided learning of a recurrent neural network for modeling a dynamic system
WO2012113634A1 (en) * 2011-02-24 2012-08-30 Siemens Aktiengesellschaft Method for the computer-aided learning of a recurrent neuronal network for modelling a dynamic system

Also Published As

Publication number Publication date
DE102008014126A1 (en) 2009-10-01

Similar Documents

Publication Publication Date Title
EP2649567B1 (en) Method for the computer-based modeling of a technical system
EP2185980B1 (en) Method for computer-aided control and/or regulation using neural networks
DE102007017259B4 (en) Method for computer-aided control and / or regulation of a technical system
WO2011128313A1 (en) Method for the computer-aided learning of a recurrent neural network for modelling a dynamic system
EP0894304B2 (en) Process for automatic diagnosis of technical systems taking into consideration efficient knowledge acquisition and efficient processing in relation to operational time
EP2112568B1 (en) Method for computer-supported control and/or regulation of a technical system
EP2999998B1 (en) Methods for ascertaining a model of an output variable of a technical system
AT511577A2 (en) MACHINE IMPLEMENTED METHOD FOR OBTAINING DATA FROM A NON-LINEAR DYNAMIC ESTATE SYSTEM DURING A TEST RUN
DE102018109835A1 (en) Method and device for determining a network configuration of a neural network
DE102008014126B4 (en) Method for computer-aided learning of a recurrent neural network
EP1327959B1 (en) Neural network for modelling a physical system and method for building the neural network
WO2000008599A2 (en) Assembly of interconnected computing elements, method for computer-assisted determination of a dynamics which is the base of a dynamic process, and method for computer-assisted training of an assembly of interconnected elements
EP3979009A1 (en) Creation of a simplified model for xil systems
DE102013206292A1 (en) Method and device for creating a data-based function model
EP3714337B1 (en) Simulation of statistically modelled sensor data
DE102015207270A1 (en) Method and apparatus for simulation coupling of an event-driven controller subsystem and a plant subsystem
DE10146222A1 (en) Method and arrangement for determining a current first state of a first chronological sequence of first states of a dynamically variable system
DE102017218143A1 (en) Method and device for driving a vehicle electronic planning module
DE102021110083A1 (en) Training an artificial neural network to test an automatic driving function of a vehicle
DE102021104433A1 (en) Method for determining at least one system state using a Kalman filter
EP4016360A1 (en) Method, computer program product and modeling tool for reference model based, component-related development of a technical system
DE102022112606B3 (en) Computer-implemented method for calibrating a technical system
DE102019201045A1 (en) Method, device and computer program for determining an action or trajectory of a robot
DE102023001366A1 (en) Method for checking a perception module of a driver assistance system
DE102021002684A1 (en) Method for the semantic segmentation of first sensor data of a first sensor type

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R409 Internal rectification of the legal status completed
R409 Internal rectification of the legal status completed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee