DE102008014126B4 - Method for computer-aided learning of a recurrent neural network - Google Patents
Method for computer-aided learning of a recurrent neural network Download PDFInfo
- Publication number
- DE102008014126B4 DE102008014126B4 DE102008014126A DE102008014126A DE102008014126B4 DE 102008014126 B4 DE102008014126 B4 DE 102008014126B4 DE 102008014126 A DE102008014126 A DE 102008014126A DE 102008014126 A DE102008014126 A DE 102008014126A DE 102008014126 B4 DE102008014126 B4 DE 102008014126B4
- Authority
- DE
- Germany
- Prior art keywords
- time interval
- network
- state
- neural network
- beginning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes (RNN) mit zeitlich aufeinander folgenden Zuständen (st-2, ..., st+4) in einem endlichen Zeitintervall, wobei die Zustände (st-2, ..., st+4) mit zeitlich aufeinander folgenden Eingaben (ut-3, ..., ut) und Ausgaben (yt-2, ..., yt+4) eines dynamischen Systems verbunden sind und wobei die Zustände (st-2, ..., st+4) untereinander und mit den Eingaben und Ausgaben über Konvektoren verbunden sind, welche zur Fehler-Rückpropagierung einen zeitlich vorwärts gerichteten und einen zeitlich rückwärts gerichteten Informationsfluss ermöglichen, dadurch gekennzeichnet, dass der Informationsfluss im rekurrenten neuronalen Netz (RNN) vor Beginn des Zeitintervalls und/oder nach Ende des Zeitintervalls mit Hilfe von zumindest einem retro-kausalen Netz (RC1, RC2) oder mit Hilfe von zumindest einem vorwärts gerichteten und/oder zumindest einem rückwärts gerichteten Konnektor (C1, ..., C6) berücksichtigt wird, wobei der zumindest eine vorwärts gerichtete Konnektor (C1, C2, C3) ausschließlich einen zeitlich vorwärts gerichteten Informationsfluss ermöglicht und wobei der zumindest eine rückwärts gerichtete Konnektor (C4,...A method for computer-aided learning of a recurrent neural network (RNN) with temporally successive states (s t-2 , ..., s t + 4 ) in a finite time interval, wherein the states (s t-2 , ..., s t + 4 ) are connected to successive inputs (u t-3 , ..., u t ) and outputs (y t-2 , ..., y t + 4 ) of a dynamic system and wherein the states (s t-2 , ..., s t + 4 ) are interconnected with each other and with the inputs and outputs via convectors, which allow for error backpropagation a time-forward and a time backward information flow, characterized in that the information flow in the recurrent neural network (RNN) before the start of the time interval and / or after the end of the time interval with the aid of at least one retro-causal network (RC1, RC2) or with the aid of at least one forward-facing and / or at least one rearward-facing connector (C1,. .., C6) wherein the at least one forward connector (C1, C2, C3) allows only a forward flow of information and wherein the at least one backward connector (C4, ...
Description
Die Erfindung betrifft ein Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes sowie ein Verfahren zur Prädiktion der Ausgaben eines dynamischen Systems basierend auf einem gelernten rekurrenten neuronalen Netz sowie ein entsprechendes Computerprogrammprodukt.The The invention relates to a method for computer-aided learning of a recurrent patient neural network and a method for predicting the output of a dynamic system based on a trained neuronal recurrent Network and a corresponding computer program product.
Durch rekurrente neuronale Netze werden zeitlich aufeinander folgende interne Zustände eines dynamischen Systems modelliert, wobei zum Lernen der Netze ein endliches Zeitintervall von Zuständen betrachtet wird. Die internen Zustände stellen dabei eine sog. versteckte Schicht des rekurrenten neuronalen Netzes dar, und diese Zustände sind mit zeitlich aufeinander folgenden Eingaben und Ausgaben eines zu modellierenden dynamischen Systems verbunden. Die rekurrente Struktur des Netzes wird dadurch geschaffen, dass die Zustände in der versteckten Schicht untereinander sowie mit den Eingaben und Ausgaben über Konnektoren verbunden sind, welche zur Fehler-Rückpropagierung (englisch: Error Backpropagation) einen zeitlich vorwärts gerichteten und einen zeitlich rückwärts gerichteten Informationsfluss ermöglichen. Mit der Fehler-Rückpropagierung wird die Modellierung des dynamischen Systems dadurch erreicht, dass die Gewichte im neuronalen Netz dahingehend optimiert werden, dass der Fehler zwischen modellierter Ausgabe und vorgegebener Ausgabe minimal ist.By recurrent neural networks become temporally consecutive internal states of a dynamic system, where to learn the networks a finite time interval of states is considered. The internal conditions make a so-called hidden layer of the recurrent neuronal Net, and these states are with temporally successive inputs and outputs one connected to be modeled dynamic system. The recurrent Structure of the network is created by the states in the hidden layer among each other as well as with the inputs and outputs via connectors which are used for error backpropagation (English: Error Back propagation) one temporally forward and one temporally backwards Enable information flow. With the error backpropagation the modeling of the dynamic system is achieved by that the weights in the neural network are optimized to that the error between modeled output and given output is minimal.
Bei rekurrenten neuronalen Netzen besteht das Problem, dass die Netze nur ein endliches Zeitintervall abdecken und keine geeigneten initialen internen Zustandswerte zur Initialisierung des Lernens des neuronalen Netzes vorliegen. Herkömmlicherweise wird die sich aus den fehlenden initialen Zustandswerten ergebende Inkonsistenz in dem neuronalen Netz vernachlässigt. Es ist jedoch auch eine Lösung bekannt, bei der ein Rausch-Generator in Abhängigkeit von dem rückpropa gierten Fehler ein Rauschen generiert, mit dem die Unsicherheit des unbekannten initialen Zustands abgeschätzt wird. Jedoch berücksichtigt die Lösung nicht ausreichend weit vom Anfang des Zeitintervalls entfernte vergangene Zustände. Darüber hinaus wird auch nicht das zukünftige Verhalten des dynamischen Systems berücksichtigt.at recurrent neural networks, the problem is that the networks cover only a finite time interval and no suitable initials internal state values for initializing the learning of the neural Network available. traditionally, becomes the result of the missing initial state values Inconsistency in the neural network neglected. But it is also one solution known in which a noise generator depending on the backpropa gierte Error generates a noise with which the uncertainty of the unknown estimated initial state becomes. However, considered the solution not far away from the beginning of the time interval Conditions. About that also not the future Behavior of the dynamic system considered.
Die Druckschrift Holk Cruse: Neural Networks as Cybernetic Systems, 2nd and revised edition, Brains, Minds and Media, Auszug, publ. Oktober 2006, ”Table of Contents” (4 Seiten) und Seiten 103 bis 139, beschreibt das Konzept von rekurrenten neuronalen Netzen sowie entsprechende Lernverfahren für diese Netze.The Holk Cruse: Neural Networks as Cybernetic Systems, 2nd and revised edition, Brains, Minds and Media, excerpt, publ. October 2006, "Table of Contents "(4 Pages) and pages 103 to 139, describes the concept of recurring neural networks and corresponding learning methods for them Networks.
In
dem Dokument
In
der Druckschrift
Aufgabe der Erfindung ist es, ein Verfahren zum Lernen eines neuronalen Netzes zu schaffen, bei dem zur Verbesserung der Vorhersagegenauigkeit dieses Netzes der Informationsfluss aus der Vergangenheit bzw. aus der Zukunft geeignet berücksichtigt wird.task The invention is a method for learning a neural To create network, which helps to improve the prediction accuracy This network of information flow from the past or from suitable for the future becomes.
Diese Aufgabe wird durch die unabhängigen Patentansprüche gelöst. Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen definiert.These Task is by the independent claims solved. Further developments of the invention are defined in the dependent claims.
Das erfindungsgemäße Verfahren zum Lernen eines rekurrenten neuronalen Netzes zeichnet sich dadurch aus, dass der Informationsfluss im rekurrenten neuronalen Netz vor Beginn des Zeitintervalls und/oder nach Beginn des Zeitintervalls mit Hilfe von zumindest einem retro-kausalen Netz oder mit Hilfe von zumindest einem vorwärts gerichteten und/oder zumindest einem rückwärts gerichteten Konnektor berücksichtigt wird. Ein vorwärts gerichteter Konnektor ermöglicht dabei ausschließlich einen zeitlich vorwärts gerichteten Informationsfluss, wohingegen ein rückwärts gerichteter Konnektor ausschließlich einen zeitlich rückwärts gerichteten Informationsfluss ermöglicht.The inventive method to learn a recurrent neural network is characterized from that the information flow in the recurrent neural network ago Start of the time interval and / or after the beginning of the time interval with the help of at least one retro-causal network or with help from at least one forward directed and / or at least a backward connector considered becomes. A forward directed connector allows exclusively a time forward directed information flow, whereas a backward-looking connector uses only one temporally backward information flow allows.
Erfindungsgemäß kann somit die Vergangenheit bzw. Zukunft durch entsprechende retro-kausale Netze bzw. entsprechende gerichtete Konnektoren berücksichtigt werden. In retro-kausalen Netzen ist die Kausalitätsrichtung umgekehrt, d. h. diese Netze laufen von der Gegenwart in die Vergangenheit bzw. von der Zukunft in die Gegenwart.Thus, according to the invention the past or future through appropriate retro-causal Networks or corresponding directional connectors become. In retro-causal Networks is the causality direction conversely, d. H. these nets run from the present into the past or from the future to the present.
Bei der Verwendung von vorwärts bzw. rückwärts gerichteten Konnektoren kann ein Netzwerkmodell geschaffen werden, welches den Effekt der unbekannten Zukunft bzw. Vergangenheit in geeigneter Weise durch Rauschen in Bezug auf den initialen Zustand und auf den zukünftigen Fehler berücksichtigt. Das Netzwerkmodell wird dabei gegenüber diesem Rauschen versteift. Die Berücksichtigung des Informationsflusses vor Beginn des Zeitintervalls und nach Ende des Zeitintervalls erfolgt dabei insbesondere derart, dass:
- – eine Zustandsverteilung am Ende des Zeitintervalls gemessen wird, wobei die gemessene Zustandsverteilung über einen vorwärts gerichteten Konnektor mit dem Zustand am Ende des Zeitintervalls verbunden ist;
- – in Abhängigkeit von der gemessenen Zustandsverteilung ein Rauschen generiert wird, wobei das generierte Rauschen über einen rückwärts gerichteten Konnektor mit der gemessenen Zustandsverteilung am Ende des Zeitintervalls und über einen vorwärts gerichteten Konnektor mit dem Zustand am Anfang des Zeitintervalls verbunden ist;
- – die Fehlerverteilung am Anfang des Zeitintervalls gemessen wird, wobei die gemessene Fehlerverteilung am Anfang des Zeitintervalls über einen rückwärts gerichteten Konnektor mit dem Zustand am Anfang des Zeitintervalls verbunden ist;
- – in Abhängigkeit von der gemessenen Fehlerverteilung am Anfang des Zeitintervalls eine Fehlerverteilung am Ende des Zeitintervalls generiert wird, wobei die generierte Fehlerverteilung am Ende des Zeitintervalls über einen vorwärts gerichteten Konnektor mit der gemessenen Fehlerverteilung am Anfang des Zeitintervalls und über einen rückwärts gerichteten Konnektor mit dem Zustand am Ende des Zeitintervalls verbunden ist.
- A state distribution is measured at the end of the time interval, the measured state distribution being connected via a forward connector to the state at the end of the time interval;
- A noise is generated in dependence on the measured state distribution, wherein the generated noise is connected via a backward connector to the measured state distribution at the end of the time interval and via a forward connector to the state at the beginning of the time interval;
- The error distribution at the beginning of the time interval is measured, the measured error distribution at the beginning of the time interval being connected via a backward connector to the state at the beginning of the time interval;
- - An error distribution at the end of the time interval is generated as a function of the measured error distribution at the beginning of the time interval, wherein the generated error distribution at the end of the time interval via a forward connector with the measured error distribution at the beginning of the time interval and via a backward connector with the state connected at the end of the time interval.
Unter Zustandsverteilung wird hierbei die über einen Zeitraum ermittelte Wahrscheinlichkeitsverteilung der Zustände verstanden. Mit der oben beschriebenen Struktur wird in geeigneter Weise durch Verwendung der vorwärts- bzw. rückwärts gerichteten Konnektoren eine Versteifung des Netzes gegenüber der Unsicherheit der Zustände in der fernen Zukunft bzw. der fernen Vergangenheit erreicht. Vorzugsweise werden dabei die gemessene Zustandsverteilung am Ende des Zeitintervalls und/oder die generierte Fehlerverteilung am Ende des Zeitintervalls jeweils durch einen Ziel-Cluster modelliert, wobei dessen Zielwert insbesondere auf Null gesetzt ist. Ebenso werden vorzugsweise die gemessene Fehlerverteilung am Anfang des Zeitintervalls und/oder das generierte Rauschen am Anfang des Zeitintervalls durch einen Eingabe-Cluster modelliert, dessen erwarteter Eingabewert ebenfalls vorzugsweise auf Null gesetzt ist.Under State distribution here is the determined over a period of time Probability distribution of the states understood. With the above described structure is suitably by using the forward- or backward Connectors a stiffening of the network against the uncertainty of the states in the reached the distant future or the distant past. Preferably In this case, the measured state distribution at the end of the time interval and / or the generated error distribution at the end of the time interval each modeled by a target cluster, with its target value in particular set to zero. Likewise, preferably the measured error distribution at the beginning of the time interval and / or the generated noise at the beginning of the time interval by a Input cluster is modeled, its expected input value also is preferably set to zero.
Das zu lernende neuronale Netz beschreibt in einer bevorzugten Ausführungsform ein Zeitintervall, welches eine oder mehrere aufeinander folgende vergangene Zustände, einen gegenwärtigen Zustand sowie einen oder mehrere aufeinander folgende zukünftige Zustände umfasst. Bei der Verwendung von retro-kausalen Netzen zur Modellierung des Informationsflusses vor Beginn des Zeitintervalls wird hierbei vorzugsweise ein erstes retro-kausales Netz verwendet, wobei sich das erste retro-kausale Netz von einem gegenwärtigen Zustand zu dem Zustand am Anfang des Zeitintervalls erstreckt. Analog wird zur Modellierung des Informationsflusses nach dem Ende des Zeitintervalls vorzugsweise ein zweites retro-kausales Netz verwendet, wobei sich das zweite retro-kausale Netz von dem Zustand am Ende des Zeitintervalls zu einem gegenwärtigen Zustand erstreckt. Um das Lernen des neuronalen Netzes zu verbessern, wird dabei in einer bevorzugten Variante ein Fehler im zweiten retro-kausalen Netz durch Vergleich des gegenwärtigen Zustands im Zeitintervall mit dem gegenwärtigen Zustand des zweiten retro-kausalen Netzes ermittelt. Dieser Fehler wird in das rekurrente neuronale Netz rückpropagiert. Vorzugsweise ist dabei der ermittelte Fehler mit dem gegenwärtigen Zustand im Zeitintervall über einen vorwärts gerichteten Konnektor verbunden, um hierdurch einen Rückfluss des Fehlers direkt zu dem gegenwärtigen Zustand im Zeitintervall zu verhindern.The to be learned neural network describes in a preferred embodiment a time interval which is one or more consecutive past states, a present one State and one or more consecutive future states. When using retro-causal Networks for modeling the flow of information before the beginning of the time interval in this case preferably a first retro-causal network is used, where the first retro-causal network is of a current state extends to the state at the beginning of the time interval. Analog becomes to model the flow of information after the end of the time interval preferably a second retro-causal network is used, wherein the second retro-causal network of the state at the end of the time interval to a current one State extends. To improve the learning of the neural network, is in a preferred variant, an error in the second retro-causal Net by comparison of the current one State in the time interval with the current state of the second determined retro-causal network. This error is in the recurrent neural network back propagated. Preferably, the determined error is with the current state in the time interval over a forward directed connector, thereby providing a reflux the error directly to the current one Prevent state in the time interval.
Das erfindungsgemäße Verfahren kann für beliebige Ausführungen von rekurrenten neuronalen Netzen verwendet werden. Insbesondere kann das Verfahren auch zum Lernen komplexer rekurrenter neuronaler Netze eingesetzt werden, wie z. B. sog. DCNN-Netzen (DCNN = Dynamical Consistent Neural Networks) bzw. NRNN-Netzen (NRNN = Normalized Recurrent Neural Network). Diese Netzwerkstrukturen sind hinlänglich aus dem Stand der Technik bekannt.The inventive method can for any designs used by recurrent neural networks. Especially The method can also be used to learn complex recurrent neural networks be used, such. B. so-called. DCNN networks (DCNN = Dynamical Consistent Neural Networks) or NRNN networks (NRNN = Normalized Recurrent Neural Network). These network structures are sufficient known in the art.
Vorzugsweise werden mit dem zu lernenden neuronalen Netz die Eingaben und Ausgaben eines technischen Systems modelliert, d. h. das neuronale Netz wird mit Eingabe- bzw. Ausgabedaten eines technischen Systems gelernt. Das technische System kann eine beliebige technische Vorrichtung sein, beispielsweise eine Gasturbine oder eine Windkraftanlage. Gegebenenfalls kann das erfindungsgemäße Verfahren jedoch auch für dynamische ökonomische Systeme eingesetzt werden, beispielsweise kann das rekurrente neuronale Netz die Eingaben und Ausgaben einer Energiehandelsbörse modellieren, um hierdurch beispielsweise einen Energiepreis vorherzusagen.Preferably become the inputs and outputs with the neural network to be learned of a technical system, d. H. the neural network becomes learned with input or output data of a technical system. The technical system can be any technical device be, for example, a gas turbine or a wind turbine. Optionally, the inventive method, however, also for dynamic economic Systems can be used, for example, the recurrent neuronal Network modeling the inputs and outputs of an energy trading exchange, to predict, for example, an energy price.
Neben dem oben beschriebenen Verfahren zum Lernen eines rekurrenten neuronalen Netzes umfasst die Erfindung ferner ein Verfahren zur Prädiktion der Ausgaben eines dynamischen Systems basierend auf Eingaben des dynamischen Systems, wobei die Prädiktion mit einem neuronalen Netz durchgeführt wird, welches mit dem oben beschriebenen Lernverfahren gelernt ist.In addition to the method described above for learning a recurrent neural network the invention further provides a method for predicting the outputs of a dynamic system based on inputs of the dynamic system, wherein the prediction is performed with a neural network learned with the learning method described above.
Die Erfindung betrifft darüber hinaus ein Computerprogrammprodukt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung der oben beschriebenen erfindungsgemäßen Verfahren, wenn das Programm auf einem Rechner abläuft.The Invention relates to this a computer program product with one on a machine-readable one carrier stored program code for performing the above inventive method, if the program runs on a computer.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand der beigefügten Figuren detailliert beschrieben.embodiments The invention will be described below with reference to the attached figures described in detail.
Es zeigen:It demonstrate:
Üblicherweise wird ein derartiges Netz mit dem Fehler-Rückpropagation-Algorithmus gelernt, der auf folgender lokalen Lösung beruht: Typically, such a network is learned with the error backpropagation algorithm based on the following local solution:
Hierbei
bezeichnet E den gemittelten Fehler und Et den
Fehler zu den einzelnen Zeitschritten t in dem Zeitintervall [1,
..., T]. yt d bezeichnet
Ausgabedaten, auf deren Basis das Netz gelernt wird, und NN(xt, w) die entsprechende Ausgabe des neuronalen
Netzes. Die Gewichte werden in dem neuronalen Netz somit basierend
auf dem rückpropagierten
Fehler derart gelernt, dass der gemittelte Fehler E minimal ist.
Die Rückpropagation
des Fehlers wird dabei durch die nach unten gerichteten Pfeile P3
und P4 in
Aus
dem internen Zustand st zum Zeitpunkt t
ergibt sich ferner die Ausgabe yt zum Zeitpunkt
t durch folgende Gleichung:
Der interne Zustand st zum Zeitpunkt t wird somit zur Bestimmung des internen Zustands st+1 zu dem nachfolgenden Zeitpunkt t + 1 verwendet, was durch die Schleife L angedeutet ist. Wie durch den Pfeil A1 und die Gleichungen (1) und (2) wiedergegeben ist, können in einer speziellen Variante die Gleichungen zur Bestimmung von st+1 und yt durch Matrizen A, B und C sowie den Parameter c beschrieben werden. Das Lernen erfolgt basierend auf der Gleichung (3), wonach der in dem Zeitintervall [1, ..., T] gemittelte quadratische Fehler zwischen berechneter yt Ausgabe und der Ausgabe yt d gemäß dem zum Lernen verwendeten Datensatz minimiert wird. Wie durch den Pfeil A2 angedeutet ist, kann die soeben erklärte Netzwerkstruktur durch eine entsprechende Darstellung als Netz RNN wiedergegeben werden. In dem Netz RNN werden durch entsprechende Kreise die Eingaben ut-3, ut-2, ut-1 und ut, die internen Zustände st-2, st-1, st, st+1, st+2, st+3, st+4 und die Ausgaben yt-2, yt-1, yt, yt+1, yt+2, yt+3 und yt+4 des neuronalen Netzes dargestellt. Ebenso werden durch entsprechende Pfeile die Parameter A, B und C zur Berechnung der einzelnen Größen gemäß den Gleichungen (1) und (2) spezifiziert. Die Pfeile stellen dabei Konnektoren dar, welche sowohl einen zeitlich vorwärts gerichteten als auch einen zeitlich rückwärts gerichteten Informationsfluss ermöglichen, um hierdurch eine Fehler-Rückpropagierung sicherzustellen.The internal state s t at time t is thus used to determine the internal state s t + 1 at the subsequent time t + 1, which is indicated by the loop L. As represented by the arrow A1 and the equations (1) and (2), the equations for determining s t + 1 and y t by matrices A, B and C and the parameter c can be described in a specific variant. The learning is based on the equation (3), according to which the quadratic error averaged between the calculated y t output and the output y t d in the time interval [1, ..., T] is minimized according to the record used for learning. As indicated by the arrow A2, the just explained network structure can be represented by a corresponding representation as network RNN. In the network RNN, the inputs u t-3 , u t-2 , u t-1 and u t , the internal states s t-2 , s t-1 , s t , s t + 1 , s t + 2 , s t + 3 , s t + 4 and the outputs y t-2 , y t-1 , y t , y t + 1 , y t + 2 , y t + 3 and y t + 4 of the neural Network shown. Similarly, arrows A, B and C are used to calculate the individual quantities according to equations (1) and (2). In this case, the arrows represent connectors which enable both a time-forwarded and a backward-looking information flow in order to ensure error backpropagation.
Ein
Problem des anhand von
Dabei
bezeichnet AGN das adaptive Gaußsche
Rauschen und σ dessen
von ∂t abhängige
Standardabweichung. Mit Hilfe des adaptiven Gaußschen Rauschens wird dabei
eine Versteifung des Modells gegenüber dem unbekannten und somit
unsicheren initialen Zustand st-m erreicht.
Dies wird durch das Diagramm D in
In
der Lösung
gemäß
Zur
Lösung
der obigen Problemstellung wird die in
Gemäß der Struktur
nach
Der
Fehler E ergibt sich in der Ausführungsform
gemäß
Zusammenfassend
erzeugt das obere Teilnetz N1 ein Eingangsrauschen in Abhängigkeit
von der finalen Zustandsverteilung, wohingegen das untere Teilnetz
N2 die Eingangsunsicherheit misst und einen zusätzlichen Fehlerfluss in das
neuronale Netz injiziert. Das Prinzip des neuronalen Netzes gemäß
Mit
der Ausführungsform
gemäß
Im
Vorangegangenen wurde die Erfindung basierend auf einem herkömmlichen
rekurrenten neuronalen Netz RNN beschrieben. Die Erfindung ist jedoch
in einfacher Weise auch auf DCNN-Netze
erweiterbar. DCNN-Netze sind hinlänglich aus dem Stand der Technik
bekannt und ermöglichen
eine dynamisch konsistente Beschreibung eines dynamischen Systems.
Zwecks genauerer Beschreibung von DCNN-Netzen wird insbesondere
auf die Druckschrift
Das
Netz gemäß
Aus Übersichtlichkeitsgründen wurde
das DCNN-Netz der
Die
erste, anhand von
Analog
zu den Konnektoren C3 und C4 in
In
dem Netz der
Analog
zu dem Netzwerk gemäß
Durch die im Vorangegangenen beschriebenen Ausführungsformen werden neuronale Netzstrukturen geschaffen, welche mit entsprechenden Eingaben und Ausgaben aus bekannten Datensätzen gelernt werden. Die Eingaben und Ausgaben stellen hierbei Messwerte eines dynamischen Systems dar. Es können mit dem Verfahren beliebige dynamische Systeme, insbesondere ökonomische Systeme und technische Systeme, modelliert werden. Das entsprechende Netz wird dabei zunächst mit bekannten Datensätzen gelernt, und anschließend wird das gelernte Netz zur Prädiktion von Ausgaben basierend auf Eingaben verwendet. Ein Anwendungsbereich des erfindungsgemäßen Verfahrens ist beispielsweise die Prädiktion von Energiepreisen einer Energiehandelsbörse. Ein weiterer bevorzugter Anwendungsbereich ist die Prädiktion des dynamischen Verhaltens von technischen Systemen. Beispielsweise kann basierend auf Einstellparametern des technischen Systems ein Ausgabeparameter des technischen Systems vorhergesagt werden. Eine mögliche Anwendung ist hierbei eine Gasturbine, bei der basierend auf Einstellparametern, wie z. B. zugeführte Treibstoffmenge, das Brummen bzw. die Energieausgabe der Gasturbine berechnet wird. Ebenso kann das Verfahren für Windkraftanlagen eingesetzt werden, bei denen basierend auf Einstellwerten der Windkraftanlage, wie z. B. der Stellung der Rotorblätter des Windgenerators, die sich daraus ergebende ausgegebene Energie berechnet wird.By The embodiments described above become neural Network structures created, which with appropriate inputs and Outputs from known datasets be learned. The inputs and outputs represent measured values a dynamic system. It can with the method any dynamic systems, in particular economic systems and technical Systems to be modeled. The corresponding network is initially with known records learned, and then the learned net becomes a prediction used by expenses based on inputs. A scope the method according to the invention is for example the prediction of energy prices of an energy trading exchange. Another preferred Scope is the prediction the dynamic behavior of technical systems. For example can be based on setting parameters of the technical system Output parameters of the technical system are predicted. A possible Application here is a gas turbine, in which based on setting parameters, such as B. supplied Fuel quantity, the hum or the energy output of the gas turbine is calculated. Likewise, the method can be used for wind turbines where, based on wind turbine settings, such as B. the position of the rotor blades of the wind generator, the resulting energy is calculated.
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102008014126A DE102008014126B4 (en) | 2008-03-13 | 2008-03-13 | Method for computer-aided learning of a recurrent neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102008014126A DE102008014126B4 (en) | 2008-03-13 | 2008-03-13 | Method for computer-aided learning of a recurrent neural network |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102008014126A1 DE102008014126A1 (en) | 2009-10-01 |
DE102008014126B4 true DE102008014126B4 (en) | 2010-08-12 |
Family
ID=41010959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102008014126A Expired - Fee Related DE102008014126B4 (en) | 2008-03-13 | 2008-03-13 | Method for computer-aided learning of a recurrent neural network |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102008014126B4 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011004693A1 (en) | 2011-02-24 | 2012-08-30 | Siemens Aktiengesellschaft | Method for computer-aided learning of a recurrent neural network for modeling a dynamic system |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2543006A1 (en) | 2010-04-14 | 2013-01-09 | Siemens Aktiengesellschaft | Method for the computer-aided learning of a recurrent neural network for modelling a dynamic system |
US12014267B2 (en) * | 2018-07-13 | 2024-06-18 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems and methods for sequential event prediction with noise-contrastive estimation for marked temporal point process |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040267684A1 (en) * | 2001-09-19 | 2004-12-30 | Caglayan Erdem | Method and system for determining a current first state of a first temporal sequence of respective first states of a dynamically modifiable system |
US20070022062A1 (en) * | 2003-05-27 | 2007-01-25 | Ralph Grothmann | Method computer program with program code means, and computer program product for determining a future behavior of a dynamic system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004059684B3 (en) | 2004-12-10 | 2006-02-09 | Siemens Ag | Computer process and assembly to predict a future condition of a dynamic system e.g. telecommunications neural-network within defined limits |
-
2008
- 2008-03-13 DE DE102008014126A patent/DE102008014126B4/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040267684A1 (en) * | 2001-09-19 | 2004-12-30 | Caglayan Erdem | Method and system for determining a current first state of a first temporal sequence of respective first states of a dynamically modifiable system |
US20070022062A1 (en) * | 2003-05-27 | 2007-01-25 | Ralph Grothmann | Method computer program with program code means, and computer program product for determining a future behavior of a dynamic system |
Non-Patent Citations (1)
Title |
---|
Holk Cruse: Neural Networks as Cybernetic Systems, 2nd and revised edition, Brains, Minds and Media, Auszug, publ. Oct. 2006 "Table of Contents" (4S.) & S. 103-139 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011004693A1 (en) | 2011-02-24 | 2012-08-30 | Siemens Aktiengesellschaft | Method for computer-aided learning of a recurrent neural network for modeling a dynamic system |
WO2012113634A1 (en) * | 2011-02-24 | 2012-08-30 | Siemens Aktiengesellschaft | Method for the computer-aided learning of a recurrent neuronal network for modelling a dynamic system |
Also Published As
Publication number | Publication date |
---|---|
DE102008014126A1 (en) | 2009-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2649567B1 (en) | Method for the computer-based modeling of a technical system | |
EP2185980B1 (en) | Method for computer-aided control and/or regulation using neural networks | |
DE102007017259B4 (en) | Method for computer-aided control and / or regulation of a technical system | |
WO2011128313A1 (en) | Method for the computer-aided learning of a recurrent neural network for modelling a dynamic system | |
EP0894304B2 (en) | Process for automatic diagnosis of technical systems taking into consideration efficient knowledge acquisition and efficient processing in relation to operational time | |
EP2112568B1 (en) | Method for computer-supported control and/or regulation of a technical system | |
EP2999998B1 (en) | Methods for ascertaining a model of an output variable of a technical system | |
AT511577A2 (en) | MACHINE IMPLEMENTED METHOD FOR OBTAINING DATA FROM A NON-LINEAR DYNAMIC ESTATE SYSTEM DURING A TEST RUN | |
DE102018109835A1 (en) | Method and device for determining a network configuration of a neural network | |
DE102008014126B4 (en) | Method for computer-aided learning of a recurrent neural network | |
EP1327959B1 (en) | Neural network for modelling a physical system and method for building the neural network | |
WO2000008599A2 (en) | Assembly of interconnected computing elements, method for computer-assisted determination of a dynamics which is the base of a dynamic process, and method for computer-assisted training of an assembly of interconnected elements | |
EP3979009A1 (en) | Creation of a simplified model for xil systems | |
DE102013206292A1 (en) | Method and device for creating a data-based function model | |
EP3714337B1 (en) | Simulation of statistically modelled sensor data | |
DE102015207270A1 (en) | Method and apparatus for simulation coupling of an event-driven controller subsystem and a plant subsystem | |
DE10146222A1 (en) | Method and arrangement for determining a current first state of a first chronological sequence of first states of a dynamically variable system | |
DE102017218143A1 (en) | Method and device for driving a vehicle electronic planning module | |
DE102021110083A1 (en) | Training an artificial neural network to test an automatic driving function of a vehicle | |
DE102021104433A1 (en) | Method for determining at least one system state using a Kalman filter | |
EP4016360A1 (en) | Method, computer program product and modeling tool for reference model based, component-related development of a technical system | |
DE102022112606B3 (en) | Computer-implemented method for calibrating a technical system | |
DE102019201045A1 (en) | Method, device and computer program for determining an action or trajectory of a robot | |
DE102023001366A1 (en) | Method for checking a perception module of a driver assistance system | |
DE102021002684A1 (en) | Method for the semantic segmentation of first sensor data of a first sensor type |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee | ||
R409 | Internal rectification of the legal status completed | ||
R409 | Internal rectification of the legal status completed | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |