WO2012113634A1 - Verfahren zum rechnergestützten lernen eines rekurrenten neuronalen netzes zur modellierung eines dynamischen systems - Google Patents

Verfahren zum rechnergestützten lernen eines rekurrenten neuronalen netzes zur modellierung eines dynamischen systems Download PDF

Info

Publication number
WO2012113634A1
WO2012113634A1 PCT/EP2012/051822 EP2012051822W WO2012113634A1 WO 2012113634 A1 WO2012113634 A1 WO 2012113634A1 EP 2012051822 W EP2012051822 W EP 2012051822W WO 2012113634 A1 WO2012113634 A1 WO 2012113634A1
Authority
WO
WIPO (PCT)
Prior art keywords
network
vector
causal
retro
causal network
Prior art date
Application number
PCT/EP2012/051822
Other languages
English (en)
French (fr)
Inventor
Hans-Georg Zimmermann
Ralph Grothmann
Christoph Tietz
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Publication of WO2012113634A1 publication Critical patent/WO2012113634A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Definitions

  • the invention relates to a method for computer-aided learning of a recurrent neural network for modeling a dynamic system and to a method for predicting the observables of a dynamic system based on a learned recurrent neural network and a corresponding computer program product.
  • Recurrent neural networks are used today in various fields of application to in order to model the temporal development of a dynamic system in a suitable manner such that a learned with training data of the dynamic system recurrent neural network, the Obser ⁇ vablen (observable states) can predict well the system under consideration .
  • unknown unknown states are modeled by the recurrent neural network as states of the dynamic system.
  • a causal, ie temporally forward, flow of information between temporally successive states is considered.
  • dynamic systems rely on the fact that the temporal evolution of the states of the system also involves future forecasts of observables. Such dynamic systems are often insufficiently described by known recurrent neural networks.
  • the object of the invention is therefore to provide a method for computer-aided learning of a recurrent neural network, with which dynamic systems can be better modeled. This object is achieved by the independent claims ge ⁇ triggers. Further developments of the invention are defined in the dependent claims.
  • the inventive method is used for computer-assisted learning a recurrent neural network for modeling a dynamic system at respective times comprising one or more Obwalden servablen by a Observablenvektor (ie observable states of the dynamic Sys tems ⁇ ) is characterized as entries.
  • the procedure is as applicable to ⁇ to any dynamic systems beispielswei ⁇ se the development of energy prices and / or commodity prices can be modeled with the procedure.
  • the method can be used to model any technical system which changes dynamically over time based on corresponding observable state variables of the technical system, in order thereby to predict observables of the technical system with a correspondingly learned network.
  • a gas turbine ie observable states of the dynamic Sys tems ⁇
  • the recurrent neural network learned in accordance with the invention comprises a causal network which describes a temporally forward information flow between first state vectors of the dynamic system via a coupling to a first weight matrix, wherein a first state vector comprises one or more first entries at a particular time correspond to an entry of the observable vector, as well as one or more hidden (ie unobservable) states of the dynamic system.
  • a retro-causal network which describes a time backward information flow between second to ⁇ Statesvektoren the dynamic system via a second weight matrix, wherein a second state vector one or more second entries at a time which each correspond to an entry of the observable vector, and one or more hidden states of the dynamic system.
  • a erstoff from time to time by the causal network ⁇ ter first state vector is corrected in the recurrent neural network as part of the coupling to the (temporally) following the first state vector by a first differential vector, or the detected from time to time by the causal network first state vector whose first entries are coupled to the corresponding second state vector or its second entries determined at the respective time by the retro-causal network.
  • the first difference vector describes the difference between the first entries of the determined at the time the first state vector and ei ⁇ nem Observablenvektor known from training data.
  • the learning of the causal network thus represents a well-known teacher-forcing, in which one in the causal
  • Network determined observable vector in the form of corresponding first entries of the state vector is replaced by a known Ob ⁇ servablenvektor from training data. This is achieved by correcting, via the first difference vector, the observable vector determined in the causal network in such a way that the observable vector obtained therefrom represents the known observable vector of training data.
  • Corrected network second state vector in the context of coupling with the previous second state vector by a second difference vector, the second state vector determined at the respective time or its second entries with the corresponding, determined at the time by the causal network first state vector or its first Couples entries.
  • the second dif- vector is a separate vector provided in addition to the first difference vector.
  • the retro-causal network is learned with a method in which the second difference vector describes the difference between the second entries of the second state vector determined at the respective time and a known observable vector of training data.
  • the learning of the retro-causal network is thus also based on teacher forcing, in which by a correction by means of a (second) difference vector of the detected in the retro-causal network observable vector, which corresponds to the second entries of the second state vector, to the be ⁇ knew observable vector is mapped from the training data.
  • the method according to the invention is characterized in that a first difference vector for the causal network and separately a second difference vector for the retro-causal network for modeling the teacher forcing are used in the recurrent neural network.
  • the goal of learning the causal and the retro-causal network is to minimize the first or second difference vector.
  • the inventive method is further characterized in that a dynamic system is described by a recurrent neuro ⁇ dimensional network which ⁇ be taken into account both a flow of information from the past to the future as well as a flow of information from the future to the past.
  • dynamic systems can be suitably modeled in which the observables are also influenced by predicted future value values at a given point in time.
  • two copies of the recurrent neural network are learned simultaneously in order to learn the recurrent neural network, whereby one copy finally the causal network is learned and in the other copy only the retro-causal network is learned.
  • This procedure ensures that no loops in the network occur ⁇ factory and is modeled at the same time for both the causal and causal network for the retro-teacher-forcing.
  • guide of the invention form the causal network is learned in such a manner are ge that in addition to the causal network one or more second causal networks ⁇ learns which correspond respectively to the causal network with the difference that in the respective second causal network for a part of the time points the difference vectors are omitted. That is, in a respective second causal network, the teacher forcing is only for one
  • the model is less dependent on the teacher forcing, which can improve learning.
  • the same first weight matrix is learned as for the original causal network of the recurrent neural network.
  • a learning method based on one or more second causal networks is described in detail in German Patent Application with Applicant's Serial No. 2011P02814DE filed by the same Applicant on the same day as the present application at the German Patent and Trademark Office. The total disclosure of the ⁇ ser application is incorporated by reference into the present application.
  • a difference vector is contained in a respective second causal network only for every ilth time, where n is a natural number greater than or equal to two.
  • the retro-causal network can be learned in such a way that in addition to the retro-causal network
  • This learning thus takes place in the same way as for the causal network with the only difference that the direction of causality is reversed.
  • the same second weight matrix is learned for the second or second retro-causal networks as for the original retro-causal network.
  • a difference vector is contained in a respective second retro-causal network only for every n-th time, where n is a natural number greater than or equal to two.
  • the advertising based learned the causal and the retro-causal network to ei ⁇ ner error-back propagation with shared weights.
  • This method which is also known by the English term "error back propagation with shared weights", is familiar to the person skilled in the art and is frequently used in learning in recurrent neural networks. By using this method, a simple and efficient learning of the recurrent neural network is achieved.
  • a first state vector is converted at a respective time into a first state vector at a subsequent time by multiplication with the first weight matrix and application of an activation function.
  • the activation function is in a particularly preferred Vari-ante initially applied to the to ⁇ state vector at the specified time and only then is multiplied with the first Ge ⁇ weight matrix. This ensures that observables can be described which are not restricted by the value range of the activation function.
  • a second state vector is converted at a respective time into a second state vector at a preceding time by multiplication with the second weight matrix and application of an activation function.
  • the activation function is again first vector to the second status applied at the respective time, and only at ⁇ closing is multiplied with the second Ge ⁇ weight matrix. This ensures also for the retro-causal network that the observables are not limited by the Wertebe ⁇ rich activation function.
  • the above ⁇ be signed activation functions are tanh functions (hyperbolic tangent), which are often used in recurrent neural networks.
  • the invention comprises a method for the prediction of observables of a dynamic system, wherein the prediction is performed with a recurrent neural network, which is comprising learned with the OF INVENTION ⁇ to the invention the learning method based on training data known Observablenvektoren of the dynamic system.
  • the invention further relates to a computer program product having a program code stored on a machine-readable carrier for carrying out the methods described above when the program is run on a computer.
  • FIGS. 1 and 2 show two variants of known recurrent neural networks for modeling a dynamic system
  • FIG. 3 shows a variant of a recurrent neural network based on FIG. 2, which according to the invention is used as a causal subnetwork;
  • Fig. 4 is a known from the prior art
  • FIGS. 5 and 6 show variants of the learning of the causal network of FIG. 3, which are used in embodiments of the method according to the invention.
  • FIG. 7 shows a retro-causal network which is used in the method according to the invention in combination with the causal network of FIG. 3;
  • Fig. 10 shows an embodiment of a recurrent neural network which combines the networks of Figs. 3 and 7 together and is learned based on the invention
  • FIGS. 11 and 12 are embodiments of prior art learning of the recurrent neural network shown in FIG. 10; and FIGS. 13 and 14 are embodiments of a device according to the invention
  • Recurrent neural networks for modeling the temporal behavior of a dynamic system are well known in the art. These networks typically comprise a plurality of layers which include a plurality of neurons and may be based on training data from known states of the dynamic system learned in a suitable manner such that future states of the dynamic Sys tems ⁇ can be predicted.
  • corresponding neuron clusters which model state vectors or observable vectors or difference vectors, are represented by circles.
  • FIG. 1 shows a known prior art variant of the neural network that models an open dynamic Sys tem ⁇ .
  • the network in this case comprises an input layer I with temporally consecutive state vectors u t -3, u t u t 2r i and u t representing corresponding inputs of Dynami ⁇ 's system.
  • These input variables can be, for example, manipulated variables of a technical system modeled using the neural network.
  • the individual status vectors of the input layer I and so on are connected via matrices B with entspre ⁇ sponding hidden state vectors s t s t -i -2R, a hidden layer.
  • the hidden state vectors comprise a plurality of hidden states of the dynamic system and form the (unobservable) state space of the dynamic system.
  • the individual hidden state vectors are connected to each other via matrices A.
  • the network further includes an output layer having output 0 ⁇ sizes in the form of state vectors y t -2R Yt-i / ⁇ / Yt + ir which with corresponding hidden state vectors s t s t 2r i, s t +4 via the matrix C are coupled.
  • the states of the output layer are states of the dynamic system. tems, which result from the corresponding input variables of the input layer I.
  • the neural network of Figure 1 may be learned by known methods, such as error-back propagation and then be used to do so. In suitable manner in order based on A recent ⁇ gear sizes u t-3, t u -2R ⁇ u t-i and the current input variable u ⁇ t in the input layer I future output values Y t + i, Yt + 2r etc. predict in the output layer 0th
  • the network of FIG. 1 is based on a modeling of the considered dynamic system in the form of a superposition of an autonomous and an externally driven subsystem. Fig.
  • FIG. 2 shows another variant of a recurrent neurona ⁇ len network, which is used in the described below embodiments of the method according to the invention is used.
  • This network models a closed dynamic system and differs from the network of FIG. 1 in that it no longer distinguishes between inputs u T and outputs y T , where ⁇ in the following designates an arbitrary point in time. Rather, both the possiblesgrö ⁇ SEN and the output quantities as observables, ie observable states of a Observablenvektors the dynamic system considered.
  • the network of FIG. 2 comprises a first layer LI and a second layer L2, wherein the first
  • Layer LI represents a temporally forward information flow between individual state vectors s t -2r s t -i, ⁇ -, s t +3 of the modeled dynamic system.
  • a state vector s.sub.T initially contains as entries the observable observables which correspond to the state vectors y.sub.t and u.sub.t of FIG. 1, and subsequently the unobservable hidden states , where the number of hidden states is usually much larger than the number of observables.
  • the individual state vectors in the layer LI are interconverted by matrices A, which are based on be learned on training data in a suitable manner. At the beginning of the learning there is a suitable bias in the
  • a suitably learned recurrent neural network of Fig. 2 provides in the second layer the observables y t -i, u t -2r Yt-ir u t -i, ... etc. at the respective times.
  • the matrix [Id, 0] via the matrix [Id, 0], those entries of the corresponding state vectors s T are obtained which correspond to observables.
  • the matrix [Id, 0] has the dimension of the state vector s T for the columns and the dimension according to the number of observables for the rows.
  • the left part of the matrix forms a quadratic identity matrix and for the remaining columns the matrix contains only zeros, whereby the filtering of the observables from the state vector s T is achieved.
  • the observables are embedded in a large state vector s T.
  • the network of Fig. 2 also illustrates a causal network, since the flow of information between the stands to the layer LI ⁇ directed forward in time from the past is carried out in the future.
  • Fig. 3 shows a system based on Fig. 2 recurrent new ⁇ ronales network, now all observables are referred to throughout as Observablenvektoren 3 y t -6r Y sr ⁇ / Yt +.
  • the notation y T thus comprises both the output variable y T and the input quantity u T from FIG. 2. This notation is also used below in all other described variants of recurrent neural networks.
  • the observable vectors y t + i, Yt + 2 / and y t + 3 to be predicted by the network are indicated by dashed circles. That is, the current time is indicated by t in Fig. 3 and also in all other figures. Past times are thus the times t-1, t-2 etc. and future times are the times t + 1, t + 2, t + 3, and so on.
  • Fig. 4 To be modeled of Fig. 4 illustrates a known variant of the learning of rekurren ⁇ th neural network of Fig. 3, where y d t -3, y d t-2 / y d ti and y d t known Observablenvektoren accordance with predetermined Trai ⁇ beginnings data dynamic system.
  • the matrix [Id, 0] corresponds to the above-explained matrix for filtering the observables from the corresponding aggregate.
  • the matrix comprises one of the number of objects
  • the network of FIG. 4 further contains the matrix C, with which a state s T is converted into a state r T.
  • the state r T indicates a filtered stood to ⁇ , which contains only the hidden states of the vector s t. Consequently, the matrix C is a matrix, which on the diagonal elements corresponding to the respective lines or
  • the search is for the matrix A, which minimizes the quadratic error summed over the times t-m ⁇ ⁇ t between known and known observable vectors over the network.
  • the teacher-forcing described above is used, but in modified variants, which are illustrated in Fig. 5 and 6 for the causal network of Fig. 3.
  • the analog notations are retained as in FIG. 4.
  • the additionally added matrix Id in FIG. 5 designates a corresponding identity map for the state vector at which the arrow designated by the matrix begins.
  • tar introduced a target value or a target value now in Fig. 5, which represents the difference vector between the determined by the recurrent neural network Observablenvektor y T within the state vector s and the known T Obser ⁇ vablenvektor y d T.
  • This target value in the ideal case ⁇ zero again serves to replace the corresponding determined observables in the vectors s t by the known observables according to the training data, which by
  • the difference vector based on the target value is also denoted by D or D 'in figures described below.
  • the optimization target is analogous to the network of FIG. 4 given by:
  • Matrix A and then applying the tanh function takes place, which has a value range between -1 and 1.
  • the tanh-function will now be first applied to the entspre ⁇ r sponding state T s or T, and only then is the matrix multiplication is performed with the matrix A.
  • Such a variant of the network is shown in Figure 6, wherein the application of the tanh function before the matrix multiplication with the matrix A is made clear by the fact that in the circles which in FIG. 5 contain the states r T and between the states s t + i and s t + 2 is now sleepge ⁇ enter the tanh function.
  • Fig. 6 thereby represents a preferred variant of a Ler ⁇ nens, which is also utilized in the invention described below, the neural network structure.
  • the difference between the recurrent neural network of Fig. 6 versus the recurrent neural network of Fig. 5 is that in the above equations (5) and (6), the position of the matrix A is interchanged with the position of the function tanh ,
  • the neural networks shown in Fig. 5 and Fig. 6 into account in learning all past state vectors for which Observablenvektoren present from training data, the initial state is learned together based on the bias vector thus ⁇ with the weight matrix A.
  • This network structure is suitable, for example, for the computer-aided prediction of energy prices or raw material prices.
  • In modeling the dynamic behavior of a technical system, which is beschrie ⁇ ben by a number of observables, are not taken into account all the training ⁇ data at a time when learning of the network, but learning is always based on a section of the network structure for a number of consecutive State vectors for which known observable vectors from training data are available.
  • the network is learned in time windows which show different sections of successive observable vectors of the Represent training data.
  • the problem is that no initial state exists.
  • the inconsistency resulting from the missing initial state is neglected.
  • an initial noisy state is used instead of the bias vector So.
  • the method described in the document DE 10 2008 014 126 B4 can be used in particular, which stiffens the web against the uncertainty of the unknown, farumblelie ⁇ constricting past.
  • a network structure with the entire past in accordance with the training data can be taken into account when learning or a shortened network structure in which only one section of consecutive status vectors with associated Observablenvektoren depending on the application according to the training data.
  • the initial to ⁇ is stood by the bias So represents, whereas a corresponding noise term is used in the second case preferably.
  • the invention is based on the finding that a causal model is not always suitable for loading ⁇ scription of a dynamic system.
  • dynamic systems which also have a retro-causal information flow in the reverse direction from the future into the present.
  • This is to dynamic systems in their temporal development ⁇ development and planning, including the forecast of future observables flows.
  • status vectors For example, considering the development of the market price of energy or raw materials, the price is right, not only by supply and demand be ⁇ but also by planning aspects of the seller or buyer on the sale or purchase of energy or Rohstof ⁇ fen.
  • the inventive method is based on the idea to model a dyna ⁇ -mix system such that an information flow is seen not only in causal direction from the past to the future, but also a flow of information in retro-causal direction from the future in the past.
  • Such an information flow can be realized through a retro-causal network.
  • Such a network is shown in FIG.
  • the network of FIG. 7 differs from the network of Fig. 3 in that the flow of information between the states of the method ⁇ is initialized with a bias again at running s T in the reverse direction from the future to the past, the now, however, is a state in the future.
  • the network of FIG. 7 can be learned ana ⁇ log to the network of Fig. 3 on the minimization of a target tar, as indicated in Fig.
  • the invention is now based on a combination of a causal network with a retro-causal network, whereby a recurrent neural network with an information flow of so ⁇ well from the past into the future as well as from the future into the past is made possible.
  • a recurrent neural network with an information flow of so ⁇ well from the past into the future as well as from the future into the past is made possible.
  • Fig. 10 generically shows a combination of a causal network with a retro-causal network, providing a recurrent neural network which can be suitably learned with the method of the invention.
  • the network consists in the lower part of a causal network Nl and in the upper part of a retro-causal network N2 together.
  • the network N1 corresponds to the causal network of FIG. 3 and the network N2 corresponds to the retro-causal network of FIG. 7, where in the retro-causal network the matrices are now denoted by A 'and the states by s T ', since matrices and to ⁇ stands for the causal and the retro-causal network may be under ⁇ different.
  • Both networks are coupled to each other via the corresponding observable vector y T.
  • FIG. 11 shows, based on the network of FIG. 10, a learning of the network by means of teacher forcing based on the method described in German patent application 10 2010 014 906.3.
  • This teacher forcing has been explained separately above for the causal network in Fig. 6 and the retro-causal network in Fig. 9.
  • the object variables contained in the state vector s t are denoted by t and the observables contained in the state vector s t 'are designated by t ' for the instant t .
  • the sum of t and t ' represents the observable vector determined by the recurrent network and the target value is the difference between this sum and the actual observable vector y d t according to the training data.
  • the target offset is thus represented by a difference vector, denoted by D in FIG. is net.
  • a teacher forcing is achieved for each time step ⁇ ⁇ t.
  • the tanh function and then the multiplication with the matrix A or A ' is first applied to this state.
  • the error-repatriation with well-known weight well known from the prior art is used, which is shown in FIG.
  • the error-backpropagation with divided weights is thereby achieved that in two copies of the network of Fig. 11, once the error-backpropagation for the causal
  • the learning of the recurrent neural network comprising a causal component and a retro-causal component described with reference to FIGS. 10 and 11 has the disadvantage that a common difference vector is used for both network components in the respective time step Net as well as for the retro-causal network a Teacher- Forcing is realized. Consequently, in learning the network according to FIG. 12, the teacher-forcing in the respective copy of the network is modeled either only in the causal part or only in the retro-causal part. This can lead to instabilities in some cases application ⁇ . In order to improve the learning described with reference to FIGS.
  • a difference vector for the causal network N1 and a separate difference vector for the retro-causal network N2 be used in order to teach the teacher realize.
  • Fig. 13 shows an embodiment of such a network structure.
  • the individual vectors and their couplings largely correspond to the vectors or couplings according to FIG. 11, so that a further detailed description of the network structure is dispensed with.
  • the recurrent neural network of FIG. 13 comprises a difference vector D for the respective causative network N 1 for a respective instant ⁇ and a difference vector D 'for the retro-causal network N 2.
  • Both the difference vectors D and the difference vectors D 'receive as input the observables contained in the state s T of the causal network and the observables contained in the state s' T of the retro-causal network.
  • the known observable vectors y d T in turn flow into the corresponding difference vectors in accordance with the training data.
  • the difference vectors D serve only for modeling the correction for the observables of the state vectors of the causal network, whereas the difference vectors D 'are used only for modeling the correction for the observables of the state vectors of the retro-causal network become .
  • the network structure of FIG. 13 can be used to achieve a variant of the learning that is improved compared to FIG. 12, which is shown in FIG. 14.
  • two copies of the recurrent network shown in FIG. 13 are learned simultaneously.
  • the causal network Nl, in the copy Kl is learned by using error-back propagation with overall divided weights, which is indicated by whereas the retro-causal network is not learned that the Dif ⁇ ferenz vectors' reproduced D by dashed circles become.
  • the retro-causal network N2 the network structure used for the teacher forcing is retained, which is made possible by the fact that separate difference vectors D 'are used for the retro-causal network.
  • the retro-causal network N2 is learned in the copy K2.
  • the causal network is not learned in this Ko ⁇ pie, which in turn is indicated by difference vectors D with dashed lines.
  • the network K2 is also learned via error-repatriation with shared weights. Overall, therefore, the networks Kl and K2 are simultaneously learned with error backpropagation.
  • the learning method described with reference to FIGS. 13 and 14 has the advantage that causal and retro-causal parts of the modeled dynamic system are learned symmetrically via teacher-forcing. Again, in the learning of Fig. 14, closed loops are prevented by the parallel learning of two copies.
  • the learning method described with reference to FIGS. 13 and 14 may be modified as appropriate.
  • the network of Fig can be used as causal network Nl instead of the network of Fig. 6. 5 are used, in which initially the multi ⁇ plication with the matrix A, and only then the tanh function is applied, which (the dynamics of the above equations 5) to (7).
  • the Figure 9 the network of Fig can also for the retro-causal network N2 instead of the network.. 8 are used, in which initially the multi ⁇ plication with the matrix A, and only then the tanh function is applied.
  • the learning according to FIG. 13 or FIG. 14 is combined with the learning method which is described in the already mentioned German patent application with the applicant file reference 2011P02814DE.
  • this network can be combined with one or more second causal networks. which are learned simultaneously with the causal network N1 and use the same weight matrix A for coupling the state vectors.
  • the second or causal networks only have for some of the time steps a Diffe ⁇ ence vector D, and thus result in all Zeitschrit ⁇ th a teacher-forcing through.
  • the retro-causal network N2 may be with one or several ⁇ ren second retro-causal networks are combined, which are learned simultaneously with the retro-causal network N2 and the same weighting matrix A 'for the coupling of the state vectors using , These second retro-causal networks also perform a teacher-forcing only for part of the time steps.
  • the described in the foregoing inventive procedural ⁇ ren has a number of advantages.
  • those dynamic systems can be learned where future predicted states of the dynamic system play ei ⁇ ne role in the current state.
  • the method can be used for different dynamic systems.
  • the dynamic system can display the zeitli ⁇ che development of energy prices and electricity prices and / or commodity prices, with different as observables types of energy (eg gas, oil) and / or raw materials and other economic factors, such as the conversion of various currencies and Stock indices, can be considered.
  • With a trained by training data recurrent neural network then appropriate prediction of future price developments for energy and / or raw materials can be made.
  • the reference to FIG. 13 and FIG. 14 described learning method was tested using dyna ⁇ mix systems for temporal development of electricity prices and price of copper and provided good predictions of future price movements.
  • Another area of application is the modeling of the dynamic behavior of a technical system.
  • recurrent neural network of the invention for pre ⁇ diction of observable states of a gas turbine and / or a wind turbine or any other technical systems can be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems, das zu jeweiligen Zeitpunkten durch einen Observablenvektor umfassend ein oder mehrere Observablen als Einträge charakterisiert wird. Erfindungsgemäß wird sowohl ein kausales Netz mit einem zeitlich vorwärts gerichteten Informationsfluss als auch ein retro-kausales Netz mit einem zeitlich rückwärts gerichteten Informationsfluss gelernt. Die Zustände des dynamischen Systems werden in dem kausalen Netz durch erste Zustandsvektoren und in dem retro-kausalen Netz durch zweite Zustandsvektoren charakterisiert, welche jeweils Observablen des dynamischen Systems sowie versteckte Zustände des dynamischen Systems enthalten. Die Observablen der ersten Zustandsvektoren werden durch einen ersten Differenzvektor korrigiert, der beim Lernen des kausalen Netzes den Unterschied zwischen den Observablen des ersten Zustandsvektors und den Observablen eines bekannten Observablenvektors aus Trainingsdaten beschreibt. Das erfindungsgemäße Verfahren zeichnet sich dadurch aus, dass das retro-kausale Netz einen separaten zweiten Differenzvektor umfasst, mit dem die Observablen des zweiten Zustandsvektoren korrigiert werden und welche beim Lernen des retro-kausalen Netzes den Unterschied zwischen den Observablen des zweiten Zustandsvektors und einem bekannten Observablenvektor aus Trainingsdaten beschreibt. Das Verfahren ist dynamisch stabil und eignet sich insbesondere zur Modellierung der zeitlichen Entwicklung von Energiepreisen und/oder Rohstoffpreisen. Ebenso kann das Verfahren zur Modellierung von Observablen beliebiger technischer Systeme eingesetzt werden, wie z.B. Gasturbinen und/oder Windkraftanlagen.

Description

Beschreibung
Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems
Die Erfindung betrifft ein Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems sowie ein Verfahren zur Prädiktion der Observablen eines dynamischen Systems basierend auf einem gelernten rekurrenten neuronalen Netz und ein entsprechendes Computerprogrammprodukt .
Rekurrente neuronale Netze werden heutzutage in verschiedenen Anwendungsgebieten dazu verwendet, um die zeitliche Entwicklung eines dynamischen Systems in geeigneter Weise derart zu modellieren, dass ein mit Trainingsdaten des dynamischen Systems gelerntes rekurrentes neuronales Netz gut die Obser¬ vablen (beobachtbaren Zustände) des betrachteten Systems vorhersagen kann. Dabei werden durch das rekurrente neuronale Netz als Zustände des dynamischen Systems neben den Observablen auch unbekannte versteckte Zustände modelliert, wobei in der Regel lediglich ein kausaler, d.h. zeitlich vorwärts gerichteter, Informationsfluss zwischen zeitlich aufeinander folgenden Zuständen betrachtet wird. Häufig beruhen dynamische Systeme jedoch darauf, dass bei der zeitlichen Entwicklung der Zustände des Systems auch zukünftige Prognosen über Observablen eine Rolle spielen. Solche dynamischen Systeme werden durch bekannte rekurrente neuronale Netze oftmals nur unzureichend beschrieben.
Aufgabe der Erfindung ist es deshalb, ein Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zu schaffen, mit dem dynamische Systeme besser modelliert werden können . Diese Aufgabe wird durch die unabhängigen Patentansprüche ge¬ löst. Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen definiert.
Das erfindungsgemäße Verfahren dient zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems, das zu jeweiligen Zeitpunkten durch einen Observablenvektor umfassend eine oder mehrere Ob- servablen (d.h. beobachtbare Zustände des dynamischen Sys¬ tems) als Einträge charakterisiert ist. Das Verfahren ist da¬ bei auf beliebige dynamische Systeme anwendbar, beispielswei¬ se kann mit dem Verfahren die Entwicklung von Energiepreisen und/oder Rohstoffpreisen modelliert werden. Ebenso kann mit dem Verfahren jedes beliebige, sich dynamisch über die Zeit verändernde technische System basierend auf entsprechenden beobachtbaren Zustandsgrößen des technischen Systems modelliert werden, um hierdurch Observablen des technischen Systems mit einem entsprechend gelernten Netz vorherzusagen. Beispielsweise kann mit dem Verfahren eine Gasturbine
und/oder eine Windkraftanlage geeignet modelliert werden.
Das erfindungsgemäß gelernte rekurrente neuronale Netz um- fasst ein kausales Netz, das einen zeitlich vorwärts gerichteten Informationsfluss zwischen ersten Zustandsvektoren des dynamischen Systems über eine Kopplung mit einer ersten Gewichtsmatrix beschreibt, wobei ein erster Zustandsvektor zu einem jeweiligen Zeitpunkt einen oder mehrere erste Einträge umfasst, welche jeweils einem Eintrag des Observablenvektors entsprechen, sowie einen oder mehrere versteckte (d.h. nicht beobachtbare) Zustände des dynamischen Systems. Um auch die zukünftige zeitliche Entwicklung des dynamischen Systems in dem rekurrenten neuronalen Netz zu berücksichtigen, ist ferner ein retro-kausales Netz vorgesehen, das einen zeitlich rückwärts gerichteten Informationsfluss zwischen zweiten Zu¬ standsvektoren des dynamischen Systems über eine zweite Gewichtsmatrix beschreibt, wobei ein zweiter Zustandsvektor zu einem jeweiligen Zeitpunkt einen oder mehrere zweite Einträge umfasst, welche jeweils einem Eintrag des Observablenvektors entsprechen, sowie einen oder mehrere versteckte Zustände des dynamischen Systems. Ein zum jeweiligen Zeitpunkt durch das kausale Netz ermittel¬ ter erster Zustandsvektor wird in dem rekurrenten neuronalen Netz im Rahmen der Kopplung mit dem (zeitlich) nachfolgenden ersten Zustandsvektor durch einen ersten Differenzvektor korrigiert, der den zum jeweiligen Zeitpunkt durch das kausale Netz ermittelten ersten Zustandsvektor bzw. dessen erste Einträge mit dem entsprechenden, zum jeweiligen Zeitpunkt durch das retro-kausale Netz ermittelten zweiten Zustandsvektor bzw. dessen zweiten Einträgen koppelt. Im Rahmen des Lernens des rekurrenten neuronalen Netzes wird dabei das kausale Netz mit einem Verfahren gelernt, bei dem der erste Differenzvektor den Unterschied zwischen den ersten Einträgen des zum jeweiligen Zeitpunkt ermittelten ersten Zustandsvektors und ei¬ nem bekannten Observablenvektor aus Trainingsdaten beschreibt. Das Lernen des kausalen Netzes stellt somit ein an sich bekanntes Teacher-Forcing dar, bei dem ein im kausalen
Netz ermittelter Observablenvektor in der Form entsprechender erster Einträge des Zustandsvektors durch einen bekannten Ob¬ servablenvektor aus Trainingsdaten ersetzt wird. Dies wird dadurch erreicht, dass über den ersten Differenzvektor der im kausalen Netz ermittelte Observablenvektor derart korrigiert wird, dass der daraus erhaltene Observablenvektor den bekannten Observablenvektor aus Trainingsdaten darstellt.
In Analogie zum kausalen Netz wird auch im retro-kausalen Netz ein zum jeweiligen Zeitpunkt durch das retro-kausale
Netz ermittelter zweiter Zustandsvektor im Rahmen der Kopplung mit dem vorhergehenden zweiten Zustandsvektor durch einen zweiten Differenzvektor korrigiert, der den zum jeweiligen Zeitpunkt ermittelten zweiten Zustandsvektor bzw. dessen zweite Einträge mit dem entsprechenden, zum jeweiligen Zeitpunkt durch das kausale Netz ermittelten ersten Zustandsvektor bzw. dessen ersten Einträgen koppelt. Der zweite Diffe- renzvektor ist ein separater, zusätzlich zum ersten Differenzvektor vorgesehener Vektor. Im Rahmen des Lernens des rekurrenten neuronalen Netzes wird dabei das retro-kausale Netz mit einem Verfahren gelernt, bei dem der zweite Differenzvektor den Unterschied zwischen den zweiten Einträgen des zum jeweiligen Zeitpunkt ermittelten zweiten Zustandsvektors und einem bekannten Observablenvektor aus Trainingsdaten beschreibt. Das Lernen des retro-kausalen Netzes beruht somit ebenfalls auf Teacher-Forcing, bei dem durch eine Korrektur mittels eines (zweiten) Differenzvektors der im retro- kausalen Netz ermittelte Observablenvektor, der den zweiten Einträgen des zweiten Zustandsvektors entspricht, auf den be¬ kannten Observablenvektor aus den Trainingsdaten abgebildet wird .
Das erfindungsgemäße Verfahren zeichnet sich dadurch aus, dass im rekurrenten neuronalen Netz ein erster Differenzvektor für das kausale Netz und separat ein zweiter Differenzvektor für das retro-kausale Netz zur Modellierung des Tea- cher-Forcings verwendet werden. Hierdurch kann ein effizientes und dynamisch stabiles Lernen erreicht werden. Ziel des Lernens des kausalen und des retro-kausalen Netzes ist dabei eine Minimierung des ersten bzw. zweiten Differenzvektors. Das erfindungsgemäße Verfahren zeichnet sich ferner dadurch aus, dass ein dynamisches System durch ein rekurrentes neuro¬ nales Netz beschrieben wird, welches sowohl einen Informati- onsfluss von der Vergangenheit in die Zukunft als auch einen Informationsfluss von der Zukunft in die Vergangenheit be¬ rücksichtigt. Hierdurch können dynamische Systeme geeignet modelliert werden, bei denen die Observablen zu einem jeweiligen Zeitpunkt auch durch prognostizierte zukünftige Obser- vablenwerte beeinflusst werden.
In einer besonders bevorzugten Aus führungs form des erfindungsgemäßen Lernverfahrens werden zum Lernen des rekurrenten neuronalen Netzes zwei Kopien des rekurrenten neuronalen Netzes gleichzeitig gelernt, wobei in der einen Kopie aus- schließlich das kausale Netz gelernt wird und in der anderen Kopie ausschließlich das retro-kausale Netz gelernt wird. Dieses Verfahren gewährleistet, dass keine Schleifen im Netz¬ werk auftreten und gleichzeitig sowohl für das kausale als auch für das retro-kausale Netz Teacher-Forcing modelliert wird .
In einer weiteren, besonders bevorzugten Aus führungs form der Erfindung wird das kausale Netz derart gelernt, dass neben dem kausalen Netz ein oder mehrere zweite kausale Netze ge¬ lernt werden, welche jeweils mit dem kausalen Netz mit dem Unterschied übereinstimmen, dass in dem jeweiligen zweiten kausalen Netz für einen Teil der Zeitpunkte die Differenzvektoren weggelassen werden. Das heißt, in einem jeweiligen zweiten kausalen Netz ist das Teacher-Forcing nur für einen
Teil der Zeitpunkte realisiert. Demzufolge ist das Modell we¬ niger abhängig von dem Teacher-Forcing, wodurch das Lernen verbessert werden kann. Für das oder die zweiten kausalen Netze wird dabei die gleiche erste Gewichtsmatrix gelernt wie für das ursprüngliche kausale Netz des rekurrenten neuronalen Netzes. Ein Lernverfahren basierend auf einem oder mehreren zweiten kausalen Netzen wird detailliert in der deutschen Patentanmeldung mit dem Anmelder-Aktenzeichen 2011P02814DE beschrieben, welche von der gleichen Anmelderin am gleichen Tag wie die vorliegende Anmeldung beim Deutschen Patent- und Markenamt eingereicht wurde. Der gesamt Offenbarungsgehalt die¬ ser Anmeldung wird durch Verweis zum Inhalt der vorliegenden Anmeldung gemacht. In einer bevorzugten Variante des soeben beschriebenen Lernens mittels zweiter kausaler Netze ist in einem jeweiligen zweiten kausalen Netz nur noch für jeden Il¬ ten Zeitpunkt ein Differenzvektor enthalten, wobei n eine natürliche Zahl größer gleich zwei ist.
In Analogie zu dem kausalen Netz kann auch das retro-kausale Netz derart gelernt werden, dass neben dem retro-kausalen
Netz ein oder mehrere zweite retro-kausale Netze gelernt wer¬ den, welche jeweils mit dem zweiten retro-kausalen Netz mit dem Unterschied übereinstimmen, dass in dem jeweiligen zweiten retro-kausalen Netz für einen Teil der Zeitpunkte die Differenzvektoren weggelassen werden. Dieses Lernen erfolgt somit analog wie für das kausale Netz mit dem einzigen Unter- schied, dass die Kausalitätsrichtung umgekehrt ist. Wiederum wird für das oder die zweiten retro-kausalen Netze die gleiche zweite Gewichtsmatrix gelernt wie für das ursprüngliche retro-kausale Netz. In einer bevorzugten Aus führungs form des soeben beschriebenen Lernens mittels zweiter retro-kausaler Netze ist in einem jeweiligen zweiten retro-kausalen Netz nur noch für jeden n-ten Zeitpunkt ein Differenzvektor enthalten, wobei n eine natürliche Zahl größer gleich zwei ist.
In einer weiteren, besonders bevorzugten Aus führungs form wer- den das kausale und das retro-kausale Netz basierend auf ei¬ ner Fehler-Rückpropagation mit geteilten Gewichten gelernt. Dieses auch unter dem englischen Begriff "error backpropaga- tion with shared weights" bekannte Verfahren ist dem Fachmann hinlänglich geläufig und wird häufig in rekurrenten neurona- len Netzen beim Lernen eingesetzt. Durch die Verwendung dieses Verfahrens wird ein einfaches und effizientes Lernen des rekurrenten neuronalen Netzes erreicht.
In einer weiteren Ausgestaltung des erfindungsgemäßen Verfah- rens wird in dem kausalen Netz ein erster Zustandsvektor zu einem jeweiligen Zeitpunkt in einen ersten Zustandsvektor zu einem nachfolgenden Zeitpunkt durch eine Multiplikation mit der ersten Gewichtsmatrix und das Anwenden einer Aktivierungsfunktion überführt. In einer besonders bevorzugten Vari- ante wird dabei zunächst die Aktivierungsfunktion auf den Zu¬ standsvektor zu dem jeweiligen Zeitpunkt angewendet und erst anschließend erfolgt eine Multiplikation mit der ersten Ge¬ wichtsmatrix. Hierdurch wird sichergestellt, dass Observablen beschrieben werden können, welche nicht durch den Wertebe- reich der Aktivierungsfunktion beschränkt sind. In einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens wird in dem retro-kausalen Netz ein zweiter Zustandsvek- tor zu einem jeweiligen Zeitpunkt in einen zweiten Zustands- vektor zu einem vorhergehenden Zeitpunkt durch eine Multiplikation mit der zweiten Gewichtsmatrix und das Anwenden einer Aktivierungsfunktion überführt. Vorzugsweise wird wiederum zunächst die Aktivierungsfunktion auf den zweiten Zustands- vektor zu dem jeweiligen Zeitpunkt angewendet und erst an¬ schließend erfolgt eine Multiplikation mit der zweiten Ge¬ wichtsmatrix. Hierdurch wird auch für das retro-kausale Netz sichergestellt, dass die Observablen nicht durch den Wertebe¬ reich der Aktivierungsfunktion beschränkt sind.
In einer besonders bevorzugten Variante sind die oben be¬ schriebenen Aktivierungsfunktionen tanh-Funktionen (tangens hyperbolicus ) , welche häufig in rekurrenten neuronalen Netzen zum Einsatz kommen.
Neben dem oben beschriebenen Verfahren umfasst die Erfindung ein Verfahren zur Prädiktion von Observablen eines dynamischen Systems, bei dem die Prädiktion mit einem rekurrenten neuronalen Netz durchgeführt wird, welches mit dem erfin¬ dungsgemäßen Lernverfahren basierend auf Trainingsdaten umfassend bekannte Observablenvektoren des dynamischen Systems gelernt ist.
Die Erfindung betrifft darüber hinaus ein Computerprogrammprodukt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung der oben beschriebenen Verfahren, wenn das Programm auf einem Rechner abläuft.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand der beigefügten Figuren detailliert beschrieben.
Es zeigen: Fig. 1 und Fig. 2 zwei Varianten von bekannten rekurrenten neuronalen Netzen zur Modellierung eines dynamischen Systems;
Fig. 3 eine auf Fig. 2 basierende Variante eines rekurrenten neuronalen Netzes, welches erfindungsgemäß als kausales Teilnetz zum Einsatz kommt;
Fig. 4 eine aus dem Stand der Technik bekannte
Variante des Lernens des kausalen Netzes gemäß Fig. 3;
Fig. 5 und Fig. 6 Varianten des Lernens des kausalen Netzes der Fig. 3, welche in Aus führungs formen des erfindungsgemäßen Verfahrens zum Ein- satz kommen;
Fig. 7 ein retro-kausales Netz, welches in dem erfindungsgemäßen Verfahren in Kombination mit dem kausalen Netz der Fig. 3 zum Einsatz kommt;
Fig. 8 und Fig. 9 Varianten des Lernens des retro-kausalen
Netzes der Fig. 7, welche in Ausführungs¬ formen des erfindungsgemäßen Verfahrens zum Einsatz kommen;
Fig. 10 eine Aus führungs form eines rekurrenten neuronalen Netzes, welches die Netze der Fig. 3 und Fig. 7 miteinander kombiniert und basiernd auf der Erfindung gelernt wird;
Fig. 11 und Fig. 12 Aus führungs formen eines vorbekannten Lernens des in Fig. 10 gezeigten rekurrenten neuronalen Netzes; und Fig. 13 und Fig. 14 Aus führungs formen eines erfindungsgemäßen
Lernens des in Fig. 10 gezeigten rekurrenten neuronalen Netzes.
Rekurrente neuronale Netze zur Modellierung des zeitlichen Verhaltens eines dynamischen Systems sind hinlänglich aus dem Stand der Technik bekannt. Diese Netze umfassen in der Regel mehrere Schichten, welche eine Mehrzahl von Neuronen beinhalten und in geeigneter Weise basierend auf Trainingsdaten aus bekannten Zuständen des dynamischen Systems derart gelernt werden können, dass zukünftige Zustände des dynamischen Sys¬ tems prädiziert werden können. In allen nachfolgenden Figuren sind entsprechende Neuronencluster , welche Zustandsvektoren bzw. Observablenvektoren bzw. Differenzvektoren modellieren, durch Kreise wiedergegeben.
Fig. 1 zeigt eine aus dem Stand der Technik bekannte Variante eines neuronalen Netzes, welches ein offenes dynamisches Sys¬ tem modelliert. Das Netz umfasst dabei eine Eingangsschicht I mit zeitlich aufeinander folgenden Zustandsvektoren ut-3, ut-2r ut-i und ut, welche entsprechende Eingangsgrößen des dynami¬ schen Systems darstellen. Diese Eingangsgrößen können beispielsweise Stellgrößen eines mit dem neuronalen Netz modellierten technischen Systems sein. Die einzelnen Zustandsvektoren der Eingangsschicht I sind über Matrizen B mit entspre¬ chenden versteckten Zustandsvektoren st-2r st-i, usw. einer versteckten Schicht verbunden. Die versteckten Zustandsvektoren umfassen eine Mehrzahl von versteckten Zuständen des dynamischen Systems und bilden den (nicht beobachtbaren) Zu- standsraum des dynamischen Systems. Die einzelnen versteckten Zustandsvektoren sind über Matrizen A miteinander verbunden. Das Netz umfasst ferner eine Ausgangsschicht 0 mit Ausgangs¬ größen in der Form von Zustandsvektoren yt-2r Yt-i/ ■■■/ Yt+ir welche mit entsprechenden versteckten Zustandsvektoren st-2r st-i, st+4 über die Matrix C gekoppelt sind. Die Zustände der Ausgangsschicht sind dabei Zustände des dynamischen Sys- tems, welche sich aus den entsprechenden Eingangsgrößen der Eingangsschicht I ergeben. Basierend auf Trainingsdaten, wel¬ che aus bekannten Eingangsgrößen und sich daraus ergebenden bekannten Ausgangsgrößen bestehen, kann das neuronale Netz der Fig. 1 in geeigneter Weise mit bekannten Verfahren, wie z.B. Fehler-Rückpropagation, gelernt werden und anschließend dazu eingesetzt werden, um basierend auf vergangenen Ein¬ gangsgrößen ut-3, ut-2r ··· ut-i sowie der gegenwärtigen Eingangs¬ größe ut in der Eingangsschicht I zukünftige Ausgangsgrößen Yt+i, Yt+2r usw. in der Ausgangsschicht 0 vorherzusagen. Das Netz der Fig. 1 beruht dabei auf einer Modellierung des betrachteten dynamischen Systems in der Form einer Überlagerung eines autonomen und eines extern getriebenen Teilsystems. Fig. 2 zeigt eine weitere Variante eines rekurrenten neurona¬ len Netzes, welches in den weiter unten beschriebenen Ausführungsformen des erfindungsgemäßen Verfahrens zum Einsatz kommt. Dieses Netz modelliert ein geschlossenes dynamisches System und unterscheidet sich von dem Netz der Fig. 1 darin, dass nicht mehr zwischen Eingangsgrößen uT und Ausgangsgrößen yT unterschieden wird, wobei τ im Folgenden einen beliebigen Zeitpunkt bezeichnet. Vielmehr werden sowohl die Eingangsgrö¬ ßen als auch die Ausgangsgrößen als Observablen, d.h. beobachtbare Zustände eines Observablenvektors des dynamischen Systems, betrachtet. Das Netz der Fig. 2 umfasst eine erste Schicht LI und eine zweite Schicht L2, wobei die erste
Schicht LI einen zeitlich vorwärts gerichteten Informations- fluss zwischen einzelnen Zustandsvektoren st-2r st-i, ■-, st+3 des modellierten dynamischen Systems darstellt. Im Unter- schied zu Fig. 1 enthält in der Aus führungs form der Fig. 2 ein Zustandsvektor sT zunächst als Einträge die beobachtbaren Observablen, welche den Zustandsvektoren yt und ut der Fig. 1 entsprechen, und anschließend die nicht beobachtbaren versteckten Zustände, wobei die Anzahl an versteckten Zuständen in der Regel wesentlich größer ist als die Anzahl der Observablen. Die einzelnen Zustandsvektoren in der Schicht LI werden durch Matrizen A ineinander überführt, welche basierend auf Trainingsdaten in geeigneter Weise gelernt werden. Zu Beginn des Lernens wird dabei ein geeigneter Bias in der
Schicht LI vorgegeben, der in Fig. 2 und auch in allen nachfolgenden Figuren mit So bezeichnet ist.
Ein geeignet gelerntes rekurrentes neuronales Netz der Fig. 2 liefert in der zweiten Schicht die Observablen yt-i, ut-2r Yt-ir ut-i, ... usw. zu den jeweiligen Zeitpunkten. Dabei werden über die Matrix [Id, 0] diejenigen Einträge der entsprechenden Zu- standsvektoren sT erhalten, welche Observablen entsprechen. Die Matrix [Id, 0] weist für die Spalten die Dimension des Zustandsvektors sT auf und für die Zeilen die Dimension gemäß der Anzahl von Observablen. Der linke Teil der Matrix bildet eine quadratische Identitätsmatrix und für die restlichen Spalten enthält die Matrix nur Nullen, wodurch die Filterung der Observablen aus dem Zustandsvektor sT erreicht wird. Mit dem Netz der Fig. 2 werden die Observablen in einem großen Zustandsvektor sT eingebettet. Es wird dabei eine dynamisch konsistente und in allen Variablen symmetrische Modellierung eines dynamischen Systems erreicht, wobei die Zeit keine spe¬ zielle Rolle spielt. Das Netz der Fig. 2 stellt ferner ein kausales Netz dar, da der Informationsfluss zwischen den Zu¬ ständen der Schicht LI zeitlich vorwärts gerichtet von der Vergangenheit in die Zukunft erfolgt.
Fig. 3 zeigt ein auf der Fig. 2 basierendes rekurrentes neu¬ ronales Netz, wobei nunmehr alle Observablen durchgängig als Observablenvektoren yt-6r Y sr ■■■/ Yt+3 bezeichnet werden. Die Notation yT umfasst somit sowohl die Ausgangsgröße yT als auch die Eingangsgröße uT aus Fig. 2. Diese Notation wird im Folgenden auch bei allen weiteren beschriebenen Varianten von rekurrenten neuronalen Netzen verwendet. Darüber hinaus sind in Fig. 3 zur Verdeutlichung die mit dem Netz vorherzusagenden Observablenvektoren yt+i, Yt+2/ und yt+3 durch gestrichelte Kreise angedeutet. Das heißt, der gegenwärtige Zeitpunkt wird in Fig. 3 und auch in allen weiteren Figuren mit t bezeichnet. Vergangene Zeitpunkte sind somit die Zeitpunkte t-1, t-2 usw. und zukünftige Zeitpunkte sind die Zeitpunkte t+1, t+2, t+3 usw.
Fig. 4 zeigt eine bekannte Variante des Lernens des rekurren¬ ten neuronalen Netzes der Fig. 3, wobei yd t-3, ydt-2/ ydt-i und yd t bekannte Observablenvektoren gemäß vorgegebenen Trai¬ ningsdaten des zu modellierenden dynamischen Systems darstellen. Die Matrix [Id, 0] entspricht der oben erläuterten Matrix zur Filterung der Observablen aus dem entsprechenden Zu-
Id standsvektor sT. Demgegenüber wird durch die Matrix eine
0
Umwandlung des bekannten Observablenvektors y t in einen Ob- servablenvektor erreicht, der neben den Einträgen für die bekannten Observablen auch Einträge für die weiteren versteckten Zustände enthält, welche jedoch alle auf Null gesetzt
Id
sind. Die Matrix umfasst dabei eine der Anzahl der Ob-
0
servablen entsprechende Anzahl an Spalten und eine der Dimension des Zustandsvektors sT entsprechende Anzahl an Zeilen. Im oberen Teil bildet die Matrix eine quadratische Identi¬ tätsmatrix und die restlichen Zeilen der Matrix enthalten ausschließlich Nullen. Das Netz der Fig. 4 enthält ferner die Matrix C, mit der ein Zustand sT in einen Zustand rT überführt wird. Der Zustand rT stellt dabei einen gefilterten Zu¬ stand dar, der nur die versteckten Zustände des Vektors sT enthält. Demzufolge ist die Matrix C eine Matrix, welche an den Diagonalelementen, die den entsprechenden Zeilen bzw.
Spalten der versteckten Zustände entsprechen, Einsen enthält und deren restliche Einträge auf Null gesetzt sind.
Durch die in Fig. 4 gezeigte Kopplung der bekannten Zustände yd T mit dem Zustand rT wird erreicht, dass die durch das neu¬ ronale Netz ermittelten Werte der Observablen durch die Observablen yd T gemäß den Trainingsdaten ausgetauscht werden. Somit wird in jedem Zeitschritt τ < t ein Ersetzen der ermittelten Observablen durch die tatsächlichen Observablen ge- mäß den Trainingsdaten erreicht. Ein derartiges Lernverfahren ist auch unter dem Begriff "Teacher-Forcing" bekannt. Gemäß der Darstellung der Fig. 4 werden mit dem rekurrenten neuronalen Netz die folgenden Zusammenhänge modelliert, wobei - wie oben erwähnt - der Zeitpunkt t dem aktuellen Gegenwarts¬ zeitpunkt entspricht:
Figure imgf000015_0002
Figure imgf000015_0001
τ > t : sT+l = tanh(AsT) (2: für alle T \ yr = [ld,Q)}sT
Das Lernen beruht dabei auf dem folgenden Optimierungsziel: t
Σ(^-^)2 ^ mjn (4) .
τ-t-m
Das heißt, es wird nach der Matrix A gesucht, welche den über die Zeitpunkte t-m < τ < t summierten quadratischen Fehler zwischen über das Netz ermittelten und bekannten Observablen- vektoren minimiert.
Auch in dem rekurrenten neuronalen Netz, welches in dem erfindungsgemäßen Verfahren verwendet wird, kommt das oben beschriebene Teacher-Forcing zum Einsatz, jedoch in abgewandel- ten Varianten, welche in Fig. 5 und 6 für das kausale Netz der Fig. 3 verdeutlicht sind. Es werden dabei die analogen Notationen (bis auf etwaige Vorzeichen) wie in Fig. 4 beibehalten. Die zusätzlich in Fig. 5 hinzukommende Matrix Id bezeichnet eine entsprechende Identitätsabbildung für den Zu- standsvektor, an dem der mit der Matrix bezeichnete Pfeil beginnt. Im Unterschied zur Aus führungs form der Fig. 4 wird nunmehr in Fig. 5 eine Zielgröße bzw. ein Targetwert tar eingeführt, welcher den Differenzvektor zwischen dem durch das rekurrente neuronale Netz ermittelten Observablenvektor yT innerhalb des Zustandsvektors sT und dem bekannten Obser¬ vablenvektor yd T darstellt. Dieser Targetwert, der im Ideal¬ fall Null ist, dient wiederum dazu, um die entsprechenden ermittelten Observablen in den Vektoren sT durch die bekannten Observablen gemäß den Trainingsdaten zu ersetzen, was durch
Id
die Kopplung über die Matrix zum Ausdruck gebracht
0
wird. Der auf dem Targetwert basierende Differenzvektor wird in weiter unten beschriebenen Figuren auch mit D bzw. D' bezeichnet .
Mit der Struktur des Netzes gemäß Fig. 5 werden folgende Gleichungen modelliert:
Figure imgf000016_0004
Figure imgf000016_0001
T>t: sT+1=tan (AsT)
Figure imgf000016_0002
Das Optimierungsziel ist dabei analog zu dem Netz der Fig. 4 gegeben durch:
Figure imgf000016_0003
Mit der Architektur gemäß Fig. 5 können aufgrund der verwendeten tanh-Funktion nur Observablen zwischen -1 und +1 model- liert werden, da zunächst die Matrixmultiplikation mit der
Matrix A und erst anschließend das Anwenden der tanh-Funktion erfolgt, welche einen Wertebereich zwischen -1 und 1 aufweist. In einer abgewandelten Variante des Lernens gemäß Fig. 5 wird nunmehr zunächst die tanh-Funktion auf den entspre¬ chenden Zustand rT bzw. sT angewendet, und erst anschließend erfolgt die Matrixmultiplikation mit der Matrix A. Eine solche Variante des Netzes ist in Fig. 6 verdeutlicht, wobei das Anwenden der tanh-Funktion vor der Matrixmultiplikation mit der Matrix A dadurch verdeutlicht wird, dass in den Kreisen, welche in Fig. 5 die Zustände rT enthalten, sowie zwischen den Zuständen st+i und st+2 nunmehr die tanh-Funktion wiederge¬ geben ist. Gemäß dieser Variante können auch Observablen außerhalb des Wertebereichs zwischen -1 und +1 modelliert wer¬ den. Fig. 6 stellt dabei eine bevorzugte Variante eines Ler¬ nens dar, welche auch in der weiter unten beschriebenen erfindungsgemäßen neuronalen Netzstruktur eingesetzt wird. Mathematisch äußert sich der Unterschied zwischen dem rekurrenten neuronalen Netz der Fig. 6 gegenüber dem rekurrenten neuronalen Netz der Fig. 5 darin, dass in den obigen Gleichungen (5) und (6) die Position der Matrix A mit der Position der Funktion tanh vertauscht wird.
Die in Fig. 5 und Fig. 6 gezeigten neuronalen Netze berücksichtigen beim Lernen alle vergangenen Zustandsvektoren, für welche Observablenvektoren aus Trainingsdaten vorliegen, wobei der initiale Zustand basierend auf dem Biasvektor so zu¬ sammen mit der Gewichtsmatrix A gelernt wird. Diese Netzstruktur eignet sich beispielsweise zur rechnergestützten Vorhersage von Energiepreisen bzw. Rohstoffpreisen. Bei der Modellierung des dynamischen Verhaltens eines technischen Systems, welches durch eine Anzahl von Observablen beschrie¬ ben ist, werden beim Lernen des Netzes nicht alle Trainings¬ daten auf einmal berücksichtigt, sondern das Lernen beruht immer auf einem Ausschnitt der Netzstruktur für eine Anzahl von aufeinanderfolgenden Zustandsvektoren, für welche bekannte Observablenvektoren aus Trainingsdaten vorliegen. Das Netz wird dabei in Zeitfenstern gelernt, welche verschiedene Aus¬ schnitte aus aufeinander folgenden Observablenvektoren der Trainingsdaten repräsentieren. Dabei besteht das Problem, dass kein initialer Zustand existiert. In manchen Lernverfahren wird die sich aus dem fehlenden initialen Zustand ergebende Inkonsistenz vernachlässigt. Vorzugsweise wird anstatt des Biasvektors So jedoch ein initialer verrauschter Zustand verwendet .
Um den initialen verrauschten Zustand geeignet zu modellie¬ ren, kann insbesondere das in der Druckschrift DE 10 2008 014 126 B4 beschriebene Verfahren verwendet werden, welche das Netz gegen die Unsicherheit der unbekannten, weit zurücklie¬ genden Vergangenheit versteift. Auch in den weiter unten be¬ schriebenen Varianten des erfindungsgemäßen Verfahrens kann je nach Anwendungsfall eine Netzwerkstruktur mit der gesamten Vergangenheit gemäß den Trainingsdaten beim Lernen berücksichtigt werden bzw. eine verkürzte Netzwerkstruktur, bei der immer nur ein Ausschnitt aus aufeinander folgenden Zustands- vektoren mit zugeordneten Observablenvektoren gemäß den Trainingsdaten einfließt. Im ersten Fall wird der initiale Zu¬ stand durch den Bias So repräsentiert, wohingegen im zweiten Fall vorzugsweise ein entsprechender Rauschterm verwendet wird .
Im Vorangegangenen wurde ein geeignetes Lernen eines kausalen Netzes mit zeitlich vorwärts gerichtetem Informationsfluss beschrieben. Der Erfindung liegt dabei die Erkenntnis zu Grunde, dass ein kausales Modell nicht immer für die Be¬ schreibung eines dynamischen Systems geeignet ist. Insbesondere gibt es dynamische Systeme, welche auch einen retro- kausalen Informationsfluss in zeitlich umgekehrter Richtung aus der Zukunft in die Gegenwart aufweisen. Es handelt sich hierbei um dynamische Systeme, bei deren zeitlicher Entwick¬ lung auch eine Planung unter Einbeziehung der Prognose von zukünftigen Observablen einfließt. Es werden somit bei der zeitlichen Veränderung eines entsprechenden Zustandsvektors des dynamischen Systems nicht nur zeitlich vorhergehende Zu- standsvektoren, sondern auch prognostizierte zukünftige Zu- standsvektoren berücksichtigt. Betrachtet man beispielsweise die Entwicklung des Marktpreises von Energie oder Rohstoffen, so wird der Preis nicht nur durch Angebot und Nachfrage be¬ stimmt, sondern auch durch planerische Aspekte der Verkäufer bzw. Käufer beim Verkauf bzw. Kauf von Energie oder Rohstof¬ fen .
Das erfindungsgemäße Verfahren beruht auf der Idee, ein dyna¬ misches System derart zu modellieren, dass ein Informations- fluss nicht nur in kausaler Richtung aus der Vergangenheit in die Zukunft betrachtet wird, sondern auch ein Informations- fluss in retro-kausaler Richtung aus der Zukunft in die Vergangenheit. Ein solcher Informationsfluss kann durch ein ret- ro-kausales Netz realisiert werden. Ein solches Netz ist in Fig. 7 wiedergegeben. Das Netz der Fig. 7 unterscheidet sich von dem Netz der Fig. 3 darin, dass der Informationsfluss zwischen den Zuständen sT in umgekehrter Richtung von der Zukunft in die Vergangenheit läuft, wobei das Verfahren wieder¬ um mit einem Bias So initialisiert wird, der nunmehr jedoch ein Zustand in der Zukunft ist. Das Netz der Fig. 7 kann ana¬ log zu dem Netz der Fig. 3 über die Minimierung eines Zielwerts tar gelernt werden, wie in Fig. 8 angedeutet ist. Die Fig. 8 entspricht dabei der Darstellung der Fig. 5, wobei nunmehr jedoch die Kausalitätsrichtung umgekehrt ist. Die Gleichungen (5) bis (8) können analog angewendet werden mit dem Unterschied, dass sT+i in Gleichungen (5) und (6) ersetzt wird durch sT-i. Es kann somit auch für das retro-kausale Netz das oben beschriebene Teacher-Forcing zum Lernen des Netzes verwendet werden. Ebenso kann für das retro-kausale Netz ana¬ log das in Fig. 6 gezeigte Lernen eingesetzt werden, bei dem beim Übergang von einem Zustand in einen Folgezustand zunächst die tanh-Funktion und erst anschließend die Matrixmul¬ tiplikation angewendet wird. Dies wird in der Darstellung der Fig. 9 verdeutlicht, welche der Darstellung der Fig. 6 mit dem Unterschied entspricht, dass der Informationsfluss von der Zukunft in die Gegenwart läuft. Die Erfindung beruht nunmehr auf einer Kombination eines kausalen Netzes mit einem retro-kausalen Netz, wodurch ein rekurrentes neuronales Netz mit einem Informationsfluss von so¬ wohl aus der Vergangenheit in die Zukunft als auch aus der Zukunft in die Vergangenheit ermöglicht wird. Hierdurch kön¬ nen auch dynamische Systeme modelliert werden, bei denen bei der dynamischen Entwicklung der Zustände auch prognostizierte zukünftige Zustände eine Rolle spielen.
Fig. 10 zeigt generisch eine Kombination eines kausalen Netzes mit einem retro-kausalen Netz, wodurch ein rekurrentes neuronales Netz geschaffen wird, welches in geeigneter Weise mit dem erfindungsgemäßen Verfahren gelernt werden kann. Das Netz setzt sich dabei im unteren Teil aus einem kausalen Netz Nl und in dem oberen Teils aus einem retro-kausalen Netz N2 zusammen. Das Netz Nl entspricht dem kausalen Netz der Fig. 3 und das Netz N2 entspricht dem retro-kausalen Netz der Fig. 7, wobei im retro-kausalen Netz die Matrizen nunmehr mit A' und die Zustände mit sT' bezeichnet sind, da Matrizen und Zu¬ stände für das kausale und das retro-kausale Netz unter¬ schiedlich sein können. Beide Netze sind über den entsprechenden Observablenvektor yT miteinander gekoppelt.
Fig. 11 zeigt basierend auf dem Netz der Fig. 10 ein Lernen des Netzes mittels Teacher-Forcing basierend auf dem in der deutschen Patentanmeldung 10 2010 014 906.3 beschriebenen Verfahren. Dieses Teacher-Forcing wurde im Vorangegangenen getrennt für das kausale Netz in Fig. 6 und das retro-kausale Netz in Fig. 9 erläutert. In Fig. 11 sind beispielhaft für den Zeitpunkt t die im Zustandsvektor st enthaltenen Obser- vablen mit t und die im Zustandsvektor st' enthaltenen Ob- servablen mit t' bezeichnet. Die Summe von t und t' stellt dabei den durch das rekurrente Netz ermittelten Observablenvektor dar und der Targetwert ist die Differenz zwischen dieser Summe und dem tatsächlichen Observablenvektor yd t gemäß den Trainingsdaten. Der Targetwett wird somit durch einen Differenzvektor repräsentiert, der in Fig. 11 mit D bezeich- net ist. Durch die Kopplung der Targetwerte über die entspre- chenden Matrizen mit dem Zustandsvektor sT bzw. sT ' wird
Figure imgf000021_0001
wiederum für jeden Zeitschritt τ < t ein Teacher-Forcing erreicht. In Fig. 11 ist dabei der entsprechende Zustand rT bzw. rT', der sich durch das Teacher-Forcing ergibt, beispielhaft nur für den Zeitpunkt τ = t angegeben. Auf diesen Zustand wird zunächst die tanh-Funktion und anschließend die Multiplikation mit der Matrix A bzw. A' angewendet. Um ein Lernen gemäß Fig. 11 umzusetzen, wird die hinlänglich aus dem Stand der Technik bekannte Fehler-Rückpropagation mit geteilten Gewichten verwendet, was in Fig. 12 wiedergegeben ist. Die Fehler-Rückpropagation mit geteilten Gewichten wird dabei dadurch erreicht, dass in zwei Kopien des Netzes der Fig. 11 einmal die Fehler-Rückpropagation für das kausale
Netz Nl und einmal die Fehler-Rückpropagation für das retro- kausale Netz N2 gerechnet wird, wobei gleichzeitig sicherge¬ stellt wird, dass immer die gleiche Matrix A in beiden Kopien des Netzes und immer die gleiche Matrix A' in beiden Kopien des Netzes verwendet wird. Mit dem Lernen gemäß Fig. 12 wer¬ den die im Netzwerk der Fig. 11 enthaltenen geschlossenen Schleifen (auch als Fix-Point-Loops bezeichnet) aufgelöst.
Das anhand von Fig. 10 und 11 beschriebene Lernen des aus ei- nem kausalen und einem retro-kausalen Anteil bestehenden rekurrenten neuronalen Netzes weist den Nachteil auf, dass für beide Netzanteile im jeweiligen Zeitschritt ein gemeinsamer Differenzvektor verwendet wird, mit dem sowohl für das kausale Netz als auch für das retro-kausale Netz ein Teacher- Forcing realisiert wird. Folglich wird beim Lernen des Netzes gemäß Fig. 12 das Teacher-Forcing in der jeweiligen Kopie des Netzes entweder nur im kausalen Anteil oder nur im retro- kausalen Anteil modelliert. Dies kann in manchen Anwendungs¬ fällen zu dynamischen Instabilitäten führen. Zur Verbesserung des anhand von Fig. 11 und Fig. 12 beschriebenen Lernens wird erfindungsgemäß vorgeschlagen, dass sowohl ein Differenzvektor für das kausale Netz Nl als auch ein separater Differenzvektor für das retro-kausale Netz N2 verwen- det wird, um hierüber Teacher-Forcing zu realisieren. Fig. 13 zeigt eine Aus führungs form einer solchen Netzstruktur. Die einzelnen Vektoren sowie deren Kopplungen entsprechen dabei weitestgehend den Vektoren bzw. Kopplungen gemäß Fig. 11, so dass auf eine nochmalige detaillierte Beschreibung des Netz- aufbaus verzichtet wird.
Im Unterschied zu dem Netz der Fig. 11 umfasst das rekurrente neuronale Netz der Fig. 13 für einen jeweiligen Zeitpunkt τ sowohl für das kausale Netz Nl einen Differenzvektor D als auch für das retro-kausale Netz N2 einen Differenzvektor D' . Sowohl die Differenzvektoren D als auch die Differenzvektoren D' erhalten als Eingangsgröße die im Zustand sT des kausalen Netzes enthaltenen Observablen und die im Zustand s'T des retro-kausalen Netzes enthaltenen Observablen. Ferner fließen in die entsprechenden Differenzvektoren wiederum die bekannten Observablenvektoren yd T gemäß den Trainingsdaten ein. In dem Netz der Fig. 13 dienen die Differenzvektoren D nur zur Modellierung der Korrektur für die Observablen der Zustands- vektoren des kausalen Netzes, wohingegen die Differenzvekto- ren D' nur zur Modellierung der Korrektur für die Observablen der Zustandsvektoren des retro-kausalen Netzes verwendet werden .
Durch die Netzstruktur der Fig. 13 kann eine gegenüber der Fig. 12 verbesserte Variante des Lernens erreicht werden, welche in Fig. 14 gezeigt wird. In Analogie zu Fig. 12 werden wiederum zwei Kopien des in Fig. 13 gezeigten rekurrenten Netzes gleichzeitig gelernt. Dabei wird in der Kopie Kl nur das kausale Netz Nl mittels Fehler-Rückpropagation mit ge- teilten Gewichten gelernt, wohingegen das retro-kausale Netz nicht gelernt wird, was dadurch angedeutet ist, dass die Dif¬ ferenzvektoren D' durch gestrichelte Kreise wiedergegeben werden. Nichtsdestotrotz bleibt auch im retro-kausalen Netz N2 die für das Teacher-Forcing verwendete Netzstruktur erhalten, was dadurch ermöglicht wird, dass für das retro-kausale Netz separate Differenzvektoren D' verwendet werden. Im Un- terschied zu der Kopie Kl wird in der Kopie K2 nur das retro- kausale Netz N2 gelernt. Das kausale Netz wird in dieser Ko¬ pie nicht gelernt, was wiederum durch Differenzvektoren D mit gestrichelten Linien angedeutet wird. Auch das Netz K2 wird über Fehler-Rückpropagation mit geteilten Gewichten gelernt. Insgesamt werden somit gleichzeitig die Netze Kl und K2 mit Fehler-Rückpropagation gelernt.
Das anhand von Fig. 13 und Fig. 14 beschriebene Lernverfahren weist den Vorteil auf, dass kausale und retro-kausale Anteile des modellierten dynamischen Systems symmetrisch über Teacher-Forcing gelernt werden. Dabei werden in dem Lernen der Fig. 14 wiederum geschlossene Schleifen durch das parallele Lernen von zwei Kopien verhindert. Das anhand von Fig. 13 und Fig. 14 beschriebene Lernverfahren kann in geeigneter Weise abgewandelt werden. Insbesondere kann als kausales Netz Nl anstatt des Netzes der Fig. 6 das Netz der Fig. 5 verwendet werden, bei dem zunächst die Multi¬ plikation mit der Matrix A und erst anschließend die tanh- Funktion angewendet wird, was der Dynamik der obigen Gleichungen (5) bis (7) entspricht. In gleicher Weise kann auch für das retro-kausale Netz N2 statt des Netzes der Fig. 9 das Netz der Fig. 8 verwendet werden, bei dem zunächst die Multi¬ plikation mit der Matrix A und erst anschließend die tanh- Funktion angewendet wird.
In einer besonders bevorzugten Ausgestaltung wird das Lernen gemäß Fig. 13 bzw. Fig. 14 mit dem Lernverfahren kombiniert, welches in der bereits oben erwähnten deutschen Patentanmel- dung mit dem Anmelder-Aktenzeichen 2011P02814DE beschrieben ist. Dabei kann beim Lernen des kausalen Netzes Nl dieses Netz mit einem oder mehreren zweiten kausalen Netzen kombi- niert werden, welche gleichzeitig mit dem kausalen Netz Nl gelernt werden und die gleiche Gewichtsmatrix A zur Kopplung der Zustandsvektoren verwenden. Das oder die zweiten kausalen Netze weisen nur für einen Teil der Zeitschritte einen Diffe¬ renzvektor D auf und führen somit nicht in allen Zeitschrit¬ ten ein Teacher-Forcing durch. In Analogie zum kausalen Netz Nl kann auch das retro-kausale Netz N2 mit einem oder mehre¬ ren zweiten retro-kausalen Netzen kombiniert werden, welche gleichzeitig mit dem retro-kausalen Netz N2 gelernt werden und die gleiche Gewichtsmatrix A' zur Kopplung der Zustandsvektoren verwenden. Auch diese zweiten retro-kausalen Netze führen ein Teacher-Forcing nur für einen Teil der Zeitschritte durch.
Das im Vorangegangenen beschriebene erfindungsgemäße Verfah¬ ren weist eine Reihe von Vorteilen auf. Insbesondere können auch solche dynamischen Systeme gelernt werden, bei denen zukünftige prognostizierte Zustände des dynamischen Systems ei¬ ne Rolle für den aktuellen Zustand spielen. Das Verfahren kann dabei für unterschiedliche dynamische Systeme eingesetzt werden. Beispielsweise kann das dynamische System die zeitli¬ che Entwicklung von Energiepreisen bzw. Strompreisen und/oder Rohstoffpreisen darstellen, wobei als Observablen verschiedene Arten von Energie (z.B. Gas, Öl) und/oder Rohstoffe sowie weitere wirtschaftliche Faktoren, wie z.B. die Umrechnung verschiedener Währungen und Aktienindizes, berücksichtigt werden können. Mit einem durch entsprechende Trainingsdaten gelernten rekurrenten neuronalen Netz können dann geeignete Vorhersage über zukünftige Preisentwicklungen für Energie und/oder Rohstoffe getroffen werden. Das anhand von Fig. 13 und Fig. 14 beschriebene Lernverfahren wurde anhand von dyna¬ mischen Systemen zur zeitlichen Entwicklung von Strompreisen und Kupferpreisen getestet und lieferte gute Prognosen für die zukünftige Preisentwicklung.
Ein anderer Anwendungsbereich ist die Modellierung des dynamischen Verhaltens eines technischen Systems. Beispielsweise kann das erfindungsgemäße rekurrente neuronale Netz zur Prä¬ diktion der beobachtbaren Zustände einer Gasturbine und/oder einer Windkraftanlage oder auch beliebiger anderer technischer Systeme eingesetzt werden.

Claims

Patentansprüche
1. Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems, das zu jeweiligen Zeitpunkten durch einen Observablenvektor (Yt-3/ Yt-ir ■■■/ Yt+3) umfassend eine oder mehrere Observablen als Einträge charakterisiert wird, bei dem
das rekurrente neuronale Netz ein kausales Netz (Nl) um- fasst, das einen zeitlich vorwärts gerichteten Informati- onsfluss zwischen ersten Zustandsvektoren (st-3, st-2r
St+3) des dynamischen Systems über eine Kopplung mit einer ersten Gewichtsmatrix (A) beschreibt, wobei ein erster Zu- standsvektor (st-3, st-2r ■■■/ st+3) zu einem jeweiligen Zeit¬ punkt (t-3, t-2, t+3) einen oder mehrere erste Einträge umfasst, welche jeweils einem Eintrag des Observablenvek- tors {Yt-3/ Yt-2/ ■■■/ Yt+3) entsprechen, sowie einen oder meh¬ rere versteckte Zustände des dynamischen Systems;
das rekurrente neuronale Netz ein retro-kausales Netz (N2) umfasst, das einen zeitlich rückwärts gerichteten Informa- tionsfluss zwischen zweiten Zustandsvektoren (s' ts, s' t-2r s't+3) des dynamischen Systems über eine zweite Ge¬ wichtsmatrix (A' ) beschreibt, wobei ein zweiter Zustands- vektor (s't-3, s't-2/ s't+3) zu einem jeweiligen Zeitpunkt (t-3, t-2, t+3) einen oder mehrere zweite Einträge um- fasst, welche jeweils einem Eintrag des Observablenvektors
( Yt-3/ Yt-2/ ■■■/ Yt+3) entsprechen, sowie einen oder mehrere versteckte Zustände des dynamischen Systems;
wobei ein zum jeweiligen Zeitpunkt (t-3, t-2, t+3) durch das kausale Netz (Nl) ermittelter erster Zustands- vektor (st-3, st-2r ■■■/ St+3) im Rahmen der Kopplung mit dem nachfolgenden ersten Zustandvektor (st-3, st-2r ■■■/ st+3) durch einen ersten Differenzvektor (D) korrigiert wird, der den zum jeweiligen Zeitpunkt (t-3, t-2, t+3) ermittelten ersten Zustandsvektor (st-3, st-2r ■■■/ st+3) mit dem entsprechenden, zum jeweiligen Zeitpunkt (t-3, t-2, t+3) durch das retro-kausale Netz (N2) ermittelten zweiten Zustandsvektor (s't-3, s' t-2, s't+3) koppelt, wobei beim Lernen des rekurrenten neuronalen Netzes das kausale Netz (Nl) mit einem Verfahren gelernt wird, bei dem der erste Differenzvektor (D) den Unterschied zwischen den ersten Einträgen des zum jeweiligen Zeitpunkt (t-3, t-2, t+3) ermittelten ersten Zustandsvektors (st-3, st-2r ■■■/ st+3) und einem bekannten Observablenvektor (yd t-3, ydt-2/ ■■■/ t) aus Trainingsdaten beschreibt;
wobei ein zum jeweiligen Zeitpunkt (t-3, t-2, t+3) durch das retro-kausale Netz (N2) ermittelter zweiter Zu- standsvektor (s' ts, s' t-2, -, s't+3) im Rahmen der Kopplung mit dem vorhergehenden zweiten Zustandvektor (s' ts, s' t-2, s't+3) durch einen zweiten Differenzvektor (D' ) korri¬ giert wird, der den zum jeweiligen Zeitpunkt (t-3, t-2, t+3) ermittelten zweiten Zustandsvektor {s' t-3, s' t-2, s't+3) mit dem entsprechenden, zum jeweiligen Zeitpunkt (t-
3, t-2, t+3) durch das kausale Netz (Nl) ermittelten ersten Zustandsvektor (st-3, st / ■■■/ Sts) koppelt, wobei beim Lernen des rekurrenten neuronalen Netzes das retro- kausale Netz mit einem Verfahren gelernt wird, bei dem der zweite Differenzvektor (D' ) den Unterschied zwischen den zweiten Einträgen des zum jeweiligen Zeitpunkt (t-3, t-2, t+3) ermittelten zweiten Zustandsvektors {s' t-3, s' t-2, s't+3) und einem bekannten Observablenvektor (yt-3, t / yt+3) aus Trainingsdaten beschreibt.
2. Verfahren nach Anspruch 1, wobei zum Lernen des rekurrenten neuronalen Netzes zwei Kopien (Kl, K2 ) des rekurrenten neuronalen Netzes gleichzeitig gelernt werden, wobei in der einen Kopie (Kl) ausschließlich das kausale Netz (Nl) gelernt wird und in der anderen Kopie ausschließlich das retro- kausale Netz (N2) gelernt wird.
3. Verfahren nach Anspruch 1 oder 2, bei dem das kausale Netz (Nl) derart gelernt wird, dass neben dem kausalen Netz (Nl) ein oder mehrere zweite kausale Netze gelernt werden, welche jeweils mit dem kausalen Netz (Nl) mit dem Unterschied übereinstimmen, dass in dem jeweiligen zweiten kausalen Netz für einen Teil der Zeitpunkte (t-3, t-2, t+3) die Differenzvektoren (D) weggelassen werden.
4. Verfahren nach Anspruch 3, bei dem in einem jeweiligen zweiten kausalen Netz nur noch für jeden n-ten Zeitpunkt ein Differenzvektor (D) enthalten ist, wobei n eine natürliche Zahl größer gleich zwei ist.
5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das retro-kausale Netz (N2) derart gelernt wird, dass neben dem retro-kausalen Netz (N2) ein oder mehrere zweite retro- kausale Netze gelernt werden, welche jeweils mit dem zweiten retro-kausalen Netz (N2) mit dem Unterschied übereinstimmen, dass in dem jeweiligen zweiten retro-kausalen Netz für einen Teil der Zeitpunkte (t-3, t-2, t+3) die Differenzvektoren (D' ) weggelassen werden.
6. Verfahren nach Anspruch 5, bei dem in einem jeweiligen zweiten retro-kausalen Netz (N2) nur noch für jeden n-ten Zeitpunkt ein Differenzvektor (D' ) enthalten ist, wobei n eine natürliche Zahl größer gleich zwei ist.
7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das kausale Netz (Nl) und das retro-kausale Netz (N2) basie- rend auf einer Fehler-Rückpropagation mit geteilten Gewichten gelernt werden.
8. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in dem kausalen Netz (Nl) ein erster Zustandsvektor (st-3, st- 2 r - r st+3) zu einem jeweiligen Zeitpunkt (t-3, t-2, t+3) in einen ersten Zustandsvektor (st-3, st-2 , st+3) zu einem nachfolgenden Zeitpunkt durch eine Multiplikation mit der ersten Gewichtsmatrix (A) und das Anwenden einer Aktivierungsfunktion überführt wird.
9. Verfahren nach Anspruch 8, wobei zunächst die Aktivierungsfunktion auf den ersten Zustandsvektor (st-3, st-2f St+3) zu dem jeweiligen Zeitpunkt (t-3, t-2, t+3) angewen¬ det wird und anschließend eine Multiplikation mit der ersten Gewichtsmatrix (A) erfolgt.
10. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in dem retro-kausalen Netz (N2) ein zweiter Zustandsvek- tor (s't-3, s't-2/ ■■■/ s't+3) zu einem jeweiligen Zeitpunkt (t-3, t-2, t+3) in einen zweiten Zustandsvektor (s't-3, s ' t-2 , s't+3) zu einem vorhergehenden Zeitpunkt durch eine Multipli- kation mit der zweiten Matrix (A' ) und das Anwenden einer Aktivierungsfunktion überführt wird.
11. Verfahren nach Anspruch 9, wobei zunächst die Aktivierungsfunktion auf den zweiten Zustandsvektor ( s ' t-3r s ' t-2r s't+3) zu dem jeweiligen Zeitpunkt (t-3, t-2, t+3) angewen¬ det wird und anschließend eine Multiplikation mit der zweiten Gewichtsmatrix (A' ) erfolgt.
12. Verfahren nach einem der Ansprüche 8 bis 11, bei dem die Aktivierungsfunktion eine tanh-Funktion ist.
13. Verfahren nach einem der vorhergehenden Ansprüche, bei dem mit dem rekurrenten neuronalen Netz die zeitliche Entwicklung von Energiepreisen und/oder Rohstoffpreisen model- liert wird.
14. Verfahren nach einem der vorhergehenden Ansprüche, bei dem mit dem rekurrenten neuronalen Netz ein technisches System modelliert wird.
15. Verfahren nach Anspruch 14, bei dem das technische System eine Gasturbine und/oder eine Windkraftanlage ist.
16. Verfahren zur Prädiktion von Observablen eines dynami- sehen Systems, bei dem die Prädiktion mit einem rekurrenten neuronalen Netz durchgeführt wird, welches mit einem Verfah¬ ren nach einem der vorhergehenden Ansprüche basierend auf Trainingsdaten umfassend bekannte Observablenvektoren (y t_3, yd t-2/ ydt ) des dynamischen Systems gelernt ist.
17. Computerprogrammprodukt mit einem auf einem maschinenies baren Träger gespeicherten Programmcode zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche, wenn das Programm auf einem Rechner abläuft.
PCT/EP2012/051822 2011-02-24 2012-02-03 Verfahren zum rechnergestützten lernen eines rekurrenten neuronalen netzes zur modellierung eines dynamischen systems WO2012113634A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102011004693A DE102011004693A1 (de) 2011-02-24 2011-02-24 Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes zur Modellierung eines dynamischen Systems
DE102011004693.3 2011-02-24

Publications (1)

Publication Number Publication Date
WO2012113634A1 true WO2012113634A1 (de) 2012-08-30

Family

ID=45614819

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2012/051822 WO2012113634A1 (de) 2011-02-24 2012-02-03 Verfahren zum rechnergestützten lernen eines rekurrenten neuronalen netzes zur modellierung eines dynamischen systems

Country Status (2)

Country Link
DE (1) DE102011004693A1 (de)
WO (1) WO2012113634A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003079285A2 (de) * 2002-03-20 2003-09-25 Siemens Aktiengesellschaft Verfahren und anordnung sowie computerprogramm mit programmcode-mitteln und computerprogramm-produkt zur gewichtung von eingangsgrössen für eine neuronale struktur sowie neuronale struktur
DE102008014126A1 (de) * 2008-03-13 2009-10-01 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes
WO2011128313A1 (de) * 2010-04-14 2011-10-20 Siemens Aktiengesellschaft Verfahren zum rechnergestützten lernen eines rekurrenten neuronalen netzes zur modellierung eines dynamischen systems

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011002814A1 (de) 2011-01-18 2012-07-19 Robert Bosch Gmbh Rollenstößel

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003079285A2 (de) * 2002-03-20 2003-09-25 Siemens Aktiengesellschaft Verfahren und anordnung sowie computerprogramm mit programmcode-mitteln und computerprogramm-produkt zur gewichtung von eingangsgrössen für eine neuronale struktur sowie neuronale struktur
DE102008014126A1 (de) * 2008-03-13 2009-10-01 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes
DE102008014126B4 (de) * 2008-03-13 2010-08-12 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes
WO2011128313A1 (de) * 2010-04-14 2011-10-20 Siemens Aktiengesellschaft Verfahren zum rechnergestützten lernen eines rekurrenten neuronalen netzes zur modellierung eines dynamischen systems

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CAGLAYAN ERDEM ET AL: "SEGMENTAL DURATION CONTROL WITH ASYMMETRIC CAUSAL RETRO-CAUSAL NEURAL NETWORKS", 29 August 2001 (2001-08-29), pages 1 - 6, XP002647893, Retrieved from the Internet <URL:http://www.isca-speech.org/archive_open/archive_papers/ssw4/ssw4_119.pdf> [retrieved on 20110706] *
HANS-GEORG ZIMMERMANN ET AL: "From Time Series to Market Modeling", FINANCIAL MODELLING WORKSHOP UNIVERSITY OF ULM SEPTEMBER 20TH - SEPTEMBER 22ND, 2005, 20 September 2005 (2005-09-20), pages 1 - 12, XP055026000, Retrieved from the Internet <URL:http://www.mathematik.uni-ulm.de/finmath/confpage/papers/schaefer.pdf> [retrieved on 20120502] *
SCHAEFER A M ET AL: "Learning long-term dependencies with recurrent neural networks", NEUROCOMPUTING, ELSEVIER SCIENCE PUBLISHERS, AMSTERDAM, NL, vol. 71, no. 13-15, 1 August 2008 (2008-08-01), pages 2481 - 2488, XP025679209, ISSN: 0925-2312, [retrieved on 20080426], DOI: 10.1016/J.NEUCOM.2007.12.036 *

Also Published As

Publication number Publication date
DE102011004693A1 (de) 2012-08-30

Similar Documents

Publication Publication Date Title
WO2011128313A1 (de) Verfahren zum rechnergestützten lernen eines rekurrenten neuronalen netzes zur modellierung eines dynamischen systems
EP2135140B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems
EP2112568B1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
EP2649567B1 (de) Verfahren zur rechnergestützten modellierung eines technischen systems
EP2519861B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems
DE10222687B4 (de) Modellauswahl für Entscheidungsunterstützungssysteme
DE102007001025A1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102016011520B4 (de) Produktionsausrüstung mit Maschinenlernsystem und Montage-und Prüfeinheit
WO2009033944A1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung mit hilfe neuronaler netze
EP2724296A1 (de) Verfahren zur rechnergestützten modellierung eines technischen systems
WO2000008599A2 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
EP1627263B1 (de) Verfahren sowie computerprogramm mit programmcode-mitteln und computerprogramm-produkt zur ermittlung eines zukünftigen systemverhaltens eines dynamischen systems
WO2012113635A1 (de) Verfahren zum rechnergestützten lernen eines rekurrenten neuronalen netzes zur modellierung eines dynamischen systems
DE19703964C1 (de) Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz
WO2012113634A1 (de) Verfahren zum rechnergestützten lernen eines rekurrenten neuronalen netzes zur modellierung eines dynamischen systems
DE102008014126B4 (de) Verfahren zum rechnergestützten Lernen eines rekurrenten neuronalen Netzes
EP3528063B1 (de) Verfahren zur rechnergestützten erstellung eines prognosemodells zur prognose von einer oder mehreren zielgrössen
DE102011076969B4 (de) Verfahren zum rechnergestützten Lernen einer Regelung und/oder Steuerung eines technischen Systems
WO2006061320A2 (de) Verfahren und anordnung sowie computerprogramm mit programmcode-mitteln und computerprogramm-produkt zur ermittlung eines zukünftigen systemzustandes eines dynamischen systems
DE10356655B4 (de) Verfahren und Anordnung sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Ermittlung eines zukünftigen Systemzustandes eines dynamischen Systems
DE102006042975A1 (de) Verfahren zum Betrieb eines Kommunikationsnetzes
WO2022043455A1 (de) Verfahren und ein system zum erstellen einer industriellen lösung mit einer künstlichen intelligenz
WO2003079285A2 (de) Verfahren und anordnung sowie computerprogramm mit programmcode-mitteln und computerprogramm-produkt zur gewichtung von eingangsgrössen für eine neuronale struktur sowie neuronale struktur
DE102021207753A1 (de) Effizientes beschneiden zweiter ordnung von computer-implementierten neuronalen netzwerken
EP4356305A1 (de) Verfahren zum übertragen eines netzwerkverhaltens eines trainierten startnetzwerkes auf ein zielnetzwerk ohne verwendung eines originaldatensatzes

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12704383

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12704383

Country of ref document: EP

Kind code of ref document: A1