EP0995156A2 - Method and structure for the neural modelling of a dynamic system in a computer - Google Patents

Method and structure for the neural modelling of a dynamic system in a computer

Info

Publication number
EP0995156A2
EP0995156A2 EP98943653A EP98943653A EP0995156A2 EP 0995156 A2 EP0995156 A2 EP 0995156A2 EP 98943653 A EP98943653 A EP 98943653A EP 98943653 A EP98943653 A EP 98943653A EP 0995156 A2 EP0995156 A2 EP 0995156A2
Authority
EP
European Patent Office
Prior art keywords
layer
influencing
variable
variables
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP98943653A
Other languages
German (de)
French (fr)
Inventor
Hans-Georg Zimmermann
Ralf Neuneier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of EP0995156A2 publication Critical patent/EP0995156A2/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Definitions

  • the invention relates to a method and a layer arrangement for a neural network, with which in particular dynamic systems can be modeled well, such as technical systems or economic systems.
  • This publication proposes a six-layer model for a neural network to measure the dynamics of a technical system, or a system that predicts stock data by means of a dynamic characterization of the For the purpose of better modeling of a time series, several neighboring values of the time series are trained there separately in different branches of the neural network as targets and later combined by averaging to the desired output quantity Net at the exit dur ch imprinted a so-called interaction layer.
  • a branch is to be understood as a part of the neural network, which is itself an artificial neural network with inputs, at least one output and adaptable weights when individual neurons are coupled.
  • AI discloses a learning method and a learning arrangement for emulating a dynamic process by learning at least two time series together.
  • a separate learnable component is provided for each time series, to which historical values of the time series used are added.
  • Time series is decorrelated from its historical values and the historical values of the other time series. From US 5 479 571 A a neural network with two hidden layers is known.
  • the object on which the invention is based is to specify a further method and a further structure with which dynamic systems can be modeled neuronally on a computer.
  • the method for neural modeling of a dynamic system on a computer comprises the following features: a) Influencing variables of the dynamic system are used to emulate at least one first output variable into at least one first influencing variable, which determines the inertia of the dynamic system and into at least a second influencing variable, which determines the acceleration of the dynamic system groups; b) in a neural network (NN) at least a first (ZI) and a second (Z2) parallel branch of the neural network (NN) are trained separately with the behavior of the first influencing variable or second influencing variable; c) to form a first output variable (AD) depending on the influencing variables (ED), the or all outputs of the parallel branches (ZI, Z2) of the neural network (NN) are combined.
  • a) Influencing variables of the dynamic system are used to emulate at least one first output variable into at least one first influencing variable, which determines the inertia of the dynamic system and into at least a second influencing variable, which determines the acceleration of the dynamic system groups; b
  • the layer arrangement for a neural network for simulating a dynamic system has the following features: a) for simulating at least one first influencing variable, which determines the inertia of the dynamic system, and a second influencing variable, which determines the acceleration of the dynamic system, there are at least one hidden first (4000) or second (4500) neuron layer, as well as a first (5000) or second (5500) output layer; b) there is a combination layer (6000) for combining the simulated first influencing variable (610) and second influencing variable (620) into output variables.
  • Time series in the form of time series vectors of various influencing variables can advantageously be supplied to the neural network, and the output variable formed is combined into a single output variable by weighted averaging, since this reduces the noise component in the input variables and a more accurate replication by modeling different input variables the output size is possible.
  • the incoming signals are preprocessed by neuron-weighting them, these neuron weights being determined by subordinate positions of the neuron signals.
  • len network can be set in order to filter out undesirable influencing variables that have nothing to do with the dynamic system to be modeled.
  • the branches of the neural network can radial through implementation 'Ba are supplied, since thus the neural network to carry out different cases the possibility is also given in addition to determine sisfunktionen similarities within the pattern not only with linear predictors, but also with square weighted predictors.
  • the dynamic parameter to be supplied to the respective neural network i.e., inertia parameters or acceleration parameters
  • a plurality of indicators are formed, so that a larger amount of error return is generated within the network by a plurality of target variables, and thus a more accurate replication of the respective dynamic variable is possible.
  • the mean value or the curvature is preferably modeled with several defined interval distances around the target value.
  • the input variables for the method can be prepared in the form of the selected indicators in order to show the network a clear picture of the internal state of the dynamic system to be modeled.
  • a dynamic system is characterized by the momentarily acting inertia and influencing forces. From the input time series offered, one can now draw conclusions about the acting inertia and the forces by using the first and second differences of the time series. To normalize the order of magnitude of the input indicators, we also divide by the time series, which leads to relative changes.
  • the dynamic system is movement characterized by a balance.
  • the distance between a point in the time series and the equilibrium is a better characterization of the acting force than the description in the form of an acceleration.
  • the mean value of the last values of the time series can be used. If you now choose the difference between the current value of the time series and the mean value as equilibrium, you have used the latest point information but compared it with an outdated estimate of the equilibrium. It proves to be more advantageous in the difference to choose a past value of the time series such that the averaging for estimating the equilibrium is arranged symmetrically about this point. In this way, a better characterization of the tension between point and equilibrium of the dynamic system to be characterized is obtained.
  • a layer arrangement for a neural network for simulating a dynamic system can be provided, because there is a separate branch in the neural network for each dynamic parameter to be simulated, and an increased error reflux is generated by checking the hidden positions with an output layer, by means of which the The information about the dependence of neighboring time series values is imprinted on the neural network.
  • a preprocessing layer which serves both or the respective network branches together, since, for example, no two different preprocessing stages have to be provided and since the weights in the preprocessing layer are set by the error feedback from the respective branches of the neural network, in order to filter out undesired influencing variables and thus a more precise filtering out of disturbance variables can take place.
  • a square layer is particularly advantageously provided, which square-weighted the input values or the values supplied by the preprocessing layer. This enables the subsequent layers to simulate radial basic functions and thus to establish similarity references and not just case distinctions of incoming patterns.
  • the combination layer, the individual branches of the layer arrangement can be followed by a possibly weighted mean value layer in order to form an average value from the vectors of the prediction variable and thus to minimize the noise within the individual values.
  • Control layers which model the interval distances of the individual indicators from the respective dynamic parameter to be reproduced and which prevent the neural network or the respective branch of the neural network from taking place, are particularly advantageous in the layer arrangement of the respective branches of the neural network as output layers different indicators modeled only one.
  • FIG. 1 shows an example of a block diagram of a method according to the invention.
  • FIG. 2 shows an example of a neural network with a neuron layer arrangement according to the invention.
  • a method EV has, for example, processing blocks, a first processing block ZI and a second processing block Z2, and a further processing block 3000.
  • the processing blocks ZI and Z2 denote two separate branches, a first branch ZI and a second branch Z2 of a neural network NN.
  • the first processing block ZI and the second processing block Z2 receive input data in the form of time series which are taken from a real system, i.e. were measured.
  • a plurality of processing layers, a first processing layer 1000 and a second processing layer 2000 of the first processing block ZI or a first processing layer 1500 and a second processing layer 2500 of the second processing block Z2 are provided in the first and second processing blocks ZI and Z2 in the neural network NN, respectively are interconnected by signal lines 110 and 120.
  • acceleration parameters such as the force which causes a reset or a dynamic in the system, are described.
  • inertia parameters of the dynamic system are simulated.
  • the input data of the time series with which these respective processing blocks are supplied identically according to the method are processed in relation to identical indicators for these respective dynamic parameters.
  • the second processing block Z2 it is provided to emulate an average value around a prediction value by drawing time series values at various intervals around this value from this prediction value for averaging.
  • the output variables are fed via connecting lines 210 and 220 to a combination module 3000, which uses them to generate output data, ie the prediction value. It is achieved by the method that separate target sizes are defined for a respective dynamic parameter and these are simulated in different branches of a neural network. In this way, a strict separation of these dynamics-characterizing variables is achieved in the modeling, in that separate indicators are also learned during the training by the neural network.
  • a neural layer model for the neural modeling of a dynamic system has a plurality of layers 1000, 2000, 3000, 4000, 4500, 5000, 5500, 6000, 7000, 75000, the respective thousands indicating the numbering of the layers .
  • a preprocessing of the time series data of the dynamic system is carried out in front of the input neuron layer 1000 of the neural network NN.
  • the preprocessing shows the network a picture of the momentum and forces currently effective in the markets.
  • input variables can optionally be equilibrium variables, the restoring force of which depends on a distance between the current state and the respective state of equilibrium. In a mechanical system, this is the deflection of a spring pendulum from the idle state. In an economic system, for example, this observation quantity is a price that is derived from a process of equilibrium between supply and demand.
  • the following way is preferred to reset the point value to be predicted to such an extent that it becomes possible to compare a central mean value of the point information.
  • This concept can be understood using the following examples, where the index t denotes the current period, t-6 e.g. the time 6 steps earlier and aver (x (t), 12) indicates the averaging over the most recent 12 data.
  • x inflation indicator (e.g. a time series that does not originate from an equilibrium process)
  • INPUT (x (t) - x (t-6)) / x (t-6)
  • INPUT (x (t) - 2 * x (t-6) + x (t-12)) / x (t-6)
  • y US- $ (example of a time series defined by a supply - demand balance)
  • INPUT (y (t) - y ( t-6)) / y (t-6)
  • INPUT (y (t-6) - aver (y (t), 12)) / y (t-6)
  • a preprocessing layer 2000 is provided for the neural layer arrangement, with which the problem caused by the neural network NN interna- is achieved by the unknown damping constants appearing as learnable parameters in the network.
  • the internal preprocessing of the signals offered to the neural network NN is carried out by means of a weight matrix between the input layer 1000 and the preprocessing layer 2000, which consists of a diagonal matrix, which is denoted by 200.
  • the hyperbolic tangent (tanh) is used for the activation function of the first inner layer. This procedure and layer arrangement limit outliers in the values. Weight-based checking of inputs is also advantageously supported by this weight matrix.
  • the weights should preferably be initialized with 1 in the preprocessing layer 2000 and the weights should preferably be limited to values between 0 and 1.
  • the output signals of the preprocessing layer 2000 are forwarded to three further neuron layers 3000, 4000 and 4500. While a pure copy of the signals is forwarded to layer 3000, so that 300 denotes an identity image, the subsequent layers 4000 and 5000 or 4500 and 5500 receive the signals derived from preprocessing layer 2000 and transforms them linearly and squared, which is indicated by arrows 400 to 450 is indicated.
  • the neural network can also implement radial basic functions and thus can not only make case distinctions, but can also learn similarities in the patterns offered.
  • the signals 400, 410 or 420 and 450 generated in this way are then weighted in the neuron layers 4000 and 5000 or 4500 and 5500 multiplied, the layers 5500 and 5000 representing output layers of the neural network NN, while the layers 4000 and 4500 represent hidden neuron layers.
  • This part of the neural layer arrangement combines the classic concepts of a multilayer perceptron with a sigmoid inner layer of neurons and a classic radial basis function network. This connects the global and local approaches to these approximation approaches.
  • the activation function for the preprocessing layer 2000 and the hidden layer 4500 is chosen as the hyperbolic tangent. It may be helpful to add a Softmax function to the activation function.
  • Layers 5000 and 5500 identify the underlying dynamic system. For this purpose, these two layers are provided as the first starting layers in the neural layer arrangement and have target values that are to be learned.
  • the weights of layers 4000 to 5500 can be adapted here, as already indicated in the explanation of the arrow strengths.
  • the layer 5500 which is intended to model, for example, the inertia component of the dynamic system, 3-point averages and balance information of the time series to be approximated are offered as target values. Some examples of such target values are given below.
  • TARGET (x (t + 5) + x (t + 6) + x (t + 7)) / (3 * x (t)) - 1)
  • TARGET (x (t + 4) + x (t + 6) + x (t + 8)) / (3 * x (t)) - 1) or
  • TARGET (aver (x (t + 7), 3) - x (t)) / x (t)
  • TARGET (aver (x (t + 8), 5) - x (t)) / x (t)
  • Layer 5000 which acceleration properties of the system should learn, is offered so-called forces or mean-inverting information. The following characterizations are available for the forces that are offered as target or target values of the output layer 5000:
  • TARGET (-x (t + 4) + 2 * x (t + 6) - x (t + 8)) / ' (3 * x (t))) or
  • each average specialist can select other averages or other target sizes and combine them accordingly in order to emulate a predicted target value without being inventive or without proceeding in the sense of the invention. Since many characterizations of the dynamics can preferably be represented and thus learned through different embeddings and different ranges of the associated forces, 4500, 5500 or 4000 and 5000 are created in the replication of the dynamic branches. co co MM I- 1 P 1

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

The invention relates to a method and a neurone layer structure for the neural modelling of dynamic systems. To this end, parameters describing inertia and parameters describing acceleration of the system's time series are trained and processed separately in the network. The prognostic values thus obtained are combined to give a desired prognostic quantity. Different target quantities in the form of average values with bases of different widths can be obtained by defining different indicators for each dynamic parameter. A greater fault current for returning to the network is generated by training these values. This makes possible exact simulation of the different dynamic parameters. The inventive structure and method are preferably used for stock exchange forecasts and for other dynamic systems.

Description

Beschreibungdescription
Verfahren und Struktur zur Neuronalen Modellierung eines dynamischen Systems auf einem RechnerMethod and structure for neural modeling of a dynamic system on a computer
Die Erfindung bezieht sich auf ein Verfahren und eine Schichtenanordnung für ein Neuronales Netz, womit insbesondere dynamische Systeme gut modelliert werden können, wie dieses beispielsweise technische Systeme oder ökonomische Systeme sein können.The invention relates to a method and a layer arrangement for a neural network, with which in particular dynamic systems can be modeled well, such as technical systems or economic systems.
Bei der Modellierung von dynamischen Systemen durch Neuronale Netze besteht allgemein das Problem, daß die Information, über die Dynamik des Systems in der zeitlichen /Abhängigkeit benachbarter Muster von Zeitreihen enthalten ist. Meistens werden bei gängigen Lernverfahren von Neuronalen Netzen die Muster den Neuronalen Netzen in einer zufälligen Anordnung präsentiert, um lokale Minima zu vermeiden und die Lerngeschwindigkeit zu erhöhen. Auf diese Weise erhält das Netz sein Wissen über die Kopplung der einzelnen zeitlichen Muster lediglich implizit durch die sich langsam ändernden Neuronengewichte. Besonders schwierig ist ein dynamisches System zu modellieren, wenn viele Eingangsgrößen, d.h. in der Größenordnung von z.B. 30 Eingangsgrößen (es können aber auch meh- rere hundert sein) zu wenigen, d.h. einer einzigen Ausgangsgröße oder wahlweise auch zwei Ausgangsgrößen verarbeitet werden sollen. Um eine gute Abbildung des Systemverhaltens durch das Neuronale Netz zu erhalten, müssen dem Netz sehr viele Zeitreihen präsentiert werden, die oft in der Realität und insbesondere bei ökonomischen Daten nicht vorliegen.When modeling dynamic systems using neural networks, there is generally the problem that the information about the dynamics of the system is contained in the temporal / dependence of adjacent patterns of time series. Most common learning methods of neural networks present the patterns to the neural networks in a random arrangement in order to avoid local minima and to increase the learning speed. In this way, the network obtains its knowledge of the coupling of the individual temporal patterns only implicitly from the slowly changing neuron weights. It is particularly difficult to model a dynamic system when many input variables, i.e. on the order of e.g. 30 input variables (but there can also be several hundred) to a few, i.e. a single output variable or optionally two output variables are to be processed. In order to get a good picture of the system behavior through the neural network, a lot of time series have to be presented to the network, which are often not available in reality and especially with economic data.
Um diese Problematik in den Griff zu bekommen, gibt es im Stand der Technik Lösungsansätze, bei dynamischen Systemen zu deren neuronalen Modellierung deren inhärente Struktur heran- zuziehen. Bei den zu modellierenden dynamischen Systemen wird insbesondere auf der Targetseite darauf Wert gelegt, daß eine genügende Anzahl von Ausgangsgrößen in Form von verschiedenen Targets zur Verfügung steht, um aufeinanderfolgende Zustände des Systems beschreiben zu können. Auf diese Weise fließt mehr Fehlerinformation von der Targetseite auf die Eingangsseite des Netzes zurück und das System wird so genauer be- schreibbar. Näheres dazu ergibt sich aus Hans Georg Zimmermann und Andreas S. Weigend, "How To Represent Dynamical Systems In Feed Forward Networks: A Six Layer Architectuie" Proceedings of the Fourth International Conference on Neural Networks in the Capital Market (NNCM-96) , Seite" 1-18, veröf- fentlicht in Decision Technologies for Financial Engineering. In dieser Druckschrift wird ein sechslagiges Schichtenmodell für ein Neuronales Netz vorgeschlagen, um die Dynamik eines technischen Systems, bzw. eines Systems das der Vorhersage von Aktiendaten mittels einer Dynamik-Charakterisierung der Einflußgrößen vornimmt, zu beschreiben. Zum Zwecke einer besseren Modellierung einer Zeitreihe, werden dort mehrere benachbarte Werte der Zeitreihe separat in unterschiedlichen Zweigen des Neuronalen Netzes als Target trainiert und später durch Mittelwertbildung zur gesuchten Ausgangsgröße zusammen- gefaßt. Die Abhängigkeiten zwischen benachbarten Mustern werden dem Neuronalen Netz am Ausgang durch einen sogenannten Interaction Layer aufgeprägt.In order to get a grip on this problem, there are approaches in the state of the art to use the inherent structure of dynamic systems for their neural modeling. In the dynamic systems to be modeled, it is particularly important on the target side that a sufficient number of output variables in the form of different Targets are available to describe successive states of the system. In this way, more error information flows back from the target side to the input side of the network and the system can thus be described in more detail. Further details can be found in Hans Georg Zimmermann and Andreas S. Weigend, "How To Represent Dynamical Systems In Feed Forward Networks: A Six Layer Architectuie" Proceedings of the Fourth International Conference on Neural Networks in the Capital Market (NNCM-96), page " 1-18, published in Decision Technologies for Financial Engineering. This publication proposes a six-layer model for a neural network to measure the dynamics of a technical system, or a system that predicts stock data by means of a dynamic characterization of the For the purpose of better modeling of a time series, several neighboring values of the time series are trained there separately in different branches of the neural network as targets and later combined by averaging to the desired output quantity Net at the exit dur ch imprinted a so-called interaction layer.
Unter einem Zweig ist in diesem Zusammenhang ein Teil des Neuronalen Netzes zu verstehen, welches selbst ein künstliches Neuronales Netz ist mit Eingängen, mindestens einem Ausgang und adaptierbaren Gewichten bei Kopplungen einzelner Neuronen.In this context, a branch is to be understood as a part of the neural network, which is itself an artificial neural network with inputs, at least one output and adaptable weights when individual neurons are coupled.
Aus DE 195 37 010 AI ist ein Lernverfahren und eine Lernanordnung zur Nachbildung eines dynamischen Prozesses durch gemeinsames Erlernen von mindestens zwei Zeitreihen bekannt. Für jede Zeitreihe wird eine eigene lernfähige Komponente bereitgestellt, der Vergangenheitswerte der verwendeten Zeit- reihen zugeführt werden. Eine Gegenwartskomponente einerDE 195 37 010 AI discloses a learning method and a learning arrangement for emulating a dynamic process by learning at least two time series together. A separate learnable component is provided for each time series, to which historical values of the time series used are added. A present component of a
Zeitreihe wird von ihren Vergangenheitswerten und den Vergangenheitswerten der anderen Zeitreihen dekorreliert . Aus US 5 479 571 A ist ein Neuronales Netz mit zwei versteckten Schichten bekannt.Time series is decorrelated from its historical values and the historical values of the other time series. From US 5 479 571 A a neural network with two hidden layers is known.
Die der Erfindung zu Grunde liegende Aufgabe besteht darin, ein weiteres Verfahren und eines weitere Struktur anzugeben, womit dynamische Systeme neuronal auf einem Rechner modelliert werden können.The object on which the invention is based is to specify a further method and a further structure with which dynamic systems can be modeled neuronally on a computer.
Diese Aufgabe wird gemäß den Merkmalen des Patentanspruches 1 für das Verfahren und gemäß den Merkmalen des Anspruches 8 für die Struktur gelöst.This object is achieved according to the features of claim 1 for the method and according to the features of claim 8 for the structure.
Das Verfahren zur neuronalen Modellierung eines dynamischen Systems auf einem Rechner umfaßt folgende Merkmale: a) Einflußgrößen des dynamischen Systems werden zur Nachbildung mindestens einer ersten Ausgangsgröße in mindestens eine erste Einflußgröße, welche die Trägheit des dynamischen Systems bestimmt und in mindestens eine zweite Ein- flußgröße, welche die Beschleunigung des dynamischen Systems bestimmt, gruppiert; b) in einem neuronalen Netzwerk (NN) werden mindestens ein erster (ZI) und ein zweiter (Z2) parallel zueinander verlaufender Zweig des neuronalen Netzwerks (NN) des separat mit dem Verhalten jeweils der ersten Einflußgröße bzw. zweiten Einflußgröße trainiert; c) zur Bildung einer ersten Ausgangsgröße (AD) in Abhängigkeit der Einflußgrößen (ED) werden die bzw. alle Ausgänge der parallelen Zweige (ZI, Z2) des neuronalen Netzwerks (NN) kombiniert.The method for neural modeling of a dynamic system on a computer comprises the following features: a) Influencing variables of the dynamic system are used to emulate at least one first output variable into at least one first influencing variable, which determines the inertia of the dynamic system and into at least a second influencing variable, which determines the acceleration of the dynamic system groups; b) in a neural network (NN) at least a first (ZI) and a second (Z2) parallel branch of the neural network (NN) are trained separately with the behavior of the first influencing variable or second influencing variable; c) to form a first output variable (AD) depending on the influencing variables (ED), the or all outputs of the parallel branches (ZI, Z2) of the neural network (NN) are combined.
Die Schichtenanordnung für ein neuronales Netzwerk zur Nachbildung eines dynamischen Systems weist folgende Merkmale auf: a) zur Nachbildung mindestens je einer ersten Einflußgröße, welche die Trägheit des dynamischen Systems bestimmt und einer zweiten Einflußgröße, welche die Beschleunigung des dynamischen Systems bestimmt, sind mindestens jeweils eine versteckte erste (4000) bzw. zweite (4500) Neuronen- schicht, sowie eine erste (5000) bzw. zweite (5500) Ausgangsschicht vorhanden; b) es ist eine Kombinationsschicht (6000) vorhanden zur Kombination der nachgebildeten ersten Einflußgröße (610) und zweiten Einflußgröße (620) zu Ausgangsgrößen.The layer arrangement for a neural network for simulating a dynamic system has the following features: a) for simulating at least one first influencing variable, which determines the inertia of the dynamic system, and a second influencing variable, which determines the acceleration of the dynamic system, there are at least one hidden first (4000) or second (4500) neuron layer, as well as a first (5000) or second (5500) output layer; b) there is a combination layer (6000) for combining the simulated first influencing variable (610) and second influencing variable (620) into output variables.
Vorteilhafte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.Advantageous developments of the invention result from the dependent claims.
Besonders vorteilhaft werden in einer Weiterbildung unterschiedliche dynamische Einflußgrößen des Dynamischen Systems unterschieden, die die Trägheit und die Beschleunigung des Systems charakterisieren. Durch separate Modellierung in verschiedenen Unterzweigen eines Neuronalen Netzes nach dem erfindungsgemäßen Verfahren wird das Neuronale Netz gezwungen die Targetgröße anhand von unterschiedlichen Dynamik- Charakteristika zu lernen, wobei die selben Eingangszeitrei- hen Verwendung finden können. Die nachzubildende Ausgangsgröße wird erst im Anschluß durch Überlagerung der modellierten Targetgrößen dieser beiden unterschiedlichen Dynamikparameter gebildet.In a further development different dynamic influencing variables of the dynamic system are distinguished which characterize the inertia and the acceleration of the system. Through separate modeling in different sub-branches of a neural network according to the method according to the invention, the neural network is forced to learn the target size on the basis of different dynamic characteristics, the same input time series being able to be used. The output variable to be simulated is only subsequently formed by superimposing the modeled target variables of these two different dynamic parameters.
Vorteilhaft können dem Neuronalen Netz Zeitreihen in Form von Zeitreihenvektoren verschiedener Einflußgrößen zugeführt werden und die gebildete Ausgangsgröße wird zu einer einzigen Ausgangsgröße durch eventuell gewichtete Mittelwertbildung zusammengefaßt werden, da so der Rauschanteil in den Ein- gangsgrößen reduziert wird und durch die Modellierung verschiedener Eingangsgrößen eine genauere Nachbildung der Ausgangsgröße möglich ist.Time series in the form of time series vectors of various influencing variables can advantageously be supplied to the neural network, and the output variable formed is combined into a single output variable by weighted averaging, since this reduces the noise component in the input variables and a more accurate replication by modeling different input variables the output size is possible.
Besonders vorteilhaft ist es in einer weiteren Ausgestaltung vorgesehen, eine Vorverarbeitung der eingehenden Signale durchzuführen, indem diese neuronal gewichtet werden, wobei diese Neuronengewichte durch nachgeordnete Lagen des Neurona- len Netzes eingestellt werden, um unerwünschte Einflußgrößen, die mit dem zu modellierenden Dynamischen System nichts zu tun haben, ausfiltern zu können.In a further embodiment, it is particularly advantageously provided that the incoming signals are preprocessed by neuron-weighting them, these neuron weights being determined by subordinate positions of the neuron signals. len network can be set in order to filter out undesirable influencing variables that have nothing to do with the dynamic system to be modeled.
Die Zweige des Neuronalen Netzes können nicht nur mit linearen Einflußgrößen, sondern auch mit quadratisch gewichteten Einflußgrößen versorgt werden, da somit dem Neuronalen Netz zusätzlich zur Durchführung von Fallunterscheidungen auch die Möglichkeit gegeben wird, durch Implementierung' radialer Ba- sisfunktionen Ähnlichkeiten innerhalb der Muster festzustellen.The branches of the neural network can radial through implementation 'Ba are supplied, since thus the neural network to carry out different cases the possibility is also given in addition to determine sisfunktionen similarities within the pattern not only with linear predictors, but also with square weighted predictors.
Weiterhin können für die dem jeweiligen Neuronalen Netz zuzuführende dynamische Kenngröße, d.h. also Trägheitsparameter oder Beschleunigungsparameter, eine Mehrzahl von Indikatoren gebildet werden, damit durch eine Mehrzahl von Targetgrößen ein größerer Fehlerrückfluß innerhalb des Netzes erzeugt wird und somit eine genauere Nachbildung der jeweiligen Dynamikgröße möglich ist. Hierzu wird vorzugsweise der Mittelwert bzw. die Krümmung mit mehreren definierten Intervallabständen um den Zielwert herum modelliert.Furthermore, for the dynamic parameter to be supplied to the respective neural network, i.e. In other words, inertia parameters or acceleration parameters, a plurality of indicators are formed, so that a larger amount of error return is generated within the network by a plurality of target variables, and thus a more accurate replication of the respective dynamic variable is possible. For this purpose, the mean value or the curvature is preferably modeled with several defined interval distances around the target value.
Ferner können schon die Eingangsgrößen für das Verfahren in Form der gewählten Indikatoren aufbereitet werden, um dem Netzwerk ein klares Bild des internen Zustandes des zu modellierenden dynamischen Systems zu zeigen. Ein dynamisches System wird durch die momentan wirkenden Trägheiten und beeinflussenden Kräfte charakterisiert. Aus den angebotenen Input- zeitreihen kann man nun auf die wirkende Trägheit und die Kräfte zurückschließen indem man die ersten und zweiten Differenzen der Zeitreihen benutzt. Zur Normierung der Größenordnung der Inputindikatoren wird zusätzlich durch die Zeitreihe dividiert, wodurch wir zu relativen Änderungen kommen.Furthermore, the input variables for the method can be prepared in the form of the selected indicators in order to show the network a clear picture of the internal state of the dynamic system to be modeled. A dynamic system is characterized by the momentarily acting inertia and influencing forces. From the input time series offered, one can now draw conclusions about the acting inertia and the forces by using the first and second differences of the time series. To normalize the order of magnitude of the input indicators, we also divide by the time series, which leads to relative changes.
In einer weiteren Ausgestaltung wird ein Teil der Kräfte nicht nur einfach als zweite Ableitungen dargestellt. In vielen Prozessen wird das dynamische System durch eine Pendelbe- wegung um ein Gleichgewicht charakterisiert. Hier ist der Abstand zwischen einem Punkt der Zeitreihe und dem Equilibrium eine bessere Charakterisierung der wirkenden Kraft als die Beschreibung in Form einer Beschleunigung. Als einfache Nähe- rung zur Beschreibung des momentan gültigen Gleichgewichtspunktes bietet sich der Mittelwert der letzten Werte der Zeitreihe an. Wählt man nun die Differenz des gegenwärtigen Wertes der Zeitreihe und des Mittelwertes als Equilibrium, so hat man die neueste Punktinformation genutzt aber einer ver- alteten Schätzung des Equilibriums gegenübergestellt. Es erweist sich als vorteilhafter in der Differenz einen vergangenen Wert der Zeitreihe dergestalt zu wählen, das die Mittelwertbildung zur Schätzung des Equilibriums symmetrisch um diesen Punkt angeordnet ist. So erhält man eine bessere Cha- rakterisierung der Spannung zwischen Punkt und Gleichgewicht des zu charakterisierenden dynamischen Systems.In a further embodiment, some of the forces are not simply represented as second derivatives. In many processes, the dynamic system is movement characterized by a balance. Here the distance between a point in the time series and the equilibrium is a better characterization of the acting force than the description in the form of an acceleration. As a simple approximation to the description of the currently valid equilibrium point, the mean value of the last values of the time series can be used. If you now choose the difference between the current value of the time series and the mean value as equilibrium, you have used the latest point information but compared it with an outdated estimate of the equilibrium. It proves to be more advantageous in the difference to choose a past value of the time series such that the averaging for estimating the equilibrium is arranged symmetrically about this point. In this way, a better characterization of the tension between point and equilibrium of the dynamic system to be characterized is obtained.
Ferner kann eine Schichtanordnung für ein Neuronales Netzwerk zur Nachbildung eines Dynamischen Systems vorgesehen sein, weil dort für jede nachzubildende dynamische Kenngröße ein separater Zweig im Neuronalen Netz vorgesehen ist und durch die Kontrolle der versteckten Lagen mit einer Ausgangsschicht ein erhöhter Fehlerrückfluß erzeugt wird, durch den dem Neuronalen Netz die Information über die Abhängigkeit benachbar- ter Zeitreihenwerte aufgeprägt wird.Furthermore, a layer arrangement for a neural network for simulating a dynamic system can be provided, because there is a separate branch in the neural network for each dynamic parameter to be simulated, and an increased error reflux is generated by checking the hidden positions with an output layer, by means of which the The information about the dependence of neighboring time series values is imprinted on the neural network.
In einer Weiterbildung der erfindungsgemäßen Schichtenanordnung ist eine Vorverarbeitungsschicht vorgesehen, welche beide bzw. die jeweiligen Netzwerkzweige gemeinsam bedient, da beispielsweise keine zwei verschiedenen Vorverarbeitungsstufen vorgesehen werden müssen und da die Gewichte in der Vorverarbeitungsschicht durch die Fehlerrückführung aus den jeweiligen Zweigen des Neuronalen Netzwerkes eingestellt werden, um unerwünschte Einflußgrößen auszufiltern und somit ei- ne genauere Ausfilterung von Störgrößen erfolgen kann. Besonders vorteilhaft ist bei einer Weiterbildung der Schichtenanordnung eine Quadratschicht vorgesehen, welche die Eingangswerte bzw. die von der Vorverarbeitungsschicht angelieferten Werte quadratisch gewichtet. Hierdurch wird den nach- folgenden Schichten die Nachbildung radialer Basisfunktionen und somit die Herstellung von Ähnlichkeitsbezügen und nicht nur von Fallunterscheidungen eingehender Muster ermöglicht.In a further development of the layer arrangement according to the invention, a preprocessing layer is provided which serves both or the respective network branches together, since, for example, no two different preprocessing stages have to be provided and since the weights in the preprocessing layer are set by the error feedback from the respective branches of the neural network, in order to filter out undesired influencing variables and thus a more precise filtering out of disturbance variables can take place. In a further development of the layer arrangement, a square layer is particularly advantageously provided, which square-weighted the input values or the values supplied by the preprocessing layer. This enables the subsequent layers to simulate radial basic functions and thus to establish similarity references and not just case distinctions of incoming patterns.
Auch kann der Kombinationsschicht, der einzelnen Zweige der Schichtenanordnung eine, eventuell gewichtete, Mittelwertschicht nachgeordnet sein, um aus den Vektoren der Vorhersagegröße einen Mittelwert zu bilden und damit das Rauschen innerhalb der einzelnen Werte zu minimieren.The combination layer, the individual branches of the layer arrangement, can be followed by a possibly weighted mean value layer in order to form an average value from the vectors of the prediction variable and thus to minimize the noise within the individual values.
Besonders vorteilhaft werden bei der Schichtenanordnung den jeweiligen Zweigen des Neuronalen Netzes als Ausgangsschichten Kontrollschichten nachgeordnet, welche die Intervallabstände der einzelnen Indikatoren von der jeweiligen nachzubildenenden dynamischen Kenngröße modellieren und durch Feh- lerrückführung verhindern, daß das Neuronale Netz bzw. der jeweilige Zweig des Neuronalen Netzes anstatt unterschiedlicher Indikatoren lediglich einen modelliert.Control layers, which model the interval distances of the individual indicators from the respective dynamic parameter to be reproduced and which prevent the neural network or the respective branch of the neural network from taking place, are particularly advantageous in the layer arrangement of the respective branches of the neural network as output layers different indicators modeled only one.
Im folgenden wird ein Ausführungsbeispiel der Erfindung an- hand von Figuren weiter erläutert.An exemplary embodiment of the invention is explained in more detail below with reference to figures.
Figur 1 zeigt als Beispiel ein Blockdiagramm eines erfindungsgemäßen Verfahrens Figur 2 zeigt als Beispiel ein Neuronales Netz mit einer erfindungsgemäßen Neuronenschichtenanordnung.FIG. 1 shows an example of a block diagram of a method according to the invention. FIG. 2 shows an example of a neural network with a neuron layer arrangement according to the invention.
Wie Figur 1 zeigt, weist ein Verfahren EV beispielsweise Verarbeitungsblöcke, einen ersten Verarbeitungsblock ZI und einen zweiten Verarbeitungsblock Z2, sowie einen weiteren Ver- arbeitungsblock 3000 auf. Mit den Verarbeitungsblöcken ZI und Z2 sind zwei separate Zweige, ein erster Zweig ZI und ein zweiter Zweig Z2 eines Neuronalen Netzes NN bezeichnet.As FIG. 1 shows, a method EV has, for example, processing blocks, a first processing block ZI and a second processing block Z2, and a further processing block 3000. The processing blocks ZI and Z2 denote two separate branches, a first branch ZI and a second branch Z2 of a neural network NN.
Der erste Verarbeitungsblock ZI und der zweite Verarbeitungsblock Z2 erhalten Eingangsdaten in Form von Zeitreihen, die einem realen System abgenommen, d.h. gemessen wurden.The first processing block ZI and the second processing block Z2 receive input data in the form of time series which are taken from a real system, i.e. were measured.
In dem ersten bzw. zweiten Verarbeitungsblock ZI und Z2 sind beim Neuronalen Netz NN jeweils mehrere Verarbeitungsschichten, eine erste Verarbeitungsschicht 1000 und eine zweite Verarbeitungsschicht 2000 des ersten Verarbeitungsblocks ZI bzw. eine erste Verarbeitungsschicht 1500 und eine zweite Verarbeitungsschicht 2500 des zweiten Verarbeitungsblocks Z2 vorgesehen, welche durch Signalleitungen 110 und 120 miteinander verbunden sind.A plurality of processing layers, a first processing layer 1000 and a second processing layer 2000 of the first processing block ZI or a first processing layer 1500 and a second processing layer 2500 of the second processing block Z2 are provided in the first and second processing blocks ZI and Z2 in the neural network NN, respectively are interconnected by signal lines 110 and 120.
In dem ersten Verarbeitungsblock ZI des werden Beschleunigungskenngrößen, wie die Kraft, welche eine Rückstellung bzw. eine Dynamik im System bewirkt, beschrieben.In the first processing block ZI, acceleration parameters, such as the force which causes a reset or a dynamic in the system, are described.
In dem zweiten Verarbeitungsblock Z2 werden Trägheitskenngrößen des Dynamischen Systems nachgebildet. Die Eingangsdaten der Zeitreihen, mit welchen diese jeweiligen Verarbeitungs- blocke nach dem Verfahren identisch versorgt werden, werden in Bezug auf identische Indikatoren für diese jeweiligen dynamischen Kenngrößen aufbereitet.In the second processing block Z2, inertia parameters of the dynamic system are simulated. The input data of the time series with which these respective processing blocks are supplied identically according to the method are processed in relation to identical indicators for these respective dynamic parameters.
Für den zweiten Verarbeitungsblock Z2 ist es vorgesehen, ei- nen Mittelwert um einen Vorhersagewert herum nachzubilden, indem ausgehend von diesem Vorhersagewert Zeitreihenwerte in verschiedenen Abständen um diesen Wert herum zur Mittelwertbildung herausgezogen werden.For the second processing block Z2, it is provided to emulate an average value around a prediction value by drawing time series values at various intervals around this value from this prediction value for averaging.
Analog gilt dies für den ersten Verarbeitungsblock ZI, bei dem die Krümmung der Zeitreihe für verschiedene Kurvenabschnitte um den Vorhersagewert herum zugeführt werden kann. Nach der internen Verarbeitung in den verschiedenen Zweigen des Neuronalen Netzes, bzw. den Verarbeitungsblöcken ZI und Z2 werden die Ausgangsgrößen über Verbindungsleitungen 210 und 220 einem Kombinationsbaustein 3000 zugeführt, der daraus Ausgangsdaten, d.h. den Vorhersagewert erzeugt. Durch das Verfahren wird erreicht, daß für eine jeweilige dynamische Kenngröße separate Targetgrößen definiert werden und diese in unterschiedlichen Zweigen eines Neuronalen Netzes nachgebil- det werden. Hierdurch wird eine strikte Trennung dieser Dynamik charakterisierenden Größen bei der Modellierung erreicht, indem auch beim Training separate Indikatoren durch das Neuronale Netz gelernt werden. Durch die Bildung einer Mehrzahl von Indikatoren je Verarbeitungsblock ZI, Z2 wird erreicht, daß eine Mehrzahl von Targetgrößen gelernt werden muß und damit die jeweilige Dynamikgröße die durch den Verarbeitungsblock nachzubilden ist, durch eine erhöhte Fehlerrückführung innerhalb des Verarbeitungszweiges besser nachgebildet wird, weil die Fehlerrückführung zu einer genaueren Einstellung der Gewichte im Neuronalen Netz führt.This applies analogously to the first processing block ZI, in which the curvature of the time series can be supplied for different curve sections around the predicted value. After the internal processing in the various branches of the neural network, or the processing blocks ZI and Z2, the output variables are fed via connecting lines 210 and 220 to a combination module 3000, which uses them to generate output data, ie the prediction value. It is achieved by the method that separate target sizes are defined for a respective dynamic parameter and these are simulated in different branches of a neural network. In this way, a strict separation of these dynamics-characterizing variables is achieved in the modeling, in that separate indicators are also learned during the training by the neural network. By forming a plurality of indicators per processing block ZI, Z2 it is achieved that a plurality of target sizes must be learned and thus the respective dynamic variable to be reproduced by the processing block is better simulated by an increased error feedback within the processing branch because the error feedback increases leads to a more precise adjustment of the weights in the neural network.
Wie Figur 2 zeigt, weist ein Neuronales Schichtenmodell für die Neuronale Modellierung eines dynamischen Systems mehrere Schichten 1000, 2000, 3000, 4000, 4500, 5000, 5500, 6000, 7000, 75000 auf, wobei die jeweilige Tausender-Ziffer die Numerierung der Schichten angibt.As FIG. 2 shows, a neural layer model for the neural modeling of a dynamic system has a plurality of layers 1000, 2000, 3000, 4000, 4500, 5000, 5500, 6000, 7000, 75000, the respective thousands indicating the numbering of the layers .
Die Verbindungen der einzelnen Schichten miteinander sind durch dicke und dünne Pfeile beschrieben, wobei die dicken Pfeile anzeigen, daß eine Gewichtseinstellung durchgeführt werden kann, während die dünnen Pfeile anzeigen, daß vordefinierte Gewichte eingestellt sind.The connections between the individual layers are described by thick and thin arrows, the thick arrows indicating that a weight adjustment can be carried out, while the thin arrows indicate that predefined weights are set.
Obwohl in diesem Ausführungsbeispiel sieben Schichten darge- stellt sind, ist es für die Erfindung nicht erforderlich, daß alle Schichten für die Durchführung der Erfindung vorhanden sind. Das Grundprinzip der Erfindung, läßt sich auch schon durch die Schichten 4000 bis 6000 darstellen.Although seven layers are shown in this exemplary embodiment, it is not necessary for the invention that all layers are present for the implementation of the invention are. The basic principle of the invention can also be represented by layers 4000 to 6000.
Vor der Eingangsneuronenschicht 1000 des Neuronalen Netzes NN wird eine Vorverarbeitung der Zeitreihendaten des Dynamischen Systems durchgeführt. In Bezug auf ökonomische Daten zeigt die Vorverarbeitung dem Netzwerk ein Bild der zum gegenwärtigen Zeitpunkt wirksamen Impulse und Kräfte in den Märkten.A preprocessing of the time series data of the dynamic system is carried out in front of the input neuron layer 1000 of the neural network NN. With regard to economic data, the preprocessing shows the network a picture of the momentum and forces currently effective in the markets.
Insbesondere sollten einzelne Teildynamiken, ausgedrückt durch die verschiedenen Eingangsgrößen, durch ihre Trägheit und die mit ihnen verbundenen Kräfte, charakterisiert werden. Bevorzugt bietet sich als Maß für die Trägheit die relative Änderung einer Eingangsgröße an. Hierdurch wird die Geschwin- digkeit in der Veränderung dieser Eingangsgröße repräsentiert und die Größenordnung der Eingangsgröße herausnormiert.In particular, individual sub-dynamics, expressed by the various input variables, by their inertia and the forces associated with them, should be characterized. The relative change in an input variable is preferred as a measure of the inertia. In this way, the speed in the change of this input variable is represented and the magnitude of the input variable is standardized.
Zur Charakterisierung einer Kraft wird die zweite Ableitung der Eingangsgröße herangezogen. Wahlweise kann es sich bei Eingangsgrößen jedoch um Gleichgewichtsgrößen handeln, deren rückstellende Kraft von einem Abstand des aktuellen Zustands vom jeweiligen Gleichgewichtszustand abhängig ist. Bei einem mechanischen System ist dies die Auslenkung eines Federpendels aus dem Ruhezustand. Bei einem ökonomischen System ist diese Beobachtungsgröße beispielsweise ein Preis, der aus einem Gleichgewichtsprozeß zwischen Angebot und Nachfrage abgeleitet wird.The second derivative of the input variable is used to characterize a force. However, input variables can optionally be equilibrium variables, the restoring force of which depends on a distance between the current state and the respective state of equilibrium. In a mechanical system, this is the deflection of a spring pendulum from the idle state. In an economic system, for example, this observation quantity is a price that is derived from a process of equilibrium between supply and demand.
Für dessen Charakterisierung bietet sich zur Beschreibung der rücktreibenden Kraft eine andere Vorgehensweise an. Bei solchen Dynamiken stellt der Abstand vom gegenwärtigen Wert zum Gleichgewichtswert ein besseres Maß für die Kraft dar, welche das System in Richtung auf den Gleichgewichtszustand zurückzieht. Dabei läßt sich eine einfache Schätzung der Gleichge- wichtslage durch die Mittelwertbildung der letzten Werte in der Zeitreihe errechnen. Diese Vorgehensweise hat allerdings den Nachteil, daß der gegenwertige Wert der Zeitreihe einer veralteten Schätzung des Gleichgewichtswerts gegenübersteht .For the characterization of this, a different approach offers a description of the driving force. With such dynamics, the distance from the current value to the equilibrium value is a better measure of the force which the system retracts towards the equilibrium state. A simple estimate of the equilibrium position can be calculated by averaging the last values in the time series. However, this procedure has the disadvantage that the current value of the time series contrasts with an outdated estimate of the equilibrium value.
Deshalb wird folgender Weg bevorzugt den vorherzusagenden Punktwert soweit in der Zeit zurücksetzen, daß es möglich wird einen zentralen Mittelwert der Punktinformation gegenüberzustellen. Dieses Konzept kann anhand folgender Beispiele nachvollzogen werden, wobei der Index t den aktuellen Zeit- räum bezeichnet, t-6 z.B. den Zeitpunkt 6 Schritte früher und aver (x(t), 12) die Mittelwertbildung über die aktuellsten 12 Daten angibt.Therefore, the following way is preferred to reset the point value to be predicted to such an extent that it becomes possible to compare a central mean value of the point information. This concept can be understood using the following examples, where the index t denotes the current period, t-6 e.g. the time 6 steps earlier and aver (x (t), 12) indicates the averaging over the most recent 12 data.
1. x = Inflationsindikator (Bsp. einer Zeitreihe, die nicht aus einem Gleichgewichtsprozeß stammt) INPUT = (x(t) - x(t-6)) / x(t-6) INPUT = (x(t) - 2*x(t-6) + x(t-12) )/x(t-6) y = US-$ (Beispiel einer Zeitreihe, die durch ein Angebot - Nachfragegleichgewicht definiert wird) INPUT = (y(t) - y(t-6)) / y(t-6)1.x = inflation indicator (e.g. a time series that does not originate from an equilibrium process) INPUT = (x (t) - x (t-6)) / x (t-6) INPUT = (x (t) - 2 * x (t-6) + x (t-12)) / x (t-6) y = US- $ (example of a time series defined by a supply - demand balance) INPUT = (y (t) - y ( t-6)) / y (t-6)
INPUT = (y(t-6) - aver (y(t) ,12) )/y(t-6)INPUT = (y (t-6) - aver (y (t), 12)) / y (t-6)
Diese externe Vorverarbeitung vor der Eingangsschicht 1000 kann jedoch ein dringendes Problem, welches sich beispiels- weise bei Ökonomischen Analysen stellt, nicht vollständig lösen. Dabei handelt es sich um die Begrenzung von Ausreißern, oder besser das Filtern größerer Bewegungen Ökonomischer Zeitreihen, welche nicht durch die Ökonomie, sondern durch politische Willensentscheidung herbeigeführt worden sind. Hier stellt sich jedoch das Problem, die unbekannte Größe, ab welcher die Dämpfung der Eingangsvariablen vorgenommen werden soll, anzugeben.However, this external preprocessing in front of the input layer 1000 cannot completely solve an urgent problem, which arises, for example, in economic analyzes. This involves limiting outliers, or rather filtering larger movements of economic time series, which were not brought about by the economy but by political decision-making. Here, however, the problem arises of specifying the unknown size from which the damping of the input variables is to be carried out.
Hierzu ist Neuronalen Schichtenanordnung eine Vorverarbei- tungsschicht 2000 vorgesehen, mit welcher durch die Netzwerkarchitektur das Problem durch das Neuronale Netz NN interna- lisiert wird, indem die unbekannten Dämpfungskonstanten als lernbarer Parameter im Netz erscheinen.For this purpose, a preprocessing layer 2000 is provided for the neural layer arrangement, with which the problem caused by the neural network NN interna- is achieved by the unknown damping constants appearing as learnable parameters in the network.
Die interne Vorverarbeitung der dem Neuronalen Netz NN ange- botenen Signale erfolgt durch eine Gewichtsmatrix zwischen der Eingangsschicht 1000 und der Vorverarbeitungsschicht 2000, welche aus einer Diagonalmatrix besteht, welche Diagonalmatrix mit 200 bezeichnet ist.The internal preprocessing of the signals offered to the neural network NN is carried out by means of a weight matrix between the input layer 1000 and the preprocessing layer 2000, which consists of a diagonal matrix, which is denoted by 200.
Für die Aktivierungsfunktion der ersten inneren Schicht wird der Tangens hyperbolicus (tanh) eingesetzt. Durch diese Vorgehensweise und Schichtenanordnung werden Ausreißer in den Werten beschränkt. Ebenfalls wird vorteilhaft auch gewichtsbasiertes Prunen von Eingängen durch diese Gewichtsmatrix un- terstützt. Bevorzugt sollte die Initialisierung der Gewichte in der Vorverarbeitungsschicht 2000 mit 1 erfolgen und bevorzugt sollten die Gewichte auf Werte zwischen 0 und 1 beschränkt werden.The hyperbolic tangent (tanh) is used for the activation function of the first inner layer. This procedure and layer arrangement limit outliers in the values. Weight-based checking of inputs is also advantageously supported by this weight matrix. The weights should preferably be initialized with 1 in the preprocessing layer 2000 and the weights should preferably be limited to values between 0 and 1.
In der Neuronenschichtenanordnung werden die Ausgangssignale der Vorverarbeitungsschicht 2000 zu drei weiteren Neuronen- schichten 3000, 4000 und 4500 weitergeleitet. Während an die Schicht 3000 eine reine Kopie der Signale weitergeleitet wird, so daß mit 300 eine Identitätsabbildung bezeichnet wird, erhalten die weiter folgenden Schichten 4000 und 5000 bzw. 4500 und 5500 die von der Vorverarbeitungsschicht 2000 abgeleiteten Signale linear und quadriert transformiert, was durch Pfeile 400 bis 450 angedeutet ist.In the neuron layer arrangement, the output signals of the preprocessing layer 2000 are forwarded to three further neuron layers 3000, 4000 and 4500. While a pure copy of the signals is forwarded to layer 3000, so that 300 denotes an identity image, the subsequent layers 4000 and 5000 or 4500 and 5500 receive the signals derived from preprocessing layer 2000 and transforms them linearly and squared, which is indicated by arrows 400 to 450 is indicated.
Durch die Anwendung einer quadratischen Aktivierungsfunktion auf die von der Vorverarbeitungsschicht 2000 abgegebenen Daten in der Neuronenschicht 3000 wird erreicht, daß das Neuronale Netz auch radiale Basisfunktionen implementieren kann und somit nicht lediglich Fallunterscheidungen durchführen kann, sondern auch Ähnlichkeiten in den angebotenen Mustern lernen kann. Die so erzeugten Signale 400, 410 bzw. 420 und 450 werden im Anschluß noch mit Gewichten in den Neuronen- schichten 4000 und 5000 bzw. 4500 und 5500 multipliziert, wobei die Schichten 5500 und 5000 Ausgangsschichten des Neuronalen Netzes NN darstellen, während die Schichten 4000 und 4500 versteckte Neuronenschichten darstellen.By using a quadratic activation function on the data output by the preprocessing layer 2000 in the neuron layer 3000, it is achieved that the neural network can also implement radial basic functions and thus can not only make case distinctions, but can also learn similarities in the patterns offered. The signals 400, 410 or 420 and 450 generated in this way are then weighted in the neuron layers 4000 and 5000 or 4500 and 5500 multiplied, the layers 5500 and 5000 representing output layers of the neural network NN, while the layers 4000 and 4500 represent hidden neuron layers.
Dieser Teil der neuronalen Schichtenanordnung verbindet die klassischen Konzepte eines Multilayerperzeptron mit einer sigmoiden inneren Schicht von Neuronen und eines klassischen radialen Basisfunktionennetzes. Damit werden die globalen und lokalen Ansätze dieser Aproximationsansätze verbunden. AlsThis part of the neural layer arrangement combines the classic concepts of a multilayer perceptron with a sigmoid inner layer of neurons and a classic radial basis function network. This connects the global and local approaches to these approximation approaches. As
Aktivierungsfunktion für die Vorverarbeitungsschicht 2000 und die versteckte Schicht 4500 wird der Tangens hyperbolicus gewählt. Unter Umständen kann es hilfreich sein, die Aktivierungsfunktion um eine Softmax-Funktion zu erweitern.The activation function for the preprocessing layer 2000 and the hidden layer 4500 is chosen as the hyperbolic tangent. It may be helpful to add a Softmax function to the activation function.
Die Schichten 5000 bzw. 5500 identifizieren das zu Grunde liegende dynamische System. Hierzu sind diese beiden Schichten als erste Ausgangsschichten in der Neuronalen Schichtenanordnung vorgesehen und besitzen Zielwerte, die es zu lernen gilt. Hierbei sind die Gewichte, wie zuvor bereits bei der Erläuterung der Pfeilstärken angedeutet, der Schichten 4000 bis 5500 adaptierbar. Bevorzugt werden für die Schicht 5500, welche hierbei beispielsweise den Trägheitsanteil des Dynamischen Systems modellieren soll, als Targetwerte 3-Punkt Mit- telungen und Gleichgewichtsinformationen der zu aproximieren- den Zeitreihe angeboten. Im folgenden sind einige Beispiele solcher Target- bzw. Zielwerte angegeben.Layers 5000 and 5500 identify the underlying dynamic system. For this purpose, these two layers are provided as the first starting layers in the neural layer arrangement and have target values that are to be learned. The weights of layers 4000 to 5500 can be adapted here, as already indicated in the explanation of the arrow strengths. For the layer 5500, which is intended to model, for example, the inertia component of the dynamic system, 3-point averages and balance information of the time series to be approximated are offered as target values. Some examples of such target values are given below.
TARGET = ( x(t+5) + x(t+6) + x(t+7)) / (3 * x(t)) - 1) TARGET = ( x(t+4) + x(t+6) + x(t+8)) / (3 * x(t)) - 1) oderTARGET = (x (t + 5) + x (t + 6) + x (t + 7)) / (3 * x (t)) - 1) TARGET = (x (t + 4) + x (t + 6) + x (t + 8)) / (3 * x (t)) - 1) or
TARGET = (aver(x(t+7) ,3) - x(t)) / x(t)TARGET = (aver (x (t + 7), 3) - x (t)) / x (t)
TARGET = (aver(x(t+8) ,5) - x(t)) / x(t)TARGET = (aver (x (t + 8), 5) - x (t)) / x (t)
Bevorzugt sind diese Einbettungen symmetrisch um den vorherzusagenden Wert hier beispielsweise x(t)+6 herum angeordnet. Als Mittelwertbildungen weisen sie zusätzlich die vorteilhaf- te Eigenschaft auf, das Rauschen in den Daten zu dämpfen. Der Schicht 5000, welche Beschleunigungseigenschaften des Systems lernen soll, werden dagegen sogenannte Kräfte bzw. meanrever- ting Informationen angeboten. Für die Kräfte, welche als Tar- get- bzw. Zielwerte der AusgangsSchicht 5000 angeboten werden, bieten sich folgende Charakterisierungen an:These embeddings are preferably arranged symmetrically around the value to be predicted here, for example x (t) +6. As averages, they also show the advantageous property to attenuate noise in the data. Layer 5000, on the other hand, which acceleration properties of the system should learn, is offered so-called forces or mean-inverting information. The following characterizations are available for the forces that are offered as target or target values of the output layer 5000:
1. TARGET = (-x(t+5) + 2 * x(t+6) - x(t+7)) / (3 * x(t)))1.TARGET = (-x (t + 5) + 2 * x (t + 6) - x (t + 7)) / (3 * x (t)))
TARGET = (-x(t+4) + 2 * x(t+6) - x(t+8)) /' (3 * x(t))) oderTARGET = (-x (t + 4) + 2 * x (t + 6) - x (t + 8)) / ' (3 * x (t))) or
TARGET = (x(t+6) - aver(x(t+7) ,3) ) / x(t)TARGET = (x (t + 6) - aver (x (t + 7), 3)) / x (t)
TARGET = (x(t+6) - aver(x(t+8) ,5) ) / x(t)TARGET = (x (t + 6) - aver (x (t + 8), 5)) / x (t)
Hierbei handelt es sich um Kräftecharakterisierungen in Form von Beschleunigungen, oder in Form von Umkehrkräften inThese are force characterizations in the form of accelerations, or in the form of reversal forces in
Gleichgewichtssituationen. Ein entscheidender Punkt ist nun, daß sich die Einbettungen und die zugehörigen Kräfte durch einfache paarweise Addition zu dem am Ende erwünschten ZielwertBalance situations. A crucial point is that the embeddings and the associated forces are simply added in pairs to the target value desired in the end
TARGET = (x(t+6) - x(t)) / x(t)TARGET = (x (t + 6) - x (t)) / x (t)
ergänzen. Dies kann man nachvollziehen, indem einfach die beiden Formeln die untereinander stehen und benachbart sind, aufaddiert werden. Selbstverständlich soll hier nicht angedeutet werden, daß diese Vorgehensweise die einzige Möglichkeit darstellt, die Erfindung zu realisieren. Mit der angegebenen Lehre kann jeder Durchschnittsfachmann andere Mittelwertbildungen bzw. andere Targetgrößen auswählen und entspre- chend miteinander kombinieren, um einen vorherzusagenden Zielwert nachzubilden, ohne dadurch erfinderisch tätig zu werden, bzw. ohne dadurch nicht im Sinne der Erfindung vorzugehen. Da bevorzugt durch verschiedene Einbettungen und verschiedene Spannweiten der zugehörigen Kräfte viele Charakte- risierungen der Dynamik dargestellt und damit gelernt werden können, werden bei der Nachbildung des dynamischen Systems in den einzelnen Zweigen d.h. 4500, 5500 bzw. 4000 und 5000 ent- co co M M I-1 P1 complete. You can understand this by simply adding up the two formulas that are adjacent to each other and adjacent. Of course, it should not be indicated here that this procedure is the only way to implement the invention. With the teaching given, each average specialist can select other averages or other target sizes and combine them accordingly in order to emulate a predicted target value without being inventive or without proceeding in the sense of the invention. Since many characterizations of the dynamics can preferably be represented and thus learned through different embeddings and different ranges of the associated forces, 4500, 5500 or 4000 and 5000 are created in the replication of the dynamic branches. co co MM I- 1 P 1
Cπ o cπ O Cπ o cn tr φ Φ 52 O CL 3 52 UI- 1 yQ P" < ^Q CΛ 3 DJ g IS) CΛ ιQ S yQ i^- P CL CL cπ p- 52 tt CΛCπ o cπ O Cπ o cn tr φ Φ 52 O CL 3 52 UI- 1 y QP "<^ Q CΛ 3 DJ g IS ) CΛ ιQ S yQ i ^ - P CL CL cπ p- 52 tt CΛ
N P P- φ P d φ φ φ φ DJ DJ φ φ Φ Φ Φ Di 3 3 Z rt Φ φ Ci DJ Φ Φ d P CL Dl Hi CL Ό z 3 rt CL 3 rt tr Z P 3 P P rt P rt n CL Φ P- CΛ P- P" 3 3 P d Φ rt Φ CL PNP P- φ P d φ φ φ φ DJ DJ φ φ Φ Φ Φ Di 3 3 Z rt Φ φ Ci DJ Φ Φ d P CL Dl Hi CL Ό z 3 rt CL 3 rt tr ZP 3 PP rt P rt n CL Φ P- CΛ P- P "3 3 P d Φ rt Φ CL P
• DJ Φ N 3 yQ er Φ Φ P P" ιQ 3 er ιQ CΛ N er Φ CL P- ω rt CΛ rt 3 n 3 3 d: P- P- φ d 3 DJ d cn DJ 3 P- = φ rt P- P n rt yQ P P- o DJ Φ P- P- tr et rt P " rt n• DJ Φ N 3 yQ er Φ Φ PP "ιQ 3 er ιQ CΛ N er Φ CL P- ω rt CΛ rt 3 n 3 3 d: P- P- φ d 3 DJ d cn DJ 3 P- = φ rt P - P n rt y QP P- o DJ Φ P- P- tr et rt P "rt n
CΛ tr P 3 ιQ 3 O tr 3 O: er ^ φ Φ Z er rt Q P- DJ φ yQ p- P- Φ P- erCΛ tr P 3 ιQ 3 O tr 3 O: er ^ φ Φ Z er rt Q P- DJ φ y Q p- P- Φ P- er
< rt P O yQ Φ P- CL P- fr P- φ d α εo P- o Φ Φ rt P- Φ 3 tr P d Φ CΛ P- O Φ ω φ er 3 cn Φ vQ Hi 3 1-1 3 Φ Φ φ d P tr P- P Φ 3 3 yQ φ 3 et O o σ> 3 rt t DJ tr er P> v <rt PO yQ Φ P- CL P- fr P- φ d α εo P- o Φ Φ rt P- Φ 3 tr P d Φ CΛ P- O Φ ω φ er 3 cn Φ vQ Hi 3 1-1 3 Φ Φ φ d P tr P- P Φ 3 3 y Q φ 3 et O o σ> 3 rt t DJ tr er P> v
Ct P- P- D : O P Φ : et P 3 α 3 CL N 3 rt rt φ 3 r CL φ P- n rt P- So er P er tsi O 3 Φ 3 z rt Φ α Φ tt & Z Φ 3 Φ o P-Ct P- P- D: OP Φ: et P 3 α 3 CL N 3 rt rt φ 3 r CL φ P- n rt P- So er P er tsi O 3 Φ 3 z rt Φ α Φ tt & Z Φ 3 Φ o P-
3 φ er Φ cn Φ Φ Φ p d ^ 3 ^ Hi 3 CL φ • Φ P 3 CL P- P cn P- d P ^ CΛ 3 < cn Φ W rt P X •-3 d cn cn P- d= Φ d rt P Φ CΛ P- 3 O rt n 3 cn φ s P- d P-3 φ er Φ cn Φ Φ Φ pd ^ 3 ^ Hi 3 CL φ • Φ P 3 CL P- P cn P- d P ^ CΛ 3 <cn Φ W rt PX • -3 d cn cn P- d = Φ d rt P Φ CΛ P- 3 O rt n 3 cn φ s P- d P-
52 3 rt <J o DJ 3 DJ p- n CL P 3 P Φ CL cn P- Φ φ »Q er 3- CL n 3 3 3 Φ φ52 3 rt <J o DJ 3 DJ p- n CL P 3 P Φ CL cn P- Φ φ »Q er 3- CL n 3 3 3 Φ φ
Φ P- d Φ Φ tr P ιQ a n er DJ O 3 Φ O > n CΛ P 3 Φ er tr CL CL P- P"Φ P- d Φ Φ tr P ιQ a n er DJ O 3 Φ O> n CΛ P 3 Φ er tr CL CL P- P "
P- o tt P cn P N P- ιQ p er rt G> ^ H er P er d tr O d 3 DJ P- CL P- 3 φP- o tt P cn P N P- ιQ p er rt G> ^ H er P er d tr O d 3 DJ P- CL P- 3 φ
3 er Φ Hi z N Φ Φ Φ rt P 3 CΛ P- CΛ Φ CJ 52 CΛ tP 3 Φ Φ P1 φ σ» Φ3 er Φ Hi z N Φ Φ Φ rt P 3 CΛ P- CΛ Φ CJ 52 CΛ tP 3 Φ Φ P 1 φ σ »Φ
N rt er CL Φ DJ • P- rt P 3 p- DJ CL ß: rt Φ n φ »Q P tr Φ Φ Z cn CL P CL tr NJ P N d P* φ P- tT rt Z P er vQ P1 DJ a Φ P- er P CL DJ er Φ d P- n P- d Φ o ZN rt he CL Φ DJ • P- rt P 3 p- DJ CL ß : rt Φ n φ »QP tr Φ Φ Z cn CL P CL tr NJ PN d P * φ P- tT rt ZP er vQ P 1 DJ a Φ P- he P CL DJ er Φ d P- n P- d Φ o Z
Hi P- φ 3 3 H Ό φ φ Φ DJ rt cn 3 P 3 P- Di: φ 3 Φ P P N d P er P- tt 3 3 Z P-Hi P- φ 3 3 H Ό φ φ Φ DJ rt cn 3 P 3 P- Di: φ 3 Φ P P N d P er P- tt 3 3 Z P-
DJ 3 P Φ er 3 P P- 3 . φ d Φ n Hi yQ P- o d P et * n P ιQ H) er φ cnDJ 3 P Φ er 3 P P- 3. φ d Φ n Hi y Q P- od P et * n P ιQ H) er φ cn
3 Φ cn t-< Z 3 • rt n yQ 52 3 DJ er rt CL cn rt DJ 3 CΛ n P- er Pi DJ φ P- n yQ DJ rt Φ φ cn S Φ e ö < Φ ιQ £ rt Φ φ cn Φ yQ φ DJ er φ Φ P- cn P- a rt er3 Φ cn t- <Z 3 • rt n y Q 52 3 DJ er rt CL cn rt DJ 3 CΛ n P- er Pi DJ φ P- n y Q DJ rt Φ φ cn S Φ e ö <Φ ιQ £ rt Φ φ cn Φ y Q φ DJ er φ Φ P- cn P- a rt er
Φ H H P cn tr P- O rt 3 d φ d PJ o Φ P n 3 Φ 3 a σ tP 3 rt Φ Φ φΦ HHP cn tr P- O rt 3 d φ d P J o Φ P n 3 Φ 3 a σ tP 3 rt Φ Φ φ
3 P- O 3 φ N f ιQ - p- P P P d ιQ CL 3 d er • P CΛ a φ P- φ IS! CL DJ CΛ d P 33 P- O 3 φ N f ιQ - p- P P P d ιQ CL 3 d er • P CΛ a φ P- φ IS! CL DJ CΛ d P 3
• rt 3 φ 3 z DJ Φ Φ rt o cn o 3 P φ 3 < P- d n Φ P- Φ 3 z d rt rt Φ Ό• rt 3 φ 3 z DJ Φ Φ rt o cn o 3 P φ 3 <P- d n Φ P- Φ 3 z d rt rt Φ Ό
DJ: 3 rt P" P" α er O 3 et O: P1 ^] rt φ o 3 er 3 3 cn CL φ 3 rt tt Φ 3 P ec rt N P1 P- P1 Φ DJ CL er DJ EP P" o Φ P er yQ P- ιQ φ φ P- yQ Hi DJ: 3 oDJ: 3 rt P "P" α er O 3 et O: P 1 ^] rt φ o 3 er 3 3 cn CL φ 3 rt tt Φ 3 P ec rt NP 1 P- P 1 Φ DJ CL er DJ EP P "o Φ P er y Q P- ιQ φ φ P- y Q Hi DJ: 3 o
P- d CL P- CL cn P- ι-f EP Φ et P- P- s Φ P- o P cn rt o Φ N iQ p- P" 2 iQ φ CL P d n P- n φ 3 3 DJ Φ φ P- 3 φ o Φ rt Φ N er CΛ £ < d Φ < 3 P1 P- Φ 3P- d CL P- CL cn P- ι-f EP Φ et P- P- s Φ P- o P cn rt o Φ N iQ p- P "2 iQ φ CL P dn P- n φ 3 3 DJ Φ φ P- 3 φ o Φ rt Φ N er CΛ £ <d Φ <3 P 1 P- Φ 3
P Φ P er Φ er P rt Φ cn CL rt P P- er 3 d rt φ P- P- Φ CL Φ 3 d o tr CΛ < n Φ Φ d P- ι-3 φ 52 rt d 3 P- CΛ rt rt φ Φ P- P Φ P CΛP Φ P er Φ er P rt Φ cn CL rt P P- 3 d rt φ P- P- Φ CL Φ 3 do tr CΛ <n Φ Φ d P- ι-3 φ 52 rt d 3 P- CΛ rt rt φ Φ P- P Φ P CΛ
Φ φ er cn Φ P 3 ∑: 3 DJ tz 3 Φ Φ et 3 -J Di φ DJ: s N rt }- P- 3 cn rt CL et o ΦΦ φ er cn Φ P 3 ∑: 3 DJ tz 3 Φ Φ et 3 -J Di φ DJ: s N rt} - P- 3 cn rt CL et o Φ
P- N P P yQ P- H Φ φ rt P- ιQ cπ 3 CL o rt _§ rt Φ N 3 rt - Φ P- 3 3 d Hi s Hi σ H CL ιQ P 3 N s: Φ o CL φ o N tt PJ DJ Φ Φ tr 3 Φ ΦP- NPP y Q P- H Φ φ rt P- ιQ cπ 3 CL o rt _§ rt Φ N 3 rt - Φ P- 3 3 d Hi s Hi σ H CL ιQ P 3 N s: Φ o CL φ o N tt P J DJ Φ Φ tr 3 Φ Φ
CΛ P- *< o- CL φ Φ 3 Φ CL o Φ 3 o Z S er 3 P- P- o f cn Cn d: P- φ 3 Φ o d vQ φ P 3 3 fr • 3 rt Φ P tr φ P Φ P- CΛ Φ Φ P1 3 Φ er tr φ cn PCΛ P- * <o- CL φ Φ 3 Φ CL o Φ 3 o ZS er 3 P- P- of cn Cn d: P- φ 3 Φ od vQ φ P 3 3 fr • 3 rt Φ P tr φ P Φ P- CΛ Φ Φ P 1 3 Φ er tr φ cn P
P> 3 d CLP > 3 d CL
B* DJ o iQ 3 3 Φ rt Φ P Z 3 d n rt P P H Φ Ct 3 DJ 3 n 3^ B * DJ o iQ 3 3 Φ rt Φ PZ 3 dn rt PPH Φ Ct 3 DJ 3 n 3 ^
PJ rt 3 <J d 3 3 H CL CL P- Φ N 3 er DJ CL rt D> 3 Φ φ P er DJ rt Φ yQ P- DJ 3 P- O 3 O: et P- P- Φ P d W CL rt φ tr O P 3 ^ W P- P"P J rt 3 <J d 3 3 H CL CL P- Φ N 3 er DJ CL rt D> 3 Φ φ P er DJ rt Φ y Q P- DJ 3 P- O 3 O: et P- P- Φ P d W CL rt φ tr OP 3 ^ W P- P "
Φ P φ P- yQ fr 3 rt ϊ > Φ yQ P- CL 3 CL P- Φ rt 3 P- 3 uq 52 Φ CL Φ n rtΦ P φ P- yQ fr 3 rt ϊ> Φ y Q P- CL 3 CL P- Φ rt 3 P- 3 uq 52 Φ CL Φ n rt
CΛ N P1 cn Φ P- Φ Φ P DJ 3 φ rt φ ?^ 3 -J P- Hi φ Φ DJ P- P- er Φ tr d d φ yQ 3 cn P 3 rt P- Φ P Φ 3 o tr Cπ 3 P- Ct CS3 rt d σ tP 3 cn rt 3CΛ NP 1 cn Φ P- Φ Φ P DJ 3 φ rt φ? ^ 3 -J P- Hi φ Φ DJ P- P- er Φ tr dd φ y Q 3 cn P 3 rt P- Φ P Φ 3 o tr Cπ 3 P- Ct CS3 rt d σ tP 3 cn rt 3
Φ π 3 φ rt < UI- O Cl P 3 φ o Φ 3 z d Z Z P Ό ^Φ π 3 φ rt <UI- O Cl P 3 φ o Φ 3 z d Z Z P Ό ^
<! er cn Φ 3 CL er DJ Z Φ P er *> w CΛ tr rt rt o 3 α φ 3 P- Φ o et CL P- σι o Φ rt > P DJ: d φ P1 P- £ Φ O P- rt Φ P rt Φ P« iQ CΛ P 3 DJ D» Φ φ o Z<! er cn Φ 3 CL he DJ Z Φ P er *> w CΛ tr rt rt o 3 α φ 3 P- Φ o et CL P- σι o Φ rt> P DJ: d φ P 1 P- £ Φ O P - rt Φ P rt Φ P « iQ CΛ P 3 DJ D» Φ φ o Z
P 3 Φ d S> P. P PJ P Φ 3 φ P* er <! O d ω rt rt n rt DJ 3 tr 3 o ΦP 3 Φ d S> P. PP J P Φ 3 φ P * er <! O d ω rt rt n rt DJ 3 tr 3 o Φ
N CL P" CΛ <5 Φ n Φ t p- P- P1 Ct P- o 3 P- d • er N er P- P- Φ Φ o P" d φ PJ ιQ o er σ 3 P" tr 3 Φ d φ P P1 yQ 3 CΛ φ d Φ - N φ fr P- 3 et n vq 3 Φ Dl P CΛ tr p- φ φ 3 CL N P- Φ CL ιQ <5 3 d 3 T P- φ rt erN CL P "CΛ <5 Φ n Φ t p- P- P 1 Ct P- o 3 P- d • er N er P- P- Φ Φ o P" d φ P J ιQ o er σ 3 P "tr 3 Φ d φ PP 1 y Q 3 CΛ φ d Φ - N φ fr P- 3 et n vq 3 Φ Dl P CΛ tr p- φ φ 3 CL N P- Φ CL ιQ <5 3 d 3 T P- φ he rt
3 3 iQ n CL N Φ yQ P- 3 cn yQ φ d Φ 3 H o tr φ Ό DJ UI. tr Φ P φ3 3 iQ n CL N Φ y Q P- 3 cn y Q φ d Φ 3 H o tr φ Ό DJ UI. tr Φ P φ
3 iQ Φ er J DJ d P- Φ 3 TJ yQ P <1 Φ P Φ P- P fr 52 P φ P- yQ tr DJ cn cn P- cn 3 iQ 3 S P- Ct CL rt Φ d O P- rt P- 3 O o Φ DJ et Φ Φ cn3 iQ Φ er J DJ d P- Φ 3 TJ yQ P <1 Φ P Φ P- P fr 52 P φ P- yQ tr DJ cn cn P- cn 3 iQ 3 S P- Ct CL rt Φ d O P- rt P- 3 O o Φ DJ et Φ Φ cn
Φ p et 3 o n P- Φ tr1 P- φ φ • 3 3 P n Φ cn Φ »Q rt 3 o P CL σ P- J fr Φ Φ er er φ ^- o Φ M Φ rt P er Φ • rt iQ er P- τ P 3 & N φ n Φ Φ o n rt P d PJ rt H φ P P 3 P rt φ • P- Φ Φ P- P- O P- rt er i 3 3 er er φ P DJ Φ Hi 3 CL rt 3 Φ 3 t-3 3 σ P cn Λ er φ Φ Cn 3 N Φ φ rt • rt cn Φ O ιQ 3 P- 3 tt Φ <! - DJ CL vQ P- Φ φ rt DJ P1 3 Φ P- d < P- P- CΦ p et 3 on P- Φ tr 1 P- φ φ • 3 3 P n Φ cn Φ »Q rt 3 o P CL σ P- J fr Φ Φ er er φ ^ - o Φ M Φ rt P er Φ • rt iQ er P- τ P 3 & N φ n Φ Φ on rt P d P J rt H φ PP 3 P rt φ • P- Φ Φ P- P- O P- rt er i 3 3 er er φ P DJ Φ Hi 3 CL rt 3 Φ 3 t-3 3 σ P cn Λ er φ Φ Cn 3 N Φ φ rt • rt cn Φ O ιQ 3 P- 3 tt Φ <! - DJ CL vQ P- Φ φ rt DJ P 1 3 Φ P- d <P- P- C
Φ cn 3 Φ DJ 3 d φ Φ P O s: N P Φ Φ Φ P- er DJ Hi CΛ CL 3 φ o 3 rt ö d rt Φ 3 3 1 3 rt er 1 P Φ d 1 P 1 CΛ 3 Φ rt rt 1 1 3 3 Φ D : P- P 3 Φ 1 et Φ 1 1 P Φ 1 3 P- o rt φ 3 P rt 1 1 • o er Φ cn 3 Φ DJ 3 d φ Φ PO s: NP Φ Φ Φ P- er DJ Hi CΛ CL 3 φ o 3 rt ö d rt Φ 3 3 1 3 rt er 1 P Φ d 1 P 1 CΛ 3 Φ rt rt 1 1 3 3 Φ D: P- P 3 Φ 1 et Φ 1 1 P Φ 1 3 P- o rt φ 3 P rt 1 1 • o er

Claims

Patentansprüche :Claims:
1. Verfahren zur neuronalen Modellierung eines dynamischen Systems auf einem Rechner mit folgenden Merkmalen: a) Einflußgrößen des dynamischen Systems werden zur Nachbildung mindestens einer ersten Ausgangsgröße in mindestens eine erste Einflußgröße, welche die Trägheit des dynamischen Systems bestimmt und in mindestens eine zweite Einflußgröße, welche die Beschleunigung des dynamischen Sy- stems bestimmt, gruppiert; b) in einem neuronalen Netzwerk (NN) werden mindestens ein erster (ZI) und ein zweiter (Z2) parallel zueinander verlaufender Zweig des neuronalen Netzwerks (NN) des separat mit dem Verhalten jeweils der ersten Einflußgröße bzw. zweiten Einflußgröße trainiert; c) zur Bildung einer ersten Ausgangsgröße (AD) in Abhängigkeit der Einflußgrößen (ED) werden die bzw. alle Ausgänge der parallelen Zweige (ZI, Z2) des neuronalen Netzwerks (NN) kombiniert.1. Method for neural modeling of a dynamic system on a computer with the following features: a) Influencing variables of the dynamic system are used to simulate at least a first output variable in at least one first influencing variable, which determines the inertia of the dynamic system and in at least a second influencing variable, which determines the acceleration of the dynamic system, groups; b) in a neural network (NN) at least a first (ZI) and a second (Z2) parallel branch of the neural network (NN) are trained separately with the behavior of the first influencing variable or second influencing variable; c) to form a first output variable (AD) depending on the influencing variables (ED), the or all outputs of the parallel branches (ZI, Z2) of the neural network (NN) are combined.
2. Verfahren nach Anspruch 1, bei dem die Einflußgrößen des dynamischen Systems zur Nachbildung mindestens einer ersten Ausgangsgröße in mehrere erste Einflußgrößen, welche die Trägheit und in mehrere zweite Einflußgrößen, welche die Beschleunigung des dynamischen Systems bestimmen, gruppiert werden.2. The method according to claim 1, in which the influencing variables of the dynamic system for emulating at least one first output variable are grouped into a plurality of first influencing variables which determine the inertia and a plurality of second influencing variables which determine the acceleration of the dynamic system.
3. Verfahren nach Anspruch 1 oder 2 a) bei dem die Einflußgrößen (ED) dem neuronalen Netz (NN) in Form von Zeitreihenvektoren zugeführt werden und somit ein3. The method according to claim 1 or 2 a) in which the influencing variables (ED) are fed to the neural network (NN) in the form of time series vectors and thus a
Ausgangsgrößenvektor aus ersten Ausgangsgrößen (AD) gebildet wird, b) und bei dem zur Bildung der ersten Ausgangsgröße der Mittelwert seiner Vektorkomponenten gebildet wird.Output variable vector is formed from first output variables (AD), b) and in which the mean value of its vector components is formed to form the first output variable.
Verfahren nach einem der Ansprüche 1 bis 3, bei dem eine netzinterne Vorverarbeitung der den Zweigen zugeführten Größen (ED) zur Dämpfung von in den Einflußgrößen (ED) enthaltenen Störungen durchgeführt wird.Method according to one of claims 1 to 3, in which an intra-network preprocessing of the branches supplied Variables (ED) for damping disturbances contained in the influencing variables (ED) is carried out.
5. Verfahren nach einem der Ansprüche 1 bis 4,' bei dem die parallelen Zweige (ZI, Z2) parallel mit linearen und quadratisch gewichteten Einflußgrößen (ED) versorgt werden.5. The method according to any one of claims 1 to 4, ' in which the parallel branches (ZI, Z2) are supplied in parallel with linear and square-weighted influencing variables (ED).
6. Verfahren nach einem der Ansprüche 1 bis 5, bei dem mindestens aus der oder den ersten und/oder der oder den zwei- ten Einflußgröße oder Einflußgrößen mindestens zwei Indikatoren gebildet werden, mit denen die Zweige als separate Targets trainiert werden.6. The method according to any one of claims 1 to 5, in which at least two indicators with which the branches are trained as separate targets are formed from at least the first and / or the second or the second influencing variable or influencing variables.
7. Verfahren nach einem der Ansprüche 3 bis 6, bei dem die erste Einflußgröße als die Einbettung eines Wertes in die7. The method according to any one of claims 3 to 6, wherein the first influencing variable as the embedding of a value in the
Zeitreihe und die zweite Einflußgröße als die Krümmung der Zeitreihe verwendet wird..Time series and the second influencing variable is used as the curvature of the time series ..
8. Verfahren nach einem der Ansprüche 3 bis 6, bei dem die Zeitreihen gemäß den Indikatoren aufbereitet werden.8. The method according to any one of claims 3 to 6, in which the time series are prepared according to the indicators.
9. Schichtenanordnung für ein neuronales Netzwerk zur Nachbildung eines dynamischen Systems mit folgenden Merkmalen: a) zur Nachbildung mindestens je einer ersten Einflußgröße, welche die Trägheit des dynamischen Systems bestimmt und einer zweiten Einflußgröße, welche die Beschleunigung des dynamischen Systems bestimmt, sind mindestens jeweils eine versteckte erste (4000) bzw. zweite (4500) Neuronen- schicht, sowie eine erste (5000) bzw. zweite (5500) Aus- gangsschicht vorhanden; b) es ist eine Kombinationsschicht (6000) vorhanden zur Kombination der nachgebildeten ersten Einflußgröße (610) und zweiten Einflußgröße (620) zu Ausgangsgrößen.9. Layer arrangement for a neural network for simulating a dynamic system with the following features: a) for simulating at least one first influencing variable, which determines the inertia of the dynamic system, and a second influencing variable, which determines the acceleration of the dynamic system, are at least one hidden first (4000) or second (4500) neuron layer, as well as a first (5000) or second (5500) output layer; b) there is a combination layer (6000) for combining the simulated first influencing variable (610) and second influencing variable (620) into output variables.
10. Schichtanordnung nach Anspruch 9, bei der eine den ersten (4000) und zweiten (4500) versteckten Neuronenschichten vorgelagerte Vorverarbeitungsschicht (2000) zur Ausfilte- rung einer Störgröße und Erzeugung von Filterdaten zur Versorgung der ersten und zweiten versteckten Neuronen- schicht (4000, 4500), vorhanden ist.10. Layer arrangement according to claim 9, in which a preprocessing layer (2000) for filtering out the first (4000) and second (4500) hidden neuron layers (2000) a disturbance variable and generation of filter data for supplying the first and second hidden neuron layers (4000, 4500) is present.
11. Schichtanordnung nach einem der Ansprüche 9 bis 10, bei der zwischen der ersten und zweiten versteckten Neuronen- schicht (4000, 4500) und der Vorverarbeitungsschicht (2000) eine Quadrierungsschicht zur Erzeugung von quadratisch gewichteten Filterdaten bzw. Eingangsdaten, vorgese- hen ist.11. Layer arrangement according to one of claims 9 to 10, in which a squaring layer is provided between the first and second hidden neuron layers (4000, 4500) and the preprocessing layer (2000) for generating square-weighted filter data or input data.
12. Schichtanordnung nach einem der Ansprüche 9 bis 11, bei der der Kombinationsschicht (6000) eine Mittelwertbildungsschicht (MWF) nachgeordnet ist, zur Erzeugung von ge- mittelten Ausgangsgrößen.12. Layer arrangement according to one of claims 9 to 11, in which the combination layer (6000) is followed by an averaging layer (MWF), for generating averaged output variables.
13. Schichtanordnung nach einem der Ansprüche 9 bis 11, bei der der ersten bzw. zweiten Ausgangsschicht (5000, 5500) jeweils eine Ausgangsschicht (7000, 7500) in Form einer Kontrollschicht nachgeordnet ist, zur Kontrolle von Eigenschaften von jeweils mehreren jeweils aus den ersten und zweiten Einflußgrößen gebildeten Indikatoren. 13. Layer arrangement according to one of claims 9 to 11, in which the first or second output layer (5000, 5500) is followed by an output layer (7000, 7500) in the form of a control layer, for checking properties of several each of the first and second influencing variables.
EP98943653A 1997-07-09 1998-07-08 Method and structure for the neural modelling of a dynamic system in a computer Withdrawn EP0995156A2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19729391 1997-07-09
DE19729391 1997-07-09
PCT/DE1998/001887 WO1999003043A2 (en) 1997-07-09 1998-07-08 Method and structure for the neural modelling of a dynamic system in a computer

Publications (1)

Publication Number Publication Date
EP0995156A2 true EP0995156A2 (en) 2000-04-26

Family

ID=7835168

Family Applications (1)

Application Number Title Priority Date Filing Date
EP98943653A Withdrawn EP0995156A2 (en) 1997-07-09 1998-07-08 Method and structure for the neural modelling of a dynamic system in a computer

Country Status (3)

Country Link
EP (1) EP0995156A2 (en)
JP (1) JP2001509623A (en)
WO (1) WO1999003043A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070228A (en) * 2019-04-25 2019-07-30 中国人民解放军国防科技大学 BP neural network wind speed prediction method for neuron branch evolution

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017118996B3 (en) * 2017-05-11 2018-07-26 Schaeffler Technologies AG & Co. KG Method for determining influencing parameter combinations of a physical simulation model

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04133601A (en) * 1990-09-21 1992-05-07 Toshiba Corp Automatic operation controller having protective function
DE4419925A1 (en) * 1994-06-08 1995-12-14 Bodenseewerk Geraetetech Inertial sensor unit

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO9903043A2 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070228A (en) * 2019-04-25 2019-07-30 中国人民解放军国防科技大学 BP neural network wind speed prediction method for neuron branch evolution
CN110070228B (en) * 2019-04-25 2021-06-15 中国人民解放军国防科技大学 BP neural network wind speed prediction method for neuron branch evolution

Also Published As

Publication number Publication date
WO1999003043A3 (en) 1999-04-01
WO1999003043A2 (en) 1999-01-21
JP2001509623A (en) 2001-07-24

Similar Documents

Publication Publication Date Title
EP2649567B1 (en) Method for the computer-based modeling of a technical system
DE102007001025A1 (en) Method for computer aided control and regulation of technical system, involves carrying out characterization of dynamic behavior of technical systems multiple times by state and action of system
DE68924822T2 (en) Signal processing system and learning processing system.
DE68927014T2 (en) Associative model conversion system and adjustment procedure therefor
DE102008020379A1 (en) Method for computer-aided control and / or regulation of a technical system
DE69228517T2 (en) Simulator using a neural network
DE69314293T2 (en) Neural system and construction method
DE112020001369T5 (en) PULSED SYNAPTIC ELEMENTS FOR PULSED NEURAL NETWORKS
EP1327959B1 (en) Neural network for modelling a physical system and method for building the neural network
EP0901658A1 (en) Process for optimizing fuzzy rules using a computer
DE69123867T2 (en) Learning process for data processing system
WO2000008599A2 (en) Assembly of interconnected computing elements, method for computer-assisted determination of a dynamics which is the base of a dynamic process, and method for computer-assisted training of an assembly of interconnected elements
DE102019105850A1 (en) Method for generating a reduced neural network for a control device of a vehicle by means of eigenvectors
EP0956531B1 (en) Method and device for transforming a fuzzy logic used to simulate a technical process into a neural network
EP0995156A2 (en) Method and structure for the neural modelling of a dynamic system in a computer
DE102020105783A1 (en) Method of creating a reduced neural network
EP0890153A1 (en) Method for determination of weights, suitable for elimination, of a neural network using a computer
WO1998032079A1 (en) Method for detecting synchronicity between several digital measurement series with the aid of a computer
DE102019216973A1 (en) LEARNING PROCEDURES FOR NEURAL NETWORKS BASED ON EVOLUTIONARY ALGORITHMS
WO1992004687A1 (en) Process and device for the boolean realization of adaline-type neural networks
DE102019113958A1 (en) A method of enhancing the performance of a vehicle system having a neural network for controlling a vehicle component
DE102011076969B4 (en) Method for computer-aided learning of a control and / or control of a technical system
DE69809402T2 (en) ASSOCIATIVE NEURON IN AN ARTIFICIAL NEURAL NETWORK
EP0591259B1 (en) Method of processing uncertainties in input data in neuronal networks
WO2002052402A2 (en) Method for conducting the need-oriented generation of individual random numbers of a series of random numbers of a 1/f noise

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 19991217

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): DE FR GB IT

GRAG Despatch of communication of intention to grant

Free format text: ORIGINAL CODE: EPIDOS AGRA

GRAG Despatch of communication of intention to grant

Free format text: ORIGINAL CODE: EPIDOS AGRA

GRAH Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOS IGRA

17Q First examination report despatched

Effective date: 20011220

GRAH Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOS IGRA

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20030201