Beschreibungdescription
Verfahren und Struktur zur Neuronalen Modellierung eines dynamischen Systems auf einem RechnerMethod and structure for neural modeling of a dynamic system on a computer
Die Erfindung bezieht sich auf ein Verfahren und eine Schichtenanordnung für ein Neuronales Netz, womit insbesondere dynamische Systeme gut modelliert werden können, wie dieses beispielsweise technische Systeme oder ökonomische Systeme sein können.The invention relates to a method and a layer arrangement for a neural network, with which in particular dynamic systems can be modeled well, such as technical systems or economic systems.
Bei der Modellierung von dynamischen Systemen durch Neuronale Netze besteht allgemein das Problem, daß die Information, über die Dynamik des Systems in der zeitlichen /Abhängigkeit benachbarter Muster von Zeitreihen enthalten ist. Meistens werden bei gängigen Lernverfahren von Neuronalen Netzen die Muster den Neuronalen Netzen in einer zufälligen Anordnung präsentiert, um lokale Minima zu vermeiden und die Lerngeschwindigkeit zu erhöhen. Auf diese Weise erhält das Netz sein Wissen über die Kopplung der einzelnen zeitlichen Muster lediglich implizit durch die sich langsam ändernden Neuronengewichte. Besonders schwierig ist ein dynamisches System zu modellieren, wenn viele Eingangsgrößen, d.h. in der Größenordnung von z.B. 30 Eingangsgrößen (es können aber auch meh- rere hundert sein) zu wenigen, d.h. einer einzigen Ausgangsgröße oder wahlweise auch zwei Ausgangsgrößen verarbeitet werden sollen. Um eine gute Abbildung des Systemverhaltens durch das Neuronale Netz zu erhalten, müssen dem Netz sehr viele Zeitreihen präsentiert werden, die oft in der Realität und insbesondere bei ökonomischen Daten nicht vorliegen.When modeling dynamic systems using neural networks, there is generally the problem that the information about the dynamics of the system is contained in the temporal / dependence of adjacent patterns of time series. Most common learning methods of neural networks present the patterns to the neural networks in a random arrangement in order to avoid local minima and to increase the learning speed. In this way, the network obtains its knowledge of the coupling of the individual temporal patterns only implicitly from the slowly changing neuron weights. It is particularly difficult to model a dynamic system when many input variables, i.e. on the order of e.g. 30 input variables (but there can also be several hundred) to a few, i.e. a single output variable or optionally two output variables are to be processed. In order to get a good picture of the system behavior through the neural network, a lot of time series have to be presented to the network, which are often not available in reality and especially with economic data.
Um diese Problematik in den Griff zu bekommen, gibt es im Stand der Technik Lösungsansätze, bei dynamischen Systemen zu deren neuronalen Modellierung deren inhärente Struktur heran- zuziehen. Bei den zu modellierenden dynamischen Systemen wird insbesondere auf der Targetseite darauf Wert gelegt, daß eine genügende Anzahl von Ausgangsgrößen in Form von verschiedenen
Targets zur Verfügung steht, um aufeinanderfolgende Zustände des Systems beschreiben zu können. Auf diese Weise fließt mehr Fehlerinformation von der Targetseite auf die Eingangsseite des Netzes zurück und das System wird so genauer be- schreibbar. Näheres dazu ergibt sich aus Hans Georg Zimmermann und Andreas S. Weigend, "How To Represent Dynamical Systems In Feed Forward Networks: A Six Layer Architectuie" Proceedings of the Fourth International Conference on Neural Networks in the Capital Market (NNCM-96) , Seite" 1-18, veröf- fentlicht in Decision Technologies for Financial Engineering. In dieser Druckschrift wird ein sechslagiges Schichtenmodell für ein Neuronales Netz vorgeschlagen, um die Dynamik eines technischen Systems, bzw. eines Systems das der Vorhersage von Aktiendaten mittels einer Dynamik-Charakterisierung der Einflußgrößen vornimmt, zu beschreiben. Zum Zwecke einer besseren Modellierung einer Zeitreihe, werden dort mehrere benachbarte Werte der Zeitreihe separat in unterschiedlichen Zweigen des Neuronalen Netzes als Target trainiert und später durch Mittelwertbildung zur gesuchten Ausgangsgröße zusammen- gefaßt. Die Abhängigkeiten zwischen benachbarten Mustern werden dem Neuronalen Netz am Ausgang durch einen sogenannten Interaction Layer aufgeprägt.In order to get a grip on this problem, there are approaches in the state of the art to use the inherent structure of dynamic systems for their neural modeling. In the dynamic systems to be modeled, it is particularly important on the target side that a sufficient number of output variables in the form of different Targets are available to describe successive states of the system. In this way, more error information flows back from the target side to the input side of the network and the system can thus be described in more detail. Further details can be found in Hans Georg Zimmermann and Andreas S. Weigend, "How To Represent Dynamical Systems In Feed Forward Networks: A Six Layer Architectuie" Proceedings of the Fourth International Conference on Neural Networks in the Capital Market (NNCM-96), page " 1-18, published in Decision Technologies for Financial Engineering. This publication proposes a six-layer model for a neural network to measure the dynamics of a technical system, or a system that predicts stock data by means of a dynamic characterization of the For the purpose of better modeling of a time series, several neighboring values of the time series are trained there separately in different branches of the neural network as targets and later combined by averaging to the desired output quantity Net at the exit dur ch imprinted a so-called interaction layer.
Unter einem Zweig ist in diesem Zusammenhang ein Teil des Neuronalen Netzes zu verstehen, welches selbst ein künstliches Neuronales Netz ist mit Eingängen, mindestens einem Ausgang und adaptierbaren Gewichten bei Kopplungen einzelner Neuronen.In this context, a branch is to be understood as a part of the neural network, which is itself an artificial neural network with inputs, at least one output and adaptable weights when individual neurons are coupled.
Aus DE 195 37 010 AI ist ein Lernverfahren und eine Lernanordnung zur Nachbildung eines dynamischen Prozesses durch gemeinsames Erlernen von mindestens zwei Zeitreihen bekannt. Für jede Zeitreihe wird eine eigene lernfähige Komponente bereitgestellt, der Vergangenheitswerte der verwendeten Zeit- reihen zugeführt werden. Eine Gegenwartskomponente einerDE 195 37 010 AI discloses a learning method and a learning arrangement for emulating a dynamic process by learning at least two time series together. A separate learnable component is provided for each time series, to which historical values of the time series used are added. A present component of a
Zeitreihe wird von ihren Vergangenheitswerten und den Vergangenheitswerten der anderen Zeitreihen dekorreliert .
Aus US 5 479 571 A ist ein Neuronales Netz mit zwei versteckten Schichten bekannt.Time series is decorrelated from its historical values and the historical values of the other time series. From US 5 479 571 A a neural network with two hidden layers is known.
Die der Erfindung zu Grunde liegende Aufgabe besteht darin, ein weiteres Verfahren und eines weitere Struktur anzugeben, womit dynamische Systeme neuronal auf einem Rechner modelliert werden können.The object on which the invention is based is to specify a further method and a further structure with which dynamic systems can be modeled neuronally on a computer.
Diese Aufgabe wird gemäß den Merkmalen des Patentanspruches 1 für das Verfahren und gemäß den Merkmalen des Anspruches 8 für die Struktur gelöst.This object is achieved according to the features of claim 1 for the method and according to the features of claim 8 for the structure.
Das Verfahren zur neuronalen Modellierung eines dynamischen Systems auf einem Rechner umfaßt folgende Merkmale: a) Einflußgrößen des dynamischen Systems werden zur Nachbildung mindestens einer ersten Ausgangsgröße in mindestens eine erste Einflußgröße, welche die Trägheit des dynamischen Systems bestimmt und in mindestens eine zweite Ein- flußgröße, welche die Beschleunigung des dynamischen Systems bestimmt, gruppiert; b) in einem neuronalen Netzwerk (NN) werden mindestens ein erster (ZI) und ein zweiter (Z2) parallel zueinander verlaufender Zweig des neuronalen Netzwerks (NN) des separat mit dem Verhalten jeweils der ersten Einflußgröße bzw. zweiten Einflußgröße trainiert; c) zur Bildung einer ersten Ausgangsgröße (AD) in Abhängigkeit der Einflußgrößen (ED) werden die bzw. alle Ausgänge der parallelen Zweige (ZI, Z2) des neuronalen Netzwerks (NN) kombiniert.The method for neural modeling of a dynamic system on a computer comprises the following features: a) Influencing variables of the dynamic system are used to emulate at least one first output variable into at least one first influencing variable, which determines the inertia of the dynamic system and into at least a second influencing variable, which determines the acceleration of the dynamic system groups; b) in a neural network (NN) at least a first (ZI) and a second (Z2) parallel branch of the neural network (NN) are trained separately with the behavior of the first influencing variable or second influencing variable; c) to form a first output variable (AD) depending on the influencing variables (ED), the or all outputs of the parallel branches (ZI, Z2) of the neural network (NN) are combined.
Die Schichtenanordnung für ein neuronales Netzwerk zur Nachbildung eines dynamischen Systems weist folgende Merkmale auf: a) zur Nachbildung mindestens je einer ersten Einflußgröße, welche die Trägheit des dynamischen Systems bestimmt und einer zweiten Einflußgröße, welche die Beschleunigung des
dynamischen Systems bestimmt, sind mindestens jeweils eine versteckte erste (4000) bzw. zweite (4500) Neuronen- schicht, sowie eine erste (5000) bzw. zweite (5500) Ausgangsschicht vorhanden; b) es ist eine Kombinationsschicht (6000) vorhanden zur Kombination der nachgebildeten ersten Einflußgröße (610) und zweiten Einflußgröße (620) zu Ausgangsgrößen.The layer arrangement for a neural network for simulating a dynamic system has the following features: a) for simulating at least one first influencing variable, which determines the inertia of the dynamic system, and a second influencing variable, which determines the acceleration of the dynamic system, there are at least one hidden first (4000) or second (4500) neuron layer, as well as a first (5000) or second (5500) output layer; b) there is a combination layer (6000) for combining the simulated first influencing variable (610) and second influencing variable (620) into output variables.
Vorteilhafte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.Advantageous developments of the invention result from the dependent claims.
Besonders vorteilhaft werden in einer Weiterbildung unterschiedliche dynamische Einflußgrößen des Dynamischen Systems unterschieden, die die Trägheit und die Beschleunigung des Systems charakterisieren. Durch separate Modellierung in verschiedenen Unterzweigen eines Neuronalen Netzes nach dem erfindungsgemäßen Verfahren wird das Neuronale Netz gezwungen die Targetgröße anhand von unterschiedlichen Dynamik- Charakteristika zu lernen, wobei die selben Eingangszeitrei- hen Verwendung finden können. Die nachzubildende Ausgangsgröße wird erst im Anschluß durch Überlagerung der modellierten Targetgrößen dieser beiden unterschiedlichen Dynamikparameter gebildet.In a further development different dynamic influencing variables of the dynamic system are distinguished which characterize the inertia and the acceleration of the system. Through separate modeling in different sub-branches of a neural network according to the method according to the invention, the neural network is forced to learn the target size on the basis of different dynamic characteristics, the same input time series being able to be used. The output variable to be simulated is only subsequently formed by superimposing the modeled target variables of these two different dynamic parameters.
Vorteilhaft können dem Neuronalen Netz Zeitreihen in Form von Zeitreihenvektoren verschiedener Einflußgrößen zugeführt werden und die gebildete Ausgangsgröße wird zu einer einzigen Ausgangsgröße durch eventuell gewichtete Mittelwertbildung zusammengefaßt werden, da so der Rauschanteil in den Ein- gangsgrößen reduziert wird und durch die Modellierung verschiedener Eingangsgrößen eine genauere Nachbildung der Ausgangsgröße möglich ist.Time series in the form of time series vectors of various influencing variables can advantageously be supplied to the neural network, and the output variable formed is combined into a single output variable by weighted averaging, since this reduces the noise component in the input variables and a more accurate replication by modeling different input variables the output size is possible.
Besonders vorteilhaft ist es in einer weiteren Ausgestaltung vorgesehen, eine Vorverarbeitung der eingehenden Signale durchzuführen, indem diese neuronal gewichtet werden, wobei diese Neuronengewichte durch nachgeordnete Lagen des Neurona-
len Netzes eingestellt werden, um unerwünschte Einflußgrößen, die mit dem zu modellierenden Dynamischen System nichts zu tun haben, ausfiltern zu können.In a further embodiment, it is particularly advantageously provided that the incoming signals are preprocessed by neuron-weighting them, these neuron weights being determined by subordinate positions of the neuron signals. len network can be set in order to filter out undesirable influencing variables that have nothing to do with the dynamic system to be modeled.
Die Zweige des Neuronalen Netzes können nicht nur mit linearen Einflußgrößen, sondern auch mit quadratisch gewichteten Einflußgrößen versorgt werden, da somit dem Neuronalen Netz zusätzlich zur Durchführung von Fallunterscheidungen auch die Möglichkeit gegeben wird, durch Implementierung' radialer Ba- sisfunktionen Ähnlichkeiten innerhalb der Muster festzustellen.The branches of the neural network can radial through implementation 'Ba are supplied, since thus the neural network to carry out different cases the possibility is also given in addition to determine sisfunktionen similarities within the pattern not only with linear predictors, but also with square weighted predictors.
Weiterhin können für die dem jeweiligen Neuronalen Netz zuzuführende dynamische Kenngröße, d.h. also Trägheitsparameter oder Beschleunigungsparameter, eine Mehrzahl von Indikatoren gebildet werden, damit durch eine Mehrzahl von Targetgrößen ein größerer Fehlerrückfluß innerhalb des Netzes erzeugt wird und somit eine genauere Nachbildung der jeweiligen Dynamikgröße möglich ist. Hierzu wird vorzugsweise der Mittelwert bzw. die Krümmung mit mehreren definierten Intervallabständen um den Zielwert herum modelliert.Furthermore, for the dynamic parameter to be supplied to the respective neural network, i.e. In other words, inertia parameters or acceleration parameters, a plurality of indicators are formed, so that a larger amount of error return is generated within the network by a plurality of target variables, and thus a more accurate replication of the respective dynamic variable is possible. For this purpose, the mean value or the curvature is preferably modeled with several defined interval distances around the target value.
Ferner können schon die Eingangsgrößen für das Verfahren in Form der gewählten Indikatoren aufbereitet werden, um dem Netzwerk ein klares Bild des internen Zustandes des zu modellierenden dynamischen Systems zu zeigen. Ein dynamisches System wird durch die momentan wirkenden Trägheiten und beeinflussenden Kräfte charakterisiert. Aus den angebotenen Input- zeitreihen kann man nun auf die wirkende Trägheit und die Kräfte zurückschließen indem man die ersten und zweiten Differenzen der Zeitreihen benutzt. Zur Normierung der Größenordnung der Inputindikatoren wird zusätzlich durch die Zeitreihe dividiert, wodurch wir zu relativen Änderungen kommen.Furthermore, the input variables for the method can be prepared in the form of the selected indicators in order to show the network a clear picture of the internal state of the dynamic system to be modeled. A dynamic system is characterized by the momentarily acting inertia and influencing forces. From the input time series offered, one can now draw conclusions about the acting inertia and the forces by using the first and second differences of the time series. To normalize the order of magnitude of the input indicators, we also divide by the time series, which leads to relative changes.
In einer weiteren Ausgestaltung wird ein Teil der Kräfte nicht nur einfach als zweite Ableitungen dargestellt. In vielen Prozessen wird das dynamische System durch eine Pendelbe-
wegung um ein Gleichgewicht charakterisiert. Hier ist der Abstand zwischen einem Punkt der Zeitreihe und dem Equilibrium eine bessere Charakterisierung der wirkenden Kraft als die Beschreibung in Form einer Beschleunigung. Als einfache Nähe- rung zur Beschreibung des momentan gültigen Gleichgewichtspunktes bietet sich der Mittelwert der letzten Werte der Zeitreihe an. Wählt man nun die Differenz des gegenwärtigen Wertes der Zeitreihe und des Mittelwertes als Equilibrium, so hat man die neueste Punktinformation genutzt aber einer ver- alteten Schätzung des Equilibriums gegenübergestellt. Es erweist sich als vorteilhafter in der Differenz einen vergangenen Wert der Zeitreihe dergestalt zu wählen, das die Mittelwertbildung zur Schätzung des Equilibriums symmetrisch um diesen Punkt angeordnet ist. So erhält man eine bessere Cha- rakterisierung der Spannung zwischen Punkt und Gleichgewicht des zu charakterisierenden dynamischen Systems.In a further embodiment, some of the forces are not simply represented as second derivatives. In many processes, the dynamic system is movement characterized by a balance. Here the distance between a point in the time series and the equilibrium is a better characterization of the acting force than the description in the form of an acceleration. As a simple approximation to the description of the currently valid equilibrium point, the mean value of the last values of the time series can be used. If you now choose the difference between the current value of the time series and the mean value as equilibrium, you have used the latest point information but compared it with an outdated estimate of the equilibrium. It proves to be more advantageous in the difference to choose a past value of the time series such that the averaging for estimating the equilibrium is arranged symmetrically about this point. In this way, a better characterization of the tension between point and equilibrium of the dynamic system to be characterized is obtained.
Ferner kann eine Schichtanordnung für ein Neuronales Netzwerk zur Nachbildung eines Dynamischen Systems vorgesehen sein, weil dort für jede nachzubildende dynamische Kenngröße ein separater Zweig im Neuronalen Netz vorgesehen ist und durch die Kontrolle der versteckten Lagen mit einer Ausgangsschicht ein erhöhter Fehlerrückfluß erzeugt wird, durch den dem Neuronalen Netz die Information über die Abhängigkeit benachbar- ter Zeitreihenwerte aufgeprägt wird.Furthermore, a layer arrangement for a neural network for simulating a dynamic system can be provided, because there is a separate branch in the neural network for each dynamic parameter to be simulated, and an increased error reflux is generated by checking the hidden positions with an output layer, by means of which the The information about the dependence of neighboring time series values is imprinted on the neural network.
In einer Weiterbildung der erfindungsgemäßen Schichtenanordnung ist eine Vorverarbeitungsschicht vorgesehen, welche beide bzw. die jeweiligen Netzwerkzweige gemeinsam bedient, da beispielsweise keine zwei verschiedenen Vorverarbeitungsstufen vorgesehen werden müssen und da die Gewichte in der Vorverarbeitungsschicht durch die Fehlerrückführung aus den jeweiligen Zweigen des Neuronalen Netzwerkes eingestellt werden, um unerwünschte Einflußgrößen auszufiltern und somit ei- ne genauere Ausfilterung von Störgrößen erfolgen kann.
Besonders vorteilhaft ist bei einer Weiterbildung der Schichtenanordnung eine Quadratschicht vorgesehen, welche die Eingangswerte bzw. die von der Vorverarbeitungsschicht angelieferten Werte quadratisch gewichtet. Hierdurch wird den nach- folgenden Schichten die Nachbildung radialer Basisfunktionen und somit die Herstellung von Ähnlichkeitsbezügen und nicht nur von Fallunterscheidungen eingehender Muster ermöglicht.In a further development of the layer arrangement according to the invention, a preprocessing layer is provided which serves both or the respective network branches together, since, for example, no two different preprocessing stages have to be provided and since the weights in the preprocessing layer are set by the error feedback from the respective branches of the neural network, in order to filter out undesired influencing variables and thus a more precise filtering out of disturbance variables can take place. In a further development of the layer arrangement, a square layer is particularly advantageously provided, which square-weighted the input values or the values supplied by the preprocessing layer. This enables the subsequent layers to simulate radial basic functions and thus to establish similarity references and not just case distinctions of incoming patterns.
Auch kann der Kombinationsschicht, der einzelnen Zweige der Schichtenanordnung eine, eventuell gewichtete, Mittelwertschicht nachgeordnet sein, um aus den Vektoren der Vorhersagegröße einen Mittelwert zu bilden und damit das Rauschen innerhalb der einzelnen Werte zu minimieren.The combination layer, the individual branches of the layer arrangement, can be followed by a possibly weighted mean value layer in order to form an average value from the vectors of the prediction variable and thus to minimize the noise within the individual values.
Besonders vorteilhaft werden bei der Schichtenanordnung den jeweiligen Zweigen des Neuronalen Netzes als Ausgangsschichten Kontrollschichten nachgeordnet, welche die Intervallabstände der einzelnen Indikatoren von der jeweiligen nachzubildenenden dynamischen Kenngröße modellieren und durch Feh- lerrückführung verhindern, daß das Neuronale Netz bzw. der jeweilige Zweig des Neuronalen Netzes anstatt unterschiedlicher Indikatoren lediglich einen modelliert.Control layers, which model the interval distances of the individual indicators from the respective dynamic parameter to be reproduced and which prevent the neural network or the respective branch of the neural network from taking place, are particularly advantageous in the layer arrangement of the respective branches of the neural network as output layers different indicators modeled only one.
Im folgenden wird ein Ausführungsbeispiel der Erfindung an- hand von Figuren weiter erläutert.An exemplary embodiment of the invention is explained in more detail below with reference to figures.
Figur 1 zeigt als Beispiel ein Blockdiagramm eines erfindungsgemäßen Verfahrens Figur 2 zeigt als Beispiel ein Neuronales Netz mit einer erfindungsgemäßen Neuronenschichtenanordnung.FIG. 1 shows an example of a block diagram of a method according to the invention. FIG. 2 shows an example of a neural network with a neuron layer arrangement according to the invention.
Wie Figur 1 zeigt, weist ein Verfahren EV beispielsweise Verarbeitungsblöcke, einen ersten Verarbeitungsblock ZI und einen zweiten Verarbeitungsblock Z2, sowie einen weiteren Ver- arbeitungsblock 3000 auf.
Mit den Verarbeitungsblöcken ZI und Z2 sind zwei separate Zweige, ein erster Zweig ZI und ein zweiter Zweig Z2 eines Neuronalen Netzes NN bezeichnet.As FIG. 1 shows, a method EV has, for example, processing blocks, a first processing block ZI and a second processing block Z2, and a further processing block 3000. The processing blocks ZI and Z2 denote two separate branches, a first branch ZI and a second branch Z2 of a neural network NN.
Der erste Verarbeitungsblock ZI und der zweite Verarbeitungsblock Z2 erhalten Eingangsdaten in Form von Zeitreihen, die einem realen System abgenommen, d.h. gemessen wurden.The first processing block ZI and the second processing block Z2 receive input data in the form of time series which are taken from a real system, i.e. were measured.
In dem ersten bzw. zweiten Verarbeitungsblock ZI und Z2 sind beim Neuronalen Netz NN jeweils mehrere Verarbeitungsschichten, eine erste Verarbeitungsschicht 1000 und eine zweite Verarbeitungsschicht 2000 des ersten Verarbeitungsblocks ZI bzw. eine erste Verarbeitungsschicht 1500 und eine zweite Verarbeitungsschicht 2500 des zweiten Verarbeitungsblocks Z2 vorgesehen, welche durch Signalleitungen 110 und 120 miteinander verbunden sind.A plurality of processing layers, a first processing layer 1000 and a second processing layer 2000 of the first processing block ZI or a first processing layer 1500 and a second processing layer 2500 of the second processing block Z2 are provided in the first and second processing blocks ZI and Z2 in the neural network NN, respectively are interconnected by signal lines 110 and 120.
In dem ersten Verarbeitungsblock ZI des werden Beschleunigungskenngrößen, wie die Kraft, welche eine Rückstellung bzw. eine Dynamik im System bewirkt, beschrieben.In the first processing block ZI, acceleration parameters, such as the force which causes a reset or a dynamic in the system, are described.
In dem zweiten Verarbeitungsblock Z2 werden Trägheitskenngrößen des Dynamischen Systems nachgebildet. Die Eingangsdaten der Zeitreihen, mit welchen diese jeweiligen Verarbeitungs- blocke nach dem Verfahren identisch versorgt werden, werden in Bezug auf identische Indikatoren für diese jeweiligen dynamischen Kenngrößen aufbereitet.In the second processing block Z2, inertia parameters of the dynamic system are simulated. The input data of the time series with which these respective processing blocks are supplied identically according to the method are processed in relation to identical indicators for these respective dynamic parameters.
Für den zweiten Verarbeitungsblock Z2 ist es vorgesehen, ei- nen Mittelwert um einen Vorhersagewert herum nachzubilden, indem ausgehend von diesem Vorhersagewert Zeitreihenwerte in verschiedenen Abständen um diesen Wert herum zur Mittelwertbildung herausgezogen werden.For the second processing block Z2, it is provided to emulate an average value around a prediction value by drawing time series values at various intervals around this value from this prediction value for averaging.
Analog gilt dies für den ersten Verarbeitungsblock ZI, bei dem die Krümmung der Zeitreihe für verschiedene Kurvenabschnitte um den Vorhersagewert herum zugeführt werden kann.
Nach der internen Verarbeitung in den verschiedenen Zweigen des Neuronalen Netzes, bzw. den Verarbeitungsblöcken ZI und Z2 werden die Ausgangsgrößen über Verbindungsleitungen 210 und 220 einem Kombinationsbaustein 3000 zugeführt, der daraus Ausgangsdaten, d.h. den Vorhersagewert erzeugt. Durch das Verfahren wird erreicht, daß für eine jeweilige dynamische Kenngröße separate Targetgrößen definiert werden und diese in unterschiedlichen Zweigen eines Neuronalen Netzes nachgebil- det werden. Hierdurch wird eine strikte Trennung dieser Dynamik charakterisierenden Größen bei der Modellierung erreicht, indem auch beim Training separate Indikatoren durch das Neuronale Netz gelernt werden. Durch die Bildung einer Mehrzahl von Indikatoren je Verarbeitungsblock ZI, Z2 wird erreicht, daß eine Mehrzahl von Targetgrößen gelernt werden muß und damit die jeweilige Dynamikgröße die durch den Verarbeitungsblock nachzubilden ist, durch eine erhöhte Fehlerrückführung innerhalb des Verarbeitungszweiges besser nachgebildet wird, weil die Fehlerrückführung zu einer genaueren Einstellung der Gewichte im Neuronalen Netz führt.This applies analogously to the first processing block ZI, in which the curvature of the time series can be supplied for different curve sections around the predicted value. After the internal processing in the various branches of the neural network, or the processing blocks ZI and Z2, the output variables are fed via connecting lines 210 and 220 to a combination module 3000, which uses them to generate output data, ie the prediction value. It is achieved by the method that separate target sizes are defined for a respective dynamic parameter and these are simulated in different branches of a neural network. In this way, a strict separation of these dynamics-characterizing variables is achieved in the modeling, in that separate indicators are also learned during the training by the neural network. By forming a plurality of indicators per processing block ZI, Z2 it is achieved that a plurality of target sizes must be learned and thus the respective dynamic variable to be reproduced by the processing block is better simulated by an increased error feedback within the processing branch because the error feedback increases leads to a more precise adjustment of the weights in the neural network.
Wie Figur 2 zeigt, weist ein Neuronales Schichtenmodell für die Neuronale Modellierung eines dynamischen Systems mehrere Schichten 1000, 2000, 3000, 4000, 4500, 5000, 5500, 6000, 7000, 75000 auf, wobei die jeweilige Tausender-Ziffer die Numerierung der Schichten angibt.As FIG. 2 shows, a neural layer model for the neural modeling of a dynamic system has a plurality of layers 1000, 2000, 3000, 4000, 4500, 5000, 5500, 6000, 7000, 75000, the respective thousands indicating the numbering of the layers .
Die Verbindungen der einzelnen Schichten miteinander sind durch dicke und dünne Pfeile beschrieben, wobei die dicken Pfeile anzeigen, daß eine Gewichtseinstellung durchgeführt werden kann, während die dünnen Pfeile anzeigen, daß vordefinierte Gewichte eingestellt sind.The connections between the individual layers are described by thick and thin arrows, the thick arrows indicating that a weight adjustment can be carried out, while the thin arrows indicate that predefined weights are set.
Obwohl in diesem Ausführungsbeispiel sieben Schichten darge- stellt sind, ist es für die Erfindung nicht erforderlich, daß alle Schichten für die Durchführung der Erfindung vorhanden
sind. Das Grundprinzip der Erfindung, läßt sich auch schon durch die Schichten 4000 bis 6000 darstellen.Although seven layers are shown in this exemplary embodiment, it is not necessary for the invention that all layers are present for the implementation of the invention are. The basic principle of the invention can also be represented by layers 4000 to 6000.
Vor der Eingangsneuronenschicht 1000 des Neuronalen Netzes NN wird eine Vorverarbeitung der Zeitreihendaten des Dynamischen Systems durchgeführt. In Bezug auf ökonomische Daten zeigt die Vorverarbeitung dem Netzwerk ein Bild der zum gegenwärtigen Zeitpunkt wirksamen Impulse und Kräfte in den Märkten.A preprocessing of the time series data of the dynamic system is carried out in front of the input neuron layer 1000 of the neural network NN. With regard to economic data, the preprocessing shows the network a picture of the momentum and forces currently effective in the markets.
Insbesondere sollten einzelne Teildynamiken, ausgedrückt durch die verschiedenen Eingangsgrößen, durch ihre Trägheit und die mit ihnen verbundenen Kräfte, charakterisiert werden. Bevorzugt bietet sich als Maß für die Trägheit die relative Änderung einer Eingangsgröße an. Hierdurch wird die Geschwin- digkeit in der Veränderung dieser Eingangsgröße repräsentiert und die Größenordnung der Eingangsgröße herausnormiert.In particular, individual sub-dynamics, expressed by the various input variables, by their inertia and the forces associated with them, should be characterized. The relative change in an input variable is preferred as a measure of the inertia. In this way, the speed in the change of this input variable is represented and the magnitude of the input variable is standardized.
Zur Charakterisierung einer Kraft wird die zweite Ableitung der Eingangsgröße herangezogen. Wahlweise kann es sich bei Eingangsgrößen jedoch um Gleichgewichtsgrößen handeln, deren rückstellende Kraft von einem Abstand des aktuellen Zustands vom jeweiligen Gleichgewichtszustand abhängig ist. Bei einem mechanischen System ist dies die Auslenkung eines Federpendels aus dem Ruhezustand. Bei einem ökonomischen System ist diese Beobachtungsgröße beispielsweise ein Preis, der aus einem Gleichgewichtsprozeß zwischen Angebot und Nachfrage abgeleitet wird.The second derivative of the input variable is used to characterize a force. However, input variables can optionally be equilibrium variables, the restoring force of which depends on a distance between the current state and the respective state of equilibrium. In a mechanical system, this is the deflection of a spring pendulum from the idle state. In an economic system, for example, this observation quantity is a price that is derived from a process of equilibrium between supply and demand.
Für dessen Charakterisierung bietet sich zur Beschreibung der rücktreibenden Kraft eine andere Vorgehensweise an. Bei solchen Dynamiken stellt der Abstand vom gegenwärtigen Wert zum Gleichgewichtswert ein besseres Maß für die Kraft dar, welche das System in Richtung auf den Gleichgewichtszustand zurückzieht. Dabei läßt sich eine einfache Schätzung der Gleichge- wichtslage durch die Mittelwertbildung der letzten Werte in der Zeitreihe errechnen.
Diese Vorgehensweise hat allerdings den Nachteil, daß der gegenwertige Wert der Zeitreihe einer veralteten Schätzung des Gleichgewichtswerts gegenübersteht .For the characterization of this, a different approach offers a description of the driving force. With such dynamics, the distance from the current value to the equilibrium value is a better measure of the force which the system retracts towards the equilibrium state. A simple estimate of the equilibrium position can be calculated by averaging the last values in the time series. However, this procedure has the disadvantage that the current value of the time series contrasts with an outdated estimate of the equilibrium value.
Deshalb wird folgender Weg bevorzugt den vorherzusagenden Punktwert soweit in der Zeit zurücksetzen, daß es möglich wird einen zentralen Mittelwert der Punktinformation gegenüberzustellen. Dieses Konzept kann anhand folgender Beispiele nachvollzogen werden, wobei der Index t den aktuellen Zeit- räum bezeichnet, t-6 z.B. den Zeitpunkt 6 Schritte früher und aver (x(t), 12) die Mittelwertbildung über die aktuellsten 12 Daten angibt.Therefore, the following way is preferred to reset the point value to be predicted to such an extent that it becomes possible to compare a central mean value of the point information. This concept can be understood using the following examples, where the index t denotes the current period, t-6 e.g. the time 6 steps earlier and aver (x (t), 12) indicates the averaging over the most recent 12 data.
1. x = Inflationsindikator (Bsp. einer Zeitreihe, die nicht aus einem Gleichgewichtsprozeß stammt) INPUT = (x(t) - x(t-6)) / x(t-6) INPUT = (x(t) - 2*x(t-6) + x(t-12) )/x(t-6) y = US-$ (Beispiel einer Zeitreihe, die durch ein Angebot - Nachfragegleichgewicht definiert wird) INPUT = (y(t) - y(t-6)) / y(t-6)1.x = inflation indicator (e.g. a time series that does not originate from an equilibrium process) INPUT = (x (t) - x (t-6)) / x (t-6) INPUT = (x (t) - 2 * x (t-6) + x (t-12)) / x (t-6) y = US- $ (example of a time series defined by a supply - demand balance) INPUT = (y (t) - y ( t-6)) / y (t-6)
INPUT = (y(t-6) - aver (y(t) ,12) )/y(t-6)INPUT = (y (t-6) - aver (y (t), 12)) / y (t-6)
Diese externe Vorverarbeitung vor der Eingangsschicht 1000 kann jedoch ein dringendes Problem, welches sich beispiels- weise bei Ökonomischen Analysen stellt, nicht vollständig lösen. Dabei handelt es sich um die Begrenzung von Ausreißern, oder besser das Filtern größerer Bewegungen Ökonomischer Zeitreihen, welche nicht durch die Ökonomie, sondern durch politische Willensentscheidung herbeigeführt worden sind. Hier stellt sich jedoch das Problem, die unbekannte Größe, ab welcher die Dämpfung der Eingangsvariablen vorgenommen werden soll, anzugeben.However, this external preprocessing in front of the input layer 1000 cannot completely solve an urgent problem, which arises, for example, in economic analyzes. This involves limiting outliers, or rather filtering larger movements of economic time series, which were not brought about by the economy but by political decision-making. Here, however, the problem arises of specifying the unknown size from which the damping of the input variables is to be carried out.
Hierzu ist Neuronalen Schichtenanordnung eine Vorverarbei- tungsschicht 2000 vorgesehen, mit welcher durch die Netzwerkarchitektur das Problem durch das Neuronale Netz NN interna-
lisiert wird, indem die unbekannten Dämpfungskonstanten als lernbarer Parameter im Netz erscheinen.For this purpose, a preprocessing layer 2000 is provided for the neural layer arrangement, with which the problem caused by the neural network NN interna- is achieved by the unknown damping constants appearing as learnable parameters in the network.
Die interne Vorverarbeitung der dem Neuronalen Netz NN ange- botenen Signale erfolgt durch eine Gewichtsmatrix zwischen der Eingangsschicht 1000 und der Vorverarbeitungsschicht 2000, welche aus einer Diagonalmatrix besteht, welche Diagonalmatrix mit 200 bezeichnet ist.The internal preprocessing of the signals offered to the neural network NN is carried out by means of a weight matrix between the input layer 1000 and the preprocessing layer 2000, which consists of a diagonal matrix, which is denoted by 200.
Für die Aktivierungsfunktion der ersten inneren Schicht wird der Tangens hyperbolicus (tanh) eingesetzt. Durch diese Vorgehensweise und Schichtenanordnung werden Ausreißer in den Werten beschränkt. Ebenfalls wird vorteilhaft auch gewichtsbasiertes Prunen von Eingängen durch diese Gewichtsmatrix un- terstützt. Bevorzugt sollte die Initialisierung der Gewichte in der Vorverarbeitungsschicht 2000 mit 1 erfolgen und bevorzugt sollten die Gewichte auf Werte zwischen 0 und 1 beschränkt werden.The hyperbolic tangent (tanh) is used for the activation function of the first inner layer. This procedure and layer arrangement limit outliers in the values. Weight-based checking of inputs is also advantageously supported by this weight matrix. The weights should preferably be initialized with 1 in the preprocessing layer 2000 and the weights should preferably be limited to values between 0 and 1.
In der Neuronenschichtenanordnung werden die Ausgangssignale der Vorverarbeitungsschicht 2000 zu drei weiteren Neuronen- schichten 3000, 4000 und 4500 weitergeleitet. Während an die Schicht 3000 eine reine Kopie der Signale weitergeleitet wird, so daß mit 300 eine Identitätsabbildung bezeichnet wird, erhalten die weiter folgenden Schichten 4000 und 5000 bzw. 4500 und 5500 die von der Vorverarbeitungsschicht 2000 abgeleiteten Signale linear und quadriert transformiert, was durch Pfeile 400 bis 450 angedeutet ist.In the neuron layer arrangement, the output signals of the preprocessing layer 2000 are forwarded to three further neuron layers 3000, 4000 and 4500. While a pure copy of the signals is forwarded to layer 3000, so that 300 denotes an identity image, the subsequent layers 4000 and 5000 or 4500 and 5500 receive the signals derived from preprocessing layer 2000 and transforms them linearly and squared, which is indicated by arrows 400 to 450 is indicated.
Durch die Anwendung einer quadratischen Aktivierungsfunktion auf die von der Vorverarbeitungsschicht 2000 abgegebenen Daten in der Neuronenschicht 3000 wird erreicht, daß das Neuronale Netz auch radiale Basisfunktionen implementieren kann und somit nicht lediglich Fallunterscheidungen durchführen kann, sondern auch Ähnlichkeiten in den angebotenen Mustern lernen kann. Die so erzeugten Signale 400, 410 bzw. 420 und 450 werden im Anschluß noch mit Gewichten in den Neuronen-
schichten 4000 und 5000 bzw. 4500 und 5500 multipliziert, wobei die Schichten 5500 und 5000 Ausgangsschichten des Neuronalen Netzes NN darstellen, während die Schichten 4000 und 4500 versteckte Neuronenschichten darstellen.By using a quadratic activation function on the data output by the preprocessing layer 2000 in the neuron layer 3000, it is achieved that the neural network can also implement radial basic functions and thus can not only make case distinctions, but can also learn similarities in the patterns offered. The signals 400, 410 or 420 and 450 generated in this way are then weighted in the neuron layers 4000 and 5000 or 4500 and 5500 multiplied, the layers 5500 and 5000 representing output layers of the neural network NN, while the layers 4000 and 4500 represent hidden neuron layers.
Dieser Teil der neuronalen Schichtenanordnung verbindet die klassischen Konzepte eines Multilayerperzeptron mit einer sigmoiden inneren Schicht von Neuronen und eines klassischen radialen Basisfunktionennetzes. Damit werden die globalen und lokalen Ansätze dieser Aproximationsansätze verbunden. AlsThis part of the neural layer arrangement combines the classic concepts of a multilayer perceptron with a sigmoid inner layer of neurons and a classic radial basis function network. This connects the global and local approaches to these approximation approaches. As
Aktivierungsfunktion für die Vorverarbeitungsschicht 2000 und die versteckte Schicht 4500 wird der Tangens hyperbolicus gewählt. Unter Umständen kann es hilfreich sein, die Aktivierungsfunktion um eine Softmax-Funktion zu erweitern.The activation function for the preprocessing layer 2000 and the hidden layer 4500 is chosen as the hyperbolic tangent. It may be helpful to add a Softmax function to the activation function.
Die Schichten 5000 bzw. 5500 identifizieren das zu Grunde liegende dynamische System. Hierzu sind diese beiden Schichten als erste Ausgangsschichten in der Neuronalen Schichtenanordnung vorgesehen und besitzen Zielwerte, die es zu lernen gilt. Hierbei sind die Gewichte, wie zuvor bereits bei der Erläuterung der Pfeilstärken angedeutet, der Schichten 4000 bis 5500 adaptierbar. Bevorzugt werden für die Schicht 5500, welche hierbei beispielsweise den Trägheitsanteil des Dynamischen Systems modellieren soll, als Targetwerte 3-Punkt Mit- telungen und Gleichgewichtsinformationen der zu aproximieren- den Zeitreihe angeboten. Im folgenden sind einige Beispiele solcher Target- bzw. Zielwerte angegeben.Layers 5000 and 5500 identify the underlying dynamic system. For this purpose, these two layers are provided as the first starting layers in the neural layer arrangement and have target values that are to be learned. The weights of layers 4000 to 5500 can be adapted here, as already indicated in the explanation of the arrow strengths. For the layer 5500, which is intended to model, for example, the inertia component of the dynamic system, 3-point averages and balance information of the time series to be approximated are offered as target values. Some examples of such target values are given below.
TARGET = ( x(t+5) + x(t+6) + x(t+7)) / (3 * x(t)) - 1) TARGET = ( x(t+4) + x(t+6) + x(t+8)) / (3 * x(t)) - 1) oderTARGET = (x (t + 5) + x (t + 6) + x (t + 7)) / (3 * x (t)) - 1) TARGET = (x (t + 4) + x (t + 6) + x (t + 8)) / (3 * x (t)) - 1) or
TARGET = (aver(x(t+7) ,3) - x(t)) / x(t)TARGET = (aver (x (t + 7), 3) - x (t)) / x (t)
TARGET = (aver(x(t+8) ,5) - x(t)) / x(t)TARGET = (aver (x (t + 8), 5) - x (t)) / x (t)
Bevorzugt sind diese Einbettungen symmetrisch um den vorherzusagenden Wert hier beispielsweise x(t)+6 herum angeordnet. Als Mittelwertbildungen weisen sie zusätzlich die vorteilhaf-
te Eigenschaft auf, das Rauschen in den Daten zu dämpfen. Der Schicht 5000, welche Beschleunigungseigenschaften des Systems lernen soll, werden dagegen sogenannte Kräfte bzw. meanrever- ting Informationen angeboten. Für die Kräfte, welche als Tar- get- bzw. Zielwerte der AusgangsSchicht 5000 angeboten werden, bieten sich folgende Charakterisierungen an:These embeddings are preferably arranged symmetrically around the value to be predicted here, for example x (t) +6. As averages, they also show the advantageous property to attenuate noise in the data. Layer 5000, on the other hand, which acceleration properties of the system should learn, is offered so-called forces or mean-inverting information. The following characterizations are available for the forces that are offered as target or target values of the output layer 5000:
1. TARGET = (-x(t+5) + 2 * x(t+6) - x(t+7)) / (3 * x(t)))1.TARGET = (-x (t + 5) + 2 * x (t + 6) - x (t + 7)) / (3 * x (t)))
TARGET = (-x(t+4) + 2 * x(t+6) - x(t+8)) /' (3 * x(t))) oderTARGET = (-x (t + 4) + 2 * x (t + 6) - x (t + 8)) / ' (3 * x (t))) or
TARGET = (x(t+6) - aver(x(t+7) ,3) ) / x(t)TARGET = (x (t + 6) - aver (x (t + 7), 3)) / x (t)
TARGET = (x(t+6) - aver(x(t+8) ,5) ) / x(t)TARGET = (x (t + 6) - aver (x (t + 8), 5)) / x (t)
Hierbei handelt es sich um Kräftecharakterisierungen in Form von Beschleunigungen, oder in Form von Umkehrkräften inThese are force characterizations in the form of accelerations, or in the form of reversal forces in
Gleichgewichtssituationen. Ein entscheidender Punkt ist nun, daß sich die Einbettungen und die zugehörigen Kräfte durch einfache paarweise Addition zu dem am Ende erwünschten ZielwertBalance situations. A crucial point is that the embeddings and the associated forces are simply added in pairs to the target value desired in the end
TARGET = (x(t+6) - x(t)) / x(t)TARGET = (x (t + 6) - x (t)) / x (t)
ergänzen. Dies kann man nachvollziehen, indem einfach die beiden Formeln die untereinander stehen und benachbart sind, aufaddiert werden. Selbstverständlich soll hier nicht angedeutet werden, daß diese Vorgehensweise die einzige Möglichkeit darstellt, die Erfindung zu realisieren. Mit der angegebenen Lehre kann jeder Durchschnittsfachmann andere Mittelwertbildungen bzw. andere Targetgrößen auswählen und entspre- chend miteinander kombinieren, um einen vorherzusagenden Zielwert nachzubilden, ohne dadurch erfinderisch tätig zu werden, bzw. ohne dadurch nicht im Sinne der Erfindung vorzugehen. Da bevorzugt durch verschiedene Einbettungen und verschiedene Spannweiten der zugehörigen Kräfte viele Charakte- risierungen der Dynamik dargestellt und damit gelernt werden können, werden bei der Nachbildung des dynamischen Systems in den einzelnen Zweigen d.h. 4500, 5500 bzw. 4000 und 5000 ent-
co co M M I-1 P1 complete. You can understand this by simply adding up the two formulas that are adjacent to each other and adjacent. Of course, it should not be indicated here that this procedure is the only way to implement the invention. With the teaching given, each average specialist can select other averages or other target sizes and combine them accordingly in order to emulate a predicted target value without being inventive or without proceeding in the sense of the invention. Since many characterizations of the dynamics can preferably be represented and thus learned through different embeddings and different ranges of the associated forces, 4500, 5500 or 4000 and 5000 are created in the replication of the dynamic branches. co co MM I- 1 P 1
Cπ o cπ O Cπ o cn tr φ Φ 52 O CL 3 52 UI- 1 yQ P" < ^Q CΛ 3 DJ g IS) CΛ ιQ S yQ i^- P CL CL cπ p- 52 tt CΛCπ o cπ O Cπ o cn tr φ Φ 52 O CL 3 52 UI- 1 y QP "<^ Q CΛ 3 DJ g IS ) CΛ ιQ S yQ i ^ - P CL CL cπ p- 52 tt CΛ
N P P- φ P d φ φ φ φ DJ DJ φ φ Φ Φ Φ Di 3 3 Z rt Φ φ Ci DJ Φ Φ d P CL Dl Hi CL Ό z 3 rt CL 3 rt tr Z P 3 P P rt P rt n CL Φ P- CΛ P- P" 3 3 P d Φ rt Φ CL PNP P- φ P d φ φ φ φ DJ DJ φ φ Φ Φ Φ Di 3 3 Z rt Φ φ Ci DJ Φ Φ d P CL Dl Hi CL Ό z 3 rt CL 3 rt tr ZP 3 PP rt P rt n CL Φ P- CΛ P- P "3 3 P d Φ rt Φ CL P
• DJ Φ N 3 yQ er Φ Φ P P" ιQ 3 er ιQ CΛ N er Φ CL P- ω rt CΛ rt 3 n 3 3 d: P- P- φ d 3 DJ d cn DJ 3 P- = φ rt P- P n rt yQ P P- o DJ Φ P- P- tr et rt P " rt n• DJ Φ N 3 yQ er Φ Φ PP "ιQ 3 er ιQ CΛ N er Φ CL P- ω rt CΛ rt 3 n 3 3 d: P- P- φ d 3 DJ d cn DJ 3 P- = φ rt P - P n rt y QP P- o DJ Φ P- P- tr et rt P "rt n
CΛ tr P 3 ιQ 3 O tr 3 O: er ^ φ Φ Z er rt Q P- DJ φ yQ p- P- Φ P- erCΛ tr P 3 ιQ 3 O tr 3 O: er ^ φ Φ Z er rt Q P- DJ φ y Q p- P- Φ P- er
•< rt P O yQ Φ P- CL P- fr P- φ d α εo P- o Φ Φ rt P- Φ 3 tr P d Φ CΛ P- O Φ ω φ er 3 cn Φ vQ Hi 3 1-1 3 Φ Φ φ d P tr P- P Φ 3 3 yQ φ 3 et O o σ> 3 rt t DJ tr er P> v • <rt PO yQ Φ P- CL P- fr P- φ d α εo P- o Φ Φ rt P- Φ 3 tr P d Φ CΛ P- O Φ ω φ er 3 cn Φ vQ Hi 3 1-1 3 Φ Φ φ d P tr P- P Φ 3 3 y Q φ 3 et O o σ> 3 rt t DJ tr er P> v
Ct P- P- D : O P Φ : et P 3 α 3 CL N 3 rt rt φ 3 r CL φ P- n rt P- So er P er tsi O 3 Φ 3 z rt Φ α Φ tt & Z Φ 3 Φ o P-Ct P- P- D: OP Φ: et P 3 α 3 CL N 3 rt rt φ 3 r CL φ P- n rt P- So er P er tsi O 3 Φ 3 z rt Φ α Φ tt & Z Φ 3 Φ o P-
3 φ er Φ cn Φ Φ Φ p d ^ 3 ^ Hi 3 CL φ • Φ P 3 CL P- P cn P- d P ^ CΛ 3 < cn Φ W rt P X •-3 d cn cn P- d= Φ d rt P Φ CΛ P- 3 O rt n 3 cn φ s P- d P-3 φ er Φ cn Φ Φ Φ pd ^ 3 ^ Hi 3 CL φ • Φ P 3 CL P- P cn P- d P ^ CΛ 3 <cn Φ W rt PX • -3 d cn cn P- d = Φ d rt P Φ CΛ P- 3 O rt n 3 cn φ s P- d P-
52 3 rt <J •o DJ 3 DJ p- n CL P 3 P Φ CL cn P- Φ φ »Q er 3- CL n 3 3 3 Φ φ52 3 rt <J • o DJ 3 DJ p- n CL P 3 P Φ CL cn P- Φ φ »Q er 3- CL n 3 3 3 Φ φ
Φ P- d Φ Φ tr P ιQ a n er DJ O 3 Φ O > n CΛ P 3 Φ er tr CL CL P- P"Φ P- d Φ Φ tr P ιQ a n er DJ O 3 Φ O> n CΛ P 3 Φ er tr CL CL P- P "
P- o tt P cn P N P- ιQ p er rt G> ^ H er P er d tr O d 3 DJ P- CL P- 3 φP- o tt P cn P N P- ιQ p er rt G> ^ H er P er d tr O d 3 DJ P- CL P- 3 φ
3 er Φ Hi z N Φ Φ Φ rt P 3 CΛ P- CΛ Φ CJ 52 CΛ tP 3 Φ Φ P1 φ σ» Φ3 er Φ Hi z N Φ Φ Φ rt P 3 CΛ P- CΛ Φ CJ 52 CΛ tP 3 Φ Φ P 1 φ σ »Φ
N rt er CL Φ DJ • P- rt P 3 p- DJ CL ß: rt Φ n φ »Q P tr Φ Φ Z cn CL P CL tr NJ P N d P* φ P- tT rt Z P er vQ P1 DJ a Φ P- er P CL DJ er Φ d P- n P- d Φ o ZN rt he CL Φ DJ • P- rt P 3 p- DJ CL ß : rt Φ n φ »QP tr Φ Φ Z cn CL P CL tr NJ PN d P * φ P- tT rt ZP er vQ P 1 DJ a Φ P- he P CL DJ er Φ d P- n P- d Φ o Z
Hi P- φ 3 3 H Ό φ φ Φ DJ rt cn 3 P 3 P- Di: φ 3 Φ P P N d P er P- tt 3 3 Z P-Hi P- φ 3 3 H Ό φ φ Φ DJ rt cn 3 P 3 P- Di: φ 3 Φ P P N d P er P- tt 3 3 Z P-
DJ 3 P Φ er 3 P P- 3 . φ d Φ n Hi yQ P- o d P et * n P ιQ H) er φ cnDJ 3 P Φ er 3 P P- 3. φ d Φ n Hi y Q P- od P et * n P ιQ H) er φ cn
3 Φ cn t-< Z 3 • rt n yQ 52 3 DJ er rt CL cn rt DJ 3 CΛ n P- er Pi DJ φ P- n yQ DJ rt Φ φ cn S Φ e ö < Φ ιQ £ rt Φ φ cn Φ yQ φ DJ er φ Φ P- cn P- a rt er3 Φ cn t- <Z 3 • rt n y Q 52 3 DJ er rt CL cn rt DJ 3 CΛ n P- er Pi DJ φ P- n y Q DJ rt Φ φ cn S Φ e ö <Φ ιQ £ rt Φ φ cn Φ y Q φ DJ er φ Φ P- cn P- a rt er
Φ H H P cn tr P- O rt 3 d φ d PJ o Φ P n 3 Φ 3 a σ tP 3 rt Φ Φ φΦ HHP cn tr P- O rt 3 d φ d P J o Φ P n 3 Φ 3 a σ tP 3 rt Φ Φ φ
3 P- O 3 φ N f ιQ - p- P P P d ιQ CL 3 d er • P CΛ a φ P- φ IS! CL DJ CΛ d P 33 P- O 3 φ N f ιQ - p- P P P d ιQ CL 3 d er • P CΛ a φ P- φ IS! CL DJ CΛ d P 3
• rt 3 φ 3 z DJ Φ Φ rt o cn o 3 P φ 3 < P- d n Φ P- Φ 3 z d rt rt Φ Ό• rt 3 φ 3 z DJ Φ Φ rt o cn o 3 P φ 3 <P- d n Φ P- Φ 3 z d rt rt Φ Ό
DJ: 3 rt P" P" α er O 3 et O: P1 ^] rt φ o 3 er 3 3 cn CL φ 3 rt tt Φ 3 P ec rt N P1 P- P1 Φ DJ CL er DJ EP P" o Φ P er yQ P- ιQ φ φ P- yQ Hi DJ: 3 oDJ: 3 rt P "P" α er O 3 et O: P 1 ^] rt φ o 3 er 3 3 cn CL φ 3 rt tt Φ 3 P ec rt NP 1 P- P 1 Φ DJ CL er DJ EP P "o Φ P er y Q P- ιQ φ φ P- y Q Hi DJ: 3 o
P- d CL P- CL cn P- ι-f EP Φ et P- P- s Φ P- o P cn rt o Φ N iQ p- P" 2 iQ φ CL P d n P- n φ 3 3 DJ Φ φ P- 3 φ o Φ rt Φ N er CΛ £ < d Φ < 3 P1 P- Φ 3P- d CL P- CL cn P- ι-f EP Φ et P- P- s Φ P- o P cn rt o Φ N iQ p- P "2 iQ φ CL P dn P- n φ 3 3 DJ Φ φ P- 3 φ o Φ rt Φ N er CΛ £ <d Φ <3 P 1 P- Φ 3
P Φ P er Φ er P rt Φ cn CL rt P P- er 3 d rt φ P- P- Φ CL Φ 3 d o tr CΛ < n Φ Φ d P- ι-3 φ 52 rt d 3 P- CΛ rt rt φ Φ P- P Φ P CΛP Φ P er Φ er P rt Φ cn CL rt P P- 3 d rt φ P- P- Φ CL Φ 3 do tr CΛ <n Φ Φ d P- ι-3 φ 52 rt d 3 P- CΛ rt rt φ Φ P- P Φ P CΛ
Φ φ er cn Φ P 3 ∑: 3 DJ tz 3 Φ Φ et 3 -J Di φ DJ: s N rt }-• P- 3 cn rt CL et o ΦΦ φ er cn Φ P 3 ∑: 3 DJ tz 3 Φ Φ et 3 -J Di φ DJ: s N rt} - • P- 3 cn rt CL et o Φ
P- N P P yQ P- H Φ φ rt P- ιQ cπ 3 CL o rt _§ rt Φ N 3 rt - Φ P- 3 3 d Hi s Hi σ H CL ιQ P 3 N s: Φ o CL φ o N tt PJ DJ Φ Φ tr 3 Φ ΦP- NPP y Q P- H Φ φ rt P- ιQ cπ 3 CL o rt _§ rt Φ N 3 rt - Φ P- 3 3 d Hi s Hi σ H CL ιQ P 3 N s: Φ o CL φ o N tt P J DJ Φ Φ tr 3 Φ Φ
CΛ P- *< o- CL φ Φ 3 Φ CL o Φ 3 o Z S er 3 P- P- o f cn Cn d: P- φ 3 Φ o d vQ φ P 3 3 fr • 3 rt Φ P tr φ P Φ P- CΛ Φ Φ P1 3 Φ er tr φ cn PCΛ P- * <o- CL φ Φ 3 Φ CL o Φ 3 o ZS er 3 P- P- of cn Cn d: P- φ 3 Φ od vQ φ P 3 3 fr • 3 rt Φ P tr φ P Φ P- CΛ Φ Φ P 1 3 Φ er tr φ cn P
P> 3 d CLP > 3 d CL
B* DJ o iQ 3 3 Φ rt Φ P Z 3 d n rt P P H Φ Ct 3 DJ 3 n 3^ B * DJ o iQ 3 3 Φ rt Φ PZ 3 dn rt PPH Φ Ct 3 DJ 3 n 3 ^
PJ rt 3 <J d 3 3 H CL CL P- Φ N 3 er DJ CL rt D> 3 Φ φ P er DJ rt Φ yQ P- DJ 3 P- O 3 O: et P- P- Φ P d W CL rt φ tr O P 3 ^ W P- P"P J rt 3 <J d 3 3 H CL CL P- Φ N 3 er DJ CL rt D> 3 Φ φ P er DJ rt Φ y Q P- DJ 3 P- O 3 O: et P- P- Φ P d W CL rt φ tr OP 3 ^ W P- P "
Φ P φ P- yQ fr 3 rt ϊ > Φ yQ P- CL 3 CL P- Φ rt 3 P- 3 uq 52 Φ CL Φ n rtΦ P φ P- yQ fr 3 rt ϊ> Φ y Q P- CL 3 CL P- Φ rt 3 P- 3 uq 52 Φ CL Φ n rt
CΛ N P1 cn Φ P- Φ Φ P DJ 3 φ rt φ ?^ 3 -J P- Hi φ Φ DJ P- P- er Φ tr d d φ yQ 3 cn P 3 rt P- Φ P Φ 3 o tr Cπ 3 P- Ct CS3 rt d σ tP 3 cn rt 3CΛ NP 1 cn Φ P- Φ Φ P DJ 3 φ rt φ? ^ 3 -J P- Hi φ Φ DJ P- P- er Φ tr dd φ y Q 3 cn P 3 rt P- Φ P Φ 3 o tr Cπ 3 P- Ct CS3 rt d σ tP 3 cn rt 3
Φ π 3 φ rt < UI- O Cl P 3 φ o Φ 3 z d Z Z P Ό ^Φ π 3 φ rt <UI- O Cl P 3 φ o Φ 3 z d Z Z P Ό ^
<! er cn Φ 3 CL er DJ Z Φ P er *> w CΛ tr rt rt o 3 α φ 3 P- Φ o et CL P- σι o Φ rt >■ P DJ: d φ P1 P- £ Φ O P- rt Φ P rt Φ P« iQ CΛ P 3 DJ D» Φ φ o Z<! er cn Φ 3 CL he DJ Z Φ P er *> w CΛ tr rt rt o 3 α φ 3 P- Φ o et CL P- σι o Φ rt> ■ P DJ: d φ P 1 P- £ Φ O P - rt Φ P rt Φ P « iQ CΛ P 3 DJ D» Φ φ o Z
P 3 Φ d S> P. P PJ P Φ 3 φ P* er <! O d ω rt rt n rt DJ 3 tr 3 o ΦP 3 Φ d S> P. PP J P Φ 3 φ P * er <! O d ω rt rt n rt DJ 3 tr 3 o Φ
N CL P" CΛ <5 Φ n Φ t p- P- P1 Ct P- o 3 P- d • er N er P- P- Φ Φ o P" d φ PJ ιQ o er σ 3 P" tr 3 Φ d φ P P1 yQ 3 CΛ φ d Φ - N φ fr P- 3 et n vq 3 Φ Dl P CΛ tr p- φ φ 3 CL N P- Φ CL ιQ <5 3 d 3 T P- φ rt erN CL P "CΛ <5 Φ n Φ t p- P- P 1 Ct P- o 3 P- d • er N er P- P- Φ Φ o P" d φ P J ιQ o er σ 3 P "tr 3 Φ d φ PP 1 y Q 3 CΛ φ d Φ - N φ fr P- 3 et n vq 3 Φ Dl P CΛ tr p- φ φ 3 CL N P- Φ CL ιQ <5 3 d 3 T P- φ he rt
3 3 iQ n CL N Φ yQ P- 3 cn yQ φ d Φ 3 H o tr φ Ό DJ UI. tr Φ P φ3 3 iQ n CL N Φ y Q P- 3 cn y Q φ d Φ 3 H o tr φ Ό DJ UI. tr Φ P φ
3 iQ Φ er J DJ d P- Φ 3 TJ yQ P <1 Φ P Φ P- P fr 52 P φ P- yQ tr DJ cn cn P- cn 3 iQ 3 S P- Ct CL rt Φ d O P- rt P- 3 O o Φ DJ et Φ Φ cn3 iQ Φ er J DJ d P- Φ 3 TJ yQ P <1 Φ P Φ P- P fr 52 P φ P- yQ tr DJ cn cn P- cn 3 iQ 3 S P- Ct CL rt Φ d O P- rt P- 3 O o Φ DJ et Φ Φ cn
Φ p et 3 o n P- Φ tr1 P- φ φ • 3 3 P n Φ cn Φ »Q rt 3 o P CL σ P- J fr Φ Φ er er φ ^- o Φ M Φ rt P er Φ • rt iQ er P- τ P 3 & N φ n Φ Φ o n rt P d PJ rt H φ P P 3 P rt φ • P- Φ Φ P- P- O P- rt er i 3 3 er er φ P DJ Φ Hi 3 CL rt 3 Φ 3 t-3 3 σ P cn Λ er φ Φ Cn 3 N Φ φ rt • rt cn Φ O ιQ 3 P- 3 tt Φ <! - DJ CL vQ P- Φ φ rt DJ P1 3 Φ P- d < P- P- CΦ p et 3 on P- Φ tr 1 P- φ φ • 3 3 P n Φ cn Φ »Q rt 3 o P CL σ P- J fr Φ Φ er er φ ^ - o Φ M Φ rt P er Φ • rt iQ er P- τ P 3 & N φ n Φ Φ on rt P d P J rt H φ PP 3 P rt φ • P- Φ Φ P- P- O P- rt er i 3 3 er er φ P DJ Φ Hi 3 CL rt 3 Φ 3 t-3 3 σ P cn Λ er φ Φ Cn 3 N Φ φ rt • rt cn Φ O ιQ 3 P- 3 tt Φ <! - DJ CL vQ P- Φ φ rt DJ P 1 3 Φ P- d <P- P- C
Φ cn 3 Φ DJ 3 d φ Φ P O s: N P Φ Φ Φ P- er DJ Hi CΛ CL 3 φ o 3 rt ö d rt Φ 3 3 1 3 rt er 1 P Φ d 1 P 1 CΛ 3 Φ rt rt 1 1 3 3 Φ D : P- P 3 Φ 1 et Φ 1 1 P Φ 1 3 P- o rt φ 3 P rt 1 1 • o er
Φ cn 3 Φ DJ 3 d φ Φ PO s: NP Φ Φ Φ P- er DJ Hi CΛ CL 3 φ o 3 rt ö d rt Φ 3 3 1 3 rt er 1 P Φ d 1 P 1 CΛ 3 Φ rt rt 1 1 3 3 Φ D: P- P 3 Φ 1 et Φ 1 1 P Φ 1 3 P- o rt φ 3 P rt 1 1 • o er
CπCπ