WO2000062250A2 - Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente - Google Patents

Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente Download PDF

Info

Publication number
WO2000062250A2
WO2000062250A2 PCT/DE2000/001014 DE0001014W WO0062250A2 WO 2000062250 A2 WO2000062250 A2 WO 2000062250A2 DE 0001014 W DE0001014 W DE 0001014W WO 0062250 A2 WO0062250 A2 WO 0062250A2
Authority
WO
WIPO (PCT)
Prior art keywords
time series
transformation
computing elements
input
computing
Prior art date
Application number
PCT/DE2000/001014
Other languages
English (en)
French (fr)
Other versions
WO2000062250A3 (de
Inventor
Ralf Neuneier
Hans-Georg Zimmermann
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to EP00931002A priority Critical patent/EP1145190B1/de
Priority to DE50002640T priority patent/DE50002640D1/de
Priority to JP2000611243A priority patent/JP2002541599A/ja
Publication of WO2000062250A2 publication Critical patent/WO2000062250A2/de
Publication of WO2000062250A3 publication Critical patent/WO2000062250A3/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Physical Or Chemical Processes And Apparatus (AREA)
  • General Factory Administration (AREA)
  • Complex Calculations (AREA)

Abstract

Bei dem Verfahren zur rechnergestützten Ermittlung einer Dynamik, die einem dynamischen Prozess zugrunde liegt, wird der dynamische Prozess durch eine erste Zeitreihe mit Zeitreihenwerten in einem ersten Zustandsraum beschrieben. Ein erster Zeitreihenwert der ersten Zeitreihe wird in einen zweiten Zustandsraum transformiert. Der dynamische Prozess wird durch eine zweite Zeitreihe mit Zeitreihenwerten in einem dritten Zustandsraum beeinflusst. Der erste Zeitreihenwert der ersten Zeitreihe in dem zweiten Zustandsraum wird unter Verwendung eines ersten Zeitreihenwertes der zweiten Zeitreihe in dem dritten Zustandsraum einer Abbildung auf einen zweiten Zeitreihenwert der ersten Zeitreihe in dem zweiten Zustandsraum unterzogen. Aus den Zeitreihenwerten in dem zweiten Zustandsraum wird die Dynamik des dynamischen Prozesses ermittelt.

Description

Beschreibung
Anordnung miteinander verbundener Rechenelemente, Verfahren zur rechnergestützten Ermittlung einer Dynamik, die einem dy- namischen Prozeß zugrunde liegt und Verfahren zum rechnergestützten Trainieren einer Anordnung miteinander verbundener Rechenelemente
Die Erfindung betrifft eine Anordnung miteinander verbundener Rechenelemente, Verfahren zur rechnergestützten Ermittlung einer Dynamik, die einem dynamischen Prozeß zugrunde liegt sowie ein Verfahren zum rechnergestützten Trainieren einer Anordnung miteinander verbundener Rechenelemente.
Aus [1] ist es bekannt, zur Ermittlung einer Dynamik, die einem dynamischen Prozeß zugrunde liegt, eine Anordnung miteinander verbundener Rechenelemente einzusetzen.
Allgemein wird ein dynamischer Prozeß üblicherweise durch ei- ne Zustandsübergangsbeschreibung, die für einen Beobachter des dynamischen Prozesses nicht sichtbar ist, und eine Ausgangsgleichung, die beobachtbare Größen des technischen dynamischen Prozesses beschreibt, beschrieben.
Eine solche Anordnung ist in Fig.2 dargestellt.
Ein dynamisches System 200 unterliegt dem Einfluß einer externen Eingangsgröße u vorgebbarer Dimension, wobei eine Eingangsgröße ut zu einem Zeitpunkt t mit -^ bezeichnet wird:
ut 6
wobei mit 1 eine natürliche Zahl bezeichnet wird.
Die Eingangsgröße u^ zu einem Zeitpunkt t verursacht eine
Veränderung des dynamischen Prozesses, der in dem dynamischen System 200 abläuft. Ein innerer Zustand st ( s^ e 9ϊm ) vorgebbarer Dimension m zu einem Zeitpunkt t ist für einen Beobachter des dynamischen Systems 200 nicht beobachtbar.
In Abhängigkeit vom inneren Zustand st und der Eingangsgröße ut wird ein Zustandsübergang des inneren Zustandes st des dynamischen Prozesses verursacht und der Zustand des dynamischen Prozesses geht über in einen Folgezustand s +i zu einem folgenden Zeitpunkt t+1.
Dabei gilt:
Figure imgf000004_0001
wobei mit f (.) eine allgemeine Abbildungsvorschrift bezeichnet wird.
Eine von einem Beobachter des dynamischen Systems 200 beob- achtbare Ausgangsgröße yt zu einem Zeitpunkt t hängt ab von der Eingangsgröße ut sowie dem inneren Zustand st-
Die Ausgangsgröße yt ( yt e ^n) ist vorgebbarer Dimension n.
Die Abhängigkeit der Ausgangsgröße yt von der Eingangsgröße ut und dem inneren Zustand st des dynamischen Prozesses ist durch folgende allgemeine Vorschrift gegeben:
wobei mit g(.) eine allgemeine Abbildungsvorschrift bezeichnet wird.
Zur Beschreibung des dynamischen Systems 200 wird in [1] eine Anordnung miteinander verbundener Rechenelemente in Form eines neuronalen Netzes miteinander verbundener Neuronen einge- setzt. Die Verbindungen zwischen den Neuronen des neuronalen Netzes sind gewichtet. Die Gewichte des neuronalen Netzes sind in einem Parametervektor v zusammengefaßt.
Somit hängt ein innerer Zustand eines dynamischen Systems, welches einem dynamischen Prozeß unterliegt, gemäß folgender Vorschrift von der Eingangsgröße ut und dem inneren Zustand des vorangegangenen Zeitpunktes s und dem Parametervektor v ab:
st +ι = NN(v, st,ut), (3)
wobei mit NN ( . ) eine durch das neuronale Netz vorgegebene Abbildungsvorschrift bezeichnet wird.
Die aus [1] bekannte und als Time Delay Recurrent Neural Network (TDRNN) bezeichnete Anordnung wird in einer Trainingsphase derart trainiert, daß zu einer Eingangsgröße u jeweils eine Zielgröße yt an einem realen dynamischen System ermit- telt wird. Das Tupel (Eingangsgröße, ermittelte Zielgröße) wird als Trainingsdatum bezeichnet. Eine Vielzahl solcher Trainingsdaten bilden einen Trainingsdatensatz.
Mit dem Trainingsdatensatz wird das TDRNN trainiert. Eine Übersicht über verschiedene Trainingsverfahren ist ebenfalls in [1] zu finden.
Es ist an dieser Stelle zu betonen, daß lediglich die Ausgangsgröße y zu einem Zeitpunkt t des dynamischen Systems 200 erkennbar ist. Der innere Systemzustand st ist nicht beobachtbar.
In der Trainingsphase wird üblicherweise folgende Kostenfunk- tion E minimiert:
Figure imgf000006_0001
wobei mit T eine Anzahl berücksichtigter Zeitpunkte bezeichnet wird.
Aus [2] ist ein sogenannter neuronaler Autoassoziator bekannt (vgl . Fig.3) .
Der Autoassoziator 300 besteht aus einer Eingangsschicht 301, drei verdeckten Schichten 302, 303, 304 sowie einer Ausgangsschicht 305.
Die Eingangsschicht 301 sowie eine erste verdeckte Schicht 302 und eine zweite verdeckte Schicht 303 bilden eine Ein- heit, mit der eine erste nichtlineare Koordinatentransformation g durchführbar ist.
Die zweite verdeckte Schicht 303 bildet gemeinsam mit einer dritten verdeckten Schicht 304 und der Ausgangsschicht 305 eine zweite Einheit, mit der eine zweite nichtlineare Koordinatentransformation h durchführbar ist.
Dieses aus [2] bekannte fünfschichtige neuronale Netz 300 weist die Eigenschaft auf, daß eine Eingangsgröße xt auf ei- nen inneren Systemzustand transformiert wird gemäß der ersten nichtlinearen Koordinatentransformation g. Ausgehend von der zweiten verdeckten Schicht 303 wird unter Verwendung der dritten verdeckten Schicht 304 hin zu der Ausgangsschicht 305 unter Verwendung der zweiten nicht linearen Koordinatentrans- formation h der innere Systemzustand im wesentlichen auf die Eingangsgröße xt rücktransformiert. Ziel dieser bekannten Struktur ist die Abbildung der Eingangsgröße xt in einem ersten Zustandsraum X auf den inneren Zustand st in einem zweiten Zustandsraum S, wobei die Dimension des zweiten Zustands- räum Dim(S) kleiner sein soll als die Dimension des ersten Zustandsraums Dim(X), um eine Datenkompression in der versteckten Schicht des Neuronalen Netzes zu erreichen. Die Rücktransformation in den ersten Zustandsraum X entspricht in diesem Fall einer Dekompression.
In [3] ist ferner ein Überblick über Grundlagen neuronaler Netze und die Anwendungsmöglichkeiten neuronaler Netze im Bereich der Ökonomie zu finden.
Die bekannten Anordnungen und Verfahren weisen insbesondere den Nachteil auf, daß eine Identifikation bzw. Modellierung eines dynamischen Systems, welches eine Eingangsgröße mit einer großen Dimension aufweist, d.h. dessen Struktur im Zeitbereich sehr komplex ist, nicht möglich ist.
Somit liegt der Erfindung das Problem zugrunde, eine Anordnung miteinander verbundener Rechenelemente anzugeben, mit der eine Modellierung eines dynamischen Systems möglich ist und welche Anordnung nicht den oben beschriebenen Nachteilen der bekannten Anordnungen unterliegt.
Ferner liegt der Erfindung das Problem zugrunde, ein Verfahren zur rechnergestützten Ermittlung einer Dynamik, die einem dynamischen Prozeß zugrunde liegt, anzugeben für einen dyna- mischen Prozeß, bei dem der dynmische Prozeß in vielen Fällen mit größerer Genauigkeit als mit den bekannten Verfahren ermittelt werden kann.
Die Probleme werden durch die Anordnung sowie die Verfahren mit den Merkmalen gemäß den unabhängigen Ansprüchen gelöst.
Die Anordnung miteinander verbundener Rechenelemente weist folgende Merkmale auf: a) erste Eingangs-Rechenelemente, denen erste Zeitreihenwer- te, welche jeweils einen Zustand eines Systems zu einem Zeitpunkt beschreiben, zuführbar sind, b) Transformations-Rechenelemente zur Transformation der ersten Zeitreihenwerte in einen vorgegebenen Raum, welche erste Transformations-Rechenelemente mit den ersten Ein- gangs-Rechenelementen verbunden sind, und an welchen Transformations-Rechenelementen transformierte Signale abgreifbar sind, wobei zumindest zwei transformierte Signale jeweils aufeinanderfolgende Zeitpunkte betreffen, c) ein zweites Eingangs-Rechenelement, welchem zweite Zeitreihenwerte, welche jeweils auf einen Zustand des Systems Einfluß nehmen, zuführbar sind, d) ein erstes Verbund-Rechenelement, welches mit dem zweiten Eingangs-Rechenelement und mit einem ersten und einem zweiten Transformations-Rechenelementen derart verbunden ist, daß dem ersten Verbund-Rechenelement das transfor- mierte Signal des ersten Transformations-Rechenelement zuführbar ist und ein an dem ersten Verbund-Rechenelement abgreifbares Signal dem zweiten Transformations- Rechenelement zuführbar ist, e) Ausgangs-Rechenelemente, welche mit den Transformations- Rechenelementen verbunden sind, wobei an den Ausgangs-
Rechenelementen jeweils ein Ausgangssignal abgreifbar ist.
Ein Verfahren zur rechnergestützten Ermittlung einer Dynamik, die einem dynamischen Prozeß zugrunde liegt, weist folgende Merkmale auf: a) der dynamische Prozeß wird durch eine erste Zeitreihe mit Zeitreihenwerten in einem ersten Zustandsraum beschrieben, wobei mindestens ein erster Zeitreihenwert der ersten Zeitreihe einen Zustand des dynamischen Prozesses zu einem ersten Zeitpunkt beschreibt, b) der erste Zeitreihenwert der ersten Zeitreihe wird in einen zweiten Zustandsraum transformiert, c) der dynamische Prozeß wird durch eine zweite Zeitreihe mit Zeitreihenwerten in einem dritten Zustandsraum beeinflußt, wobei mindestens ein erster Zeitreihenwert der zweiten
Zeitreihe einen Zustand des dynamischen Prozesses beeinflußt, d) der erste Zeitreihenwert der ersten Zeitreihe in dem zweiten Zustandsraum wird unter Verwendung des ersten Zeitreihenwertes der zweiten Zeitreihe in dem zweiten Zustandsraum einer Abbildung auf einen zweiten Zeitreihenwert der ersten Zeitreihe in dem zweiten Zustandsraum unterzogen, e) aus den Zeitreihenwerten in dem zweiten Zustandsraum wird die Dynamik des dynamischen Prozesses ermittelt.
Bei einem Verfahren zur rechnergestützten Ermittlung einer Dynamik, die einem dynamischen Prozeß zugrunde liegt, unter Verwendung einer Anordnung miteinander verbundener Rechenelemente wird der Anordnung ein Eingangssignal zugeführt und von der Anordnung wird ein erstes Ausgangssignal ermittelt, aus dem die Dynamik ermittelt wird. Die Anordnung weist dabei folgenden Aufbau auf: a) erste Eingangs-Rechenelemente, denen erste Zeitreihenwerte, welche jeweils einen Zustand eines Systems zu einem Zeitpunkt beschreiben, zuführbar sind, b) Transformations-Rechenelemente zur Transformation der er- sten Zeitreihenwerte in einen vorgegebenen Raum, welche erste Transformations-Rechenelemente mit den ersten Ein- gangs-Rechenelementen verbunden sind, und an welchen Transformations-Rechenelementen transformierte Signale abgreifbar sind, wobei zumindest zwei transformierte Signale jeweils aufeinanderfolgende Zeitpunkte betreffen, c) ein zweites Eingangs-Rechenelement, welchem zweite Zeitreihenwerte, welche jeweils auf einen Zustand des Systems Einfluß nehmen, zuführbar sind, d) ein erstes Verbund-Rechenelement, welches mit dem zweiten Eingangs-Rechenelement und mit einem ersten und einem zweiten Transformations-Rechenelementen derart verbunden ist, daß dem ersten Verbund-Rechenelement das transformierte Signal des ersten Transformations-Rechenelement zuführbar ist und ein an dem ersten Verbund-Rechenelement abgreifbares Signal dem zweiten Transformations- Rechenelement zuführbar ist, e) Ausgangs-Rechenelemente, welche mit den Transformations- Rechenelementen verbunden sind, wobei an den Ausgangs- Rechenelementen jeweils ein Ausgangssignal abgreifbar ist.
Bei einem Verfahren zum rechnergestützten Trainieren einer Anordnung miteinander verbundener Rechenelemente wird die Anordnung unter Verwendung vorgegebener Trainingsdaten trainiert, wobei die Anordnung folgende Komponenten aufweist: a) mit ersten Eingangs-Rechenelementen, denen erste Zeitrei- henwerte, welche jeweils einen Zustand eines Systems zu einem Zeitpunkt beschreiben, zuführbar sind, b) mit Transformations-Rechenelementen zur Transformation der ersten Zeitreihenwerte in einen vorgegebenen Raum, welche erste Transformations-Rechenelemente mit den ersten Ein- gangs-Rechenelementen verbunden sind, und an den Transfor- mations-Rechenelementen transformierte Signale abgreifbar sind, wobei zumindest zwei transformierte Signale jeweils aufeinanderfolgende Zeitpunkte betreffen, c) mit einem zweiten Eingangs-Rechenelement, welchem zweite Zeitreihenwerte, welche jeweils auf einen Zustand des Systems Einfluß nehmen, zuführbar sind, d) mit einem ersten Verbund-Rechenelement, welches mit dem zweiten Eingangs-Rechenelement und mit einem ersten und einem zweiten Transformations-Rechenelementen derart ver- bunden ist, daß dem ersten Verbund-Rechenelement das transformierte Signal des ersten Transformations- Rechenelement zuführbar ist und ein an dem ersten Verbund- Rechenelement abgreifbares Signal dem zweiten Transformations-Rechenelement zuführbar ist, e) mit Ausgangs-Rechenelementen, welche mit den Transforma- tions-Rechenelementen verbunden sind, wobei an den Ausgangs-Rechenelementen jeweils ein Ausgangssignal abgreifbar ist.
Durch die Erfindung wird die Modellierung eines dynamischen
Systems, welches eine hochdimensionale Eingangsgröße in einem Zustandsraum aufweist, in einem neuen Zustandsraum möglich, in welchem das System eine geringere Dimension aufweist, so daß eine weitere Entwicklung des Systems zu einem folgenden Zeitpunkt einfacher und genauer vorhersagbar wird.
Ferner weist die Erfindung den Vorteil auf, daß die weitere Entwicklung des Systems zu einem folgenden Zeitpunkt auch dadurch genauer vorhersagbar ist, daß externe Einflußgrößen berücksichtigbar sind.
Bevorzugte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.
Die im weiteren beschriebenen Weiterbildungen beziehen sich sowohl auf die Verfahren und die Anordnung.
Die Erfindung kann sowohl in Software als auch in Hardware, beispielsweise unter Verwendung einer speziellen elektrischen Schaltung, realisiert werden.
Bei komplexen dynamischen Systemen können die Zeitreihenwerte Vektoren mit einer vorgebbaren Dimension sein.
Bevorzugt sind zumindest ein Teil der Rechenelemente künstliche Neuronen.
Die Verbindungen zwischen den Rechenelementen können variabel ausgestaltet und gewichtet sein.
In einer bevorzugten Ausführungsform weisen zumindest Teile der Verbindungen gleiche Gewichtswerte auf.
Bei einer Anordnung gemäß einer Weiterbildung wird der zweite Zeitreihenwert der ersten Zeitreihe in dem zweiten Zustandsraum in den ersten Zustandsraum rücktransformiert.
Eine Anordnung gemäß einer Weiterbildung wird derart trainiert, daß in einem ersten Trainingsschritt eine Kompression und eine Dekompression trainiert wird. Anschließend wird in einem zweiten Trainingsschritt eine Vorhersage trainiert.
Anordnungen gemäß Weiterbildungen weisen zweite und/oder dritte Verbund-Rechenelemente, die jeweils mit einem Eingangs-Rechenelement und einem Transformations-Rechenelement und/oder jeweils mit einem Ausgangs-Rechenelement und einem Transformations-Rechenelement verbunden sind.
In einer Ausgestaltung weist eine Anordnung weitere zueinander zugehörige Rechenelemente auf, welche mit einem Ausgangs- Rechenelement verbunden sind und mit welchen weiteren zueinander zugehörigen Rechenelementen eine vorgebbare Transformation durchführbar ist. Die weiteren zueinander zugehörigen Rechenelemente werden in einem weiteren Trainingsschritt trainiert.
In einer Weiterbildung wird unter Verwendung der vorgebbaren Transformation ein optimierter Zustand des dynamischen Sy- stems ermittelt.
Bevorzugt weist die vorgebbare Transformation folgende Vorschrift auf:
μj * exp (wj * XJ )
(*1. x Itl ' w w m ■ m
∑ Mk * &xp (wk * χ k ) k = l mit : i,k : Indizes m : Anzahl der vorgegeben Aktien, m = 100 a : Gewichtung einer Aktie i zu einem Zeitpunkt (t+1) μi : vorgegebene Gewichtung einer Aktie i in einem Vergleichs-Portfolio (Benchmark-Asset) w l (••• : Parameter bzw. Gewichte xi ,...,xm : prognostizierte Aktienkurse der vorgegebenen
Aktien zu dem Zeitpunkt (t+1) exp ( ... ) : Exponentialfunktion.
Der dynamische Prozeß kann ein dynamischer Prozeß in einem Reaktor, insbesondere in einem chemischen Reaktor sein, allgemein jeder dynamische Prozeß, der in einem technischen dynamischen System abläuft. Ferner können die Anordnung bzw. die Verfahren im Rahmen einer Modellierung eines ökonomischen Prozesses, insbesondere eines Finanzmarkts, eingesetzt werden. Allgemein eignen sich die Verfahren und die Anordnungen sehr gut zur Prognose makroökonomischer Dynamiken.
Die Zeitreihenwerte können aus physikalischen Signalen ermit- telt werden.
Ausführungsbeispiele der Erfindung sind in den Figuren dargestellt und werden im weiteren näher erläutert:
Es zeigen
Figur 1 eine Skizze einer Anordnung gemäß eines ersten Ausführungsbeispiels;
Figur 2 eine Skizze einer allgemeinen Beschreibung eines dynamischen Systems;
Figur 3 eine Skizze eines Autoassoziators gemäß dem Stand der Technik;
Figur 4 eine Skizze eines chemischen Reaktors, von dem Größen gemessen werden, welche mit der Anordnung gemäß dem ersten Ausführungsbeispiel weiterverarbeitet werden;
Figuren 5a und 5b Skizzen von Anordnungen gemäß dem ersten Ausführungsbeispiel bei einem Training; Figur 6 eine Skizze der Anordnung gemäß einem zweiten Ausführungsbeispiel;
Figur 7 eine Skizze, welche einen Verfahrensablauf gemäß dem ersten oder zweiten Ausführungsbeispiel beschreibt;
Figur 8 eine Skizze einer Anordnung eines TDRNN, welche mit endlich vielen Zuständen über die Zeit entfaltet ist.
Erstes Ausführungsbeispiel : Chemischer Reaktor
Fig. zeigt einen chemischen Reaktor 400, der mit einer chemischen Substanz 401 gefüllt ist. Der chemische Reaktor 400 umfaßt einen Rührer 402, mit dem die chemische Substanz 401 gerührt wird. In den chemischen Reaktor 400 einfließende weitere chemische Substanzen 403 reagieren während eines vorgebbaren Zeitraums in dem chemischen Reaktor 400 mit der in dem chemischen Reaktor 400 bereits enthaltenen chemischen Sub- stanz 401. Eine aus dem Reaktor 400 ausfließende Substanz 404 wird aus dem chemischen Reaktor 400 über einen Ausgang abgeleitet.
Der Rührer 402 ist über eine Leitung mit einer Steuereinheit 405 verbunden, mit der über ein Steuersignal 406 eine Rührfrequenz des Rührers 402 einstellbar ist.
Ferner ist ein Meßgerät 407 vorgesehen, mit dem Konzentrationen von in der chemischen Substanz 401 enthaltenen chemischen Stoffe gemessen werden.
Meßsignale 408 werden einem Rechner 409 zugeführt, in dem Rechner 409 über eine Eingangs-/Ausgangsschnittstelle 410 und einem Analog/Digital-Wandler 411 digitalisiert und in einem Speicher 412 gespeichert. Ein Prozessor 413 ist ebenso wie der Speicher 412 über einen Bus 414 mit dem Analog/Digital- Wandler 411 verbunden. Der Rechner 409 ist ferner über die Eingangs-/Ausgangsschnittstelle 410 mit der Steuerung 405 des Rührers 402 verbunden und somit steuert der Rechner 409 die Rührfrequenz des Rührers 402.
Der Rechner 409 ist ferner über die Eingangs-/Ausgangs- schnittstelle 410 mit einer Tastatur 415, einer Computermaus 416 sowie einem Bildschirm 417 verbunden.
Der chemische Reaktor 400 als dynamisches technisches System 200 unterliegt somit einem dynamischen Prozeß.
Der chemische Reaktor 400 wird mittels einer Zustandsbe- schreibung beschrieben. Eine Eingangsgröße xt, welche eine hochdimensionale Eingangsgröße ist, setzt sich in diesem Fall zusammen aus Angaben über die Konzentrationen von in der chemischen Substanz 401 enthaltenen chemischen Stoffe.
Eine weitere Eingangsgröße e^, welche Einflußgrößen des Reaktors 400 berücksichtigt, setzt sich zusammen aus einer Angabe über die Temperatur, die in dem chemischen Reaktor 400 herrscht, sowie dem in dem chemischen Reaktor 400 herrschenden Druck und der zu dem Zeitpunkt t eingestellten Rührfrequenz.
Ziel der im weiteren beschriebenen Modellierung des chemischen Reaktors 400 ist die Bestimmung der dynamischen Entwicklung der Stoffkonzentrationen, um somit eine effiziente Erzeugung eines zu produzierenden vorgebbaren Zielstoffes als ausfließende Substanz 404 zu ermöglichen.
Dies erfolgt unter Verwendung der im weiteren beschriebenen und in der Fig.l dargestellten Anordnung.
Zum einfacheren Verständnis der der Anordnung zugrunde lie- genden Prinzipien ist in Fig.8 das bekannte TDRNN als ein über eine endliche Anzahl von Zeitpunkten (t-1, t, t+1) entfaltetes neuronales Netz 800 dargestellt. Das in Fig.8 dargestellte neuronale Netz 800 weist eine Eingangsschicht 801 mit zwei Teileingangsschichten 802 und 803 auf, die jeweils eine vorgebbare Anzahl Eingangs- Rechenelemente enthalten, denen Eingangsgrößen u zu einem vorgebbaren Zeitpunkt t, d.h. im weiteren beschriebene Zeitreihenwerte, anlegbar sind.
Eingangs-Rechenelemente, d.h. Eingangsneuronen, sind über va- riable Verbindungen mit Neuronen einer vorgebbaren Anzahl versteckter Schichten 805 verbunden.
Dabei sind Neuronen einer ersten versteckten Schicht 806 mit Neuronen der ersten Teileingangsschicht 802 verbunden. Ferner sind Neuronen einer zweiten versteckten Schicht 807 mit Neuronen der zweiten Eingangsschicht 803 verbunden.
Die Verbindungen zwischen der ersten Teileingangsschicht 802 und der ersten versteckten Schicht 806, der zweiten Teilein- gangsschicht 803 und der zweiten versteckten Schicht 807 sind jeweils gleich. Die Gewichte aller Verbindungen sind jeweils in einer ersten Verbindungsmatrix B' enthalten.
Neuronen einer vierten versteckten Schicht 809 sind mit ihren Eingängen mit Ausgängen von Neuronen der ersten versteckten Schicht 802 gemäß einer durch eine zweite Verbindungsmatrix A2 gegebene Struktur verbunden. Ferner sind Ausgänge der Neuronen der vierten versteckten Schicht 809 mit Eingängen von Neuronen der zweiten versteckten Schicht 807 gemäß einer durch eine dritte Verbindungsmatrix A]_ gegebene Struktur verbunden.
Ferner sind Neuronen einer fünften versteckten Schicht 810 mit ihren Eingängen gemäß einer durch die dritte Verbindungs- matrix A2 gegebenen Struktur mit Ausgängen von Neuronen der zweiten versteckten Schicht 807 verbunden. Ausgänge der Neuronen der fünften versteckten Schicht 810 sind mit Eingängen von Neuronen einer dritten versteckten Schicht 808 gemäß einer durch die dritte Verbindungsmatrix A]_ gegebenen Struktur verbunden.
Die Angaben in den Indizes in den jeweiligen Schichten geben jeweils den Zeitpunkt t, t+1, t-1, an, auf die sich jeweils die an den Ausgängen der jeweiligen Schicht abgreifbaren (yt+i) bzw. zuführbaren (ut-i, u ) Signale beziehen.
Eine Ausgangsschicht 520 weist eine Teilausgangsschicht 521 auf. Neuronen der ersten Teilausgangsschicht 521 sind gemäß einer durch eine Ausgangs-Verbindungsmatrix C gegebenen Struktur mit Neuronen der dritten versteckten Schicht 508 verbunden. An den Neuronen der ersten Teilausgangsschicht 521 ist die Ausgangsgröße für einen Zeitpunkt t+1 abgreifbar
(Yt+l)
Ausgehend von diesem Prinzip der sogenannten geteilten Gewichtswerte (Shared Weights) , d.h. dem Grundsatz, daß äquiva- lente Verbindungsmatrizen in einem neuronalen Netz zu einem jeweiligen Zeitpunkt die gleichen Werte aufweisen, wird im weiteren die in Fig.1 dargestellte Anordnung gebildet erläutert.
Die im weiteren beschriebenen Skizzen sind jeweils so zu verstehen, daß jede Schicht bzw. jede Teilschicht eine vorgebbare Anzahl von Neuronen, d.h. Rechenelementen, aufweist.
Die jeweiligen Verbindungsmatrizen sind beliebiger Dimension und enthalten jeweils zu den entsprechenden Verbindungen zwischen den Neuronen der jeweiligen Schichten die Gewichtswerte.
Die in Fig.1 dargestellte Anordnung weist eine Eingangs- schicht 100 mit zwei Teileingangsschichten, einer ersten Tei- leingangsschicht 101 und einer zweiten Teileingangsschicht 102 auf, wobei jeder Teileingangsschicht 101, 102, jeweils Zeitreihenwerte xt, xt+1 zu jeweils einem Zeitpunkt t bzw. t+1 zuführbar sind.
Weitere Einflußgrößen werden durch eine weitere Eingangs- schicht 120 mit einer weiteren Teileingangsschicht 121, an deren Neuronen die weiteren Einflußgrößen in Form einer weiteren Eingangsgröße et zu einem Zeitpunkt t zuführbar sind, berücksichtigt .
Die Teileingangsschichten 101, 102 der Eingangsschicht 100 sind jeweils über Verbindungen gemäß einer ersten Verbindungsmatrix A mit Neuronen einer ersten versteckten Schicht
110 mit jeweils zwei Teilschichten, einer ersten Teilschicht
111 und einer zweiten Teilschicht 112 der ersten versteckten Schicht 110 verbunden. Die weitere Teileingangsschicht 121 der weiteren Eingangsschicht 120 ist über eine Verbindung gemäß einer fünften Verbindungsmatrix E mit Neuronen einer zweiten versteckten Schicht 130 mit einer Teilschicht 131 der zweiten versteckten Schicht 130 verbunden.
Die Neuronen der ersten Teilschicht 111 der ersten verdeckten Schicht 110 sind gemäß einer dritten Verbindungsmatrix C mit den Neuronen der Teilschicht 131 der zweiten verdeckten Schicht verbunden. Die Neuronen der Teilschicht 131 der zwei- ten versteckten Schicht 130 sind gemäß einer vierten Verbindungsmatrix D mit den Neuronen der zweiten Teilschicht 112 der ersten versteckten Schicht 110 verbunden.
Die Neuronen der ersten Teilschicht 111 der ersten versteck- ten Schicht 110 sind gemäß einer durch eine zweite Verbindungsmatrix B gegebenen Struktur mit Neuronen einer ersten Teilausgangsschicht 141 einer Ausgangsschicht 140 verbunden. Die Neuronen der zweiten Teilschicht 112 der ersten versteckten Schicht 110 sind gemäß der durch die zweite Verbindungs- matrix B gegebenen Struktur mit Neuronen einer zweiten
Teilausgangsschicht 142 der Ausgangsschicht 140 verbunden. Ein in den Teilschichten 111, 112 der ersten versteckten Schicht 110 gebildeter "innerer" Systemzustand repräsentiert jeweils einen "inneren" Systemzustand st und st+i zweier aufeinanderfolgender Zeitpunkte t und t+1. Um auch den zeitli- chen Fluß der Systemzustände st in dem "inneren" Systemzustand berücksichtigen zu können, sind die zwei Teilschichten 111, 112 der ersten versteckten Schicht 110 durch die Teilschicht 131 der zweiten versteckten Schicht 130 verbunden.
Die Zeitreihenwerte xt, xt+1' welche in einem Eingangsraum hochdimensional sind, werden jeweils auf den "inneren" Systemzustand st und st+i transformiert (Kompression) , wobei die Dimension des "inneren" Systemzustands st und st+i klein im Vergleich zu dem hochdimensionalen Eingangsraum ist.
An einem Ausgang 145 der ersten Teilausgangsschicht 141 der ersten Ausgangsschicht 140 und an einem Ausgang 145 der zweiten Teilausgangsschicht 142 der ersten Ausgangsschicht sind jeweils die nach der Kompression auf den inneren Systemzu- stand st und st+i wieder auf die Dimension des Eingangsraums rücktransformierten (Dekompression) Zeitreihenwerte x , xt+1 zu jeweils dem Zeitpunkt t bzw. t+1 abgreifbar.
Zur besseren Veranschaulichung der durch die Anordnung er- reichten Transformationen ist in Fig.7 ein Ablauf von Verfah- rensschritten 700, im Rahmen derer die Transformationen durchgeführt werden, dargestellt.
In einem ersten Schritt 710 werden die Zeitreihenwerte xt in dem ersten Raum X und die weitere Eingangsgröße et in einem zweiten Raum Y gemessen und jeweils zeitlich aufeinanderfolgend gruppiert (Input/Vorverarbeitung) .
In einem zweiten Schritt 720 werden die Zeitreihenwerte xt in dem ersten Raum X unter Verwendung der ersten Abbildungsfunk- tion g(.) in einen inneren Zustandsraum S transformiert (Kompression) .
In einem dritten Schritt 730 wird Abbildung f eines Wertes st in dem inneren Raum S zu einem Zeitpunkt t, auf einen Wert st+i zu einem folgenden Zeitpunkt t+1 gebildet (Forecast, Vorhersage) . Diese Abbildung wird derart gebildet, daß die Einflußgrößen e berücksichtigt werden.
In einem vierten Schritt 740 wird die abgebildete Größe st+i in dem inneren Raum S unter Verwendung einer Rücktransformation gemäß der zweiten Abbildungsfunktion h(.) zu dem Zeitreihenwert xt+l des zeitlich folgenden Zeitpunkts t+1 rücktransformiert (Dekompression) .
In einem fünften Schritt 750 wird unter Verwendung des Zeitreihenwertes xt+l die Dynamik überwacht und gesteuert Output/Nachverarbeitung) .
Anschaulich bedeutet dies, daß die Abbildung aufgeteilt wird in mehrere Abbildungen gemäß folgender Vorschrift:
xt + l = h o f o g(xt). (7)
Die Ermittlung der Dynamik kann nun in zwei Phasen formuliert werden.
1. Es wird eine Abbildungsvorschrift g: X —>• S gesucht, mit der der erste Raum X in einen inneren Raum S abgebildet wird derart, daß die Dimension des inneren Raums klein im Vergleich zu der Dimension des ersten Raums S ist und daß bei der Dynamik des Prozesses in dem zweiten Raum S die Einflußgrößen in dem zweiten Raum Y berücksichtigt werden.
2. Es wird eine Rücktransformationsvorschrift h: S —» X aus dem zweiten Raum S in den ersten Raum X gesucht, die folgender Vorschrift genügt: xt - h ° g(xt)| *"* min . ( 8 ) g, h
Nachdem die entsprechenden Transformationen unter Verwendung der oben beschriebenen Anordnung in Form der Verbindungsmatrizen gelernt wurden, wird die dynamische Abbildung f in dem zweiten Raum S ermittelt derart, daß gilt:
f: S → S, (9)
xt +i - h o f o g(xt) —> min . (10]
Training der Anordnung gemäß dem ersten Ausführungsbeispiel
Ein Training der Anordnung (vgl. Fig.5a-c) wird im Rahmen eines Trainingsverfahrens, welches zwei Schritte (vgl. Fig.5a,b) und einen Zusatzschritt (vgl. Fig.5c) aufweist, durchgeführt. Als Trainingsverfahren wird jeweils das Back- propagation-Verfahren eingesetzt. Ein erster, zweiter und dritter Trainingsdatensatz für entsprechend den ersten, zweiten und dritten Trainingsschritt werden jeweils auf nachfolgend beschriebene Weise aus dem chemischen Reaktor 400 gewonnen.
Es werden mit dem Meßgerät 407 zu in dem chemischen Reaktor 400 gemessenen Einflußgrößen et Konzentrationen gemessen und dem Rechner 409 zugeführt, dort digitalisiert und als Zeitreihenwerte xt in einem Speicher gemeinsam mit den entspre- chenden Einflußgrößen et, die zu den gemessenen Größen korrespondieren, zeitlich aufeinanderfolgend gruppiert.
Im Rahmen des Trainings und der Trainingsschritte werden Verbindungen zwischen Neuronen eingefroren und/oder gelöst. Die entsprechenden Anordnungen sind in den Fig.5a-c dargestellt. Dabei bedeutet eine eingefrorene Neuronenverbindung, daß Gewichte dieser Neuronenverbindung während des entsprechenden Trainingsschrittes unverändert bleiben. Eine einge- frorene Verbindungen ist in den Fig.5a-c durch eine dick gezeichnete Pfeilverbindung hervorgehoben dargestellt.
Eine gelöste Neuronenverbindung bedeutet, daß in dem entsprechenden Trainingsschritt keine Signale zwischen den verbunde- nen Neuronen übertragen werden. Dies kann dadurch realisiert werden, daß die Neuronenverbindung in dem entsprechenden Trainingsschritt unterbrochen wird oder daß Gewichte der gelösten Verbindung in dem entsprechenden Trainingsschritt auf Null gesetzt werden. Eine gelöste Neuronenverbindung ist in den Fig.5a-c durch eine gestrichelt gezeichnete Pfeilverbindung hervorgehoben dargestellt.
Erster Trainingsschritt
In Fig.5a ist die Anordnung gemäß Fig.1, wie sie in dem ersten Trainingsschritt trainiert wird, dargestellt. In dem ersten Trainingsschritt wird die Kompression/Dekompression trainiert .
Bei dem ersten Trainingsschritt werden die Neuronenverbindun- gen von der ersten Teilschicht 111 der ersten versteckten Schicht 110, von der zweiten Teilschicht 112 der ersten versteckten Schicht 110 und der weiteren Teileingangsschicht 121 der weiteren Eingangsschicht 120 jeweils zu der Teilschicht
131 der zweiten versteckten Schicht 130 gelöst. Unter Verwendung des ersten Trainingsdatensatzes werden die bestehenden Verbindungen mit dem Backpropagation-Verfahren trainiert.
Zweiter Trainingsschritt In Fig.5b ist die Anordnung gemäß Fig.1, wie sie in dem zweiten Trainingsschritt trainiert wird, dargestellt. In dem zweiten Trainingsschritt wird die Vorhersage (Forecast) trainiert.
Bei dem zweiten Trainingsschritt werden die Neuronenverbindung von der ersten Teilschicht 111 der ersten versteckten Schicht 110 zu der ersten Teilausgangsschicht 141 der Ausgangsschicht 140 und die Neuronenverbindung von der zweiten Teileingangsschicht 102 der ersten Eingangsschicht 100 zu der zweiten Teilschicht 112 der ersten versteckten Schicht 110 gelöst. Die Neuronenverbindung von der ersten Teileingangsschicht 101 der ersten Eingangsschicht 100 zu der ersten Teilschicht 111 der ersten versteckten Schicht 110 und die Neuronenverbindung von der zweiten Teilschicht 112 der ersten versteckten Schicht 110 zu der zweiten Teilausgangsschicht 142 der Ausgangsschicht 140 werden eingefroren. Unter Verwendung des zweiten Trainingsdatensatzes werden die bestehenden Verbindungen mit dem Backpropagation-Verfahren trainiert.
Zusatz-Trainingsschritt
In Fig.5c ist die Anordnung gemäß Fig.l, wie sie in dem Zusatz-Trainingsschritt trainiert wird, dargestellt. In dem Zu- satz-Trainingsschritt wird die Kompression/Dekompression zusammen mit der Vorhersage trainiert.
Bei dem Zusatz-Trainingsschritt wird die Neuronenverbindungen von der zweiten Teileingangsschicht 102 der ersten Eingangs- schicht 100 zu der zweiten Teilschicht 112 der ersten versteckten Schicht 110 gelöst. Unter Verwendung des dritten Trainingsdatensatzes werden die bestehenden Verbindungen mit dem Backpropagation-Verfahren trainiert.
Die gemäß dem oben beschriebenen Trainingsverfahren trainierte Anordnung aus Fig.1 wird zur Ermittlung chemischer Größen im chemischen Reaktor 400 eingesetzt derart, daß für eine Eingangsgröße xt zu einem Zeitpunkt t eine Prognosegröße xt+l in einer Anwendungsphase von der Anordnung ermittelt wird, die anschließend als eine Steuergröße nach einer eventuellen Aufbereitung der ermittelten Größen als Steuergröße 420, 421 dem Steuerungsmittel 405 zur Steuerung des Rührers 402 oder auch einer Zuflußsteuereinrichtung 430 zur Steuerung des Zuflusses weiterer chemischer Substanzen 403 in dem chemischen Reaktor 400 verwendet werden (vgl. Fig.4) .
2. Ausführungsbeispiel : Asset Allocation
In Fig.6 ist eine Anordnung zu einer Ermittlung einer Dynamik von Aktienkursen eines vorgegebenen Aktienportfolios darge- stellt, welche Anordnung eine Erweiterung der im Rahmen des ersten Ausführungsbeispiels beschrieben Anordnung ist. Unter Verwendung der ermittelten Dynamik werden die Aktienkurse der vorgegebenen Aktien zu einem Zeitpunkt (t+1) vorhergesagt.
Darüber hinaus wird mit der Anordnung gemäß Fig.6 unter Verwendung der ermittelten Dynamik der Aktienkurse und der vorhergesagten Aktienkurse eine hinsichtlich eines Ertrags und eines kausalen Risikos optimale Gewichtung einer einzelnen Aktie zu einem Zeitpunkt (t+1) ermittelt. Eine solche Ermitt- lung wird als "Asset Allocation" bezeichnet.
Eine Eingangsgröße xt der Anordnung, welche eine hochdimen- sionale Eingangsgröße ist und welche die Aktienkurse der vorgegebenen Aktien zu einem Zeitpunkt t beschreibt, setzt sich in diesem Fall zusammen aus den Aktienkursen von 100 Aktien, welche in einem Index DAX und einem Index MDAX einer Deutschen Börse AG enthalten sind.
Eine weitere Eingangsgröße et der Anordnung, welche Einfluß- großen auf die Aktienkurse der vorgegebenen Aktien berücksichtigt, setzt sich zusammen aus einer Angabe über Währungs- kurse und Zinsstrukturen von in- und ausländischen Kapital- und Geldmärkten.
Ziel der im weiteren beschriebenen Modellierung der Aktien- kurse ist die Bestimmung der dynamischen Entwicklung der Aktienkurse, um daraus eine hinsichtlich eines Ertrags und eines kausalen Risikos optimale Gewichtung a± einer einzelnen Aktie i der 100 vorgegebenen Aktien zu einem Zeitpunkt (t+1) zu ermitteln. Als Vergleichs-Portfolio, im weiteren auch als Benchmark-Asset bezeichnet, dient die gewichtete Zusammensetzung der 100 Aktien in den Indizes DAX und MDAX.
Die Bestimmung der Dynamik der Aktienkurse und die Asset Allocation erfolgt unter Verwendung der im weiteren beschriebe- nen und in der Fig.6 dargestellten Anordnung.
Da die Anordnung gemäß Fig.6 eine Erweiterung der Anordnung gemäß Fig.1 ist, gelten die im Rahmen des ersten Ausführungsbeispiels gemachten Ausführungen hinsichtlich der beschriebe- nen Anordnung und des der Anordnung zugrunde liegenden Prinzips, des beschriebenen Verfahrens im Rahmen der Anwendung der Anordnung und des Trainingsverfahrens der Anordnung entsprechend für die erweiterte Anordnung gemäß Fig.6.
Dementsprechend sind Komponenten aus den Fig.1 und Fig.6 bei gleicher Ausgestaltung mit gleichen Bezugszeichen versehen.
Zusätzlich weist die Anordnung zur Asset Allocation eine Teilschicht 151 einer dritten versteckten Schicht 150 auf. Neuronen der Teilschicht 151 der dritten versteckten Schicht 150 sind mit den Neuronen der zweiten Teilausgangsschicht 142 der Ausgangsschicht 140 gemäß einer Struktur, die durch eine sechste Verbindungsmatrix F gegeben ist, verbunden.
Ferner weist die Anordnung zur Asset Allocation eine Teilein- gangsschicht 171 einer zusätzlichen Eingangsschicht 170 auf. Neuronen der Teileingangsschicht 171 der zusätzlichen Ein- gangsschicht 170 sind gemäß einer Struktur, die durch eine siebte Verbindungsmatrix H gegeben ist, mit den Neuronen der Teilschicht 151 der dritten versteckten Schicht 150 verbunden.
Ferner weist die Anordnung zur Asset Allocation zusätzlich eine Teilausgangsschicht 161 einer zusätzlichen Ausgangsschicht 160 auf. Die Neuronen der Teilschicht 151 der dritten versteckten Schicht 150 sind mit Neuronen der Teilausgangsschicht 161 der zusätzlichen Ausgangsschicht 160 gemäß einer Struktur, die durch eine achte Verbindungsmatrix G gegeben ist, verbunden.
An einem Ausgang 162 der Teilausgangsschicht 161 der zusätz- liehen Ausgangsschicht 160 sind Zeitreihenwerte a zu dem Zeitpunkt t+1 abgreifbar.
Unter Verwendung der zusätzlichen Elemente der Anordnung zur Asset Allocation wird eine vorgebbare Transformation mit fol- gender Vorschrift realisiert:
exp (w-[ * x^) ai (x1 / xm > wl ' w Mi * m m
∑//* * exp ( wk * xk k = l mit : i,k Indizes m Anzahl der vorgegeben Aktien, m = 100 ai Gewichtung einer Aktie i zu einem Zeitpunkt
(t+1) μi : vorgegebene Gewichtung einer Aktie i in einem Vergleichs-Portfolio (Benchmark-Asset) wi , ... , wm : Parameter bzw. Gewichte i /, ... , Xm : prognostizierte Aktienkurse der vorgegebenen
Aktien zu dem Zeitpunkt (t+1) exp : Exponentialfunktion Bei der Realisierung der vorgebbaren Transformation ist die sechste Verbindungsmatrix F eine Diagonalmatrix, deren Diagonalwerte die Parameter wx sind. Die siebte Verbindungsmatrix H und die achte Verbindungsmatrix G ist jeweils eine Identi- tatsmatrix Id.
Bei der Realisierung der vorgebbaren Transformation wird m der Teileingangsschicht 171 der zusätzlichen Eingangsschicht 170 eine Abbildung o gemäß oi = ln(μj durchgeführt.
In der Teilschicht 151 der dritten versteckten Schicht 150 wird eine Abbildung p gemäß
Pi = exp(q) =exp (oι*xi*wi) und eine Normierung r, eine "softmax Normierung", gemäß
Figure imgf000027_0001
T exp(In (//_£) * wk * xk ) k = l durchgef hrt .
In der Teilausgangsschicht 161 der zusatzlichen Ausgangs- Schicht 160 erfolgt eine Überprüfung einer vorgebbaren Nebenbedingung gemäß
ai e [ i ~ ß^± , Mi + ß^i ]
mit: ß : Risikoparamter, ße[0,l]
Δi : vorgegeben Grenze für eine Aktie i für eine
Abweichung von einer vorgegebenen Gewichtung in einem Vergleichs-Portfolio (Benchmark-Asset) .
Die durch die Anordnung gemäß Fig.6 erreichten Transformationen umfassen die m Fig.7 dargestellten und im Rahmen des ersten Ausfuhrungsbeispiels beschrieben Verfahrensschritte. In dem fünften Schritt 750 wird im Rahmen des zweiten Ausführungsbeispiels zusätzlich unter Verwendung der vorhergesagten Aktienkurse x(t+l) zu einem Zeitpunkt (t+1) die hinsichtlich eines Ertrags und eines kausalen Risikos optimale Gewichtung ai der einzelnen Aktien i zu einem Zeitpunkt (t+1) ermittelt.
Training der Anordnung zur Asset Allocation
Bei einem Training der Anordnung zur Asset Allocation werden die im Rahmen des ersten Ausführungsbeispiels beschriebenen Trainingsschritte, erster Trainingsschritt, zweiter Trainingsschritt und Zusatz-Trainingsschritt, durchgeführt. Zusätzlich wird bei dem Training für die Anordnung zur Asset Allocation im Anschluß an den Zusatz-Trainingsschritt ein weiterer Trainingsschritt, ein Allocation-Trainingsschritt, durchgeführt.
Bei dem Allocation-Trainingsschritt werden die Gewichte wi der sechsten Verbindungsmatrix F verändert bzw. angepaßt, wobei die Gewichte der übrigen Verbindungsmatrizen durch Einfrieren der entsprechenden Neuronenverbindungen unverändert bleiben.
Ein vierter Trainingsdatensatz für den Allocation- Trainingsschritt wird derart ermittelt, daß Zeitreihenwerte xt aus einem zu einem aktuellen Zeitpunkt t beendeten Zeitintervall T gemeinsam mit den entsprechenden Einflußgrößen et aus dem Zeitintervall T, die zu den gemessenen Größen korre- spondieren, gruppiert werden. Unter Verwendung des vierten Trainingsdatensatzes werden die Gewichte w^ mit dem Backpropagation-Verfahren trainiert.
Das Training der Gewichte w erfolgt durch Maximierung fol- gender Target-Funktion TF: - y y x - * μi * exp { Wi * X1 ) —> max t = lι = l ∑ μk * exp(wk * xk ) k = l it der derart bestimmten Target-Funktion TF wird nicht nur eine Maximierung eines Ertrags, sondern auch eine Minimierung eines kausalen Risikos erreicht.
Die gemäß dem oben beschriebenen Trainingsverfahren trainierte Anordnung aus Fig.6 wird zur Ermittlung einer Asset Allocation von Aktien eines Aktien-Portfolios eingesetzt derart, daß für eine Eingangsgröße xt zu einem Zeitpunkt t eine Pro- gnosegröße x(t+l) zu einem Zeitpunkt (t+1) in einer Anwen- dungsphase von der Anordnung ermittelt wird und unter Verwendung der Prognosegröße x(t+l) eine hinsichtlich eines Ertrags und eines kausalen Risikos optimale Gewichtung ai einer einzelnen Aktie i des Aktien-Portfolios ermittelt. Entsprechend der ermittelten optimalen Gewichtungen ai der einzelnen Aktien i des Aktien-Portfolios wird unter Verwendung eines rechnergestützten Kapitalmarkt-Handelssystems das Aktien- Portfolio rechnergestützt verändert. Dabei werden den Gewichtungen ai der einzelnen Aktien i des Aktien-Portfolios ent- sprechende Signale an das Kapitalmark-Handelssystem übertragen. Das Kapitalmarkt-handelssystem ermittelt entsprechend den Gewichtungen ai notwendige Verkäufe und/oder Zukaufe von den einzelnen Aktien, welche notwendigen Verkäufe und/oder Zukaufe rechnergestützt durch das Kapitalmarkt-Handelssystem durchgeführt werden.
Im folgenden werden Prinzipien der durch die zusätzlichen Elemente der Anordnung gemäß dem zweiten Ausführungsbeispiel realisierten Transformation angegeben.
Die Transformation mit folgenden Vorschrift μ± * exp (wj * XJ_ ) ai (xλ , xm ' wl ' r m ) = m
∑ μk * exp( wk * xk k = l mit : i,k Indizes m Anzahl der vorgegeben Aktien, m = 100 ai Gewichtung einer Aktie i zu einem Zeitpunkt
(t+1) μi : vorgegebene Gewichtung einer Aktie i in einem Vergleichs-Portfolios (Benchmark-Asset) wi , . : Parameter bzw. Gewichte xi , . ' xm : prognostizierte Aktienkurse der vorgegebenen
Aktien zu dem Zeitpunkt (t+1) exp : Exponentialfunktion
wurde derart bestimmt, daß folgende Prinzipien erfüllt wer- den:
1 • 9- = ai (xi, ... , Xπi) , d.h. die Gewichtung der Aktie i ist von einer hervorgesagten
Aktienkursentwicklung der Aktie abhängig;
> 0 ;
3 . ≥ 0 , bei konstantem Risiko ;
Figure imgf000030_0001
in
= 1 , i = l
m
5 . ai G [μ± - i , μ± + Δj ] , mit ∑ μi = 1 i = l
Im weiteren ist eine mögliche Realisierung des oben beschrie- benen zweiten Ausführungsbeispiels angegeben für das Programm SENN, Version 2.3. Die Realisierung umfaßt drei Abschnitte, die jeweils einen Programmcode enthalten, die zur Verarbeitung in SENN, Version 2.3 erforderlich sind.
1. Parameter-Datei :
BpNet {
Globals { tPenalty { sei NoPenalty Weigend { Lambda { 0.000000 }
AutoAdapt ( T } wO { 1.000000 } DeltaLambda { 0.000001 } ReducFac ( 0.900000 ) Gamma { 0.900000 }
DesiredError { 0.000000 } ) WtDecay {
Lambda { 0.001000 } AutoAdapt { F }
AdaptTime { 10 } EpsObj { 0.001000 } Obj Set { Training } EpsilonFac { 1.000000 } }
Ext tDecay {
Lambda { 0.001000 } AutoAdapt { F } AdaptTime { 10 } EpsObj { 0.001000 }
Obj Set { Training } EpsilonFac { 1.000000 } }
Finnoff { AutoAdapt { T }
Lambda { 0.000000 } DeltaLambda { 0.000001 } ReducFac { 0.900000 } Gamma { 0.900000 } DesiredError { 0.000000 }
} }
ErrorFunc { sei LnCosh |x| {
Parameter { 0.050000 }
LnCosh {
Parameter ( 3.000000 }
} AnySave ( file_name { f.Globals.dat } AnyLoad { file_name { f . Globals . dat } }
ASCII { F } ) LearnCtrl { sei Stochastic Stochastic {
PatternSelection { sei Permute SubSample {
Percent { 0.500000 ) } ExpRandom {
Lambda { 2.000000 } }
} tPruneCtrl {
PruneSchedule { sei FixSchedule FixSchedule {
Limit_0 ( 10 } Limit_l { 10 } Limit_2 { 10 } Limit_3 { 10 } RepeatLast { T }
}
DynSchedule { MaxLength { 4 } MinimumRuns { 0 } Training { F }
Validation { T } Generalization { F } }
DivSchedule { Divergence ( 0.100000 }
MinEpochs { 5 } ) }
PruneAlg { sei FixPrune
FixPrune (
Perc_0 { 0.100000 }
Perc_l { 0.100000 }
Perc_2 { 0.100000 } Perc_3 ( 0.100000 }
)
EpsiPrune {
DeltaEps { 0.050000 } StartEps { 0.050000 } MaxEps { 1.000000 }
ReuseEps { F } ) }
Tracer { Active { F }
Set { Validation } File { trace } } Active { F } Randomize { 0. 000000 } PruningSet { Train . +Valid. } Method { S-Pruning } } StopControl {
EpochLimit { Active { F } MaxEpoch { 60 )
) MovingExpAverage {
Active { F )
MaxLength { 4 }
Training { F }
Validation { T } Generalization { F }
Decay { 0. 900000 }
}
CheckObjectiveFct { Active { F ) MaxLength { 4 }
Training { F ) Validation { T } Generalization { F )
} CheckDelta {
Active { F } Divergence { 0.100000 } } ) EtaCtrl { Mode { sei EtaSchedule EtaSchedule {
S itchTime { 10 ) ReductFactor { 0.950000 }
) FuzzCtrl {
MaxDeltaObj { 0.300000 } MaxDelta20bj { 0.300000 } MaxEtaChange { 0.020000 )
MinEta { 0.001000 } MaxEta { 0.100000 } Smoother { 1.000000 } } }
Active { F } }
LearnAlgo { sei OnlineBackProp VarioEta {
MinCalls { 50 } }
MomentumBackProp { Alpha { 0.050000 } }
Quickprop {
Decay { 0.050000 ) Mu { 2.000000 } } } AnySave { file_name { f.Stochastic.dat }
} AnyLoad { file_name { f.Stochastic.dat )
}
BatchSize { 1 } Eta { 0.001000 } DerivEps { 0.000000 }
} TrueBatch (
PatternSelection { sei Sequential SubSample {
Percent { 0.500000 }
}
ExpRandom {
Lambda { 2 . 000000 } }
}
WtPruneCtrl ( Tracer (
Active { F } Set { Validation }
File { trace }
}
Active { F } Randomize { 0.000000 } PruningSet ( Train. +Valid. )
Method { S-Pruning } } EtaCtrl {
Active { F } }
LearnAlgo { sei VarioEta VarioEta {
MinCalls { 200 ) }
MomentumBackProp {
Alpha { 0.050000 } }
Quickprop { Decay { 0.050000 }
Mu { 2.000000 } } }
AnySave { file_name { f.TrueBatch.dat )
} AnyLoad ( file_name { f.TrueBatch.dat } } Eta { 0.050000 )
DerivEps { 0.000000 } } LineSearch {
PatternSelection { sei Sequential SubSample {
Percent { 0 . 500000 }
) ExpRandom {
Lambda { 2.000000 } ) )
WtPruneCtrl { Tracer {
Active { F )
Set { Validation }
File { trace }
) Active { F }
Randomize { 0.000000 } PruningSet { Train. +Valid. } Method { S-Pruning }
} LearnAlgo { sei VarioEta VarioEta {
MinCalls { 200 }
) MomentumBackProp {
Alpha { 0.050000 }
} Quickprop {
Decay { 0.050000 } Mu { 2.000000 )
}
Low-Memory-BFGS { Limit { 2 )
AnySave { file name { f.LineSearch.dat
AnyLoad { file_name { f.LineSearch.dat
}
EtaNull { 1.000000 } MaxSteps { 10 } LS_Precision { 0.500000 } TrustRegion { T }
DerivEps { 0.000000 } BatchSize { 2147483647 } )
GeneticWeightSelect { PatternSelection { sei Sequential SubSample {
Percent { 0.500000 } } ExpRandom (
Lambda { 2.000000 } } } LearnAlgo { sei VarioEta VarioEta {
MinCalls { 200 }
} MomentumBackProp {
Alpha { 0 . 050000 } } }
Obj FctTracer { Active { F }
File { obj Func }
)
SearchControl { SearchStrategy { sei HillClimberControl
HillClimberControl {
%InitialAlive { 0.950000 ) InheritWeights { T } Beta { 0.100000 } MutationType { MacroMutation }
MaxTrials { 50 }
} PBILControl {
%InitialAlive { 0.950000 } InheritWeights { T }
Beta { 0.100000 }
Alpha { 0.100000 }
PopulationSize { 40 } } PopulationControl { pCrossover { 1.000000 }
CrossoverType { SimpleCrossover }
Scaling { T )
ScalingFactor { 2.000000 } Sharing { T }
SharingFactor { 0.050000 )
PopulationSize { 50 } min. %InitialAlive { 0.010000 } max . %InitialAlive { 0 . 100000 } }
} pMutation { 0.000000 } }
ObjectiveFunctionWeights { %Alive { 0.600000 }
E(TS) { 0.200000 } Improvement (TS) { 0.000000 } E(VS) { 1.000000 } Improvement (VS) { 0.000000 } (E(TS)-E(VS) )/max(E(TS) ,E(VS) ) { 0.000000 }
LipComplexity { 0.000000 } OptComplexity { 2.000000 } testVal(dead)-testVal(alive) { 0.000000 } } AnySave { file_name { f.GeneticWeightSelect.dat } } AnyLoad ( file_name { f.GeneticWeightSelect.dat } }
Eta { 0.050000 } DerivEps { 0.000000 } BatchSize { 5 } #minEpochsForFitnessTest { 2 }
#maxEpochsForFitnessTest { 3 } SelectWeights { T } SelectNodes { T } maxGrowthOfValError { 0.005000 } } } CCMenu {
Clusters { mlp . inputNull { ActFunction { sei id plogistic {
Parameter { 0.500000 } } ptanh {
Parameter { 0.500000 } } pid {
Parameter { 0.500000 } }
}
InputModification { sei None AdaptiveUniform oise { NoiseEta { 1.000000 }
DampingFactor { 1.000000 } }
AdaptiveGaussNoise { NoiseEta { 1.000000 } DampingFactor { 1.000000 }
}
FixedUniformNoise { SetNoiseLevel {
NewNoiseLevel { 0.000000 } }
}
FixedGaussNoise { SetNoiseLevel {
NewNoiseLevel { 0.000000 ) }
} ) SaveNoiseLevel {
Filename { noise_level.dat } }
LoadNoiseLevel {
Filename { noise_level.dat } }
SaveManipulatorData { Filename { inputManip.dat }
} LoadManipulatorData {
Filename { inputManip.dat } } Norm { NoNorm }
) mlp.indicatorNull { ActFunction { sei tanh plogistic {
Parameter { 0.500000 } ) ptanh { parameter { 0.500000 }
) pid { arameter { 0.500000 }
} }
Norm { NoNorm }
} mlp.outputNull { ActFunction { sei id plogistic { parameter { 0.500000 } } ptanh { parameter { 0.500000 }
} pid { parameter { 0.500000 } ) }
ErrorFunc { sei LnCosh
Ixl { parameter { 0.050000 } }
LnCosh { parameter { 3.000000 } } ) Norm ( NoNorm }
ToleranceFlag { F )
Tolerance { 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000
0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 }
Weighting { 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 }
} lp . external { ActFunction { sei id plogistic { parameter { 0.500000 } } ptanh { parameter { 0.500000 } } pid { parameter ( 0.500000 } } InputModification { sei None AdaptiveUniformNoise { NoiseEta { 1.000000 } DampingFactor { 1.000000 }
)
AdaptiveGaussNoise { NoiseEta { 1.000000 } DampingFactor { 1.000000 ) }
FixedUnifor Noise ( SetNoiseLevel {
NewNoiseLevel { 0.000000 }
} }
FixedGaussNoise { SetNoiseLevel {
NewNoiseLevel { 0.000000 }
} }
} SaveNoiseLevel {
Filename { noise_level.dat } } LoadNoiseLevel {
Filename { noise_level.dat } } SaveManipulatorData {
Filename { inputManip.dat ) }
LoadManipulatorData {
Filename { inputManip.dat ) )
Norm { NoNorm } } mlp . hidden { ActFunction { sei tanh plogistic { parameter { 0.500000 }
} ptanh { parameter { 0.500000 } } pid { parameter { 0.500000 }
Norm { NoNorm } } mlp.inputPlus { ActFunction { sei id plogistic ( parameter { 0.500000 }
} ptanh { parameter { 0.500000 ) pid { parameter { 0.500000 } } } InputModification { sei None AdaptiveUniformNoise { NoiseEta { 1.000000 ) DampingFactor { 1.000000 } }
AdaptiveGaussNoise { NoiseEta { 1.000000 } DampingFactor { 1.000000 }
} FixedUniformNoise {
SetNoiseLevel {
NewNoiseLevel { 0.000000 } } } FixedGaussNoise {
SetNoiseLevel {
NewNoiseLevel { 0.000000 } } } }
SaveNoiseLevel (
Filename { noise_level.dat } } LoadNoiseLevel { Filename { noise_level.dat }
} SaveManipulatorData {
Filename { inputManip.dat } } LoadManipulatorData {
Filename ( inputManip.dat } }
Norm { NoNorm } } mlp.indicatorPlus { ActFunction { sei tanh plogistic { parameter { 0.500000 ) } ptanh { parameter ( 0.500000 } } pid { parameter { 0.500000 }
) }
Norm { NoNorm } } mlp. outputPlus { ActFunction { sei id plogistic { parameter { 0.500000 ) } ptanh { parameter { 0.500000 }
} pid { parameter { 0.500000 } } )
ErrorFunc { sei LnCosh
Ixl . parameter { 0.050000 }
}
LnCosh { parameter { 3.000000 }
) }
Norm { NoNorm }
ToleranceFlag { F } Tolerance { 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000
0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 }
Weighting { 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000
1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 }
} mlp.offset {
ActFunction { sei id plogistic { parameter { 0.500000 } } ptanh { parameter { 0.500000 ) } pid { parameter { 0.500000 }
} }
InputModification ( sei None AdaptiveUniformNoise {
NoiseEta { 1.000000 } DampingFactor { 1.000000 } }
AdaptiveGaussNoise { NoiseEta { 1.000000 }
DampingFactor { 1.000000 } )
FixedUniformNoise { SetNoiseLevel { NewNoiseLevel { 0.000000 }
} }
FixedGaussNoise { SetNoiseLevel { NewNoiseLevel { 0.000000 }
} } } SaveNoiseLevel { Filename { noise_level.dat }
} LoadNoiseLevel {
Filename { noise_level.dat } }
SaveManipulatorData {
Filename { inputManip.dat } }
LoadManipulatorData { Filename { inputManip.dat }
}
Norm { NoNorm } } mlp . allocation { ActFunction { sei exp plogistic { parameter { 0.500000 } } ptanh { parameter { 0.500000 ) } pid { parameter { 0.500000 } )
}
ErrorFunc { sei ProfMax
Ixl { parameter ( 0.050000 }
} LnCosh { parameter { 3.000000 } } }
Norm ( llNorrn } ToleranceFlag { F }
Tolerance { 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000
0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 0.000000 } Weighting { 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000
1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 }
} mlp.benchmark { ActFunction { sei id plogistic { parameter ( 0.500000 ) } ptanh { parameter { 0.500000 }
) pid { parameter { 0.500000 }
} }
ErrorFunc { sei | x | Ixl { parameter { 0.050000 } } LnCosh { parameter { 3.000000 }
} }
Norm { NoNorm } ToleranceFlag { T }
Tolerance { 0.015000 0.015000 0.030000 0.020000 0.030000 0.020000 0.015000 0.015000 0.030000 0.020000 0.040000 0.015000 0.050000 0.040000 } Weighting { 20.000000 20.000000 20.000000 20.000000 20.000000
20.000000 20.000000 20.000000 20.000000 20.000000 20.000000 20.000000 20.000000 20.000000 } } } Connectors { mlp.inputNull->indicatorNull { WeightWatcher { Active { F ) EQUIV_MaxWeight { 1.000000 ) EQUIV_MinWeight { 0.000000 }
)
LoadWeightsLocal { Filename { std }
} SaveWeightsLocal {
Filename { std } )
Alive { T } EQUIV_WtFreeze { T } EQUIV_AllowPruning { F }
EQUIV_EtaModifier { 1.000000 } EQUIV_AllowGeneticOpt { F } EQUIV_Penalty { NoPenalty } } mlp.indicatorNull->outputNull { WeightWatcher { Active { F }
EQUIV_MaxWeight { 1.000000 } EQUIV_MinWeight { 0.000000 } }
LoadWeightsLocal { Filename { std ) )
SaveWeightsLocal { Filename { std }
}
Alive { F } EQUIV_WtFreeze { T } EQUIV_AllowPruning { F } EQUIV_EtaModifier { 1.000000 }
EQUIV_AllowGeneticθpt { F } EQUIV_Penalty { NoPenalty } 1 mlp.bias->outputNull { WeightWatcher {
Active { F }
EQUIV_MaxWeight { 1.000000 } EQUIV MinWeight { 0.000000 } LoadWeightsLocal { Filename { std } )
SaveWeightsLocal { Filename { std }
}
Alive { T } EQUIV_WtFreeze { T } EQUIV_AllowPruning { F } EQUIV_EtaModifier { 1.000000 }
EQUIV_AllowGeneticOpt { F } EQUIV_Penalty { NoPenalty } ) mlp.indicatorNull->hidden { WeightWatcher {
Active { F } MaxWeight { 1.000000 } MinWeight { 0.000000 }
1 LoadWeightsLocal {
Filename { std } }
SaveWeightsLocal { Filename { std } }
Alive { T } WtFreeze { T )
AllowGeneticOptimization { F } Penalty { NoPenalty } AllowPruning { F }
EtaModifier { 1.000000 } } mlp. external->hidden { WeightWatcher { Active { F }
MaxWeight { 1.000000 } MinWeight { 0.000000 } }
LoadWeightsLocal { Filename { std }
}
SaveWeightsLocal { Filename { std } } Alive { T )
WtFreeze { T }
AllowGeneticOptimization { F } Penalty { NoPenalty } AllowPruning { F } EtaModifier { 1.000000 }
} mlp.bias->hidden { WeightWatcher ( Active { F } MaxWeight { 1.000000 }
MinWeight { 0.000000 } }
LoadWeightsLocal { Filename { std } }
SaveWeightsLocal { Filename { std }
} Alive { T }
WtFreeze { T }
AllowGeneticOptimization { F } Penalty { WtDecay } AllowPruning { F } EtaModifier { 1.000000 }
} mlp.inputPlus->indicatorPlus { LoadWeightsLocal { Filename { std ) }
SaveWeightsLocal ( Filename { std } }
Alive { F ) EQUIV_WtFreeze { T }
EQUIV_AllowPruning { F } EQUIV_EtaModifier { 1.000000 } EQUIV_AllowGeneticOpt { F } EQUIV_Penalty { NoPenalty } } mlp.hidden->indicatorPlus { WeightWatcher { Active { F } MaxWeight { 1.000000 } MinWeight { 0.000000 }
}
LoadWeightsLocal {
Filename { std }
} SaveWeightsLocal (
Filename { std }
}
Alive { T ) WtFreeze { T } AllowGeneticOptimization { F }
Penalty { NoPenalty } AllowPruning { F } EtaModifier { 1.000000 } } mlp.indicatorPlus->outputPlus { LoadWeightsLocal { Filename { std } )
SaveWeightsLocal { Filename { std }
}
Alive { T } EQUIV_WtFreeze { T } EQUIV_AllowPruning { F } EQUIV_EtaModifier { 1.000000 }
EQUIV_AllowGeneticOpt { F } EQUIV_Penalty { NoPenalty } } mlp.bias->outputPlus { LoadWeightsLocal { Filename { std } }
SaveWeightsLocal { Filename { std }
}
Alive { T } EQUIV_WtFreeze { T } EQUIV_AllowPruning { F } EQUIV_EtaModifier { 1.000000 }
EQUIV_AllowGeneticOpt { F } EQUIV_Penalty ( NoPenalty ) } mlp.outputPlus->allocation { WeightWatcher {
Active { T } MaxWeight { 1.000000 } MinWeight { 0.000100 }
} LoadWeightsLocal {
Filename { std } }
SaveWeightsLocal { Filename { std } }
Alive { T } WtFreeze { F }
AllowGeneticOptimization { F } Penalty { NoPenalty } AllowPruning { F }
EtaModifier { 1.000000 } ) mlp. identityO { WeightWatcher { Active { F )
MaxWeight { 1.000000 ) MinWeight { 0.000000 } }
LoadWeightsLocal f Filename { std )
}
SaveWeightsLocal { Filename { std }
} Alive { T }
WtFreeze { T }
AllowGeneticOptimization { F ) Penalty ( NoPenalty } AllowPruning { F ) EtaModifier { 1.000000 }
} mlp.identityl { WeightWatcher { Active { F } MaxWeight { 1.000000 }
MinWeight { 0.000000 } }
LoadWeightsLocal { Filename { std } }
SaveWeightsLocal { Filename { std }
}
Alive { T }
WtFreeze { T }
AllowGeneticOptimization F }
Penalty { NoPenalty }
AllowPruning { F }
EtaModifier { 1.000000 }
}
AnySave { file_name f.CCMenu.dat }
}
AnyLoad { file_name { f.CCMenu.dat }
} ) TestRun (
Filename { Test }
Part.Transformed { F }
} Online {
Filename { Online.dat } }
2. Spezifikations-Datei
APPLICATION G7_P0RTF0LI0_SECT0R_M0DEL
MODE MONTH WEEK 7
FROM MIN TO MAX
TRAINING FROM 01.06.1990 TO 30.06.1993
VALIDATION RANDOM 0%
INPUT CLUSTER mlp . inputNull
BEGIN assetl x = FILE DATA/assetl.dat
INPUT = 10 * (x / x(-6) - 1)
END
BEGIN asset2 x = FILE DATA7asset2.dat
INPUT = 10 * (x / x(-6) 1)
END BEGIN asset3 x = FILE DATA/asset3.dat
INPUT = 10 * (x / x(-6) - 1) END
BEGIN asset4 x = FILE DATA/asset4.dat
INPUT = 10 * (x / x(-6) - 1) END
BEGIN asset5 x = FILE DATA/asset5.dat INPUT = 10 * (x / x(-6) - 1)
END
BEGIN assetδ x = FILE DATA/ asset 6. dat
INPUT = 10 * (x / x ( - 6 ) END
BEGIN asset7 x = FILE DATA7asset7.dat
INPUT = 10 * (x / x(-6) END
BEGIN asset8 x = FILE DATA/asset8.dat
INPUT = 10 * (x / x(-6) - 1) END
BEGIN asset9 x = FILE DATA/asset9.dat
INPUT = 10 * (x / x(-6) - 1) END
BEGIN assetlO x = FILE DATA/assetlO.dat INPUT = 10 * (x / x(-6) - 1)
END
BEGIN assetll x = FILE DATA/assetll.dat
INPUT = 10 * (x / x(-6) - 1) END
BEGIN assetl2 x = FILE DATA/assetl2.dat INPUT = 10 * (x / x(-6) - 1)
END
BEGIN assetl3 x = FILE DATA/asset13.dat
INPUT = 10 * (x / x(-6) - 1) END
BEGIN assetl4 x = FILE DATA/assetl4.dat
INPUT = 10 * (x / x(-6) - 1) END
INPUT CLUSTER mlp . inputPlus
BEGIN assetl x = FILE DATA/assetl.dat INPUT = 10 * (x(6) / x - 1)
END
BEGIN asset2 x = FILE DATA/asset2.dat
INPUT = 10 * (x(6) / x - 1) END
BEGIN asset3 x = FILE DATA/asset3.dat
INPUT = 10 * (x(6) / x - 1) END
BEGIN asset4 x = FILE DATA/asset4.dat
INPUT = 10 * (x(6) / x - 1) END BEGIN asset5 x = FILE DATA/asset5.dat
INPUT = 10 * (x(6) / x - 1) END
BEGIN assetδ x = FILE DATA/asset6. dat
INPUT = 10 * ( x ( 6 ) / x - 1 ) END
BEGIN asset7 x = FILE DATA/asset7.dat
INPUT = 10 * (x(6) / x - 1) END
BEGIN asset8 x = FILE DATA/asset8.dat
INPUT = 10 * (x(6) / x - 1) END
BEGIN asset9 x = FILE DATA/asset9.dat
INPUT = 10 * (x(6) / x END
BEGIN assetlO x = FILE DATA/assetlO.dat INPUT = 10 * (x(6) / x - 1)
END
BEGIN assetll x = FILE DATA/assetll.dat
INPUT = 10 * (x(6) / x - 1) END
BEGIN assetl2 x = FILE DATA/assetl2.dat
INPUT = 10 * (x(6) / x - 1) END
BEGIN assetl3 x = FILE DATA/assetl3.dat INPUT = 10 * (x ( 6 ) / x - 1 ) END
BEGIN assetl4 x = FILE DATA/asset14.dat
INPUT = 10 + (x(6) / x - 1) END
INPUT CLUSTER mlp.external
BEGIN external x = FILE DATA/external.dat INPUT = scale(x / x(-6) - 1)
END
BEGIN external x = FILE DATA/external.dat
INPUT = scale(x / x(-6) - 1) LAG -2 END
BEGIN external x = FILE DATA/external.dat INPUT = scalefx / x(-6) - 1)
LAG -3 END
BEGIN external x = FILE DATA/external.dat
INPUT = scale (x / x ( -6 ) - 1 ) LAG -5 END
BEGIN external x = FILE DATA/external.dat
INPUT = scale(x / x(-6) - 1) LAG -3 END
BEGIN external x = FILE DATA/external.dat
INPUT = scale(x / x(-6) - LAG - 8 END
BEGIN external x = FILE DATA/external.dat INPUT = scalefx / x(-6) - 1)
END
BEGIN external x = FILE DATA/external.dat
INPUT = scale(x / x(-6) - 1) LAG -1 END
BEGIN external x = FILE DATA/external.dat INPUT = s cale ( x / x ( -6 ) - 1 )
LAG -2 END
BEGIN external x = FILE DATA/external.dat
INPUT = scalefx / x(-6) - 1) LAG -2 END
BEGIN external x = FILE DATA/external.dat
INPUT = scalefx / x(-6) - 1) LAG -2 END
BEGIN external x = FILE DATA/external.dat
INPUT = scalefx / x(-6) - 1) LAG -2
END
BEGIN external x = FILE DATA/external.dat
INPUT = scalefx / x(-6) - 1) END
BEGIN external x = FILE DATA/external.dat
INPUT = scalefx / x(-6) - 1) LAG -1 END
BEGIN external x = FILE DATA/external.dat INPUT = scalefx / x(-6) -
LAG -2 END
BEGIN external x = FILE DATA/external.dat
INPUT = scalefx / x(-6) - LAG -1 END
BEGIN external x = FILE DATA/external.dat
INPUT = scalefx / x(-6) LAG -3 END
BEGIN external x = FILE DATA/external.dat
INPUT = scalefx / x(-6) - 1) LAG -1
END
INPUT CLUSTER mlp.offset
BEGIN lnfbench ark)
INPUT = ln(1.50 / 100) INPUT = ln(1.50 / 100)
INPUT = ln(3.00 / 100) INPUT = ln(5.00 / 100) INPUT = ln(3.00 / 100)
INPUT = ln(5.00 / 100)
INPUT = ln(1.50 / 100) INPUT = ln(3.50 / 100) INPUT = ln(9.00 / 100)
INPUT = In (8.00 / 100) INPUT = In (5.00 / 100)
INPUT = In (4.00 / 100)
INPUT = In (28.0 / 100)
INPUT = In (22.0 / 100) END
TARGET CLUSTER mlp . outputNull
BEGIN assetl x = FILE DATA/assetl . dat
TARGET = 10 * (x / x ( -6 ) - 1 ) END
BEGIN asset2 x = FILE DATA/asset2.dat
TARGET = 10 * (x / x(-6) - 1) END
BEGIN asset3 x = FILE DATA/asset3.dat
TARGET = 10 * (x / x(-6) - 1) END
BEGIN asset4 x = FILE DATA/asset4.dat
TARGET = 10 * (x / x(-6) - 1) END
BEGIN asset5 x = FILE DATA/asset5.dat
TARGET = 10 * (x / x(-6) END
BEGIN assetδ x = FILE DATA/asset6.dat TARGET = 10 * (x / x(-6) - 1)
END
BEGIN asset7 x = FILE DATA/asset7.dat
TARGET = 10 * (x / x(-6) - 1) END
BEGIN assetδ x = FILE DATA/assetδ.dat TARGET = 10 * (x / x(-6) - 1)
END
BEGIN asset9 x = FILE DATA/asset9.dat
TARGET = 10 * (x / x(-6) END
BEGIN assetlO x = FILE DATA/assetlO.dat
TARGET = 10 * (x / x(-6) - 1) END
BEGIN assetll x = FILE DATA/assetll.dat
TARGET = 10 * (x / x(-6) - 1) END
BEGIN assetl2 x = FILE DATA/asset12.dat
TARGET = 10 * (x / x(-6) - 1) END
BEGIN assetl3 x = FILE DATA/assetl3.dat TARGET = 10 * (x / x(-6) - 1)
END
BEGIN assetl4 x = FILE DATA/asset14.dat
TARGET = 10 * (x / x(-6) - 1) END
TARGET CLUSTER mlp . outputPlus BEGIN assetl x = FILE DATA/assetl.dat
TARGET = 10 * (x(6) / x - 1) ASSIGN TO assetl END
BEGIN asset2 x = FILE DATA/asset2.dat
TARGET = 10 * (x(6) / x - 1) ASSIGN TO asset2 END
BEGIN asset3 x = FILE DATA/asset3.dat
TARGET = 10 * (x(6) / x - 1) ASSIGN TO asset3 END
BEGIN asset4 x = FILE DATA/asset4.dat
TARGET = 10 * (x(6) / x - 1) ASSIGN TO asset4
END
BEGIN asset5 x = FILE DATA/asset5.dat
TARGET = 10 * (x(6) / x - 1) ASSIGN TO asset5 END
BEGIN assetδ x = FILE DATA/asset6.dat TARGET = 10 * (x(6) / x - 1)
ASSIGN TO assetδ END
BEGIN asset7 x = FILE DATA/asset7.dat
TARGET = 10 * (x(6) / x - 1) ASSIGN TO asset7 END
BEGIN assetδ x = FILE DATA/asset8.dat TARGET = 10 * (x(6) / x - 1) ASSIGN TO assetδ END
BEGIN asset9 x = FILE DATA/asset9.dat TARGET = 10 * (x(6) / x - 1)
ASSIGN TO assetθ END
BEGIN assetlO x = FILE DATA/assetlO.dat
TARGET = 10 * (x(6) / x - 1) ASSIGN TO assetlO END
BEGIN assetll x = FILE DATA/assetll.dat
TARGET = 10 * (x(6) / x - 1) ASSIGN TO assetll END
BEGIN assetl2 x = FILE DATA/assetl2.dat
TARGET = 10 * (x(6) / x - 1) ASSIGN TO assetl2
END
BEGIN assetl3 x = FILE DATA/asset13.dat
TARGET = 10 * (x(6) / x - 1) ASSIGN TO assetl3 END
BEGIN assetl4 x = FILE DATA/assetl4.dat TARGET = 10 * (x(6) / x - 1)
ASSIGN TO assetl4 END
TARGET CLUSTER mlp . allocation BEGIN assetl x = FILE DATA/assetl.dat
TARGET = 20 * (x(6) / x - 1)
ASSIGN TO assetl_allocation END
BEGIN asset2 x = FILE DATA/asset2.dat TARGET = 20 * (x(6) / x - 1)
ASSIGN TO asset2_allocation END
BEGIN asset3 x = FILE DATA/asset3.dat
TARGET = 20 * (x(6) / x - 1)
ASSIGN TO asset3_allocation END
BEGIN asset4 x = FILE DATA/asset4.dat
TARGET = 20 * (x(6) / x - 1)
ASSIGN TO asset4_allocation END
BEGIN asset5 x = FILE DATA/asset5.dat TARGET = 20 * (x(6) / x - 1)
ASSIGN TO asset5_allocation END
BEGIN assetβ x = FILE DATA/asset6.dat
TARGET = 20 * (x(6) / x - 1)
ASSIGN TO asset6_allocation END
BEGIN asset7 x = FILE DATA/asset7.dat
TARGET = 20 * (x(6) / x - 1)
ASSIGN TO asset7_allocation END
BEGIN assetδ x = FILE DATA/asset8.dat
TARGET = 20 * (x(6) / x - 1) ASSIGN TO asset8_allocation END
BEGIN asset9 x = FILE DATA/asset9.dat
TARGET = 20 * (x(6) / x - 1)
ASSIGN TO asset9_allocation END
BEGIN assetlO x = FILE DATA/assetlO.dat
TARGET = 20 * (x(6) / x - 1)
ASSIGN TO assetl0_allocation END
BEGIN assetll x = FILE DATA/assetll.dat
TARGET = 20 * (x(6) / x - 1) ASSIGN TO assetll_allocation
END
BEGIN assetl2 x = FILE DATA/assetl2.dat
TARGET = 20 * (x(6) / x - 1)
ASSIGN TO assetl2_allocation END
BEGIN assetl3 x = FILE DATA/asset13.dat TARGET = 20 * (x(6) / x - 1)
ASSIGN TO assetl3_allocation END
BEGIN assetl4 x = FILE DATA/assetl4.dat
TARGET = 20 * (x(6) / x - 1)
ASSIGN TO assetl4_allocation END
TARGET CLUSTER mlp .benchmark BEGIN benchmark
TARGET = 1.50 / 100
ASSIGN TO assetl marketShare TARGET = 1 . 50 / 100
ASSIGN TO asset2_marketShare
TARGET = 3 . 00 / 100
ASSIGN TO asset3_marketShare
TARGET = 5.0 / 100
ASSIGN TO asset4_marketShare
TARGET = 3.00 / 100
ASSIGN TO asset5 marketShare
TARGET = 5.00 / 100
ASSIGN TO assetδ marketShare
TARGET = 1.50 / 100
ASSIGN TO asset7 marketShare
TARGET = 3.50 / 100
ASSIGN TO assetδ marketShare
TARGET = 9.00 / 100
ASSIGN TO asset9_marketShare
TARGET = 8.00 / 100
ASSIGN TO assetlO marketShare
TARGET = 5.00 / 100
ASSIGN TO assetll marketShare
TARGET = 4.00 / 100
ASSIGN TO assetl2 marketShare
TARGET = 28.0 / 100
ASSIGN TO assetl3 marketShare
TARGET = 22.0 / 100
ASSIGN TO assetl4 marketShare
END
//
// Additional forecastsignals Additional forecastSignals //
FORECAST SIGNAL
BEGIN assetAllocation Signals allocationl = OUTPUT assetl_allocation allocation2 = OUTPUT asset2 allocation allocation3 OUTPUT asset3_allocation allocation4 OUTPUT asset4_allocation allocation5 OUTPUT asset5_allocation allocationδ OUTPUT asset6_allocation allocation7 OUTPUT asset7_allocation allocationδ OUTPUT asset8_allocation allocation9 OUTPUT asset9_allocation allocationlO OUTPUT asse l0_allocation allocationll OUTPUT asse ll_allocation allocationl2 OUTPUT assetl2_allocation allocationl3 OUTPUT assetl3_allocation allocationl4 OUTPUT assetl4 allocation
SIGNAL allocationl SIGNAL allocation2 SIGNAL allocation3 SIGNAL allocation4 SIGNAL allocation5 SIGNAL allocation6 SIGNAL allocation7 SIGNAL allocationδ SIGNAL allocation9 SIGNAL allocationlO SIGNAL allocationll SIGNAL allocationl2
SIGNAL = allocationl3 SIGNAL = allocationl4
END
//
// END of FORECASTSIGNALs: AssetAllocation END of FORECASTSIGNALS:
AssetAllocation
//
//
3. Modell-Top-Datei net { const nr_indicator = 4; const nr hidden = 6;
cluster INPUT ( EQUIVALENT, IN ) ; cluster INDICATOR ( EQUIVALENT, DIM (nr_indicator HID ) ; cluster OUTPUT ( EQUIVALENT, OUT ) ; connect INPUT_INDICATOR ( INPUT -> INDICATOR) connect INDICATOR_OUTPUT ( INDICATOR -> OUTPUT ) connect BIAS OUTPUT ( bias -> OUTPUT )
INPUT inputNull ; INDICATOR indicatorNull; OUTPUT outputNull; cluster ( IN ) external; cluster ( DIMfnr hidden), HID) hidden;
INPUT inputPlus; INDICATOR indicatorPlus; OUTPUT outputPlus ; cluster IN ) offset; cluster OUT ) allocation; cluster OUT ) benchmark;
connect inputNull -> indicatorNull, INPUT_INDICATOR ) connect indicatorNull -> outputNull , INDICATOR_OUTPUT) connect bias -> outputNull , BIASJDUTPUT ) connect inputPlus -> indicatorPlus, INPUT_INDICATOR ) connect indicatorPlus -> outputPlus , INDICATOR DUTPUT) connect bias -> outputPlus , BIAS OUTPUT ) connect indicatorNull -> hidden ) connect external -> hidden ) connect bias -> hidden ) connect hidden -> indicatorPlus) connect outputPlus -> allocation, DIAGONAL ( 0.1 )) ; connect offset -> allocation, DIAGONAL ( 1.0 ) ) identityO; connect allocation -> benchmark , DIAGONAL ( 1.0 ) ) identityl; ) mlp;
setup { init mlp. identityO with { WtFreeze {T} init mlp.identityl with { WtFreeze {T} In diesem Dokument sind folgende Veröffentlichungen zitiert:
[1] Ξ. Hayken, Neural Networks: A Comprehensive Foundation, Mc Millan College Publishing Company, ISBN 0-02-352761-7, S. 498-533, 1994.
[2] Ackley, Hruton, Scynowski, A learning algorithm for
Boltzmann mac ines, Cognitive Science, 9, S, 147 - 169, 1985
[3] H. Rehkugler und H. G. Zimmermann, Neuronale Netze in der Ökonomie, Grundlagen und finanzwirtschaftliche Anwendungen, Verlag Franz Vahlen München, ISBN 3-8006-1871-0, S. 3-90, 1994.

Claims

Patentansprüche
1. Anordnung miteinander verbundener Rechenelemente, a) mit ersten Eingangs-Rechenelementen, denen erste Zeitrei- henwerte, welche jeweils einen Zustand eines Systems zu einem Zeitpunkt beschreiben, zuführbar sind, b) mit Transformations-Rechenelementen zur Transformation der ersten Zeitreihenwerte in einen vorgegebenen Raum, welche erste Transformations-Rechenelemente mit den ersten Ein- gangs-Rechenelementen verbunden sind, und an welchen
Transformations-Rechenelementen transformierte Signale abgreifbar sind, wobei zumindest zwei transformierte Signale jeweils aufeinanderfolgende Zeitpunkte betreffen, c) mit einem zweiten Eingangs-Rechenelement, welchem zweite Zeitreihenwerte, welche jeweils auf einen Zustand des Systems Einfluß nehmen, zuführbar sind, d) mit einem ersten Verbund-Rechenelement, welches mit dem zweiten Eingangs-Rechenelement und mit einem ersten und einem zweiten Transformations-Rechenelementen derart ver- bunden ist, daß dem ersten Verbund-Rechenelement das transformierte Signal des ersten Transformations- Rechenelement zuführbar ist und ein an dem ersten Verbund- Rechenelement abgreifbares Signal dem zweiten Transformations-Rechenelement zuführbar ist, e) mit Ausgangs-Rechenelementen, welche mit den Transforma- tions-Rechenelementen verbunden sind, wobei an den Ausgangs-Rechenelementen jeweils ein Ausgangssignal abgreifbar ist.
2. Anordnung nach Anspruch 1, bei der zumindest ein Teil der Rechenelemente künstliche Neuronen sind.
3. Anordnung nach Anspruch 1 oder 2, bei der mindestens ein Teil der Verbindungen zwischen Rechenelementen variabel ausgestaltet ist.
4. Anordnung nach einem der Ansprüche 1 bis 3, bei der zumindest Teile der Verbindungen gleiche Gewichtswerte aufweisen.
5. Anordnung nach einem der Ansprüche 1 bis 4, mit zweiten Verbund-Rechenelementen, die jeweils mit einem Eingangs-Rechenelement und einem Transformations- Rechenelement verbunden sind.
6. Anordnung nach einem der Ansprüche 1 bis 5, mit dritten Verbund-Rechenelementen, die jeweils mit einem Ausgangs-Rechenelement und einem Transformations- Rechenelement verbunden sind.
7. Anordnung nach einem der Ansprüche 1 bis 6, mit weiteren zueinander zugehörigen Rechenlementen, welche mit einem Ausgangs-Rechenelement verbunden sind und mit welchen eine vorgebbare Transformation durchführbar ist.
8. Anordnung nach Anspruch 1 , bei der unter Verwendung der vorgebbaren Transformation ein optimierter Zustand des dynamischen Systems ermittelbar ist.
9. Anordnung nach Anspruch 8, bei der mit den weiteren zueinander zugehörigen Rechenelementen folgende Transformation durchführbar ist:
μj * exp (wj * XJ ) a (xι , . . . , xm , wi , " = m
∑ μk * exp (wk * χk ) k = l mit i,k Indizes m : Anzahl der vorgegeben Aktien, = 100 a : Gewichtung einer Aktie i zu einem Zeitpunkt
(t+1) μi : vorgegebene Gewichtung einer Aktie i in einem Vergleichs-Portfolio (Benchmark-Asset) i ,...,wm : Parameter bzw. Gewichte xi ,...,xm : prognostizierte Aktienkurse der vorgegebenen
Aktien zu dem Zeitpunkt (t+1) exp ( ... ) : Exponentialfunktion.
10. Anordnung nach einem der Ansprüche 1 bis 9, eingesetzt zur Ermittlung einer Dynamik eines dynamischen Prozesses .
11. Anordnung nach Anspruch 10, mit einer Meßanordnung zur Erfassung physikalischer Signale, mit denen der dynamische Prozeß beschrieben wird.
12. Anordnung nach Anspruch 10 oder 11 ohne 9, eingesetzt zur Ermittlung der Dynamik eines dynamischen Prozesses in einem chemischen Reaktor.
13. Anordnung nach Anspruch 10 oder 11, eingesetzt zur Ermittlung der Dynamik eines ökonomischen Pro- zesses.
14. Verfahren zur rechnergestützten Ermittlung einer Dynamik, die einem dynamischen Prozeß zugrunde liegt, mit folgenden Schritten: a) der dynamische Prozeß wird durch eine erste Zeitreihe mit Zeitreihenwerten in einem ersten Zustandsraum beschrieben, wobei mindestens ein erster Zeitreihenwert der ersten Zeitreihe einen Zustand des dynamischen Prozesses zu einem ersten Zeitpunkt beschreibt, b) der erster Zeitreihenwert der ersten Zeitreihe wird in einen zweiten Zustandsraum transformiert, c) der dynamische Prozeß wird durch eine zweite Zeitreihe mit Zeitreihenwerten in einem dritten Zustandsraum beeinflußt, wobei mindestens ein erster Zeitreihenwert der zweiten Zeitreihe einen Zustand des dynamischen Prozesses beeinflußt, d) der erste Zeitreihenwert der ersten Zeitreihe in dem zweiten Zustandsraum wird unter Verwendung des ersten Zeitreihenwertes der zweiten Zeitreihe in dem dritten Zustandsraum einer Abbildung auf einen zweiten Zeitreihenwert der ersten Zeitreihe in dem zweiten Zustandsraum unterzogen, e) aus den Zeitreihenwerten in dem zweiten Zustandsraum wird die Dynamik des dynamischen Prozesses ermittelt.
15. Verfahren nach Anspruch 14, bei dem die Zeitreihenwerte Vektoren vorgebbarer Dimension sind.
16. Verfahren nach Anspruch 14 oder 15, bei dem der zweite Zeitreihenwert der ersten Zeitreihe in dem zweiten Zustandsraum in den ersten Zustandsraum rücktransfor- miert wird und bei dem der zweite Zeitreihenwert der ersten Zeitreihe in dem ersten Zustandsraum unter Verwendung einer vorgebbaren Transformation in einen vierten Zustandsraum transformiert wird.
17. Verfahren nach Anspruch 16, bei dem unter Verwendung der vorgebbaren Transformation ein optimierter Zustand des dynamischen Systems ermittelt wird.
18. Verfahren nach Anspruch 17, bei dem mit der vorgebbaren Transformation folgende Abbildung durchgeführt wird:
. μi * exp( j * XJ) a± ( i , ... , xm , wi , ... , wm ) = —-^i- ^— -L -<■ m
∑ μk * exp(wk * xk ) k = l mit: i,k Indizes m Anzahl der vorgegeben Aktien, m = 100 ai Gewichtung einer Aktie i zu einem Zeitpunkt t+1) μi : vorgegebene Gewichtung einer Aktie i in einem Vergleichs-Portfolio (Benchmark-Asset) wl . • • -.wm * Parameter bzw. Gewichte xi ,...,xm : prognostizierte Aktienkurse der vorgegebenen Aktien zu dem Zeitpunkt (t+1) exp ( ... ) : Exponentialfunktion.
19. Verfahren nach einem der Ansprüche 14 bis 18, bei dem die Zeitreihenwerte aus physikalischen Signalen er- mittelt werden.
20. Verfahren nach Anspruch 19 ohne 18, bei dem die Zeitreihenwerte einen dynamischen Prozeß in einem chemischen Reaktor beschreiben.
21. Verfahren nach Anspruch 19, bei dem die Zeitreihenwerte einen ökonomischen Prozeß beschreiben.
22. Verfahren zur rechnergestützten Ermittlung einer Dynamik, die einem dynamischen Prozeß zugrundeliegt unter Verwendung einer Anordnung miteinander verbundener Rechenelemente, wobei die Anordnung folgenden Aufbau aufweist: a) mit ersten Eingangs-Rechenelementen, denen erste Zeitrei- henwerte, welche jeweils einen Zustand eines Systems zu einem Zeitpunkt beschreiben, zuführbar sind, b) mit Transformations-Rechenelementen zur Transformation der ersten Zeitreihenwerte in einen vorgegebenen Raum, welche erste Transformations-Rechenelemente mit den ersten Ein- gangs-Rechenelementen verbunden sind, und an welchen
Transformations-Rechenelementen transformierte Signale abgreifbar sind, wobei zumindest zwei transformierte Signale jeweils aufeinanderfolgende Zeitpunkte betreffen, c) mit einem zweiten Eingangs-Rechenelement, welchem zweite Zeitreihenwerte, welche jeweils auf einen Zustand des Systems Einfluß nehmen, zuführbar sind, d) mit einem Verbund-Rechenelement, welches mit dem zweiten Eingangs-Rechenelement und mit einem ersten und einem zweiten Transformations-Rechenelementen derart verbunden ist, daß dem Verbund-Rechenelement das transformierte Si- gnal des ersten Transformations-Rechenelement zuführbar ist und ein an dem Verbund-Rechenelement abgreifbares Signal dem zweiten Transformations-Rechenelement zuführbar ist, e) mit Ausgangs-Rechenelementen, welche mit den Transforma- tions-Rechenelementen verbunden sind, wobei an den Ausgangs-Rechenelementen jeweils ein Ausgangssignal abgreifbar ist, bei dem der Anordnung ein erster Zeitreihenwert zugeführt wird, und bei dem von der Anordnung das Ausgangssignal ermit- telt wird, aus der die Dynamik ermittelt wird.
23. Verfahren zum rechnergestützten Trainieren einer Anordnung miteinander verbundener Rechenelemente mit folgenden Komponenten: a) mit ersten Eingangs-Rechenelementen, denen erste Zeitreihenwerte, welche jeweils einen Zustand eines Systems zu einem Zeitpunkt beschreiben, zuführbar sind, b) mit Transformations-Rechenelementen zur Transformation der ersten Zeitreihenwerte in einen vorgegebenen Raum, welche erste Transformations-Rechenelemente mit den ersten Eingangs-Rechenelementen verbunden sind, und an welchen Transformations-Rechenelementen transformierte Signale abgreifbar sind, wobei zumindest zwei transformierte Signale jeweils aufeinanderfolgende Zeitpunkte betreffen, c) mit einem zweiten Eingangs-Rechenelement, welchem zweite Zeitreihenwerte, welche jeweils auf einen Zustand des Systems Einfluß nehmen, zuführbar sind, d) mit einem Verbund-Rechenelement, welches mit dem zweiten Eingangs-Rechenelement und mit einem ersten und einem zweiten Transformations-Rechenelementen derart verbunden ist, daß dem Verbund-Rechenelement das transformierte Signal des ersten Transformations-Rechenelement zuführbar ist und ein an dem Verbund-Rechenelement abgreifbares Signal dem zweiten Transformations-Rechenelement zuführbar ist, e) mit Ausgangs-Rechenelementen, welche mit den Transforma- tions-Rechenelementen verbunden sind, wobei an den Ausgangs-Rechenelementen jeweils ein Ausgangssignal abgreifbar ist, bei dem die Anordnung unter Verwendung vorgegebener Trainingsdaten trainiert wird.
24. Verfahren nach Anspruch 23, bei dem in einem ersten Trainingsschritt eine Kompression und eine Dekompression trainiert und in einem zweiten Trainingsschritt eine Prognose trainiert werden.
25. Verfahren nach Anspruch 23 oder 24, bei dem die Anordnung folgende weiteren Komponenten aufweist: weitere zueinander zugehörige Rechenlemente, welche mit einem Ausgangs-Rechenelement verbunden sind und mit welchen eine vorgebbare Transformation durchführbar ist, und bei dem in einem weiteren Trainingsschritt die weiteren zueinander zugehörigen Rechenelemente trainiert werden.
26. Verfahren nach Anspruch 25, bei dem unter Verwendung der vorgebbaren Transformation ein optimierter Zustand des dynamischen Systems ermittelt wird.
27. Verfahren nach Anspruch 26, bei dem mit der vorgebbaren Transformation folgende Abbildung durchgeführt wird:
μj * exp ( wj * Xj )
(*1 ' xm ι wl ' wm ) = m
∑ μ * exp ( wk * xk ) k = l mit: i,k : Indizes m : Anzahl der vorgegeben Aktien, m = 100 ai : Gewichtung einer Aktie i zu einem Zeitpunkt
(t+1) μ : vorgegebene Gewichtung einer Aktie i in einem Vergleichs-Portfolio (Benchmark-Asset) wi ,...,wm : Parameter bzw. Gewichte xi ,...,xm : prognostizierte Aktienkurse der vorgegebenen
Aktien zu dem Zeitpunkt (t+1) exp ( ... ) : Exponentialfunktion.
PCT/DE2000/001014 1999-04-12 2000-04-03 Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente WO2000062250A2 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP00931002A EP1145190B1 (de) 1999-04-12 2000-04-03 Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
DE50002640T DE50002640D1 (de) 1999-04-12 2000-04-03 Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
JP2000611243A JP2002541599A (ja) 1999-04-12 2000-04-03 互いに接続された計算素子の装置及びダイナミックプロセスの基礎となるダイナミクスをコンピュータ援用検出するための方法及び互いに接続された計算素子の装置をコンピュータ援用トレーニングさせるための方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19916356.1 1999-04-12
DE19916356 1999-04-12

Publications (2)

Publication Number Publication Date
WO2000062250A2 true WO2000062250A2 (de) 2000-10-19
WO2000062250A3 WO2000062250A3 (de) 2001-08-16

Family

ID=7904223

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2000/001014 WO2000062250A2 (de) 1999-04-12 2000-04-03 Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente

Country Status (4)

Country Link
EP (1) EP1145190B1 (de)
JP (1) JP2002541599A (de)
DE (1) DE50002640D1 (de)
WO (1) WO2000062250A2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001057648A2 (de) * 2000-01-31 2001-08-09 Siemens Aktiengesellschaft Anordnung miteinander verbundener rechenelemente und verfahren zur rechnergestützten ermittlung eines zweiten zustands eines systems in einem ersten zustandsraum aus einem ersten zustand des systems in dem ersten zustandsraum
WO2003025851A2 (de) * 2001-09-19 2003-03-27 Siemens Aktiengesellschaft Verfahren und anordnung zur ermittlung eines aktuellen ertsten zustands einer ersten zeitlichen abfolge von jeweils ersten zuständen eines dynamisch veränderlichen systems
EP2112568A3 (de) * 2008-04-23 2011-05-11 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007001026B4 (de) 2007-01-02 2008-09-04 Siemens Ag Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
JP6612716B2 (ja) 2016-11-16 2019-11-27 株式会社東芝 パターン識別装置、パターン識別方法およびプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5761386A (en) * 1996-04-05 1998-06-02 Nec Research Institute, Inc. Method and apparatus for foreign exchange rate time series prediction and classification

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5761386A (en) * 1996-04-05 1998-06-02 Nec Research Institute, Inc. Method and apparatus for foreign exchange rate time series prediction and classification

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MAKOTO HIRAHARA ET AL: "A NEURAL NETWORK MODEL FOR VISUAL MOTION DETECTION THAT CAN EXPLAIN PSYCHOPHYSICAL AND NEUROPHYSIOLOGICAL PHENOMENA" BIOLOGICAL CYBERNETICS,DE,SPRINGER VERLAG, HEIDELBERG, Bd. 68, Nr. 3, 1992, Seiten 247-252, XP000332691 ISSN: 0340-1200 *
TEMPLEMAN J N: "RACE NETWORKS A THEORY OF COMPETITIVE RECOGNITION NETWORKS BASED ON THE RATE OF REACTIVATION OF NEURONS IN CORTICAL COLUMNS" PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON NEURAL NETWORKS,US,NEW YORK, IEEE, Bd. -, 24. Juli 1988 (1988-07-24), Seiten 9-16, XP000744244 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001057648A2 (de) * 2000-01-31 2001-08-09 Siemens Aktiengesellschaft Anordnung miteinander verbundener rechenelemente und verfahren zur rechnergestützten ermittlung eines zweiten zustands eines systems in einem ersten zustandsraum aus einem ersten zustand des systems in dem ersten zustandsraum
WO2001057648A3 (de) * 2000-01-31 2002-02-07 Siemens Ag Anordnung miteinander verbundener rechenelemente und verfahren zur rechnergestützten ermittlung eines zweiten zustands eines systems in einem ersten zustandsraum aus einem ersten zustand des systems in dem ersten zustandsraum
WO2003025851A2 (de) * 2001-09-19 2003-03-27 Siemens Aktiengesellschaft Verfahren und anordnung zur ermittlung eines aktuellen ertsten zustands einer ersten zeitlichen abfolge von jeweils ersten zuständen eines dynamisch veränderlichen systems
WO2003025851A3 (de) * 2001-09-19 2004-02-19 Siemens Ag Verfahren und anordnung zur ermittlung eines aktuellen ertsten zustands einer ersten zeitlichen abfolge von jeweils ersten zuständen eines dynamisch veränderlichen systems
EP2112568A3 (de) * 2008-04-23 2011-05-11 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
US8160978B2 (en) 2008-04-23 2012-04-17 Siemens Aktiengesellschaft Method for computer-aided control or regulation of a technical system

Also Published As

Publication number Publication date
WO2000062250A3 (de) 2001-08-16
EP1145190A2 (de) 2001-10-17
JP2002541599A (ja) 2002-12-03
EP1145190A3 (de) 2002-09-11
EP1145190B1 (de) 2003-06-25
DE50002640D1 (de) 2003-07-31

Similar Documents

Publication Publication Date Title
WO2008080864A1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems
EP1145192B1 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
DE102008020379A1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
EP1021793A2 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
EP1252566B1 (de) Anordnung miteinander verbundener rechenelemente und verfahren zur rechnergestützten ermittlung eines zweiten zustands eines systems in einem ersten zustandsraum aus einem ersten zustand des systems in dem ersten zustandsraum
DE10201018B4 (de) Neuronales Netz, Opimierungsverfahren zur Einstellung der Verbindungsgewichte eines neuronalen Netzes sowie Analyseverfahren zur Überwachung eines Optimierungsverfahrens
WO2000062250A2 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
WO2004107066A1 (de) Verfahren sowie computerprogramm mit programmcode-mitteln und computerprogramm-produkt zur ermittlung eines zukünftigen systemverhaltens eines dynamischen systems
EP0978052B1 (de) Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz
DE19703964C1 (de) Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz
WO2003025851A2 (de) Verfahren und anordnung zur ermittlung eines aktuellen ertsten zustands einer ersten zeitlichen abfolge von jeweils ersten zuständen eines dynamisch veränderlichen systems
EP1093639A2 (de) Neuronales netz und verfahren und anordnung zum trainieren eines neuronalen netzes
EP1194890B1 (de) Anordnung und verfahren sowie computerprogramm-erzeugnis und computerlesbares speichermedium zur rechnergestützten kompensation eines ungleichgewichtszustands eines technischen systems
EP1425679A2 (de) Anordnung mit künstlichen neuronen zur beschreibung eines übertragungsverhaltens einer erregenden nervenzelle
WO2003079285A2 (de) Verfahren und anordnung sowie computerprogramm mit programmcode-mitteln und computerprogramm-produkt zur gewichtung von eingangsgrössen für eine neuronale struktur sowie neuronale struktur
WO2002027654A2 (de) Verfahren und anordnung zur rechnergestützten abbildung mehrerer zeitlich veränderlicher zustandsbeschreibungen und verfahren zum training einer solchen anordnung
EP1483633B1 (de) Verfahren zur simulation eines technischen systems und simulator
DE102004059684B3 (de) Verfahren und Anordnung sowie Computerprogramm mit Programmmcode-Mitteln und Computerprogramm-Produkt zur Ermittlung eines zukünftigen Systemzustandes eines dynamischen Systems
EP1190383B1 (de) Verfahren zur rechnergestützten ermittlung einer zugehörigkeit einer vorgegebenen eingangsgrösse zu einem cluster
DE102020106857A1 (de) Mikroskopiesystem und verfahren zum verarbeiten von mikroskopbildern
WO2019096881A1 (de) Künstliches neuronales netz und verfahren hierzu
DE10356655A1 (de) Verfahren und Anordnung sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Ermittlung eines zukünftigen Systemzustandes eines dynamischen Systems
DE19653553C1 (de) Verfahren zum Trainieren eines mehrschichtigen neuronalen Netzes mit Trainingsdaten und Anordnung zur Durchführung des Verfahrens
WO2007036177A2 (de) Industrielles produktionsverfahren sowie produktionsgerätschaft
DE10103793A1 (de) Verfahren zum computergestützten Vorhersagen des Verhaltens eines durch Differentialgleichungen beschreibbaren Systems

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2000931002

Country of ref document: EP

AK Designated states

Kind code of ref document: A3

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A3

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

ENP Entry into the national phase

Ref country code: JP

Ref document number: 2000 611243

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 09958608

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2000931002

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 2000931002

Country of ref document: EP