DE10061108A1 - Prediction of stock market prices using an artificial neuronal network trained using historical data and using a selection of indicators to improve price predictions - Google Patents

Prediction of stock market prices using an artificial neuronal network trained using historical data and using a selection of indicators to improve price predictions

Info

Publication number
DE10061108A1
DE10061108A1 DE2000161108 DE10061108A DE10061108A1 DE 10061108 A1 DE10061108 A1 DE 10061108A1 DE 2000161108 DE2000161108 DE 2000161108 DE 10061108 A DE10061108 A DE 10061108A DE 10061108 A1 DE10061108 A1 DE 10061108A1
Authority
DE
Germany
Prior art keywords
indicators
forecast
knn
neural network
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE2000161108
Other languages
German (de)
Inventor
Marcel Thuerk
Martin Wiesenfeldt
Claus Brunzema
Ingo Schel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Novel Science International GmbH
Original Assignee
Novel Science International GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Novel Science International GmbH filed Critical Novel Science International GmbH
Priority to DE2000161108 priority Critical patent/DE10061108A1/en
Publication of DE10061108A1 publication Critical patent/DE10061108A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/04Trading; Exchange, e.g. stocks, commodities, derivatives or currency exchange

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Engineering & Computer Science (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Technology Law (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

Method for producing a prediction of a stock value using a number of indicators (13) together with historical data (10) to evaluate prediction values. The indicators are used with an artificial neuronal network (14) in which a training phase for the network is used to construct a base scheme from which inter- relationships between historic data can be used to define prediction quality. Training is undertaken using a genetic algorithm which is then used to make an automatic selection from relevant indicators to improve prediction quality. Independent claims are included for (1) corresponding computer program (2) program product (3) artificial neuronal network product (4) front-end program product (5) computer device

Description

STAND DER TECHNIKSTATE OF THE ART

Die vorliegende Erfindung betrifft Effizienzsteigerungen und Qualitätssteigerungen bei der computergestützten Bör­ senkursprognose. Sie betrifft insbesondere Vorhersagever­ fahren, die mit künstlichen, neuronalen Netzen arbeiten.The present invention relates to increases in efficiency and quality improvements in the computer-aided exchange senkursprognose. It particularly affects prediction ver driving that work with artificial, neural networks.

Eine gute Vorhersage von Börsenkursen ist auf Dauer schwer zu realisieren. Der Kurswert einer Aktie ist ab­ hängig von vielen verschiedenen Einflußfaktoren. Es gibt ökonomische Einflußfaktoren, wie etwa das ökonomische Um­ feld, in dem sich das zu der betreffenden Aktie gehörende Unternehmen bewegt, es gibt lokale und regionale und so­ gar globale Trends, die den Kurswert einer Aktie beein­ flussen, wobei bestimmte dieser Trends auch nicht ratio­ nal begründbar sind, sondern vielmehr entweder einfach unvorhersagbar oder auf irrationalen und teilweise emo­ tionalen Reaktionen der an der Börse beteiligten Personen abhängig sind. Eine Börsenkursprognose für eine bestimmte Aktie kann auf wirtschaftlichen Gesichtspunkten wie etwa Unternehmensgewinn, Dividendenausschüttung, Shareholder­ value des betreffenden Unternehmens basieren und dabei nach bestimmte lokale, regionale oder globale Trends ver­ suchen mit einzubeziehen. Eine solche Börsenkursprognose ist dann basiert auf dem fundamentalen Fachwissen von Börsenökonomen, die sich ausgesprochen gut auskennen, insbesondere auf dem Gebiet der betreffenden Aktie. Sol­ che Fachleute sind im Stande, in der Branche des Unter­ nehmens befindliche andere Unternehmen mit in die Kalku­ lation hineinzunehmen und schaffen es daher, eine Kurs­ wertprognose auf eine breitere Basis zu stellen. Der Nachteil an solchen Kurswertprognosen besteht darin, daß die Vorhersagegenauigkeit nur bei knapp über 50% liegt, daß heißt das gesamte Expertenwissen bewirkt lediglich eine Verbesserung von wenigen Prozent über der 50-%- Marke, die man ebenfalls durch Würfeln erreichen würde, wenn der Erfassungszeitraum und die Anzahl der Würfel groß genug ist. Ein weiterer Nachteil besteht darin, daß das Verfahren nicht automatisierbar ist, und immer von Menschenverstand abhängig ist. Der menschliche Verstand gerät jedoch an seine natürlichen Grenzen, wenn die Si­ tuation an der Börse zu komplex wird. In einem solchen Fall gewinnt immer mehr Intuition die Oberhand bei der Prognose, was sich manchmal positiv jedoch auch negativ auswirken kann. Einen anderen Ansatz vertreten Analysten, die versuchen, aus historischen Kursverläufen einer Aktie auf die Zukunft des Aktienwertverlaufes zu schließen. Diese Verfahren besitzen im Grundsatz den Vorteil, daß sie automatisierbar sind, mit mathematischen Methoden greifbar und auf Computern implementiert werden können. Dies wiederum hat den Vorteil, daß die Komplexität der Situation an der Börse durch einen Upscaling-Vorgang des zugrunde liegenden Vorhersagemodells aufgefangen werden kann und dadurch kein unüberwindbares Hindernis zur Er­ zielung einer guten Vorhersagequalität mehr vorliegt.A good prediction of stock market prices is permanent difficult to realize. The market value of a share is down dependent on many different influencing factors. There are economic influencing factors, such as the economic order field in which belongs to the relevant share Business moves, there are local and regional and so on even global trends that affect the share price flow, with certain of these trends also not ratio nal are justifiable, but rather simply unpredictable or based on irrational and partially emo tional reactions of the people involved in the stock exchange are dependent. A stock market forecast for a specific one Share can be based on economic considerations such as Company profit, dividend distribution, shareholders value of the company in question and thereby  according to certain local, regional or global trends seek to involve. Such a stock price forecast is then based on the fundamental expertise of Stock exchange economists who are extremely knowledgeable especially in the area of the share in question. Sol Specialists are able to work in the sub-industry other companies located in Kalku lation and therefore manage to take a course to put value forecasting on a broader basis. The The disadvantage of such price value forecasts is that the prediction accuracy is just over 50%, that is, all of the expert knowledge only works an improvement of a few percent over the 50% Brand that you would also achieve by rolling dice, if the acquisition period and the number of dice is big enough. Another disadvantage is that the process is not automatable, and always from Common sense is dependent. The human mind however, reaches its natural limits when the Si tuation on the stock exchange becomes too complex. In one Intuition is gaining the upper hand in the case Forecast what is sometimes positive but also negative can impact. Another approach is taken by analysts, trying to get historical stock price histories to draw conclusions about the future of the share value development. In principle, these processes have the advantage that they can be automated using mathematical methods tangible and can be implemented on computers. This in turn has the advantage that the complexity of the Situation on the stock exchange due to an upscaling process  underlying forecast model can and therefore no insurmountable obstacle to Er aiming for a good prediction quality more.

In einem solchen System werden die historischen Daten an­ hand von verschiedenen, mathematischen Operatoren, wie etwa gleitende Durchschnitte, Zinshöhe, Wechselkursver­ hältnisse, Umsatzverläufe, Inflationsrate, etc. bearbei­ tet und es wird aus einem Vorhersagemodell ein Prognose­ wert gewonnen. In fortgeschrittenen Vorhersagesystemen dieses Typs arbeiten auch Implementierungen von sogenann­ ten künstlichen, neuronalen Netzen, die in besonderer Weise dazu geeignet sind, unregelmäßig strukturierte Da­ ten sowie komplexe Regeln aufeinander abzubilden, um so­ mit mit einer Wahrscheinlichkeit, die deutlich größer ist als 50%, eine Kurswertprognose zu leisten.In such a system, the historical data are displayed hand of various mathematical operators, such as such as moving averages, interest rates, exchange rate ver Relationships, sales trends, inflation rate, etc. and a forecast model becomes a forecast won value. In advanced forecasting systems implementations of this type also work artificial, neural networks, which in particular Way are suitable, irregularly structured Da and complex rules to map each other, so with a probability that is significantly greater than 50% to make a price forecast.

Ein Beispiel für ein solches Vorhersageinstrument ist auf der Internet-Web-Seite www.brainmaker.com veröffentlicht. Das dort gezeigte Vorhersagesystem besteht in einer Kom­ bination eines Expertensystems und eines neuronalen Net­ zes, um die beiden oben erwähnten, im Grundsatz verschie­ denen Ansätze miteinander vorteilhaft zu kombinieren. Mittels des Expertensystems sollen Regeln computeraus­ wertbar dargestellt werden, die das Wissen und die Erfah­ rung von Börsenexperten beinhalten, und diesen wertvol­ len, fachlichen Input mit der mathematischen Präzision der Vorhersage eines anhand von historischen Daten trai­ nierten künstlichen, neuronalen Netzes kombinieren. An example of such a prediction tool is on published on the Internet website www.brainmaker.com. The prediction system shown there consists of a comm combination of an expert system and a neural network zes, in principle, different from the two mentioned above which approaches to combine advantageously. Using the expert system, rules should valuable, the knowledge and experience of exchange experts, and this valuable len, professional input with mathematical precision predicting a trai based on historical data combined artificial, neural network.  

In diesem Beispiel dient das ebenfalls als Computerpro­ gramm implementierte Expertensystem dazu, der anderen Komponente, also dem neuronalen Netzwerk Arbeit und Re­ chenleistung abzunehmen, indem es dem neuronalen Netzwerk bestimmte Regeln als Eingabe zur Verfügung stellt, die es sich sonst - in Abwesenheit eines Expertensystems - nur mit immens langer Rechenzeit als berechnete Resultate an­ eignen könnte. Dabei darf nicht vergessen werden, daß durch Zuhilfenahme eines solchen Expertensystems zwar komprimiertes Expertenwissen einfließt, das jedoch auch von Zeit zu Zeit aktualisiert werden muß, um Raum zu schaffen für "neue Börsenregeln", die das aktuelle Ge­ schehen an der Börse besser wiedergeben als der Satz der alten Regeln. Ohne den Einsatz eines solchen Expertensy­ stems müßte das künstliche neuronale Netz mit einer Viel­ zahl von sogenannten Indikatoren und anhand der vorer­ wähnten, historischen Daten trainiert werden.In this example, this also serves as a computer pro expert system implemented to the other Component, i.e. the neural network work and re performance by reducing it to the neural network certain rules as input that it provides otherwise - in the absence of an expert system - only with immensely long computing time as calculated results could be suitable. It should not be forgotten that by using such an expert system compressed expert knowledge flows in, but so does needs to be updated from time to time to make room create for "new stock exchange rules" that the current Ge play better on the stock market than the rate of the old rules. Without the use of such an expertsy The artificial neural network would have to stems with a lot number of so-called indicators and based on the previous mentioned historical data are trained.

Ein backpropagation Algorithmus, wie er vielfach zum Trainieren von neuronalen Netzen verwendet wird, und im Fall einer besonders leistungsfähigen Programmvariante ein genetischer Algorithmus trainiert dabei das neuronale Netz. Da das Trainieren eines neuronalen Netzes die Ba­ sisvoraussetzung für eine Prognose ist, muß der Fokus darauf gerichtet sein, das künstliche neuronale Netz be­ sonders gut zu trainieren.A backpropagation algorithm, as it is often used for Training of neural networks is used, and im In the case of a particularly powerful program variant a genetic algorithm trains the neural Network. Since training a neural network the Ba The prerequisite for a forecast is the focus be directed to the artificial neural network particularly good to train.

Bei der Vorhersage des oben erwähnten Vorhersageprogram­ mes für den S wird das neuronale Netz nur mit den jüngeren Marktdaten trainiert, weil herausgefunden wurde, daß das gegenwärtige Marktverhalten entscheidender ist als das beispielsweise vor 25 Jahren stattfindende. Des weiteren werden verschiedene Indikatoren verwendet, beispielsweise ADX, MACD, stochastische Indikatoren, DOW, Volume, etc.When predicting the prediction program mentioned above For the S, the neural network is only included  trained the recent market data because found out became that the current market behavior more crucial is like the one that took place 25 years ago, for example. Furthermore, various indicators are used e.g. ADX, MACD, stochastic indicators, DOW, Volume, etc.

Der Rechenaufwand für die Trainingsphase eines neuronalen Netzes ist per se groß, da in einem neuronalen Netz grundsätzlich jedes Element mit jedem anderen Element von jeweils benachbarten Schichten verknüpft ist. Verbindet man ein beliebiges Eingabeneuron eines neuronalen Netz­ werks mit einem beliebigen anderen Ausgabeneuron, so er­ geben sich um so mehr Möglichkeiten, durch das Netz zu gehen, je mehr Neuronen das neuronale Netz aufweist. Je­ der der oben erwähnten Indikatoren bildet jedoch ein Ein­ gabeneuron für das neuronale Netz. Andere Indikatoren sind beispielsweise die Kurswerte bestimmter anderer Ak­ tien, möglicherweise aus derselben Branche wie das be­ treffende Unternehmen, oder aus einer benachbarten Bran­ che, oder aus irgendeiner anderen Branche, bei der zu­ nächst überhaupt kein objektiver, wirtschaftlicher Zusam­ menhang zwischen den beiden Branchen besteht.The computing effort for the training phase of a neural Network is large per se because it is in a neural network basically every element with every other element of neighboring layers are linked. connects an arbitrary input neuron of a neural network works with any other output neuron, he says give yourself all the more opportunities to admit through the net go, the more neurons the neural network has. ever however, that of the indicators mentioned above forms an on gift neuron for the neural network. Other indicators are for example the course values of certain other Ak tien, possibly from the same industry as be matching companies, or from a neighboring branch che, or from any other industry in which to next no objective, economic cooperation there is a connection between the two industries.

Die Rechenzeit, die erforderlich ist, um ein realisti­ sches, neuronales Netz in vernünftiger Weise zu trainie­ ren, damit es die große Vielzahl an Indikatoren oder In­ dikatorkombinationen für den Kurswert einer Aktie in ge­ bührender Weise berücksichtigt, verhält sich in höchstem Maße nicht-linear zur Anzahl der verwendeten Indikatoren. The computing time required to be a realisti to train the neural network in a reasonable way so that the large variety of indicators or in indicator combinations for the price of a share in ge duly considered, behaves in the highest Dimensions non-linear to the number of indicators used.  

Die Rechenzeit steigert sich im allgemeinen mit 22.Anzahl der verwendeten Indikatoren The computing time generally increases with 2 2nd number of indicators used

Es wäre daher wünschenswert, ein Vorhersagesystem für einzelne Aktienkurse zur Verfügung zu stellen, das eine Vielzahl von Indikatoren bei der Vorhersage mit berück­ sichtigt, keine wesentlichen Indikatoren von vornherein ausschließt und das im wesentlichen ohne Hinzunahme und/oder Ausnutzen von Expertenwissen von Börsenfachleu­ ten betrieben werden kann.It would therefore be desirable to have a prediction system for to provide individual share prices, one Variety of indicators in the forecast observes, no essential indicators from the outset excludes and that essentially without adding and / or taking advantage of expert knowledge from stock exchange specialists ten can be operated.

VORTEILE DER ERFINDUNGADVANTAGES OF THE INVENTION

Die vorliegende Erfindung offenbart und beansprucht unter anderem ein computergestützt ausführbares Verfahren zur Erstellung von Prognosewerten von Börsenkursen, bei dem eine Mehrzahl von Indikatoren anhand von historischen Da­ ten zur Berechnung von Prognosewerten dienen, enthaltend die Schritte,
die Resultate wenigstens eines Indikators für eine Be­ rechnung von Prognosewerten unter Einsatz einer Implemen­ tierung eines KNN zu verwenden,
Durchführen einer Trainingsphase für das KNN zum Aufbau eines darin enthaltenen Grundschemas, bis zu einer vorbe­ stimmten, unter Einbeziehung von historischen Daten defi­ nierten Prognosequalität,
wobei die Trainingsphase unter Einbeziehung eines geneti­ schen Algorithmus' erfolgt,
Ausgeben wenigstens eines Prognosewertes.
The present invention discloses and claims, inter alia, a computer-aided executable method for generating forecast values for stock exchange prices, in which a plurality of indicators are used to calculate forecast values on the basis of historical data, comprising the steps
to use the results of at least one indicator to calculate forecast values using an implementation of a KNN,
Conducting a training phase for the KNN to build up a basic scheme contained therein, up to a predetermined forecast quality defined using historical data,
whereby the training phase takes place with the inclusion of a genetic algorithm,
Output at least one forecast value.

Das Verfahren ist gekennzeichnet durch den Schritt:
Verwenden des genetischen Algorithmus' zum Zwecke einer Selbstauswahl von treffenderen Indikatoren gegenüber we­ niger treffenden für eine Verbesserung der Prognosequali­ tät des KNN.
The process is characterized by the step:
Use of the genetic algorithm for the purpose of a self-selection of more suitable indicators than less suitable ones for an improvement of the forecast quality of the KNN.

Das erfindungsgemäße Verfahren mit dem kennzeichnenden Merkmal des Anspruchs 1 bringt den Vorteil gegenüber dem oben genannten Stand der Technik mit sich, dass eine grö­ ßere Anzahl von Indikatoren bei dem Training des KNN Ver­ wendung findet. Eine daraus zunächst zu erwartende dra­ stische Zunahme der Rechenzeit für die Trainingsphase des KNN wird jedoch vermieden, weil aufgrund der Verwendung des genetischen Algorithmus' hierfür kaum oder gar nicht optimierende Indikatoren oder Kombinationen daraus schnell erkannt und aussortiert werden. Es findet also eine automatische Selbstauswahl der Indikatoren durch das Prognosesystem selbst statt, wobei gleichzeitig die Re­ chenzeit bei der Trainingsphase nicht wesentlich erhöht wird und für die Anwendungsphase der geschäftsprozessre­ levanten Prognose sogar erniedrigt wird.The inventive method with the characteristic Feature of claim 1 brings the advantage over above-mentioned prior art with that a large Large number of indicators in the training of the KNN Ver turns. A dra to be expected from this at first statistical increase in computing time for the training phase of the However, KNN is avoided because of its use of the genetic algorithm 'hardly or not at all optimizing indicators or combinations thereof can be quickly recognized and sorted out. So it takes place an automatic self-selection of the indicators by the Forecasting system itself, while at the same time the Re time during the training phase is not significantly increased and for the application phase of the business process levant forecast is even lowered.

Im wesentlichen wird dies dadurch erreicht, dass ein ge­ netischer Algorithmus eine operative "Klammer" bildet um die Kombination aus Indikatorberechnung und KNN- Berechnung mit Daten aus der Indikatorberechnung. So kann das KNN frühzeitig von unnötigem Ballast befreit und so­ gar unter Verzicht auf einen üblichen 'backpropagation' Algorithmus geprägt und optimiert werden. Nach kurzer, errastischer Orientierungszeit mit grossen Fehelern im Vergleich zu backpropagation-Prägung konvergiert das er­ findungsgemäße Verfahren jedoch schneller. Es liefert dann präzisere und treffsichere Vorhersagen als backpro­ pagation-basierte KNN vom Stand der Technik.This is essentially achieved by a ge netic algorithm transforms an operative "bracket" the combination of indicator calculation and KNN Calculation with data from the indicator calculation. So can the KNN freed of unnecessary ballast at an early stage and so even without the usual 'back propagation' Algorithm are shaped and optimized. After short,  erratic orientation time with big mistakes in the Compared to backpropagation imprint he converges method according to the invention, however, faster. It delivers then more precise and accurate predictions than backpro State-of-the-art pagation-based KNN.

Dies stellt eine erheblichen Vorteil gegenüber dem vorge­ nannten Stand der Technik dar, weil es damit unter Ver­ wendung von relativ geringem Rechenaufwand gelingt, bei Bedarf für jeden Einzelkurs individuelle Indikatoren aus einer riesigen Vielzahl von Indikatoren oder deren Kombi­ nationsmöglichkeiten prinzipiell für eine Kursvorhersage zu nutzen, ohne ihre Brauchbarkeit dafür von vornherein auszuschließen.This represents a significant advantage over the pre called prior art, because it is under Ver using relatively little computational effort Individual indicators for each individual course a huge variety of indicators or their combination nation possibilities in principle for a course prediction to use without their usefulness from the outset excluded.

Ein weiterer Vorteil besteht darin, dass praktisch kei­ nerlei Fachkenntnisse mehr notwendig sind, um das erfin­ dungsgemäße Verfahren durchzuführen, die im Stand der Technik unersetzlich sind, da die für die Computervorher­ sage verwendeten Indikatoren möglichst kompetent und in Abhängigkeit des vorherzusagenden Börsenwertes bestimmt werden müssen.Another advantage is that practically no a lot of specialist knowledge is needed to make this happen to carry out methods according to the state of the art Technology is irreplaceable as it is for the computer use indicators as competently and in Dependence of the market value to be predicted determined Need to become.

Damit erhöht sich die Vorhersagequalität für beliebig wählbare Börsenwerte. Außerdem muß das erfindungsgemäße Vorhersageverfahren nicht an einzelne Börsenwerte ange­ paßt werden. Es gibt daher gute Prognosen ab für Börsen­ werte aus beliebigen Branchen. This increases the forecast quality for any selectable market values. In addition, the invention Prediction method not attached to individual market values be fit. There are therefore good forecasts for exchanges values from any industry.  

In den Unteransprüchen finden sich vorteilhafte Weiter­ bildungen und Verbesserungen des jeweiligen Gegenstandes der Erfindung.Advantageous Further can be found in the subclaims education and improvements of the respective object the invention.

Der vorliegenden Erfindung liegt der historisch bekannte Ansatz zugrunde, dass in den historischen Daten von Akti­ enkursen implizite Informationen über den zukünftigen Verlauf der Aktienkurse enthalten ist.The present invention is the historically known one Approach that in the historical data of Akti implicit information about the future History of stock prices is included.

Dabei können auch in den historischen Daten einer Aktie X implizit Zukunftsinformationen über mehrere Aktien Y1 . . Yn enthalten sein (1 : n), oder aus der Zusammenschau hi­ storischer Daten von Z1 . . Zn Aktienkursen können sich im­ plizit Informationen über den zukünftigen Verlauf einer bestimmten Aktie ergeben (n : 1). Auch m : n Beeinflussungen sind möglich.In the historical data of a share X implicit future information about multiple shares Y1 , , Yn can be included (1: n), or from the synopsis hi Storic data from Z1. , Zn share prices can change in explicit information about the future course of a determined share (n: 1). Also m: n influences are possible.

Aufgrund des gezielten Einsatzes des genetischen Algo­ rithmus', der vorzugsweise die funktionale Kombination aus Indikatorergebnissen und deren Verarbeitung in einem neuronalen Netz 'umhüllt', kann trotz des hochdimensiona­ len Eingabeparameter-Raums ein große Vielzahl an Indika­ toren, die daraus folgende Vielzahl an Kombinationen von Indikatoren sowie die Vielzahl an Parametern, mit denen eine Untermenge der Indikatoren bestückt werden kann, mit vertretbarem Rechenaufwand getestet werden, um das neuro­ nale Netz zu optimieren.Because of the targeted use of the genetic algo rithmus', which is preferably the functional combination from indicator results and their processing in one neural network 'envelops', despite the high-dimensional len input parameter space a large variety of indicators gates, the resulting multitude of combinations of Indicators as well as the multitude of parameters with which a subset of the indicators can be populated with reasonable computing effort to be tested to the neuro optimize the network.

Erfindungsgemäß wird die große Vielzahl an Indikatoren und Indikatorkombinationen in dem oben genannten genetischen Algorithmus so verarbeitet, dass zum Training des KNN vor allem in einer gegenwartsnahen Phase und zur Pro­ gnose von Kurswerten selbst nur bevorzugte Indikatoren oder Indikatorkombinationen verwendet werden, die einen Selektionsprozess des genetischen Algorithmus' 'überlebt' haben und die den Validierungsbedingungen des KNN aus der Trainingsphase genügen.According to the invention, the large variety of indicators and indicator combinations in the above genetic  Processed algorithm so that for training the KNN especially in a phase close to the present and to the pro Price values themselves are only preferred indicators or combinations of indicators that are used Selection process of the genetic algorithm '' survives '' and have the validation conditions of the KNN from the Training phase is enough.

Kurz zusammengefaßt läuft das erfindungsgemäße Börsenkur­ sprognoseverfahren in drei Phasen ab:
Initialisierung,
Training mit Validierung und
Anwendung.
Briefly summarized, the stock market forecasting process according to the invention proceeds in three phases:
Initialization,
Training with validation and
Application.

In der Initialisierungsphase wird eine Population von neuronalen Netzen mit Indikatoren angelegt. Eine solche Kombination aus Indikatoren und KNN, bei der Indikatorer­ gebnisse aus der Anwendung der Indikatoren als Operatoren auf historische Kursdaten erzielt werden, die ihrerseits zur Bildung und Optimierung des KNN verwendet werden, wird im folgenden auch als Artificial Intelligence Me­ thods, kurz: A. I. M. System oder A. I. M.-Netz bezeichnet.In the initialization phase, a population of neural networks with indicators. Such Combination of indicators and KNN, at the indicator results from the use of the indicators as operators on historical price data can be achieved, which in turn be used to create and optimize the KNN, is also referred to as Artificial Intelligence Me thods, short: A.I.M. system or A.I.M.

In der Trainingsphase lernen die A. I. M.-Netze aus hi­ storischen Kursdaten, die beispielsweise als Datenmatrix für beliebig viele Einzelwerte oder Indexwerte vorliegen können, Trends zu erkennen. Diese Trends, mögen sie als quasiperiodische Schwingung oder als 'wilde', stocha­ stisch 'zitternde' und verbeulte Zeitreihe anzuschauen sein, stellt gelerntes Wissen dar, auf das später in der Anwendungsphase gewinnbringend zurückgegriffen werden kann, da es in der 'trainierten' Form des KNN abrufbar vorhanden ist.In the training phase, the A.I.M. networks learn from hi Storic course data, for example as a data matrix for any number of individual values or index values can recognize trends. They like these trends quasi-periodic vibration or as 'wild', stocha to watch the 'trembling' and dented time series his represents learned knowledge, to which later in the  Application phase can be used profitably can, since it is available in the 'trained' form of the KNN is available.

Das erfindungsgemäße Verfahren läßt sich für die Prognose einer Mehrzahl an Aktienkursen verwenden. Jeder Indikator hat Zugriff auf die gesamte Eingabematrix. Jedes Ausgabe­ neuron des neuronalen Netzes ist mit genau einem Progno­ sewert für genau eine Aktie assoziiert. Diese Assoziie­ rung findet in der Trainingsphase des KNN dadurch statt, dass der Ausgabewert an einem bestimmten Ausgabeneuron mit Differenzwerten mit historischen Daten der betreffen­ den vorherzusagenden Aktie verglichen wird.The method according to the invention can be used for the forecast use a variety of stock prices. Any indicator has access to the entire input matrix. Every issue neuron of the neural network is with exactly one progno associated with exactly one share. This association In the training phase of the KNN, that the output value at a particular output neuron with difference values with historical data of the concern is compared to the predicted share.

In der Anwendungsphase wird dann das in den A. I. M.-Netzen gespeicherte Wissen tatsächlich genutzt, um Prognosen für zukünftige Kursentwicklungen zu erstellen:
Aus der Trainingsphase geht also ein A. I. M-Netz mit mini­ malem Fehler hervor. Bei diesem Netz werden Indikatoren, die mit Verbindungen mit geringem Gewicht an das neurona­ le Netz angeschlossen sind, sowie Verbindungen mit gerin­ gem Gewicht innerhalb des neuronalen Netzes gelöscht. Da­ mit wird die Komplexität des A. I. M-Netzes und damit die Rechenzeit für eine Prognose erheblich verringert.
In the application phase, the knowledge stored in the AIM networks is actually used to create forecasts for future course developments:
An AI M network with minimal errors emerges from the training phase. This network deletes indicators that are connected to the neural network with low-weight connections and connections with low-weight connections within the neural network. This significantly reduces the complexity of the AI M network and thus the computing time for a forecast.

Mit diesem A. T. M.-Netz als "Runtimeversion" werden in der späteren täglichen Einsatzpraxis die täglichen Kurspro­ gnosen berechnet. Zusätzlich werden jeden Tag die Progno­ sen des Netzes, die in der Vergangenheit berechnet wurden, mit der tatsächlichen Kursentwicklung verglichen. Wird die Abweichung der Prognosen zu groß, wird eine neue Trainingsphase angestoßen und unter Einbeziehung der neu entstandenen historischen Kursdaten wird ein neues A. I. M- Netz berechnet. Dabei wird auf den Pool der A. I. M.-Netze der vorigen Trainingsphase zurückgegriffen. Diese Netze haben schon teilweise Trends der Kursentwicklungen ge­ lernt und brauchen nicht neu initialisiert werden.With this A. T. M. network as "runtime version" in the the daily course practice later in daily practice gnoses calculated. In addition, the progno every day of the network calculated in the past  compared to the actual price development. If the deviation of the forecasts is too large, a new one will be created Training phase initiated and including the new historical course data is created a new A. I. M- Network calculated. The pool of A.I.M. networks is used the previous training phase. These networks have already seen some trends in course developments learns and need not be reinitialized.

Die Trainingsphase kann eine mehrfache Wiederholung einer zeitpunktbezogenen Propagation von auf jeweils verschie­ denen historischen Zeitpunkten beruhenden Indikatorresul­ taten durch das KNN enthalten, wobei die Indikatorresul­ tate anhand von historischen Daten gewonnen wurden, sowie einen jeweiligen Vergleich der zugehörigen, zeit­ punktbezogenen Ausgabe des KNN als Kurswertprognose mit einem entsprechenden, historischen Kurswert enthalten.The training phase can be repeated several times time-related propagation from to different the indicator result based on historical times acted by the KNN, the Indicatorresul tate was obtained on the basis of historical data, as well as a respective comparison of the associated time point-based issue of the KNN as a market value forecast with a corresponding historical price.

Damit wird eine systematische Trainingsphase mit hoher Effizienz bewirkt.This is a systematic training phase with a high Efficiency brings about.

Die historischen Daten können in vorteilhafter Weise aus einem Zeitfenster aus einer Anzahl T zusammenhängender Tage zur Einzelvorhersage eines Kurses verwendet werden.The historical data can be advantageous a time window from a number T related Days can be used to predict a course individually.

Die vorgenannte mehrfache Wiederholung kann eine sequen­ tielle Abfolge von Einzelwertprognosen enthalten, die sich aus einer Verschiebung des T-Tages-Fensters aus der Vergangenheit in die Gegenwart ergibt, und wobei T im Be­ reich zwischen 10 und 100, bevorzugt zwischen 20 und 80 und besonders bevorzugt zwischen 40 und 60 liegt, wobei für die jeweils nächstfolgende Einzelwertprognose das Zeitfenster um ein Anzahl von D Tagen verschoben wird.The aforementioned multiple repetition can be sequenced tial sequence of individual value forecasts that resulting from a shift in the T-day window from the Past into the present, and where T in Be range between 10 and 100, preferably between 20 and 80  and is particularly preferably between 40 and 60, where for the next individual value forecast Time window is shifted by a number of D days.

Eine brauchbare Wahl für D ist: 0 < D < 10, und bevorzugt 0 < D < 4, und besonders bevorzugt D = 1.A useful choice for D is: 0 <D <10, and preferred 0 <D <4, and particularly preferred D = 1.

T kann beispielsweise um 50 herum liegen. Aber auch ande­ re Werte für T sind praktikabel.T can be around 50, for example. But also others Right values for T are practicable.

Ein weiterer Schritt, eine Vielzahl VZ von Indikatoren für die Trainingsphase des KNN zum Erhalt eines verbes­ serten Grundschemas des KNN zu verwenden, ist vorteilhaft anwendbar, wobei VZ größer als 3, bevorzugt größer als 10 und besonders bevorzugt größer als 20 ist. Damit ist ein klarer Vorsprung vor dem Stand der Technik bewirkt, der aus Rechenzeiterwägungen meist nur eine geringe Anzahl von Indikatoren berücksichtigen kann.Another step, a large number of indicators for the training phase of the KNN to obtain a verb Using basic KNN schemes is advantageous applicable, VZ greater than 3, preferably greater than 10 and is particularly preferably greater than 20. So that's a clear advantage over the prior art, which usually only a small number due to computing time considerations of indicators can take into account.

Insbesondere können auch mathematische Funktionen als In­ dikatoren zumindest mitverwendet werden. Dies bewirkt ei­ ne sehr systematische Analyse der Zeitreihen und trägt dazu bei, einzelne Trends, die weder mit bloßem Auge noch mit erhöhtem Maß an menschlicher Analyse erkannt werden, als neuen Zusammenhang wertschöpfend in die Prognose ein­ zubringen. Nur beispielhaft seien die folgenden Indikato­ ren genannt:
Gleitender Durchschnitt (simple/weighted/exponential)
Standardabweichung
OBV-Linie (On-Balance-Volume)
Momentum
ROC (Rate-of-Change)
S-ROC (Smoothed Rate-of-Change)
Differenz zwischen gleitenden Durchschnitten
RSI (Relative-Strength-Index)
Stochastik-Indikator
MACD (Moving Average Convergence/Divergence System)
ADL (Accumulation/Distribution Line)
TRSI (True Strength Index)
VHF (Vertical Horizontal Filter)
In particular, mathematical functions can at least also be used as indicators. This results in a very systematic analysis of the time series and helps to bring individual trends into the forecast as a new context, which are recognized neither with the naked eye nor with an increased degree of human analysis. The following indicators are only examples:
Moving average (simple / weighted / exponential)
standard deviation
OBV line (on-balance volume)
Momentum
ROC (Rate of Change)
S-ROC (Smoothed Rate-of-Change)
Difference between moving averages
RSI (Relative Strength Index)
Stochastic
MACD (Moving Average Convergence / Divergence System)
ADL (Accumulation / Distribution Line)
TRSI (True Strength Index)
VHF (Vertical Horizontal Filter)

Weitere mathematische IndikatorenMore mathematical indicators

ARMA-Modellanpassungen (Autoregressive Moving Average)
Polynom-Interpolation
Fourier-Analyse
Korrelations-Koeffizient
Fraktale Dimension
Maximum/Minimum/Median
Lyapunovexponent
Transinformation
Akima-Interpolation
Spektrogramm
Periodogramm
Waveletkoeffizienten
Principal Component Analysis (SVD Singular Value Decompo­ sition)
Independent Component Analysis
IIR-Filter (Infinte Impulse Response)
FIR-Filter (Finite Impulse Response)
Support-Vector-Machines
IFS (Iterated Function Systems)
ARMA model adjustments (autoregressive moving average)
Polynomial interpolation
Fourier analysis
Correlation coefficient
Fractal dimension
Maximum / minimum / median
Lyapunovexponent
transinformation
Akima interpolation
spectrogram
periodogram
wavelet
Principal Component Analysis (SVD Singular Value Decomposition)
Independent component analysis
IIR filter (Infinte Impulse Response)
FIR filter (Finite Impulse Response)
Support Vector Machines
IFS (Iterated Function Systems)

Desweiteren enthält die Zielfunktion des genetischen Al­ gorithmus' in vorteilhafter Weise die Differenz zwischen aus der Vergangenheit vorhergesagten Kurswerten und durch die Vergangenheit belegter Kurswerte, wobei die Prognose­ qualität durch eine in der Vergangenheit liegende 'Vali­ dierungsphase' auf ein objektiv nachprüfbares Maß festge­ legt werden kann. Dies stellt einen eigenen Vorteil dar.Furthermore, the target function of the genetic Al contains gorithmus' advantageously the difference between predicted market values from the past and by the past documented market values, the forecast quality through a past 'Vali dierungsphase 'to an objectively verifiable measure can be placed. This is an advantage in itself.

Die Feinabstimmung der Indikatoren kann zum Zwecke einer weiteren Verbesserung der Prognosequalität mit dem KNN durchgeführt werden.The fine-tuning of the indicators can be used for a further improvement of the forecast quality with the KNN be performed.

Weiter können historische Daten einer Mehrzahl von ver­ schiedenen Aktien als Input zur Kurswertprognose einer einzelnen Aktie mit verwendet werden. Die Auswahl der mit zu verwendenden Aktien kann durch das KNN selbst durchge­ führt werden.Furthermore, historical data of a plurality of ver different shares as input to the market value forecast of a each share can be used with. Choosing the with shares to be used can be managed by the KNN itself leads.

Des weiteren können zur Prognose des Kurswertes einer Ak­ tie aus einer bestimmten Branche auch branchenfremde Ak­ tien verwendet werden. Furthermore, to forecast the market value of an Ak tie from a certain branch also non-branch Ak tien be used.  

ZEICHNUNGENDRAWINGS

Ausführungsbeispiele der Erfindung sind in den Zeichnun­ gen dargestellt und in der nachfolgenden Beschreibung nä­ her erläutert.Embodiments of the invention are in the drawings gene shown and nä in the following description ago explained.

Es zeigen:Show it:

Fig. 1 eine schematische Darstellung von wesentlichen Komponenten eines Ausführungsbeispiels eines Prognoseverfahrens gemäß der vorliegenden Er­ findung, Fig. 1 is a schematic representation of essential components of an embodiment of a prediction method according to the present invention,

Fig. 2 eine schematische Übersichtsdarstellung der vier Phasen eines Ausführungsbeispiels eines Prognoseverfahrens gemäß der vorliegenden Er­ findung, Fig. 2 is a schematic overview representation of the four phases of an embodiment of a prediction method according to the present invention,

Fig. 3 eine detailliertere, schematische Darstellung mit weiteren Einzelheiten bezüglich einzelner Phasen des Verfahrens gemäß Fig. 1, Fig. 3 is a more detailed schematic representation in further detail with respect to individual phases of the method according to FIG. 1,

Fig. 4 eine schematische Übersichtsdarstellung des Steuerflusses während der Initialisierungsphase eines Ausführungsbeispiels eines Prognosever­ fahrens gemäß der vorliegenden Erfindung, Fig. 4 is a schematic overview of the control flow during the initialization of an embodiment of a Predictive Ever procedure in accordance with the present invention,

Fig. 5 eine schematische Übersichtsdarstellung des Steuerflusses während der Trainingsphase in Fortsetzung von Fig. 4; FIG. 5 shows a schematic overview of the control flow during the training phase, continued from FIG. 4;

Fig. 6 eine schematische Übersichtsdarstellung des Steuerflusses während der Trainingsphase in Fortsetzung von Fig. 5; ; FIG. 6 shows a schematic overview of the control flow during the training phase, continued from FIG. 5; ;

Fig. 7 Anwendungsphase in Fortsetzung von Fig. 6, und Fig. 7 application phase continued from Fig. 6, and

Fig. 8 eine schematische Detaildarstellung des Steuer­ flusses während der Fehlerberechnung über einem T-Tage-Fenster Fig. 8 is a schematic representation of the detail of the control flow during the error calculation over a T-day window

BESCHREIBUNG DES AUSFÜHRUNGSBEISPIELSDESCRIPTION OF THE EMBODIMENT

In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder funktionsgleiche Komponenten.In the figures, the same reference symbols designate the same or functionally identical components.

Mit allgemeinem Bezug zu den Zeichnungen und besonderem Bezug zu Fig. 1 enthält eine Datenmatrix 10 für histori­ sche Kursdaten die Tagesabschlusswerte t1, . . tn der letz­ ten 10 Jahre für eine bestimmte Auswahl w1, . . wm, bei­ spielsweise wm = 100, an Wertpapieren oder Leitwerten, wie Börsenindizes, DAX, Dow Jones, etc. Bei etwa 220 Han­ delstagen pro Jahr hat die Matrix etwa 2200 Zeilen und so viele Zeitreihen als Spalten, wie Wertpapiere darin ge­ führt werden. Mit wm = 100 ergeben sich also ca. 220000 Werte.With general reference to the drawings and special reference to FIG. 1, a data matrix 10 for historical exchange rate data contains the daily closing values t1,. , tn of the last 10 years for a certain selection w1,. , wm, for example wm = 100, on securities or key values, such as stock market indices, DAX, Dow Jones, etc. With approximately 220 trading days per year, the matrix has approximately 2200 rows and as many time series as columns as securities are listed therein. With wm = 100 there are approx. 220,000 values.

Über eine Eingabeschnittstelle 12 werden diese Daten zu­ nächst einer Indikatorberechnung zugeführt, die eine Vielzahl an Indikatoren 13 zur Auswahl hat und zunächst keinen ausschließt. Via an input interface 12 , these data are first fed to an indicator calculation which has a large number of indicators 13 to choose from and initially does not exclude any.

Ein Indikator berechnet aus der Matrix der historischen Kursdaten ein oder mehrere Werte, die in jeweils ein oder mehrere Eingabeneuronen 15 des neuronalen Netzes 14 (KNN) einfließen.An indicator calculates one or more values from the matrix of the historical price data, each of which flows into one or more input neurons 15 of the neural network 14 (KNN).

Beispielsweise berechnet ein Mittelwert-Indikator für je­ de Aktie die Mittelwerte der Kursdaten der letzten 2, 3, . . . T Tage. Für jede Aktie enthält der Indikator einen Gewichtsvektor mit T-1 Elementen. Die T-1 Mittelwerte ei­ ner Aktie werden mit dem Gewichtsvektor der Aktie gewich­ tet und zu einem Wert pro Aktie zusammengefasst. Diese Werte werden in das neuronale Netz 14 eingespeist. Über die Gewichtsvektoren der Aktien kann der Indikator vari­ iert werden. Er wird somit 'adaptiv' gemäß der vorliegen­ den Erfindung.For example, an average indicator for each share calculates the average of the price data for the last 2, 3,. , , T days. For each share, the indicator contains a weight vector with T-1 elements. The T-1 mean values of a share are weighted with the weight vector of the share and summarized to one value per share. These values are fed into the neural network 14 . The indicator can be varied using the weight vectors of the shares. It thus becomes 'adaptive' in accordance with the present invention.

Ein Fourier-Indikator beispielsweise berechnet Fourier- Koeffizienten für die Kursdaten jeder Aktie. Die Lage des Maximums der Koeffizienten fließt in das Neuronale Netz ein, ein Wert pro Aktie. Vor der Berechnung der Koeffizienten werden die Daten vorzugsweise mit einem Bandpass-Filter vorbehandelt. Für jede Aktie enthält der Indikator einen Filter. Über die obere und untere Grenz­ frequenzen bzw. über die Form der Dämpfungskurven der Filter kann der Indikator variiert werden.A Fourier indicator, for example, calculates Fourier Coefficients for the price data of each share. The location of the maximum of the coefficients flows into the neural Network on, one value per share. Before calculating the The data are preferably given a coefficient Bandpass filter pretreated. For each share, the Indicator a filter. Over the upper and lower limits frequencies or the shape of the damping curves of the Filter the indicator can be varied.

In vorteilhafter Weise können nun die klassischen Finanz- Indikatorem, jedoch auch die Indikatoren der klassischen technischen Analyse, und rein mathematische Indikatoren verwendet werden:
Eine sinnvolle, aber nicht zwangsläufig vollständige Aus­ wahl ist wie folgt:
Gleitender Durchschnitt (simple/weighted/exponential)
Standardabweichung
OBV-Linie (On-Balance-Volume)
Momentum
ROC (Rate-of-Change)
S-ROC (Smoothed Rate-of-Change)
Differenz zwischen gleitenden Durchschnitten
RSI (Relative-Strength-Index)
Stochastik-Indikator
MACD (Moving Average Convergence/Divergence System)
ADL (Accumulation/Distribution Line)
TRSI (True Strength Index)
VHF (Vertical Horizontal Filter)
The classic financial indicators, but also the indicators of classic technical analysis, and purely mathematical indicators can now be used in an advantageous manner:
A sensible but not necessarily complete selection is as follows:
Moving average (simple / weighted / exponential)
standard deviation
OBV line (on-balance volume)
Momentum
ROC (Rate of Change)
S-ROC (Smoothed Rate-of-Change)
Difference between moving averages
RSI (Relative Strength Index)
Stochastic
MACD (Moving Average Convergence / Divergence System)
ADL (Accumulation / Distribution Line)
TRSI (True Strength Index)
VHF (Vertical Horizontal Filter)

Weitere mathematische IndikatorenMore mathematical indicators

ARMA-Modellanpassungen (Autoregressive Moving Average)
Polynom-Interpolation
Fourier-Analyse
Korrelations-Koeffizient
Fraktale Dimension
Maximum/Minimum/Median
Lyapunovexponent
Transinformation
Akima-Interpolation
Spektrogramm
Periodogramm
Waveletkoeffizienten
Principal Component Analysis (SVD Singular Value Decompo­ sition)
Independent Component Analysis
IIR-Filter (Infinte Impulse Response)
FIR-Filter (Finite Impulse Response)
Support-Vector-Machines
IFS (Iterated Function Systems)
ARMA model adjustments (autoregressive moving average)
Polynomial interpolation
Fourier analysis
Correlation coefficient
Fractal dimension
Maximum / minimum / median
Lyapunovexponent
transinformation
Akima interpolation
spectrogram
periodogram
wavelet
Principal Component Analysis (SVD Singular Value Decomposition)
Independent component analysis
IIR filter (Infinte Impulse Response)
FIR filter (Finite Impulse Response)
Support Vector Machines
IFS (Iterated Function Systems)

Im vorliegenden Fall wird als künstliches, neuronales Netz (KNN) 15 ein sogenanntes Multilayer-Perceptron ver­ wendet. In diesem Netztyp sind Neuronen in mehreren Schichten organisiert. Jedes Neuron kann ein oder mehrere Eingänge und ein oder mehrere Ausgänge haben.In the present case, a so-called multilayer perceptron is used as an artificial neural network (KNN) 15 . In this type of network, neurons are organized in several layers. Each neuron can have one or more inputs and one or more outputs.

Die erste Neuronenschicht ist die Eingabeschicht 15. Die Neuronen dieser Schicht verfügen jeweils über genau einen Eingang. In die Eingänge dieser Neuronen werden Daten von aussen als Ergebnisse von der Indikatorberechnung kommend in das Netz 14 geliefert.The first neuron layer is the input layer 15 . The neurons of this layer each have exactly one input. Data from the outside are supplied to the inputs 14 of these neurons as results from the indicator calculation in the network 14 .

Hinter der Eingabeschicht stehen eine oder mehrere ver­ deckte Schichten 16, im Beispielsfall eine einzige. Jedes Neuron einer verdeckten Schicht ist über seine Eingänge mit jedem Neuron der vorhergehenden Schicht über seine Ausgänge mit jedem Neuron der nachfolgenden Schicht ver­ bunden - jeweils über gewichtete Verbindungen. Behind the input layer are one or more hidden layers 16 , in the example a single one. Every neuron of a hidden layer is connected via its inputs to every neuron of the previous layer via its outputs to every neuron of the following layer - each via weighted connections.

Nach den verdeckten Schichten steht die Ausgabeschicht 17. Jedes Neuron der Ausgabeschicht ist über seine Ein­ gänge mit jedem Neuron der vorhergehenden, verdeckten Schicht verbunden. Die Ausgabeneuronen haben jeweils ge­ nau einen Ausgang, über den Daten aus dem Netz 14 ausge­ lesen werden können. Die Ausgabedaten sind die Prognose­ daten P1, . . Pq.The output layer 17 is located after the hidden layers. Each neuron of the output layer is connected via its inputs to every neuron of the preceding, hidden layer. The output neurons each have a precise output via which data can be read from the network 14 . The output data are the forecast data P1,. , Pq.

Bei der Propagation des Netzes berechnet jedes Neuron die Summe der Daten aus allen seinen Eingängen. Diese Summe wird durch eine nichtlineare (in der Regel sigmoide) Funktion geschickt (beispielsweise der Tangens Hyperbo­ licus). Das Ergebnis der Funktion wird an alle Ausgänge des Neurons geschickt. Über die gewichteten Verbindungen erreicht die Ausgabe der einen Schicht die Eingänge der nächsten Neuronenschicht.When the network is propagated, each neuron calculates the Sum of the data from all of its inputs. That sum is characterized by a nonlinear (usually sigmoid) Function skillfully (for example, the hyperbo tangent LICUS). The result of the function is sent to all outputs sent to the neuron. About the weighted connections the output of one layer reaches the inputs of the next layer of neurons.

Mit besonderem Bezug zu nun Fig. 2 und Fig. 3 besteht das erfindungsgemäße Prognoseverfahren aus einer Initia­ lisierungsphase 210, eine Trainingsphase 220, einer Vali­ dierungsphase 230 und einer Anwendungs-/ und Prognosepha­ se 240.With particular reference to now to FIG. 2 and FIG. 3 is prognosis method of the invention from a Initia lisierungsphase 210, a training phase 220, Vali dierungsphase 230 and an application / and Prognosepha se 240th

In Fig. 3 ist die Initialisierungsphase 210 nicht darge­ stellt. Die Initialisierungsphase 210 wird im folgenden mit gleichzeitigem Bezug zu Fig. 4 näher erläutert.In Fig. 3, the initialization phase 210 does not Darge. The initialization phase 210 is explained in more detail below with simultaneous reference to FIG. 4.

In einem Schritt 410 werden die für die spätere Trai­ nings-Validierungs- und Anwendungsphase benötigten Modellparameter festgelegt: im einzelnen handelt es sich dabei um eine Auswahl derjenigen Aktien, die zur Prognose für die vorherzusagenden Kurswerte der verschiedenen Ak­ tien verwendet werden sollen. Wie oben erwähnt, können beispielsweise Aktien von Unternehmen der selben Branche verwendet werden, bei denen ersichtlich ist, daß diese einen relativ großen Markteinfluß besitzen. Des weiteren wird ein Zeitfenster von T Tagen für die später folgende Trainingsphase 220 festgelegt. Wie aus Fig. 3 ersicht­ lich, kann dieses Zeitfenster etwa 50 Tage betragen.In a step 410 , the model parameters required for the later training validation and application phase are defined: in particular, this is a selection of those stocks that are to be used to forecast the price values of the various stocks to be predicted. For example, as mentioned above, shares of companies in the same industry can be used, which can be seen to have a relatively large market impact. Furthermore, a time window of T days is determined for the training phase 220 that follows later. As shown in FIG. 3 ersicht Lich, this time window may be about 50 days.

Generell wird das KNN innerhalb der in Fig. 3 links ein­ gezeichneten Zeitzone, nämlich der Trainingsphase, trai­ niert. In der sich anschließenden Validierungsphase wird dessen Vorhersagequalität anhand von historischen Daten überprüft. Das heißt, die Vorhersagefähigkeiten des KNN werden am Ende der Trainingsphase getestet und das jewei­ lige Testergebnis wird mit historisch bekannten Daten, die jedoch das KNN noch niemals "gesehen" hat, validiert. An die Validierungsphase anschließend ist der Prognosebe­ reich, ganz rechts in Fig. 3, gezeichnet.In general, the KNN is trained within the time zone shown on the left in FIG. 3, namely the training phase. In the subsequent validation phase, its prediction quality is checked using historical data. This means that the predictive capabilities of the KNN are tested at the end of the training phase and the respective test result is validated with historically known data that the KNN has never "seen". After the validation phase, the forecast area is drawn on the far right in FIG. 3.

Wie aus Fig. 3 gut ersichtlich, ist das Prognosedatum der heutige Tag, T umfasst die direkt zurückliegenden 50 Tage und das Prognoseziel liegt in der Zukunft, beispielsweise auf dem 10. Tag, ab "heute", s. rechter Rand der Fig. 3, dem Tag der Durchführung der Prognose gerechnet.As can be clearly seen from FIG. 3, the forecast date is the current day, T comprises the directly past 50 days and the forecast target lies in the future, for example on the 10th day, from "today", see FIG . right edge of Fig. 3, the day the forecast was carried out.

Die Trainingsphase kann beispielsweise 10 Jahre betragen, wobei dann beispielsweise eine Validierungsphase von etwa einem Jahr in vorteilhafter Weise verwendet werden kann. Ein Prognoserahmen erstreckt sich dann in etwa auf einen Zeitraum zwischen einem und etwa fünfzig Tagen. Die in Fig. 3 dargestellten Rechtecke sollen schematisch die Zeitfenster darstellen, aus denen jeweils historische Da­ ten zum Trainieren des KNN verwendet werden. Dieses Fen­ ster wird in der Trainingsphase schrittweise verschoben, so daß sich die in Fig. 3 dargestellte Darstellung er­ gibt. Weitere Einzelheiten dazu werden im Zusammenhang mit der Beschreibung von Fig. 5 gegeben. Genauere Einzel­ heiten dazu werden weiter unten gegeben.The training phase can be, for example, 10 years, in which case, for example, a validation phase of approximately one year can be used advantageously. A forecast framework then extends over a period of between one and about fifty days. The rectangles shown in Fig. 3 are intended to schematically represent the time window from which historical data are used to train the KNN. This fen ster is gradually shifted in the training phase, so that there is the representation shown in Fig. 3. Further details are given in connection with the description of FIG. 5. More details are given below.

Weitere Parameter für das Vorhersageverfahren werden wäh­ rend der Initialisierungsphase in das Vorhersagesystem eingegeben:
Die Größe n einer Population. Diese Größe legt fest, mit wieviel KNN ein Gesamtrun des erfindungsgemäßen Vorhersa­ geverfahrens laufen soll. Beispielsweise kann n = 300 sein, um 300 A. I. M.-Netze zu berechnen. Je größer n gewählt wird, um so größer ist der Rechenaufwand. Wenn daher n zu groß ist, so kann die Vorhersagequalität meist nicht mehr signifikant gesteigert werden. Ist n hingegen zu klein, so ergeben sich nur zu geringe Kombinationsmöglichkeiten für den genetischen Algorithmus.
Additional parameters for the prediction process are entered into the prediction system during the initialization phase:
The size n of a population. This size determines with how much KNN a total run of the prediction method according to the invention should run. For example, n = 300 to calculate 300 AIM networks. The greater n selected, the greater the computational effort. Therefore, if n is too large, the prediction quality can usually no longer be significantly increased. If, on the other hand, n is too small, there are only too few possible combinations for the genetic algorithm.

Ein maximaler Fehler für die Verbesserung eines A. I. M.- Netzes wird definiert. A maximum mistake for improving an A.I.M. Network is defined.  

Ebenso wird eine Untergrenze für bestimmte Gewichtsfakto­ ren Epsilon definiert, die für bestimmte Verbindungen in dem neuronalen Netz darüber entscheiden sollen, ob eine Verbindung gelöscht wird oder nicht.Likewise there is a lower limit for certain weight factor ren epsilon defined for certain connections in the neural network should decide whether a Connection is deleted or not.

Des weiteren wird eine maximale Anzahl von Netzmutationen m für jede Generation festgelegt.Furthermore, a maximum number of network mutations m set for each generation.

Wichtigste Funktion von m ist, eine hinreichende Variabi­ lität und eine hinreichende Adaptionsmöglichkeit zu ge­ währleisten. Ist m zu gering, dann unterscheiden sich die Netze nicht wesentlich. Das System kann dann kaum in an­ dere Bereiche vordringen, beispielsweise, völlig neue In­ dikatorkombinationen generieren, mit der Folge einer zu geringen Variation. Ist m hingegen zu groß, dann hat das System nur unzureichende Möglichkeiten, sich mit kleinen Variationen, also nur geringfügig besseren Lösungen zu stabilisieren. Die Folge kann eine Begrenzung der Rechen­ zeit sein.The most important function of m is a sufficient variabi lity and a sufficient possibility of adaptation währleisten. If m is too small, then they differ Networks not essential. The system can then hardly start penetrate other areas, for example, completely new areas Generate combinations of indicators, with the consequence of one little variation. If, on the other hand, m is too large, then that has System insufficient ways to deal with small Variations, so only slightly better solutions stabilize. The consequence can be a limitation of the rake be time.

Des weiteren wird die Größe des Zeitfensters T, bei­ spielsweise auf 50 Tage festgelegt.Furthermore, the size of the time window T, at for example set to 50 days.

Schließlich wird das Prognoseziel P zeitlich fixiert. Das heißt, von heute an gerechnet kann der Prognosetag bei­ spielsweise in 10 Tagen liegen.Finally, the forecast target P is fixed in time. The means that from today on the forecast day can be for example in 10 days.

In einem nachfolgenden Schritt 420 der Initialisierungs­ phase werden für jede Aktie aus der Datenmatrix 10, siehe Fig. 1, eine bestimmte Anzahl E Eingabeneuronen für Roh­ daten erstellt. Die Anzahl E der Eingabeneuronen ist identisch mit der Anzahl der Ausgabedaten der Indikatoren für eine jeweilige Aktie. Denn es muß sichergestellt sein, daß die Indikatorergebnisse in das neuronale Netz über die Eingabeneuronen einfließen können. Die Ausgaben der Indikatoren können singuläre Daten oder auch Vektor­ daten sein, die aus einer Mehrzahl von Daten bestehen.In a subsequent step 420 of the initialization phase, a certain number E of input neurons for raw data are created for each share from the data matrix 10 , see FIG. 1. The number E of input neurons is identical to the number of output data of the indicators for a respective share. Because it must be ensured that the indicator results can flow into the neural network via the input neurons. The outputs of the indicators can be singular data or also vector data, which consist of a plurality of data.

Mit erneutem Bezug zu Fig. 4 werden im folgenden in einem Schritt 430 die Indikatoren 13 und die zu den Indikator­ ausgaben passende Zahl an Eingabeneuronen 15 erstellt. Es wird also dafür gesorgt, daß die vorerwähnte Indikatorbe­ rechnung ein Ergebnis liefert, das dann in dem künstli­ chen neuronalen Netz weiterbearbeitet werden kann. Die Verknüpfungsstelle bilden die Eingabeneuronen für das KNN. Zu diesem Zweck werden die Indikatoren logisch mit den Eingabeneuronen verbunden, siehe die Pfeile zwischen den Indikatoren I1 . . . Ir und der ersten Schicht 15 des künstlichen neuronalen Netzes 14.With renewed reference to FIG. 4, the indicators 13 and the number of input neurons 15 matching the indicator outputs are created in a step 430 below. It is therefore ensured that the aforementioned indicator calculation provides a result which can then be further processed in the artificial neural network. The connection point is formed by the input neurons for the KNN. For this purpose, the indicators are logically connected to the input neurons, see the arrows between the indicators I 1 . , , I r and the first layer 15 of the artificial neural network 14 .

In einem weiteren Schritt 440 wird die verdeckte Schicht16 des KNN erstellt, Schritt 440. Diese (mindestens) eine verdeckte Schicht enthält ebenfalls ei­ ne Mehrzahl an Neuronen. Jedes Neuron einer verdeckten Schicht ist über seine Eingänge mit jedem Neuron der vor­ hergehenden Schicht und über seine Ausgänge mit jedem Neuron der nachfolgenden Schicht verbunden. Diese Verbin­ dungen geschehen jeweils über eine Wichtung, eine solche gewichtete Verbindung kann beispielsweise mit einem Wich­ tungsfaktor, der zwischen 0 und 1 liegen kann, qualitativ bestückt werden. In a further step 440 , the hidden layer 16 of the KNN is created, step 440 . This (at least) one hidden layer also contains a plurality of neurons. Each neuron of a hidden layer is connected via its inputs to every neuron of the preceding layer and via its outputs to every neuron of the subsequent layer. These connections are each done via a weighting, such a weighted connection can, for example, be qualitatively equipped with a weighting factor that can be between 0 and 1.

Die Wichtungsfaktoren dienen in bekannter Weise zur Cha­ rakterisierung des Zusammenhangs zwischen zwei skalaren Größen, beispielsweise dem Kurswert zweier Aktien.The weighting factors serve for cha in a known manner characterization of the relationship between two scalars Variables, for example the price of two shares.

Jedes Ausgabeneuron ist also über eine Vielzahl von Wegen durch das KNN mit einem beliebigen Eingabeneuron verbun­ den. Die Anzahl dieser Verbindungen wächst mit der Anzahl der Eingabeneuronen und der Neuronen aus den verdeckten Schichten, sowie der Anzahl der verdeckten Schichten.So every output neuron is in a variety of ways connected to any input neuron by the KNN the. The number of these connections increases with the number the input neurons and the neurons from the hidden ones Layers, as well as the number of hidden layers.

Für weitere Einzelheiten zur tatsächlichen Implementie­ rung eines künstlichen neuronalen Netzes kann auf die einschlägige, weiterführende Literatur zurückverwiesen werden.For more details on the actual implementation Artificial neural network can be based on the referenced relevant further literature become.

Dann wird in einem Schritt 450 für jede Aktie ein Ausga­ beneuron erstellt. Auch hier ist wieder jedes Neuron der Ausgabeschicht, siehe die untere Schicht 17 in Fig. 1 über seine Eingänge mit jedem Neuron der vorhergehenden Schicht verbunden. Jedes Ausgabeneuron hat jeweils genau einen Ausgang, über den Daten aus dem KNN 14 ausgelesen werden können. In diesem Fall werden die Ausgabeneuronen zur Ausgabe der Prognosewerte für eine jeweilige Aktie verwendet. Diese Ausgabewerte sind in Fig. 1 mit P1, P2, P3, . . . Pq dargestellt.An output neuron is then created in step 450 for each share. Again, each neuron of the output layer is connected, see the lower layer 17 in FIG. 1 via its inputs to each neuron of the previous layer. Each output neuron has exactly one output, which can be used to read data from the KNN 14 . In this case, the output neurons are used to output the forecast values for a respective share. These output values are in Fig. 1 with P1, P2, P3,. , , Pq shown.

In einem nächsten Schritt 460 werden die Neuronenschich­ ten miteinander verbunden. In vorteilhafter Weise werden solche Verbindungen mit zufällig ausgewählten Wichtungsfaktoren initialisiert. In weiter vorteilhafter Weise werden die Initialisierungsfaktoren aus einem mittleren Bereich initial gewählt, Schrittt 470, der keine besonde­ re Signifikanz für eine Verbindung darstellt, damit ge­ währleistet ist, daß das künstliche neuronale Netz in ei­ nem relativ neutralen Anfangszustand ist, wenn die Trai­ ningsphase begonnen wird.In a next step 460 , the neuron layers are connected to one another. Such connections are advantageously initialized with randomly selected weighting factors. In a further advantageous manner, the initialization factors are initially selected from a middle range, step 470 , which is not particularly significant for a connection, so that it is ensured that the artificial neural network is in a relatively neutral initial state when the training phase begins becomes.

Dann wird in einem Schritt 480 das so erzeugte A. I. M.- Netz zu der gegebenenfalls bereits bestehenden Population an A. I. M.-Netzen hinzugefügt.Then in a step 480 the AIM network thus generated is added to the possibly existing population of AIM networks.

In einem nächsten Schritt 490 wird geprüft, ob die vorge­ gebene Anzahl n von zu erzeugenden A. I. M.-Netzen bereits erreicht ist. Im Nein-Fall setzt sich das Verfahren zur Erstellung eines neuen A. I. M.-Netzes mit Schritt 420 fort, wogegen im Ja-Fall das Ende 495 der Initialisierung erreicht ist.In a next step 490 it is checked whether the predetermined number n of AIM networks to be generated has already been reached. If no, the process for creating a new AIM network continues with step 420 , whereas if yes, the end 495 of the initialization has been reached.

In Ergänzung zu oben Gesagtem wird noch ein Pseudocode für die Initialisierung eingefügt:In addition to what has been said above, there is also a pseudo code inserted for initialization:

A. I. M. PseudocodeA.I. M. pseudocode Parameterparameter

n Größe der Population, z. B. 300
m Anzahl der Selektionen/Mutationen pro Generation, z. B. 90
T Größe des Zeitfensters der historischen Kursdaten, z. B. 50 Tage vor dem Prognosetag
P Prognoseziel, z. B. 10 Tage nach dem Prognosetag
e Untergrenze für Gewichtsfaktoren, z. B. 0.000001
n size of the population, e.g. B. 300
m Number of selections / mutations per generation, e.g. B. 90
T Size of the time window of the historical price data, e.g. B. 50 days before the forecast day
P forecast target, e.g. B. 10 days after the forecast day
e Lower limit for weight factors, e.g. B. 0.000001

Initialisierunginitialization

Lege eine Population mit n A. I. M.-Netzen an
Für jedes A. I. M.-Netz
{Für jede Aktie
{Erstelle T Eingabeneuronen im neuronalen Netz für die Rohdaten aus dem Zeitfenster mit den historischen Kursdaten;
Erstelle Indikatoren und für jeden Indika­ tor die zur Indikatorausgabe passende An­ zahl Eingabeneuronen im neuronalen Netz;
Erstelle ein Ausgabeneuron im neuronalen Netz}
Erstelle verdeckte Neuronenschichten;
Verbinde jedes Neuron jeder Schicht mit jedem Neuron der nachfolgenden Schicht mit zufälligen Gewichten.}
Ende A. I. M Pseudocode.
Create a population with n AIM networks
For every AIM network
{For each share
{Create T input neurons in the neural network for the raw data from the time window with the historical course data;
Create indicators and for each indicator the number of input neurons in the neural network that matches the indicator output;
Create an output neuron in the neural network}
Create hidden neuron layers;
Connect every neuron of every layer to every neuron of the next layer with random weights.}
End of AI M pseudocode.

Mit Bezug zu Fig. 5 und Fig. 6 wird im Folgenden die Trainingsphase für ein erzeugtes und initialisiertes A. I. M.-Netz genauer beschrieben. Referring to FIG. 5 and FIG. 6, the training phase of a generated and initialized AIM-network is described in more detail below.

Das Training beginnt, nachdem die Initialisierung abge­ schlossen ist. In einem ersten Schritt 510 wird der Ge­ samtfehler jedes A. I. M.-Netzes aus der Population über den gesamten Trainingsbereich berechnet und gespeichert. Dieser Gesamtfehler ergibt sich in bevorzugter Weise als geeignet definierte Summe von Einzelfehlern, i. a. (Σ|Δ|n)1/n, n ∈ R, die sich jeweils aus einem bestimmten, hi­ storischen Zeitfenster und der Differenz zwischen von dem künstlichen neuronalen Netz erzeugten Prognosewert und dem diesem Prognosewert entsprechenden historischen Wert ergibt. Einzelheiten dazu werden weiter unten ergänzend mit Fig. 8 erläutert.Training begins after initialization is complete. In a first step 510 , the total error of each AIM network from the population is calculated and stored over the entire training area. This total error preferably results as a suitably defined sum of individual errors, ia (Σ | Δ | n ) 1 / n , n ∈ R, each of which is generated from a specific, historical time window and the difference between the artificial neural network Forecast value and the historical value corresponding to this forecast value. Details of this are additionally explained below with FIG. 8.

Wenn die Trainingsphase also 10 Jahre lang ist, die 10 Jahre etwa 220 Börsentage × 10 = 2.200 Börsentage enthal­ ten, und die weiter oben erwähnte Verschiebung eines Zeitfensters jeweils 1 Tag beträgt, so ergeben sich 2.200 Differenzwerte, die zu einem Gesamtfehler geeignet auf­ summiert werden. In bevorzugter Weise werden dabei Beträ­ ge oder Quadrate von Differenzen addiert, damit positive Abweichungen negative Abweichungen nicht kompensieren können. Diejenige Programmschleife, die die oben erwähn­ ten 2.200 Einzelfehler generiert, ist in Fig. 3 innerhalb des Bereichs Training dargestellt. Der Vollständigkeit halber sei noch einmal angemerkt, daß in diesem bevorzug­ ten Ausführungsbeispiel der Wert jedes Einzelfehlers je­ des der 2.200 Schleifendurchläufe auf Grund der in Fig. 1 dargestellten Abfolge von Indikatorberechnungen und der nachfolgenden Propagation der Indikatorergebnisse durch ein jeweiliges A. I. M.-Netz als Ausgabewert P gewonnen wird.So if the training phase is 10 years long, the 10 years include about 220 exchange days × 10 = 2,200 exchange days, and the above-mentioned shift of a time window is 1 day each, there are 2,200 difference values that can be summed up to a total error , Amounts or squares of differences are preferably added so that positive deviations cannot compensate for negative deviations. The program loop that generates the 2,200 individual errors mentioned above is shown in FIG. 3 within the training area. For the sake of completeness, it should once again be noted that in this preferred exemplary embodiment, the value of each individual error for each of the 2,200 loop passes is obtained as the output value P on the basis of the sequence of indicator calculations shown in FIG. 1 and the subsequent propagation of the indicator results by a respective AIM network becomes.

Die Berechnung des Gesamtfehlers kann in bevorzugter Wei­ se so vorgenommen werden, wie es nachfolgend anhand von Fig. 8 erläutert wird.The calculation of the total error can preferably be carried out in the manner described below with reference to FIG. 8.

In einem ersten Schritt 810 wird der Starttag für die Be­ rechnung des Gesamtfehlers als erster Tag des histori­ schen, im vorliegenden Fall 10 Jahre umfassenden Zeitbe­ reich definiert. Dieser Tag ist auch in Fig. 3 ersicht­ lich, ganz links am Rand: heute minus 10 Jahre.In a first step 810 , the starting day for the calculation of the total error is defined as the first day of the historical time range, which in the present case comprises 10 years. This day is also visible in Fig. 3, on the far left edge: today minus 10 years.

Der Endtag als Abbruchkriterium für die nachfolgende Schleife ist derjenige Börsentag, von dem historische Da­ ten vorliegen, der 10 Tage vor dem letzten, aktuellst verfügbaren historischen Daten liegt, wenn das Prognose­ ziel ebenfalls diese 10 Tage in der Zukunft liegt. Endtag und Starttag bilden daher Anfangs- und Endzeit für die nachfolgenden Schleifenoperationen, die in bevorzugter Weise für jeden dazwischen liegenden Börsentag, an dem eigene Daten in der Eingabematrix 10, siehe Fig. 1, vor­ liegen, wiederholt werden. In jedem Schleifendurchlauf werden Starttag und Endtag um ein vorgegebenes Inkrement D erhöht, wie oben erwähnt, in bevorzugter Weise um einen Tag. Jeder Schleifendurchgang berechnet Fehler, die sich ergeben aus dem oben erwähnten Zeitfenster T von 50 Ta­ gen. Auch dieses Zeitfenster ist in Fig. 3 wiederholt durch entsprechende Rechtecke dargestellt. The end day as the termination criterion for the subsequent loop is the stock exchange day from which historical data is available that is 10 days before the last, currently available historical data if the forecast target is also these 10 days in the future. The end day and start day therefore form the start and end time for the subsequent loop operations, which are preferably repeated for each interim trading day on which own data is available in the input matrix 10 , see FIG. 1. In each loop pass, the start day and end day are increased by a predetermined increment D, as mentioned above, preferably by one day. Each loop pass calculates errors which result from the above-mentioned time window T of 50 days. This time window is also repeatedly represented in FIG. 3 by corresponding rectangles.

In einem ersten Schritt 820 des Schleifenkörpers selbst werden die Daten zwischen Starttag und Starttag + T (T = 50) an die Eingabeneuronen für die Rohdaten und an die Indikatoren angelegt. In einem weiteren Schritt 830 wer­ den die Indikatoren berechnet, siehe auch Beschreibung von Schritt 720.In a first step 820 of the loop body itself, the data between the start day and start day + T (T = 50) are applied to the input neurons for the raw data and to the indicators. In a further step 830, the indicators are calculated, see also the description of step 720 .

In einem nächsten Schritt 840 werden die Indikatorresul­ tate durch die entsprechenden Eingänge in das künstliche neuronale Netz eingegeben und dort durch dieses propa­ giert, Schritt 840, vergleiche Schritt 730 bei Fig. 7.In a next step 840 , the indicator results are entered into the artificial neural network through the corresponding inputs and propagated there, step 840 , compare step 730 in FIG. 7.

In einem nächsten Schritt 850 wird der jeweilige Abstand zwischen der Ausgabe des KNN an den Ausgabeneuronen und den entsprechenden, historisch erwiesenen Kursdaten aus der Eingabematrix für den jeweiligen Schleifendurchgang spezifischen Endtag + P (P = 10 Tage) nach einer vorher festgelegten Formel oder Norm berechnet. In bevorzugter Weise kann eine quadratische Fehlerabweichung verwendet werden, die positive und negative Abweichungen nicht ge­ geneinander aufhebt.In a next step 850 , the respective distance between the output of the KNN on the output neurons and the corresponding, historically proven course data from the input matrix for the respective loop passage specific end day + P (P = 10 days) is calculated according to a predetermined formula or standard. In a preferred manner, a quadratic error deviation can be used which does not cancel out positive and negative deviations from one another.

In einem weiteren Schritt 860 werden die Abstände über die einzelnen Ausgabeneuronen aufaddiert, um ein Maß für den Gesamtfehler des KNN zu besitzen. Dieses Maß, in Fig. 8 mit 'result' bezeichnet, kann zur Bestimmung der Pro­ gnosequalität des verwendeten KNN in dem Sinne herangezo­ gen werden, als daß eine Gesamtaussage für die Prognose der verschiedenen, prognostizierten Aktien gemacht wird. In a further step 860 , the distances across the individual output neurons are added up in order to have a measure of the overall error of the KNN. This measure, denoted in FIG. 8 by 'result', can be used to determine the forecast quality of the KNN used in the sense that an overall statement is made for the forecast of the various forecast shares.

Je nach Anwendungsgebiet des erfindungsgemäßen Vorhersa­ gesystems kann jedoch auch eine weitere Variable für je­ des einzelne Ausgabeneuron durch die gesamte Trainings- und Anwendungsphase verwaltet werden, die einen Einzel­ fehler für eine bestimmte Aktie quantifiziert. In weite­ rer Abwandlung können auch bestimmte Untergruppen von Ak­ tien in gewisser Weise gleich behandelt werden, daß heißt fehlermäßig 'über einen Kamm geschoren werden'.Depending on the area of application of the predictor according to the invention However, gesystems can also add another variable for each of the single output neuron through the entire training and application phase are managed by a single errors quantified for a particular stock. In wide Other subgroups of Ak ties are treated equally in a way, that is incorrectly 'to be shorn over a comb'.

Wenn das Zeitfenster T 50 Börsentage groß ist, werden al­ so in diesem Schritt historische Daten von 50 Tagen zur Vorhersage eines einzigen Prognosewertes für eine jewei­ lige Aktie verwendet.If the time window T is 50 trading days, al so in this step historical data from 50 days to Prediction of a single forecast value for a particular one lige share used.

Schließlich werden in einem Schritt 870 die Schleifenva­ riablen Starttag und Endtag um einen Tag inkrementiert und in einer Entscheidung 880 festgestellt, ob das Schleifenabbruchkriterium erfüllt ist, nämlich ob der Endtag + P = 10 Tage größer ist als der letzte Tag des Datenbereiches, der in der Eingabedatenmatrix vorliegt. Im Nein-Fall wird zurückverzweigt zu Schritt 820, daß heißt das Zeitfenster wird um einen Tag verschoben und die nachfolgenden Schritte des Schleifenkörpers werden wiederholt. Diese Verschiebung des Zeitfensters, die so­ wohl während der Trainingsphase als auch während der spä­ teren Validierungsphase stattfindet, ist in Fig. 3 eben­ falls erkenntlich, wo die einzelnen, verschobenen Zeit­ fenster jeweils schräg untereinander angeordnet sind. Wenn die Schleife schließlich komplett abgearbeitet ist, wird sie durch den Ja-Zweig von Entscheidung 880 verlas­ sen und das Ergebnis 'result' wird an das aufrufende Pro­ gramm zurückgegeben, Schritt 890.Finally, in a step 870, the loop variable start day and end day are incremented by one day and a decision 880 determines whether the loop termination criterion is met, namely whether the end day + P = 10 days is greater than the last day of the data area that is in the Input data matrix is available. If the answer is no, the process branches back to step 820 , that is to say the time window is shifted by one day, and the subsequent steps of the loop body are repeated. This shift in the time window, which takes place both during the training phase and during the later validation phase, can also be seen in FIG. 3, where the individual, shifted time windows are arranged obliquely one below the other. When the loop is finally completed, it is exited through the yes branch of decision 880 and the result 'result' is returned to the calling program, step 890 .

Ergänzend zu der obigen Beschreibung der Fehlerberechnung wird nachfolgend noch der entsprechende Pseudocode gege­ ben:
Unterroutine, Pseudocode: Berechne den Fehler eines A. I. M.-Netzes über einen Datenbereich von etwa 10 Jahren mit einem Zeitfenster der Größe T = 50 Tagen und einem Prognoseziel, das P = 10 Tage in der Zukunft vom letzten betrachteten Tage liegt.
starttag: = erster Tag des Datenbereiches; z. B. heute vor 10 Jahren;
endtag: = starttag + T; (Definition des ersten Zeitfen­ sters)
solange (endtag + p ⇐ letzter Tag des Datenbereiches)
{Für jede Aktie
{Lege die Kursdaten zwischen starttag und endtag an die Eingabeneuronen für die Rohdaten;
Lege die Kursdaten zwischen starttag und endtag an die Indikatoren;}
Berechne alle Indikatoren;
Propagiere das neuronale Netz. (Die Ausgabeneuronen liefern eine Prognose für den Tag endtag + p)
Für jedes Ausgabeneuron
{Vergleiche die Prognose des Neurons mit dem tatsächlichen Kurs am Tag endtag + p;
Summiere die Abweichung in result auf;}
starttag: = starttag + 1
endtag: = starttag + T}
Gib result als Gesamtfehler des A. I. M.-Netzes über dem Datenbereich zurück.
Ende Pseudocode.
In addition to the above description of the error calculation, the corresponding pseudo code is given below:
Subroutine, pseudocode: Calculate the error of an AIM network over a data area of approximately 10 years with a time window of size T = 50 days and a forecast target that is P = 10 days in the future from the last considered day.
start day: = first day of the data area; z. B. today 10 years ago;
end day: = start day + T; (Definition of the first time window)
as long (end day + p ⇐ last day of the data area)
{For each share
{Apply the course data between the start day and end day to the input neurons for the raw data;
Put the course data between the start day and end day on the indicators;}
Calculate all indicators;
Propagate the neural network. (The output neurons provide a forecast for the day endday + p)
For every issue neuron
{Compare the prognosis of the neuron with the actual course on the day end day + p;
Sum up the deviation in result;}
start day: = start day + 1
end day: = start day + T}
Return result as the total error of the AIM network over the data area.
End of pseudocode.

Erfindungsgemäß wird nun in besonders vorteilhafter Weise ein genetischer Algorithmus verwendet, um die Ausstattung des künstlichen neuronalen Netzes zu optimieren. Dieser genetische Algorithmus nimmt Einfluß auf die Auswahl der Indikatoren. Er hat zum Ziel, daß bestimmte, eher tref­ fende Indikatoren gegenüber weniger treffenden zum Zwecke einer Verbesserung der Prognosequalität des KNN selek­ tiert werden. Durch diese Maßnahme kann erfindungsgemäß gewährleistet werden, daß einerseits sehr viele Indikato­ ren grundsätzlich verwendet werden können, das heißt, ei­ ne grundsätzliche Prüfung ihrer Tauglichkeit zur Vorher­ sage einer bestimmten Aktie wird nicht von vornherein ausgeschlossen, dennoch wird durch den genetischen Algo­ rithmus' erreicht, daß das künstliche neuronale Netz nur mit erfolgversprechenden Indikatoren im eigentlichen Sin­ ne trainiert wird. Der genetische Algorithmus umklammert also das Pärchen aus Indikatorberechnung und Netzpropaga­ tion.According to the invention, it is now particularly advantageous a genetic algorithm used to equip of the artificial neural network. This genetic algorithm influences the selection of the Indicators. The goal is to make certain, more accurate indicators versus less appropriate ones for the purpose an improvement in the forecast quality of the KNN selek be animals. This measure can be used according to the invention ensure that, on the one hand, a large number of indicators Ren can be used in principle, that is, egg ne basic check of their suitability for the before telling a particular stock is not going to be a priori excluded, nevertheless, by the genetic algo rithmus' achieved that the artificial neural network only with promising indicators in the real sense ne is being trained. The genetic algorithm is clutched  So the pair of indicator calculation and network propaganda tion.

Mit Bezug zurück zu Fig. 5 wird in der Trainingsphase also ein Fenster von T Tagen im Trainingsbereich festge­ legt. Die Kursdaten dieses Fensters werden in ein A. I. M- Netz der Population eingegeben und durch das A. I. M-Netz propagiert. Die Ausgabe des A. I. M.-Netzes wird mit der tatsächlichen Kursentwicklung der Aktien verglichen und die Abweichung wird gespeichert. Danach wird das Trai­ ningsfenster um einen Tag verschoben. Die Daten des ver­ schobenen Fensters werden in das A. I. M.-Netz eingegeben und propagiert. Die Abweichung der Prognose des A. I. M.- Netzes wird aufsummiert. Dies wird solange wiederholt, bis das Prognoseziel auf den letzten Tag des Trainingsbe­ reiches fällt. Damit ist der Gesamtfehler eines A. I. M.- Netzes über dem Trainingsbereich berechnet. Der Ge­ samtfehler über den Prognosebereich wird für jedes A. I. M.-Netz der Population berechnet.With reference back to FIG. 5, a window of T days is thus defined in the training area in the training phase. The course data of this window are entered into an AI M network of the population and propagated through the AI M network. The output of the AIM network is compared with the actual share price development and the deviation is saved. Then the training window is moved by one day. The data of the shifted window are entered into the AIM network and propagated. The deviation of the forecast of the AIM network is summed up. This is repeated until the forecast target falls on the last day of the training area. This calculates the total error of an AIM network over the training area. The total error over the forecast range is calculated for each AIM network in the population.

Aus der Population wird nun in einem weiteren Schritt 520 ein A. I. M.-Netz zufällig ausgewählt, wobei A. I. M.-Netze mit kleineren Fehlern eine größere Chance haben, selek­ tiert zu werden. Hier sei angemerkt, dass ein absolut ge­ sehen kleiner (Gesamt-)Fehler eines A. I. M. Netzes bereits eine auf einem 10-Jahre abdeckenden Trainingsszeitraum basierende relativ große Aussagekraft hat, die darauf schließen läßt, dass die gewählten Indikatoren die be­ treffende Aktie schon relativ gut - oder treffend - cha­ rakterisieren. Dennoch bleibt in den meisten Fällen Raum für eine weitere Optimierung der Vorhersagequalität, die erst erfindungsgemäß in der weitaus überwiegenden Mehr­ zahl der Fälle durch die erfindungsgemäße Selbstauswahl der Indikatoren erreicht wird.In a further step 520, an AIM network is now randomly selected from the population, AIM networks with smaller errors having a greater chance of being selected. It should be noted here that an absolutely small (total) error of an AIM network already has a relatively high informative value based on a 10-year training period, which suggests that the selected indicators are already relatively good at the relevant share - or aptly - characterize. Nevertheless, in most cases there is room for further optimization of the prediction quality, which is only achieved according to the invention in the vast majority of cases through the self-selection of the indicators according to the invention.

Das ausgewählte A. I. M.-Netz wird dann in einem nächsten Schritt 530 mutiert, indem vorzugsweise die Gewichte der Neuronenverbindungen und bestimmte Parameter der Indika­ toren zufällig verändert werden. Diese Änderung der Para­ meter für bestimmte Indikatoren stellt ein gewisses 'Feintuning' für diese dar. Dieses Feintuning muß im Ver­ hältnis zu Schritt 590, siehe weiter unten, betrachtet werden, bei dem schlechte Indikatoren ganz herausgenommen und ersetzt werden.The selected AIM network is then mutated in a next step 530 by preferably changing the weights of the neuron connections and certain parameters of the indicators randomly. This change in the parameters for certain indicators represents a certain 'fine tuning' for these. This fine tuning must be considered in relation to step 590 , see below, in which bad indicators are completely removed and replaced.

Um hier keinerlei unvernünftige Parametervariation zufäl­ lig zu erzeugen, könnten zusätzlich bestimmte Plausibili­ tätsüberprüfungen programmiert werden, in die der Sach­ verstand von Finanzexperten günstigerweise einfließen könnte.To avoid any unreasonable parameter variation here certain plausibility could also generate be programmed into the factual checks understanding of financial experts favorably could.

Das mutierte Netz wir dann als neues A. I. M.-Netz in die Population eingefügt und auch dessen Gesamtfehler wird berechnet, wie es oben bei Schritt 510 und bei Fig. 3 er­ läutert wurde, Schritt 540.The mutated network is then inserted into the population as a new AIM network and its total error is also calculated, as was explained above in step 510 and in FIG. 3, step 540 .

In einem nächsten Schritt 550 soll dann das beste Netz validiert werden. In a next step 550 , the best network is then to be validated.

Zu diesem Zweck wird der Gesamtfehler des besten A. I. M.- Netzes aus der Population über den Validierungsbereich berechnet. Der Validierungsbereich ist in Fig. 3 abgebil­ det. Er schließt sich zeitlich an den Trainingsbereich an und grenzt vorzugsweise an die Gegenwart. Bei der Vali­ dierung des besten Netzes wird die Prognosesituation qua­ si vorweggenommen. Es werden Qualitätsanforderungen an die Prognosequalität gestellt, die das beste A. I. M.-Netz erfüllen muß, damit es später für eine echte Prognose im eigentlichen Geschäftsprozeß verwendet werden kann. Dafür werden, wie in Fig. 3 ebenfalls dargestellt, anhand der historischen Daten im Zeitfenster die vom KNN prognosti­ zierten Werte mit denen aus der Vergangenheit verglichen.For this purpose, the total error of the best AIM network from the population is calculated over the validation area. The validation area is shown in FIG. 3. It follows the training area and preferably borders on the present. When validating the best network, the forecast situation is virtually anticipated. Quality requirements are placed on the forecast quality, which the best AIM network must meet so that it can later be used for a real forecast in the actual business process. For this purpose, as also shown in FIG. 3, the historical data in the time window are used to compare the values predicted by the KNN with those from the past.

Mit dem besten A. I. M.-Netz aus der Population (das mit dem kleinsten Fehler) wird der Fehler über den Validie­ rungsbereich berechnet. Auch hier wird wieder ein Fenster von T Tagen über den Datenbereich geschoben und die Ab­ weichungen der Prognosen von den tatsächlichen Kursbewe­ gungen werden aufsummiert.With the best A.I.M. network from the population (the one with the smallest error) the error is validated area calculated. Again, there will be a window of T days over the data area and the Ab deviations of the forecasts from the actual price movements are summed up.

In einem Schritt 560 wird dann der Gesamtfehler des be­ sten A. I. M.-Netzes mit dem vorher vorgegebenen erlaubten Maximalfehler verglichen, und es wird geprüft, ob die An­ zahl m der zulässigen Mutationsvorgänge noch nicht über­ schritten ist.In a step 560 , the total error of the best AIM network is compared with the previously permitted maximum error, and it is checked whether the number m of permissible mutation processes has not yet been exceeded.

Ist der Fehler über den Validierungsbereich genügend klein, so wird das Training abgebrochen, siehe JA-Zweig von Entscheidung 560. If the error over the validation area is sufficiently small, the training is stopped, see YES branch of decision 560 .

Für den Nein-Zweig ist ein Rückverzweigung zu Schritt 510 vorgesehen, um das Training fortzusetzen. Die Auswahl (520) und Mutation (530) findet maximal m-mal statt, bei­ spielsweise m = 90 mal.The No branch is branched back to step 510 to continue the training. The selection ( 520 ) and mutation ( 530 ) take place a maximum of m times, for example m = 90 times.

Danach werden die A. I. M.-Netze mit großen Fehlern aus der Population entfernt, um nicht unnötigen Speicherbereich und Rechenaufwand für schlechte Netze 'zu verschwenden', Schritt 570. In vorteilhafter Weise wird die Anzahl der Netze auf die vorgegebene Anzahl n beschränkt, in dem die überschüssigen, schlechtesten Netze aus der Population gelöscht werden.The AIM networks are then removed from the population with large errors so as not to 'waste' unnecessary memory space and computation effort for poor networks, step 570 . The number of networks is advantageously limited to the predetermined number n by deleting the excess, worst networks from the population.

Danach wird in einem Schritt 580 nochmals der Fehler des besten Netzes daraufhin geprüft, ob er geringer ist als der vorgegebene Maximalfehler, der noch tolerabel ist.The error of the best network is then checked again in a step 580 to determine whether it is less than the predetermined maximum error, which is still tolerable.

Die A. I. M.-Netze der Population werden erneut mit dem Trainingsbereich trainiert, bis der Fehler eines A. I. M.- Netzes über den Validierungsbereich genügend klein ist.The A.I.M. networks of the population are again connected to the Training area trained until the failure of an A.I.M. Network over the validation area is sufficiently small.

Nach der Trainingsschleife werden im besten A. I. M.-Netz diejenigen Indikatoren entfernt, die mit Verbindungen mit sehr kleinen Gewichtsfaktoren an das neuronale Netz ange­ schlossen sind, Schritt 590, Fig. 6 in Fortsetzung von Fig. 5.After the training loop, those indicators are removed in the best AIM network that are connected to the neural network with connections with very small weighting factors, step 590 , FIG. 6 in continuation of FIG. 5.

Dies hat den Zweck, das KNN von unnötigem Ballast zu be­ freien, denn Indikatoren mit einem sehr niedrigen Gewichtsfaktor, der kleiner ist als das vorgegebene Epsi­ lon-Minimum sind nur schlecht geeignet, um einen Börsen­ wert gut vorherzusagen. Dieser Schritt stellt einen we­ sentlichen Gesichtspunkt für die erfindungsgemäße Verbes­ serung der Prognosequalität im Vergleich zum Stand der Technik dar, denn erfindungsgemäß sind die Indikatoren nun 'adaptiv', d. h., sie werden dynamisch vom System ver­ ändert, um die Prognosequalität ohne Hinzunahme von Bör­ senfachwissen zu erhöhen.The purpose of this is to relieve the KNN of unnecessary ballast free because indicators with a very low weight factor,  which is smaller than the given epsi Lon minimums are poorly suited to a stock market worth predicting well. This step represents a we substantial point of view for the verb according to the invention improvement of the forecast quality compared to the status of Technology, because the indicators are according to the invention now 'adaptive', i.e. that is, they are dynamically ver changes to forecast quality without adding stock to increase specialist knowledge.

Ebenso werden im neuronalen Netz die Verbindungen mit sehr kleinen Gewichten gelöscht, Schritt 600. Dies dient dem selben Zweck wie bei Schritt 590, oben.The connections with very small weights are also deleted in the neural network, step 600 . This serves the same purpose as step 590 above.

Durch diese letztgenannten Bereinigungsmaßnahmen wird das "wertvolle", weil trainierte KNN zu einem Vorhersagein­ strument, das nur kurze Rechenzeit für eine Vorhersage benötigt.These last-mentioned cleanup measures will "valuable" because KNN trained to predict strument that only takes a short time to make a prediction needed.

Darin ist ein besonderer Vorteil zu sehen, wo doch enorm rechenzeitaufwändige Berechnungen eingeflossen sind, um das KNN in diesen bevorzugten, trainierten Zustand zu bringen.This is a special advantage, if only enormous Computationally time-consuming calculations have been included in order the KNN into this preferred, trained state bring.

Dann wird in einem Schritt 610 das vereinfachte, berei­ nigte KNN für die spätere Anwendungsphase gespeichert und steht zur Verfügung.Then, in a step 610, the simplified, adjusted KNN is saved for the later application phase and is available.

Desweiteren wird die gesamte Population von n Netzen für später vorzunehmende Trainingsphasen gespeichert, Schritt 620. Damit muß nicht mehr bei 'Null' angefangen werden, um ein System nachzutrainieren, sondern es kann auf einem gut bewährten Sockel (Pool) von KNNs aufbauend an den ge­ genwärtigen und zukünftigen Kursverlauf der betreffenden Werte angepasst werden, bis irgendwann wesentlich später eine komplett neue Netzgenerierung mit erneuter Initiali­ sierung und neue Basistraining verlangt ist, um eine hohe Vorhersagequaltöät auf Dauer halten zu können.Furthermore, the entire population of n networks is stored for training phases to be carried out later, step 620 . This means that you no longer have to start from 'zero' to retrain a system, but it can be built on a well-proven base (pool) of KNNs based on the current and future course of the relevant values, until a completely new one at some point Network generation with re-initialization and new basic training is required to maintain a high forecast quality in the long term.

Damit ist die Trainingsphase beendet, und das KNN bereit für eine 'echte', geschäftsprozeßrelevante Börsenkurspro­ gnose für diejenigen Börsennotationen (Aktien), für die es trainiert wurde. Soll es andere, bisher unberücksich­ tigte Aktienkurse vorhersagen, kann das KNN erfindungsge­ mäß die Initialisierungs-, Trainings-, und Validierungs­ phase erneut durchlaufen, um ein entsprechendes neues KNN zu generieren.This concludes the training phase and the KNN is ready for a 'real', business process relevant stock exchange price forecast for those stock exchange listings (shares) for which it was trained. Should it be others, so far not considered can predict predicted share prices, the KNN according to the invention according to the initialization, training and validation run through the phase again to find a corresponding new KNN to generate.

In Ergänzung zu oben Gesagtem wird im folgenden ein gro­ ber Pseudocode für die Trainingsphase eingefügt:
A. I. M. Pseudocode, Training:
Wiederhole
{Berechne den Fehler jedes A. I. M.-Netzes über den Trainingsbereich;
Wiederhole
{Selektiere zufällig ein A. I. M.-Netz mit kleinem Fehler;
Mutiere Gewichte und Indikatoren dieses A. I. M.- Netzes;
Füge den Mutant als neues Individuum der Popu­ lation hinzu;
Berechne den Fehler des besten A. I. M.-Netzes über den Validierungsbereich;}
bis der Fehler des besten A. I. M.-Netzes über den Va­ lidierungsbereich genügend klein ist oder m Schlei­ fendurchläufe abgearbeitet wurden;
Lösche die A. I. M.-Netze mit den größten Fehlern;}
bis der Fehler des besten A. I. M.-Netzes über den Validie­ rungsbereich genügend klein ist;
Entferne im besten A. I. M-Netz die Indikatoren, die mit Verbindungen mit einem Gewichtsfaktor ⇐ epsilon 1 an das neuronale Netz angeschlossen sind;
Entferne im neuronalen Netz des besten A. I. M.-Netzes die Verbindungen, deren Gewichtsfaktor ⇐ epsilon 2 ist;
Ende Pseudocode.
In addition to the above, a rough pseudo code for the training phase is inserted below:
AIM pseudocode, training:
Repeat
{Calculate the error of each AIM network over the training area;
Repeat
{Randomly select an AIM network with a small error;
Mutate weights and indicators of this AIM network;
Add the mutant as a new individual to the population;
Calculate the error of the best AIM network over the validation area;}
until the error of the best AIM network over the validation area is sufficiently small or until loop runs have been processed;
Delete the AIM networks with the biggest mistakes;}
until the error of the best AIM network over the validation area is sufficiently small;
Remove the indicators in the best AI M network that are connected to the neural network with connections with a weighting factor ⇐ epsilon 1;
Remove the connections in the neural network of the best AIM network whose weight factor ⇐ epsilon 2;
End of pseudocode.

Mit ergänzendem Bezug zu Fig. 7 wird im folgenden die An­ wendungsphase näher erläutert.With additional reference to FIG. 7, the application phase is explained in more detail below.

In einem ersten Schritt 710 werden die historischen Daten an die Eingabeneuronen für die Rohdaten angelegt, so, wie es vorher in der Trainingsphase mit noch weiter zurückliegenden, historischen Daten getan wurde. Des weiteren werden beim besten A. I. M.-Netz die Kursdaten der selben letzten 50 Tage an die Indikatoren angelegt. In einem Schritt 720 wird dann die Indikatorberechnung durchge­ führt. Damit sind sämtliche Indikatoren des besten A. I. M.-Netzes berechnet. Diese Indikatorresultate werden dann in einem Schritt 730 an die Eingabeneuronen des be­ sten neuronalen Netzes angelegt und durch das KNN propa­ giert. Als Resultat ergeben sich Werte an den Ausgabeneu­ ronen für den zu prognostizierenden Tag, der 10 Tage weit in der Zukunft liegt. Es ergibt sich ein Prognosewert 740 für jede vorherzusagende Aktie.In a first step 710 , the historical data is applied to the input neurons for the raw data, as was done previously with historical data that was further back in the training phase. Furthermore, the course data of the same last 50 days are applied to the indicators in the best AIM network. The indicator calculation is then carried out in a step 720 . This means that all indicators of the best AIM network are calculated. These indicator results are then applied to the input neurons of the best neural network in a step 730 and propagated by the KNN. The result is values on the spending neurons for the day to be forecast, which is 10 days far in the future. The result is a forecast value of 740 for each share to be predicted.

Damit hat das erfindungsgemäße Prognosesystem seine pri­ märe Aufgabe erfüllt, nämlich die Vorhersage eines zu­ künftigen Aktienwertes für eine oder eine Mehrzahl von Aktien oder anderen Börsennotierungen, wie etwa verschie­ dene Indexes.The forecasting system according to the invention thus has its pri task, namely the prediction of one too future stock value for one or a plurality of Shares or other stock market listings, such as various their indexes.

Nach der Prognose wird der Trainings- und Validierungsbe­ reich um einen Tag nach vorn verschoben. Mit den neuen Bereichen wird die Population nachtrainiert, damit sich die A. I. M.-Netze aktuellen Trends und Entwicklungen an­ passen können.After the forecast, the training and validation office richly shifted forward one day. With the new ones Areas, the population is retrained so that the A.I.M. networks address current trends and developments can fit.

Dies ist in Schritt 750, Fig. 7, schematisch dargestellt. Dieser Schritt erfordert, daß die Eingabematrix, die die Fülle an tatsächlichen Kursdaten enthält, nach einem Börsentag auch wieder aktualisiert wird, um die aktuellen Börsendaten zu enthalten. In der Population der A. I. M.- Netze sind in den meisten Fällen eine Mehrzahl an treff­ sicheren Netzen enthalten. Im Zuge des Nachtrainierens anhand von aktualisierten Börsendaten kann es sich durch­ aus ergeben, daß ein anderes A. I. M.-Netz nun zum besten Netz wird und von daher zur Prognose am nächsten Börsen­ tag herangezogen wird.This is shown schematically in step 750 , FIG. 7. This step requires that the input matrix, which contains the abundance of actual price data, is also updated again after a trading day in order to contain the current stock market data. In the majority of cases, the AIM network population contains a large number of accurate networks. In the course of retraining based on updated stock exchange data, it can result from that another AIM network is now the best network and is therefore used for the forecast on the next stock exchange day.

Zeigt eine kontinuierlich mitgeführte Vergleichsstati­ stik, die die prognostizierten Werte mit den tatsächli­ chen späteren Kurswerten vergleicht, daß die Abweichungen im Durchschnitt zunehmen und eine Systematik in den Ab­ weichungen erkennbar ist, so wird ab einem vorbestimmten Abbruchkriterium, siehe Entscheidung 760, entschieden, daß der Pool an Netzen wieder komplett neu trainiert wer­ den muß, siehe Ja-Zweig aus Entscheidung 760. In diesem Fall wird zurück zur Trainingsphase verzweigt. Andern­ falls, siehe Nein-Zweig, wird zurück zu Schritt 710 ver­ zweigt und das beste A. I. M.-Netz wird zur Vorhersage am nächsten Börsentag verwendet.If a comparison statistic that is carried along continuously and compares the forecast values with the actual later exchange rate values shows that the deviations increase on average and a systematic deviation is discernible, it is decided from a predetermined termination criterion, see decision 760 , that the Pool of networks who have to be completely re-trained, see yes branch from decision 760 . In this case the system branches back to the training phase. Otherwise, see the No branch, branch back to step 710 and the best AIM network is used to predict the next trading day.

In Ergänzung zu oben Gesagtem wird im folgenden ein Pseu­ docode für die Anwendungsphase eingefügt:
A. I. M. Pseudocode, Anwendung:
Für jede Aktie
{Lege beim besten A. I. M-Netz die Kursdaten der letzen T Tage an die Eingabeneuronen für die Rohdaten;
Lege beim besten A. I. M-Netz die Kursdaten der letzen T Tage an die Indikatoren;}
Berechne alle Indikatoren des besten A. I. M-Netzes;
Propagiere das neuronale Netz des besten A. I. M-Netzes;
(Die Ausgabeneuronen liefern die Prognose für den Tag heute + p)
Gib Prognosenwerte für jede Aktie aus;
Verschiebe Trainings- und Validierungsbereich um einen Tag;
Trainiere die Population mit dem neuen Trainings- und Va­ lidierungsbereich;
Ende Pseudocode.
In addition to the above, a Pseu docode for the application phase is inserted below:
AIM pseudocode, application:
For every share
{Apply the course data of the last T days to the input neurons for the raw data for the best AI M network;
For the best AI M network, put the price data of the last T days on the indicators;}
Calculate all indicators of the best AI M network;
Propagate the best AI M network neural network;
(The output neurons provide the forecast for today + p)
Output forecast values for each stock;
Shift training and validation area by one day;
Train the population with the new training and validation area;
End of pseudocode.

Es sei noch angemerkt, dass die hier genannten Indikato­ ren im allgemeinen Sinne zu verstehen sind als Operato­ ren, die auf bestimmten Eingabedaten operieren und Ausga­ bedaten erzeugen. Die Ausgabedaten können auch identisch sein mit den Eingabedaten. In diesem Spezialfall läge ein neutraler Operator vor.It should also be noted that the indicator mentioned here in the general sense are to be understood as operato and operate on certain input data and outputs generate data. The output data can also be identical be with the input data. In this special case, neutral operator.

Weiter kann der Gegenstand der vorliegenden Erfindung in Hardware, Software oder einer Kombination aus beiden rea­ lisiert werden. Eine beliebige Art von Computersystem oder Computergeräten ist dafür geeignet, das erfindungs­ gemäße Verfahren ganz oder in Teilen durchzuführen. Eine typische Hardware-Software-Kombination für die vorliegen­ de Erfindung wäre ein leistungsstarker Computer und ein Computerprogramm, das, wenn es geladen und ausgeführt wird, den Computer derart steuert, daß er das erfindungs­ gemäße Verfahren ganz oder in Teilen ausführt. Furthermore, the subject of the present invention in Hardware, software or a combination of both rea be lized. Any type of computer system or computer equipment is suitable for the Invention perform all or part of the appropriate procedures. A typical hardware-software combination for the present de invention would be a powerful computer and a Computer program that, when loaded and executed is, the computer controls so that it fiction executes appropriate procedures in whole or in part.  

Die vorliegende Erfindung kann auch in ein Computerpro­ gramm-Erzeugnis eingebettet sein, das sämtliche Merkmale enthält, die eine Implementierung der hierin beschriebe­ nen Verfahren ermöglichen, und die, wenn sie in ein Com­ putersystem geladen wird, dazu imstande ist, diese Ver­ fahren auszuführen, wenn es mit den aktuellen Daten ver­ sorgt wird.The present invention can also be implemented in a computer pro Gram product that has all the features embedded contains an implementation of that described herein enable procedures, and those when they are in a Com computer system is able to do this Ver drive to execute if it ver with the current data will worry.

Computerprogrammeinrichtungen oder Computerprogramme be­ deuten im vorliegenden Kontext beliebige Ausdrücke in ei­ ner beliebigen Sprache oder Notation, oder einem beliebi­ gen Code eines Satzes von Anweisungen, die ein System mit einer Informationsverarbeitungsmöglichkeit dazu veranlas­ sen sollen, von den folgenden Funktionen
Umsetzung in eine andere Sprache oder Notation oder einen anderen Code,
Reproduktion in eine unterschiedliche materielle Form, eine bestimmte entweder direkt oder nacheinander oder beide durchzuführen.
In the present context, computer program devices or computer programs mean any expressions in any language or notation, or any code of a set of instructions which are intended to cause a system with an information processing facility to do so from the following functions
Translation into another language or notation or code,
Reproducing into a different material form, performing a specific one either directly or sequentially or both.

Obwohl die vorliegende Erfindung anhand eines bevorzugten Ausführungsbeispiels vorstehend beschrieben wurde, ist sie darauf nicht beschränkt, sondern auf vielfältige Wei­ se modifizierbar.Although the present invention is based on a preferred one Embodiment described above is it is not limited to this, but to a variety of ways can be modified.

Das Verfahren ist frei skalierbar, um kleinere oder grö­ ßere A. I. M. Systeme herzustellen. The process is freely scalable to smaller or larger to manufacture larger A.I.M. systems.  

Es ist klar, dass die beschriebene Auswahl der Parameter T, m, n nicht unbedingt optimale Vorhersagequalität bei möglichst kurzer Rechenzeit garantieren kann. Variationen sind daher immer Teil der eigentlichen Implementierung und können auch markt- oder branchenabhängig sein. Des­ weiteren kann das erfindungsgemäße System für eine einzi­ ge oder für mehrere Branchen eingesetzt werden.It is clear that the selection of parameters described T, m, n not necessarily optimal prediction quality can guarantee the shortest possible computing time. variations are therefore always part of the actual implementation and can also depend on the market or industry. of the system according to the invention can also be used for a single ge or used for several industries.

Schließlich können die auf die Indikatoren wirkenden Ver­ fahrensschritte auch sinnvoll an anderer Stelle in einem modifizierten Verfahren eingesetzt werden, ohne dass die erfinderische Qualität gänzlich verlorengeht.Finally, the ver Driving steps also make sense elsewhere in one modified procedures can be used without the inventive quality is completely lost.

Schließlich können die Merkmale der Unteransprüche im we­ sentlichen frei miteinander und nicht durch die in den Ansprüchen vorliegende Reihenfolge miteinander kombiniert werden, sofern sie unabhängig voneinander sind.Finally, the features of the subclaims in the we essential freely with each other and not through those in the Claims present order combined with each other provided that they are independent of each other.

Claims (19)

1. Verfahren zur Erstellung von Prognosewerten von Bör­ senkursen, bei dem eine Mehrzahl von Indikatoren (13) an­ hand von historischen Daten (10) zur Berechnung von Pro­ gnosewerten (740) dienen, enthaltend die Schritte,
die Resultate einer Mehrzahl von Indikatoren (13) für ei­ ne Berechnung von Prognosewerten unter Einsatz einer Im­ plementierung eines künstlichen, neuronalen Netzes (14) zu verwenden,
Durchführen einer Trainingsphase (510 . . 620) für das KNN zum Aufbau eines darin enthaltenen Grundschemas, bis zu einer vorbestimmten, unter Einbeziehung von historischen Daten definierten Prognosequalität (560),
wobei die Trainingsphase unter Einbeziehung eines geneti­ schen Algorithmus erfolgt,
Ausgeben wenigstens eines Prognosewertes (740),
gekennzeichnet durch den Schritt:
Verwenden eines genetischen Algorithmus zum Zwecke einer Selbstauswahl (590) von treffenderen Indikatoren gegen­ über weniger treffenden für eine Verbesserung der Progno­ sequalität des künstlichen, neuronalen Netzes (14).
1. A method for producing forecast values for stock exchange prices, in which a plurality of indicators ( 13 ) are used on the basis of historical data ( 10 ) to calculate forecast values ( 740 ), comprising the steps
to use the results of a plurality of indicators ( 13 ) for calculating forecast values using an implementation of an artificial, neural network ( 14 ),
Carrying out a training phase (510.. 620) for the KNN to build up a basic scheme contained therein, up to a predetermined forecast quality ( 560 ), which is defined using historical data,
the training phase takes place using a genetic algorithm,
Output of at least one forecast value ( 740 ),
characterized by the step:
Using a genetic algorithm for the purpose of self-selection ( 590 ) of more suitable indicators versus less suitable ones for an improvement in the prognosticity of the artificial neural network ( 14 ).
2. Verfahren nach dem vorstehenden Anspruch, wobei eine Selbstauswahl von Indikatorkombinationen vollzogen wird. 2. The method according to the preceding claim, wherein a Self-selection of indicator combinations is carried out.   3. Verfahren nach Anspruch 1, wobei die Trainingsphase eine mehrfache Wiederholung einer zeitpunktbezogenen Pro­ pagation (510) von auf jeweils verschiedenen historischen Zeitpunkten beruhenden Indikatorresultaten durch das künstliche, neuronale Netz (14) enthält, wobei die Indi­ katorresultate anhand von historischen Daten gewonnen wurden, sowie einen jeweiligen Vergleich der zugehörigen, zeit­ punktbezogenen Ausgabe des künstlichen, neuronalen Netzes (14) als Kurswertprognose mit einem entsprechenden, hi­ storischen Kurswert enthält.3. The method according to claim 1, wherein the training phase contains a repeated repetition of a point-in-time propagation ( 510 ) of indicator results based on different historical points in time by the artificial, neural network ( 14 ), the indicator results being obtained on the basis of historical data, and contains a respective comparison of the associated, point-in-time output of the artificial, neural network ( 14 ) as a price forecast with a corresponding historical price. 4. Verfahren nach dem vorstehenden Anspruch, wobei die historischen Daten aus einem Zeitfenster aus einer Anzahl T zusammenhängender Tage zur Einzelvorhersage eines Kur­ ses verwendet werden.4. The method according to the preceding claim, wherein the historical data from a time window from a number T continuous days for the individual forecast of a course ses can be used. 5. Verfahren nach einem der beiden vorstehenden Ansprü­ che, wobei die mehrfache Wiederholung eine sequentielle Abfolge von Einzelwertprognosen enthält, die sich aus ei­ ner Verschiebung des T-Tages-Fensters aus der Vergangen­ heit in die Gegenwart ergibt, und wobei T im Bereich zwi­ schen 10 und 100, bevorzugt zwischen 20 und 80 und beson­ ders bevorzugt zwischen 40 und 60 liegt, wobei für die jeweils nächstfolgende Einzelwertprognose das Zeitfenster um ein Anzahl von D Tagen verschoben wird. 5. The method according to one of the two preceding claims che, the multiple repetition being a sequential Sequence of individual value forecasts, which result from ei a shift of the T-day window from the past unit results in the present, and where T in the range between rule 10 and 100, preferably between 20 and 80 and esp ders preferably between 40 and 60, wherein for the the next individual value forecast the time window is shifted by a number of D days.   6. Verfahren nach dem vorstehenden Anspruch, wobei gilt: 0 < D < 10, und bevorzugt 0 < D < 4, und besonders bevor­ zugt D = 1.6. The method according to the preceding claim, wherein: 0 <D <10, and preferably 0 <D <4, and especially before Trains t D = 1. 7. Verfahren nach Anspruch 1, enthaltend den Schritt, ei­ ne Vielzahl VZ von Indikatoren für die Trainingsphase des KNN zum Erhalt eines verbesserten Grundschemas des KNN zu verwenden, wobei VZ größer als 3, bevorzugt größer als 10 und besonders bevorzugt größer als 20 ist.7. The method according to claim 1, comprising the step, egg A large number of indicators for the training phase of the KNN to obtain an improved basic scheme of the KNN use, VZ greater than 3, preferably greater than 10 and is particularly preferably greater than 20. 8. Verfahren nach dem vorstehenden Anspruch, wobei mathe­ matische Funktionen als Indikatoren zumindest mitverwen­ det werden.8. The method according to the preceding claim, wherein math at least use them as indicators be det. 9. Verfahren nach dem vorstehenden Anspruch, wobei einer oder mehrere der folgenden, mathematischen Indikatoren zumindest mitverwendet wird:
Gleitender Durchschnitt (simple/weighted/exponential),
Standardabweichung,
OBV-Linie (On-Balance-Volume),
Momentum,
ROC (Rate-of-Change),
S-ROC (Smoothed Rate-of-Change),
Differenz zwischen gleitenden Durchschnitten,
RSI (Relative-Strength-Index),
Stochastik-Indikator,
MACD (Moving Average Convergence/Divergence System),
ADL (Accumulation/Distribution Line),
TRSI (True Strength Index),
VHF (Vertical Horizontal Filter),
ARMA-Modellanpassungen (Autoregressive Moving Average),
Polynom-Interpolation,
Fourier-Analyse,
Korrelations-Koeffizient,
Fraktale Dimension,
Maximum/Minimum/Median,
Lyapunovexponent,
Transinformation,
Akima-Interpolation,
Spektrogramm,
Periodogramm,
Waveletkoeffizienten,
Principal Component Analysis (SVD Singular Value Decompo­ sition),
Independent Component Analysis,
IIR-Filter (Infinte Impulse Response),
FIR-Filter (Finite Impulse Response),
Support-Vector-Machines,
IFS (Iterated Function Systems)
9. The method according to the preceding claim, wherein one or more of the following mathematical indicators is at least also used:
Moving average (simple / weighted / exponential),
Standard deviation,
OBV line (on-balance volume),
Momentum,
ROC (Rate of Change),
S-ROC (Smoothed Rate-of-Change),
Difference between moving averages,
RSI (Relative Strength Index),
Stochastic,
MACD (Moving Average Convergence / Divergence System),
ADL (Accumulation / Distribution Line),
TRSI (True Strength Index),
VHF (Vertical Horizontal Filter),
ARMA model adjustments (autoregressive moving average),
Polynomial interpolation,
Fourier analysis,
Correlation coefficient,
Fractal dimension,
Maximum / minimum / median,
Lyapunovexponent,
Mutual information,
Akima interpolation,
spectrogram
periodogram,
wavelet coefficients,
Principal Component Analysis (SVD Singular Value Decomposition),
Independent Component Analysis,
IIR filter (Infinte Impulse Response),
FIR filter (Finite Impulse Response),
Support Vector Machines,
IFS (Iterated Function Systems)
10. Verfahren nach einem der vorstehenden Ansprüche, wo­ bei die Zielfunktion des genetischen Algorithmus die Dif­ ferenz zwischen aus der Vergangenheit vorhergesagten Kurswerten und durch die Vergangenheit belegter Kurswerte enthält.10. The method according to any one of the preceding claims, where the target function of the genetic algorithm is the dif reference between predicted from the past Market values and market values documented by the past contains. 11. Verfahren nach einem der vorstehenden Ansprüche, ent­ haltend den Schritt, die Feinabstimmung der Indikatoren mit dem künstlichen, neuronalen Netz (14) zum Zwecke ei­ ner weiteren Verbesserung der Prognosequalität durchzu­ führen.11. The method according to any one of the preceding claims, including the step of performing the fine-tuning of the indicators with the artificial, neural network ( 14 ) for the purpose of a further improvement of the forecast quality. 12. Verfahren nach einem der vorstehenden Ansprüche, ge­ kennzeichnet dadurch, historische Daten einer Mehrzahl von verschiedenen Aktien als Input zur Kurswertprognose einer einzelnen Aktie mitzuverwenden.12. The method according to any one of the preceding claims, ge characterized by historical data of a majority of various stocks as input to the market value forecast share a single share. 13. Verfahren nach dem vorstehenden Anspruch, enthaltend den Schritt, die Auswahl der mit zu verwendenden Aktien durch das künstliche, neuronale Netz (14) selbst durchzu­ führen.13. The method according to the preceding claim, comprising the step of performing the selection of the shares to be used by the artificial, neural network ( 14 ) itself. 14. Verfahren nach einem der beiden vorstehenden Ansprü­ che, wobei zur Prognose des Kurswertes einer Aktie aus einer bestimmten Branche auch branchenfremde Aktien ver­ wendet werden.14. The method according to one of the two preceding claims che, being used to forecast the price of a share a certain branch also shares outside of the branch be applied. 15. Computerprogramm für die Ausführung in einem Daten­ verarbeitungssystem, enthaltend Codeabschnitte zum Aus­ führen entsprechender Schritte des Verfahrens nach einem der Ansprüche 1 bis 14, wenn es zur Ausführung geladen wird.15. Computer program for execution in a data processing system containing code sections for off carry out corresponding steps of the method according to a of claims 1 to 14 when loaded for execution becomes. 16. Computerprogrammprodukt, gespeichert auf einem compu­ terlesbaren Medium, enthaltend eine computerlesbare Pro­ grammeinrichtung, um einen Computer dazu zu veranlassen, das Verfahren gemäß einem der vorstehenden Ansprüche 1 bis 14 durchzuführen, wenn die Programmeinrichtung von dem Computer ausgeführt wird.16. Computer program product stored on a compu readable medium containing a computer readable pro grammar device to cause a computer to the method according to one of the preceding claims 1 to 14 if the program setup by  the computer is running. 17. KNN-Programmprodukt, enthaltend eine computeraus­ führbare Implementierung eines künstlichen, neuronalen Netzes (KNN) (14), trainiert nach einem der Verfahren der Ansprüche 1 bis 14.17. KNN program product, containing a computer-executable implementation of an artificial neural network (KNN) ( 14 ), trained according to one of the methods of claims 1 to 14. 18. Front-end Programmprodukt, enthaltend eine Program­ meinrichtung, die eine Schnittstelle zu dem KNN- Programmprodukt nach dem vorstehenden Anspruch bildet, sowie eine Programmeinrichtung zum Ausgeben eines oder mehrerer Prognosewerte.18. Front-end program product containing a program device that provides an interface to the KNN Forms a program product according to the preceding claim, and a program device for outputting an or multiple forecast values. 19. Computervorrichtung, enthaltend lauffähige Program­ meinrichtungen zur Durchführung des Verfahrens gemäß ei­ nem der vorstehenden Ansprüche 1 bis 14.19. Computer device containing executable programs facilities for carrying out the method according to ei nem of the preceding claims 1 to 14.
DE2000161108 2000-12-07 2000-12-07 Prediction of stock market prices using an artificial neuronal network trained using historical data and using a selection of indicators to improve price predictions Ceased DE10061108A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2000161108 DE10061108A1 (en) 2000-12-07 2000-12-07 Prediction of stock market prices using an artificial neuronal network trained using historical data and using a selection of indicators to improve price predictions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2000161108 DE10061108A1 (en) 2000-12-07 2000-12-07 Prediction of stock market prices using an artificial neuronal network trained using historical data and using a selection of indicators to improve price predictions

Publications (1)

Publication Number Publication Date
DE10061108A1 true DE10061108A1 (en) 2002-06-27

Family

ID=7666307

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2000161108 Ceased DE10061108A1 (en) 2000-12-07 2000-12-07 Prediction of stock market prices using an artificial neuronal network trained using historical data and using a selection of indicators to improve price predictions

Country Status (1)

Country Link
DE (1) DE10061108A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10232988A1 (en) * 2002-07-19 2004-02-19 Infineon Technologies Ag Method and device for the clocked output of asynchronously received digital signals
US8374904B2 (en) 2010-11-15 2013-02-12 Hewlett-Packard Development Company, L.P. Market forecasting
US10242407B1 (en) 2013-09-24 2019-03-26 Innovative Market Analysis, LLC Financial instrument analysis and forecast

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10232988A1 (en) * 2002-07-19 2004-02-19 Infineon Technologies Ag Method and device for the clocked output of asynchronously received digital signals
DE10232988B4 (en) * 2002-07-19 2007-11-22 Infineon Technologies Ag Method and device for the clocked output of asynchronously received digital signals
US8374904B2 (en) 2010-11-15 2013-02-12 Hewlett-Packard Development Company, L.P. Market forecasting
US10242407B1 (en) 2013-09-24 2019-03-26 Innovative Market Analysis, LLC Financial instrument analysis and forecast
US12008652B1 (en) 2013-09-24 2024-06-11 Innovative Market Analysis, LLC Graphical instrument performance prediction

Similar Documents

Publication Publication Date Title
DE602005002839T2 (en) PROCESSING OF INDUSTRIAL PRODUCTION PROCESSES
DE69031195T2 (en) Allocation-dependent procedure for the allocation of production aids
EP2185980B1 (en) Method for computer-aided control and/or regulation using neural networks
EP2108139B1 (en) Method for the computer-aided control and/or regulation of a technical system, particularly a gas turbine
DE3852608T2 (en) Design and construction of a binary decision tree system for language modeling.
DE10311311A1 (en) Calculation of price elasticity
DE212020000731U1 (en) Contrastive pre-training for language tasks
WO2013170843A1 (en) Method for training an artificial neural network
DE102016011525B4 (en) Machine learning apparatus and coil production apparatus
EP2112568A2 (en) Method for computer-supported control and/or regulation of a technical system
Kiral et al. Forecasting Closing returns of Borsa Istanbul index with Markov chain process of the fuzzy states
EP3646279B1 (en) Method for production planning
EP3511126A1 (en) Method for computer-assisted planning of a process which can be executed by a robot
EP1546823B1 (en) Method for the computer-supported generation of prognoses for operative systems and system for the generation of prognoses for operative systems
WO2021180816A1 (en) Method and device for optimised production of sheet metal parts
EP1529249B1 (en) Method and arrangement for designing a technical system
EP0901658B1 (en) Process for optimizing fuzzy rules using a computer
DE19637917C2 (en) Method and device for designing or controlling the process flow of a plant in the raw materials industry
DE10061108A1 (en) Prediction of stock market prices using an artificial neuronal network trained using historical data and using a selection of indicators to improve price predictions
DE102020207792A1 (en) Artificial Neural Network Training, Artificial Neural Network, Usage, Computer Program, Storage Medium, and Device
EP3992733A1 (en) Machine loading planning for a complex production plant
DE102019204136A1 (en) Method and device for training and producing an artificial neural network
EP1725981A1 (en) Prediction method and device for evaluating and forecasting stochastic events
EP3961528A1 (en) Method and device for producing a product using an optimal process chain
EP4332704A1 (en) Computer-implemented method and system for manufacturing a product

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection