Beschreibungdescription
Verfahren und Vorrichtung zur Klassifikation einer ersten Zeitreihe und mindestens einer zweiten ZeitreiheMethod and device for classifying a first time series and at least a second time series
Die Erfindung betrifft die Klassifikation einer ersten Zeitreihe und mindestens einer zweiten Zeitreihe.The invention relates to the classification of a first time series and at least one second time series.
In verschiedensten Anwendungen ist es hilfreich, dynamische Systeme im Hinblick auf deren statistische Abhängigkeit zur Vorhersage des Verlaufs eines Meßsignals zu analysieren.In a wide variety of applications, it is helpful to analyze dynamic systems with regard to their statistical dependency in order to predict the course of a measurement signal.
Dabei weist ein gegebenes Meßsignal x eine beliebige Anzahl von Abtastwerten x-j-, die mit einer Schrittweite w abgetastet werden, auf (siehe Figur 2) . Es gilt, lineare und nichtlineare statistische Abhängigkeiten zwischen den Abtastwerten x-j- zu ermitteln. Abhängig von einer vorgegebenen Anzahl von Abtastwerten v in der Vergangenheit, die hinsichtlich ihrer statistischen Abhängigkeit analysiert werden, wird die durch die Analyse gewonnene Information dazu verwendet, eine Anzahl von Werten z in der Zukunft vorherzusagen.A given measurement signal x has any number of samples xj-, which are sampled with a step size w (see FIG. 2). It is important to determine linear and nonlinear statistical dependencies between the sample values x- j -. Depending on a predetermined number of samples v in the past, which are analyzed with regard to their statistical dependency, the information obtained by the analysis is used to predict a number of values z in the future.
Im 1-dimensionalen Fall, d.h. für eine Zeitreihe ( ), ist zur Analyse der statistischen Abhängigkeit das Konzept des Informationsflusses aus [1] und [3] bekannt. Bei einem solchen Verfahren wird der Verlust der Information zwischen vergangenen Werten und Werten, die eine vorgebbare Anzahl von Schritten in der Zukunft liegen, ermittelt. Abhängig von dem Verlauf des Informationsflusses kann auf die statistische Ab- hängigkeit der Abtastwerte und der Werte, die in der Zukunft liegen, geschlossen werden.In the 1-dimensional case, i.e. for a time series (), the concept of information flow from [1] and [3] is known for the analysis of the statistical dependency. In the case of such a method, the loss of information between past values and values that lie a predeterminable number of steps in the future is determined. Depending on the course of the information flow, the statistical dependence of the sample values and the values that lie in the future can be concluded.
Die Ermittlung einer Surrogat-Zeitreihe zu einer vorgegebenen Zeitreihe, d.h. eine Menge von Abtastwerten eines Signals, sowie Grundlagen über Surrogate sind in [2] und [6] zu finden.
Unter einem Surrogat zu einer vorgegebenen Zeitreihe ist eine Zeitreihe zu verstehen, die gewisse gleiche statistische Eigenschaften aufweist wie die vorgegebene Zeitreihe.The determination of a surrogate time series for a given time series, ie a number of samples of a signal, and the basics of surrogates can be found in [2] and [6]. A surrogate for a given time series is to be understood as a time series that has certain statistical properties that are the same as the given time series.
Ein Überblick über verschiedene statistische Schätzer, beispielsweise neuronale Netze, Kernel-Schätzer, usw. ist in [4] und [8] zu finden.An overview of various statistical estimators, for example neural networks, kernel estimators, etc. can be found in [4] and [8].
Unter einer Ku ulante ist im weiteren ein Koeffizient der Taylor-Expansion der Logarithmusfunktion der Fourier-Below a column is a coefficient of the Taylor expansion of the logarithmic function of the Fourier
Transformierten einer Wahrscheinlichkeitsdichte zu verstehen. Grundlagen über Kumulanten sind in [5] zu finden. Die Expansion von charakteristischen Funktionen in Kumulanten ist in [5] beschrieben.To understand transforms of a probability density. Basics about accumulators can be found in [5]. The expansion of characteristic functions in cumulants is described in [5].
In [6] ist das Training eines neuronalen Netzes gemäß dem Ma- ximum-Likelihood-Prinzip beschrieben.[6] describes the training of a neural network according to the maximum likelihood principle.
Unter einem Markov-Prozeß der Ordnung m ist im weiteren ein zeitdiskreter Zufallsprozeß zu verstehen, bei dem ein zukünftiger Wert nur von den Werten, die m Schritte in der Vergangenheit liegen, abhängt.In the following, a Markov process of order m is to be understood as a time-discrete random process in which a future value depends only on the values that lie m steps in the past.
Unter dem Rang einer Zeitreihe ist im weiteren die Ordnung der Abtastwerte einer Zeitreihe nach der Größe der Abtastwerte zu verstehen.The rank of a time series is further understood to mean the order of the samples of a time series according to the size of the samples.
Aus [9] ist ein Verfahren zur Klassifikation einer Zeitreihe bekannt, bei dem für die Zeitreihe eine vorgebbare Anzahl von Surrogaten bestimmt wird. Für die Zeitreihe und für die Surrogate werden nichtlineare Korrelationen zwischen den Werten der Zeitreihe und den Werten der Surrogate mit einer ku ulan- tenbasierten Methode ermittelt. Anhand der nichtlinearen Korrelationen wird die Zeitreihe klassifiziert.A method for classifying a time series is known from [9], in which a predeterminable number of surrogates is determined for the time series. For the time series and for the surrogates, non-linear correlations between the values of the time series and the values of the surrogates are determined using a culinary-based method. The time series is classified based on the non-linear correlations.
Aus [10] ist ein weiteres Verfahren zur Klassifikation einer Zeitreihe bekannt. Bei diesem Verfahren wird ein dynamisches
System entsprechend ihrer Wahrscheinlichkeitsdichte modelliert. Ein neuronales Netz wird entsprechend den Wahrscheinlichkeiten eines nichtlinearen Markov-Prozesses der Ordnung m nach dem Maximum-Likelihood-Prinzip trainiert.Another method for classifying a time series is known from [10]. This process becomes dynamic System modeled according to their probability density. A neural network is trained according to the probabilities of a non-linear Markov process of order m according to the maximum likelihood principle.
Der Erfindung liegt das Problem zugrunde, ein Verfahren sowie eine Vorrichtung zu schaffen, mit der eine Klassifikation mehrerer Zeitreihen hinsichtlich ihrer statistischen Abhängigkeit der Abtastwerte möglich wird.The invention is based on the problem of creating a method and a device with which a classification of a plurality of time series with regard to their statistical dependency of the samples is possible.
Das Problem wird durch das Verfahren gemäß Patentanspruch 1 sowie durch die Vorrichtung gemäß Patentanspruch 11 gelöst.The problem is solved by the method according to claim 1 and by the device according to claim 11.
Bei dem Verfahren wird ein nichtlinearer Markov-Prozeß für eine erste Zeitreihe durch einen ersten statistischen Schätzer modelliert. Ein nichtlinearer Markov-Prozeß für die zweite Zeitreihe wird durch einen zweiten statistischen Schätzer modelliert. Zu der ersten Zeitreihe wird unter Verwendung des ersten statistischen Schätzers mindestens eine Surrogat- Zeitreihe gebildet. Zu der zweiten Zeitreihe wird unter Verwendung des zweiten statistischen Schätzers mindestens eine Surrogat-Zeitreihe gebildet. Es wird ein erstes Maß für die statistische Abhängigkeit der Abtastwerte der ersten Zeitreihe und den Abtastwerten der zweiten Zeitreihe für eine vorge- gebene Anzahl von zukünftigen Abtastwerten gebildet. Ferner wird ein zweites Maß für die statistische Abhängigkeit der Werte der Surrogat-Zeitreihen voneinander für eine vorgegebene Anzahl von in der Zukunft liegenden Abtastwerten gebildet. Aus dem ersten Maß und dem zweiten Maß wird ein Unterschieds- maß gebildet. Die Klassifikation derart erfolgt, daßIn the method, a nonlinear Markov process is modeled for a first time series by a first statistical estimator. A nonlinear Markov process for the second time series is modeled by a second statistical estimator. At least one surrogate time series is formed for the first time series using the first statistical estimator. At least one surrogate time series is formed for the second time series using the second statistical estimator. A first measure for the statistical dependency of the samples of the first time series and the samples of the second time series is formed for a predetermined number of future samples. Furthermore, a second measure for the statistical dependence of the values of the surrogate time series on one another is formed for a predetermined number of samples lying in the future. A difference measure is formed from the first measure and the second measure. The classification is such that
- falls das Unterschiedsmaß kleiner ist als ein vorgegeben Schwellenwert, die erste Zeitreihe und die zweite Zeitreihe einer ersten Gruppe zugeordnet werden,if the difference measure is smaller than a predetermined threshold value, the first time series and the second time series are assigned to a first group,
- sonst die erste Zeitreihe und die zweite Zeitreihe einer zweiten Gruppe zugeordnet werden.
Die Vorrichtung weist eine Prozessoreinheit auf, die derart eingerichtet ist, daß ein nichtlinearer Markov-Prozeß für eine erste Zeitreihe durch einen ersten statistischen Schätzer modelliert wird. Ein nichtlinearer Markov-Prozeß für die zweite Zeitreihe wird durch einen zweiten statistischen- Otherwise the first time series and the second time series are assigned to a second group. The device has a processor unit which is set up in such a way that a non-linear Markov process is modeled for a first time series by a first statistical estimator. A nonlinear Markov process for the second time series is replaced by a second statistical
Schätzer modelliert. Zu der ersten Zeitreihe wird unter Verwendung des ersten statistischen Schätzers mindestens eine Surrogat-Zeitreihe gebildet. Zu der zweiten Zeitreihe wird unter Verwendung des zweiten statistischen Schätzers minde- stens eine Surrogat-Zeitreihe gebildet. Es wird ein erstes Maß für die statistische Abhängigkeit der Abtastwerte der ersten Zeitreihe und den Abtastwerten der zweiten Zeitreihe für eine vorgegebene Anzahl von zukünftigen Abtastwerten gebildet. Ferner wird ein zweites Maß für die statistische Abhängigkeit der Werte der Surrogat-Zeitreihen voneinander für eine vorgegebene Anzahl von in der Zukunft liegenden Abtastwerten gebildet. Aus dem ersten Maß und dem zweiten Maß wird ein Unterschiedsmaß gebildet. Die Klassifikation derart erfolgt, daßModel estimator. At least one surrogate time series is formed for the first time series using the first statistical estimator. At least one surrogate time series is formed for the second time series using the second statistical estimator. A first measure for the statistical dependency of the samples of the first time series and the samples of the second time series is formed for a predetermined number of future samples. Furthermore, a second measure for the statistical dependence of the values of the surrogate time series on one another is formed for a predetermined number of samples lying in the future. A difference measure is formed from the first measure and the second measure. The classification is such that
- falls das Unterschiedsmaß kleiner ist als ein vorgegeben Schwellenwert, die erste Zeitreihe und die zweite Zeitreihe einer ersten Gruppe zugeordnet werden,if the difference measure is smaller than a predetermined threshold value, the first time series and the second time series are assigned to a first group,
- sonst die erste Zeitreihe und die zweite Zeitreihe einer zweiten Gruppe zugeordnet werden.- Otherwise the first time series and the second time series are assigned to a second group.
Durch die Erfindung wird es erstmals möglich, statistische Abhängigkeit zwischen multidimensionalen Zeitreihen, d.h. mehreren Zeitreihen, zu ermitteln.The invention makes it possible for the first time to establish statistical dependency between multidimensional time series, i.e. several time series.
Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.Further developments of the invention result from the dependent claims.
Es ist in einer Weiterbildung vorteilhaft, jeweils ein nichtlineares neuronales Netz als statistischen Schätzer einzusetzen, da ein neuronales Netz sehr gut geeignet ist zur Schät- zung von Wahrscheinlichkeitsdichten.
Die Erfindung ist in verschiedenen Anwendungsgebieten einsetzbar. So können statistische Abhängigkeiten zwischen gemessenen Signalen eines Elektroencephalogramms (EEG) oder eines Elektrokardiogramms (EKG) ermittelt werden.In a further development, it is advantageous to use a nonlinear neural network as a statistical estimator, since a neural network is very well suited for estimating probability densities. The invention can be used in various fields of application. Statistical dependencies between measured signals of an electroencephalogram (EEG) or an electrocardiogram (EKG) can be determined.
Die Erfindung kann ferner sehr vorteilhaft eingesetzt werden zur Analyse eines Finanzmarktes, wobei mit dem Signalverlauf in diesem Fall beispielsweise der Kursverlauf einer Aktie oder eines Devisenkurses beschrieben wird.The invention can also be used very advantageously for analyzing a financial market, the course of the signal in this case, for example, describing the course of a share or a foreign exchange rate.
Ein Ausführungsbeispiel der Erfindung ist in den Figuren dargestellt und wird im weiteren näher erläutert.An embodiment of the invention is shown in the figures and is explained in more detail below.
Es zeigen Figur 1 eine Skizze, in der die Erfindung in ihren einzelnen Elementen dargestellt ist; Figur 2 eine Skizze, die den Verlauf eines Meßsignals f, das durch Abtasten mit einer Schrittweite w in eine Zeitreihe {x } überführt wird, zeigt; Figur 3 eine Skizze, in der ein Rechner, mit dem die Erfindung durchgeführt wird, dargestellt ist.FIG. 1 shows a sketch in which the invention is shown in its individual elements; Figure 2 is a sketch showing the course of a measurement signal f, which is converted into a time series {x} by sampling with a step size w; Figure 3 is a sketch showing a computer with which the invention is carried out.
Eine erste Zeitreihe {xt} unc^ eine zweite Zeitreihe {yt} weisen jeweils eine vorgebbare Anzahl von Abtastwerten x-j-, y^ eines Signals, insbesondere eines elektrischen Signals, auf.A first time series {xt} unc ^ a second time series {yt} each have a predeterminable number of samples x- j -, y ^ of a signal, in particular an electrical signal.
Die Signale werden von einem Meßgerät MG (vgl. Fig. 3) gemessen und einem Rechner R zugeführt. In dem Rechner wird das im folgenden beschriebene Verfahren durchgeführt und die Ergeb- nisse werden einem Mittel zur Weiterverarbeitung WV zugeführt .The signals are measured by a measuring device MG (see FIG. 3) and fed to a computer R. The method described below is carried out in the computer and the results are fed to a means for further processing WV.
Für jede Zeitreihe {xt}' {^t} wird unter Verwendung eines nneeuurroonnaalleenn NNeettzzeess NNNNXX,, NNNNyy eeiin nichtlinearer Markov-Prozeß der Ordnung nx, ny modelliert
Mit dem nichtlinearen Markov-Prozeß der Ordnung m wird jeweils der Informationsfluß der ersten Zeitreihe { t} bzw. der zweiten Zeitreihe {yt} approximiert.For each time series {xt} '{^ t} a nonlinear Markov process of the order n x , ny is modeled using a nneuurroonnaalleenn NNeettzzeess NNNN XX ,, NNNNyy With the non-linear Markov process of order m, the information flow of the first time series {t} and the second time series {yt} is approximated.
Bei einer beliebigen Zahl N von Zeitreihen, die in dem Verfahren berücksichtigt werden können, wird eine Zeitreihe durch folgende Bezeichnung gekennzeichnet:For any number N of time series that can be taken into account in the method, a time series is identified by the following designation:
{xt}k , k = 1, ...,N (1) .{x t } k , k = 1, ..., N (1).
Es wird für jede Zeitreihe {xtju ei-n Ma-ß der statistischenFor each time series {xtju e i- n measure of the statistical
Abhängigkeit eines Wertes {xt+r^k (ein Wert, der r Schritte in der Zukunft liegt) gebildet. Dabei werden nj vergangene Abtastwerte (j=l,...,N) berücksichtigt.
Dependence of a value {xt + r ^ k (ei n value r steps in the future is located) is formed. Here nj past samples (j = 1, ..., N) are taken into account.
Die Charakteristik des Systems wird ausgedrückt durch die folgende Differenz zwischen Wahrscheinlichkeitsdichtefunktio- nen p ( ) :The characteristic of the system is expressed by the following difference between probability density functions p ():
p({xt} ■■■>
{ t +r }kJp ({ x t} ■■■ > {t + r} k J
- p({xt} ..., jxt-n1+l}1,{xt}2'-'{xt-n2+l}2'-'{xt}N,-' {xt-nN+l} ' p({ t+r}k)- p ({xt} ..., jxt-n 1 + l} 1 , {xt} 2 '-' { x t-n2 + l} 2 '-' { x t} N , - '{ x tn N + l} 'p ({t + r} k )
(2) .(2).
Für den Fall, daß die statistischen Abhängigkeiten innerhalb von r Schritten in der Zukunft verschwinden, ergibt sich Vorschrift (2) zu:In the event that the statistical dependencies disappear within r steps in the future, regulation (2) results in:
p({xt} ■•• . {xt-nι + 1}^ { t}2< - > {xt-n2 +l}2. - . { t}N' ••• . jxt-nN + l}N> { t+r}Jp ({xt} ■ •• . {xt- nι + 1} ^ {t} 2 <-> { x tn 2 + l} 2. -. {t} N '•••. j x tn N + l } N > {t + r} J
= p({xt} ••- {xt-n1+l}1' { t}2'--'{xt-n2+l}2----{xt}N— jxt-nN+l}NJ • p({ t+r}k)= p ({ x t} •• - { x tn 1 + l} 1 '{t} 2 ' - '{ x tn 2 + l} 2 ---- { x t} N - j x tn N + l} N Y • p ({t + r} k )
(3) .(3).
Jedes neuronale Netz NNX, NNy wird, um einen nichtlinearen Markov-Prozeß der Ordnung nx, ny zu approximieren, trainiert, indem das Maximum-Likelihood-Prinzip angewendet wird, mit dem die Lernvorschrift befolgt wird, das Produkt der Wahrscheinlichkeiten zu maximieren. Das jeweilige neuronale Netz NNX, NNy soll somit eine Einschätzung der bedingten WahrscheinlichkeitEach neural network NN X , NNy is trained to approximate a non-linear Markov process of order n x , ny using the maximum likelihood principle with which the learning rule is followed to maximize the product of the probabilities. The respective neural network NN X , NNy is thus intended to estimate the conditional probability
p xt xt-1' *t- -nx' Yt-1' Υt-n y>px t xt-1 '* t- -n x ' Yt-1 'Υt-n y>
P Yt !xt_!, ... , xt-nx' Yt-1' ••• ' yt-riyP Yt! X t _ !, ..., xt-n x 'Yt-1' ••• 'yt-riy
durchführen.
Um die Analyse durchzuführen, werden Kumulanten höherer Ordnung anstelle der Wahrscheinlichkeitsdichten verwendet. Durchcarry out. To perform the analysis, higher order cumulants are used instead of the probability densities. By
Transformation der Vorschrift (3) in den Fourier-Raum werden charakteristische Funktionen
, Φ2k , Φ3k gebildet, die dieTransformation of the rule (3) into the Fourier space become characteristic functions , Φ 2 k, Φ3k formed which the
Fourier-Transformierten der Wahrscheinlichkeitsdichten der Vorschrift (3) darstellen.Represent Fourier transforms of the probability densities of regulation (3).
Die Vorschrift (3) wird zu:Regulation (3) becomes:
In Φ = In Φj + In Φ'In Φ = In Φj + In Φ '
wobei mit dem + 1 -dimensionalen Vektor
being with the +1 dimensional vector
' ,r = ({ t-nι +1}^ ••• ( t} j t-n2 +l}2. - . { t}2' - / {xt-nN +l}N, - , { t }N, (xt+r}k)' , r = ({t- nι +1} ^ ••• (t} j tn 2 + l} 2. -. {t} 2' - / { x tn N + l} N , -, {t} N , ( x t + r} k )
undand
NN
∑ n :7) k = l∑ n: 7) k = l
giltapplies
φϊ = φϊ(κϊ'-'κs'κs + ι) = JeχP
k,r τ k,r k,r dv rks,'r d , φ ϊ = φ ϊ ( κ ϊ'- ' κ s' κ s + ι) = J eχ P k, r τ k, rk, r dv r k s , 'rd,
•Pl v-, vc V s + 1. dv vs k, +r ]_
• Pl v-, v c V s + 1. dv v s k, + r ] _
Φ, Φi : k +1) = i expM v k, r s + 1 K s + 1 k, r l vs + 1, dv s + 1Φ, Φi: k +1 ) = i expM vk, rs + 1 K s + 1 k, rl v s + 1, dv s + 1
10) .10).
Dabei werden mit Φ die Fourier-Transformierte der Wahr- scheinlichkeitsdichten und mit K_ die Variablen der Funktion Φl... , K ■ , ...I im Fourier-Raum bezeichnet. Es gilt i = V-ϊ .Φ denotes the Fourier transform of the probability densities and K_ denotes the variables of the function Φl ..., K ■, ... I in Fourier space. The following applies: i = V-ϊ.
Wenn man die charakteristischen Funktionen in Kumulanten, die in [5] beschrieben sind, expandiert, so folgt darausIf one expands the characteristic functions in cumulants, which are described in [5], it follows from this
il, ... , iή = s + 1 :i3;
il, ..., iή = s + 1: i3;
Mit (.) wird die jeweilige Kumulante bezeichnet.
Einsetzen der Erweiterung in die Vorschrift (5) ergibt folgende Bedingung:The respective cumulant is designated with (.). Inserting the extension into regulation (5) results in the following condition:
mit der Einschränkungwith the limitation
B s (Ξia: ia = s + 1 Λ ^Via: ia = s + l) (15) .B s (Ξi a : i a = s + 1 Λ ^ Vi a : i a = s + l) (15).
Diese Bedingung gilt für den Fall, daß alle Arten von statistischen Abhängigkeiten innerhalb von r Schritten m der Zukunft zu 0 werden.This condition applies in the event that all kinds of statistical dependencies become 0 within r steps m of the future.
Im Fall der statistischen Unabhängigkeit zwischen den Ab- tastwerten kann die Vorschrift (14) vereinfacht werden zu folgender Vorschrift:In the case of statistical independence between the sample values, regulation (14) can be simplified to the following regulation:
(k). = 0 V i1,...,ii e (l, ...,s + 1} (16).(k). = 0 V i 1 , ..., i i e (l, ..., s + 1} (16).
'll-.ij J 'll-.ij J
Es wird ein Maß gebildet für die statistische Abhängigkeit zwischen den Abtastwerten v-,'r,..., v ',r-, der jeweiligen Zeitreihen.A measure is formed for the statistical dependency between the sample values v-, ' r , ..., v', r -, of the respective time series.
Die statistische Abhängigkeit der Abtastwerte der Zeitreihe {x^}k, die r Schritte in der Zukunft liegen, ist gegeben nach folgender Vorschrift:The statistical dependency of the samples of the time series {x ^} k , which are r steps in the future, is given according to the following rule:
Die statistische Abhängigkeit von Abtastwerten unterschiedlicher Zeitreihen {xt}^ voneinander wird gemäß folgender Vorschrift beschrieben: The statistical dependency of samples of different time series {xt} ^ on each other is described according to the following rule:
Das Maß mj (r) repräsentiert jeweils eine kumulantenbasierte Charakterisierung des Informationsflusses des dynamischen Systems, aus dem die Zeitreihen {xt}], ermittelt werden, und quantifiziert die Abhängigkeiten der Werte {xt+r^k keJ- Berücksichtigung von nj Werten in der Vergangenheit der jeweiligen Zeitreihe {x^-}..The measure mj (r) represents a cumulative-based characterization of the information flow of the dynamic system from which the time series {xt} ] are determined, and quantifies the dependencies of the values {xt + r ^ kk e J - taking nj values into account Past time series {x ^ -} ..
Für den Fall, daß ein weiteres Maß m^^fr) den Wert 0 annimmt, sind die Abtastwerte der jeweiligen Zeitreihe voneinander statistisch unabhängig. Wachsende positive Werte des jeweiligen weiteren Maßes m^j^r) deuten eine steigende statistische Abhängigkeit unter den Abtastwerten der jeweiligen ZeitreiheIn the event that a further dimension m ^^ fr) assumes the value 0, the samples of the respective time series are statistically independent of one another. Growing positive values of the respective further measure m ^ j ^ r) indicate an increasing statistical dependency among the samples of the respective time series
K!» an.K! » on.
mkk(r) = X(k)? • + K(k)? P-l' in = s + 1
m kk ( r ) = X (k)? • + K (k)? Pl 'in = s + 1
mit k = 1, N,with k = 1, N,
k und U(k) = :2o ; j=lk and U (k) =: 2o; j = l
Zur Modellierung des Markov-Prozesses der Ordnung (n_, ..., ΠN) wird also ein 2-schichtiges vorwärtsgerichtetes neuronales Netz trainiert, um die Wahrscheinlichkeitsdichten
p( + l}k {*t} ••• , {x -nι +l}^ ••• > }N> ••• * {xt-nN +l}N To model the Markov process of order (n_, ..., ΠN), a 2-layer, forward-looking neural network is trained to measure the probability densities p (+ l} k {* t} •••, {x - nι + l} ^ •••>} N > ••• * { x tn N + l} N
zu approximieren.to approximate.
Gemäß den folgenden Vorschriften wird jeweils ein neuronales Netz für jede Zeitreihe {xt}ι<- derart trainiert, daß das neuronale Netz eine Schätzung der jeweiligen Wahrscheinlichkeitsdichte des Markov-Prozesses der Ordnung (n]_, ..., ΠN) durchführt:According to the following regulations, a neural network is trained for each time series {xt} ι < - in such a way that the neural network performs an estimate of the respective probability density of the Markov process of order (n] _, ..., ΠN):
HH
Σ '21 h= lΣ '21 h = l
pK + l}k M ••• . {x t-nι
••• > ) ■■■ ' (xt-nN +l} p K + l} k M •••. { x t - nι •••>) ■ ■■ '( x tn N + l}
k 1, N (22)k 1, N (22)
.23:.23:
:25:: 25:
Dabei werden mit H eine Anzahl von Gauss-Funktionen, mit 1 die Anzahl der verdeckten Neuronen in dem jeweiligen neuronalen Netz und mit vhi , , vhi , , w* die Para
meter des jeweiligen neuronalen Netzes bezeichnet. L(d) ist gemäß Vorschrift (19) definiert. Die bedingte Wahrscheinlich- keitsdichte ist demnach durch eine gewichtete Summe von Nor- malverteilungen beschrieben, deren Gewichte uh , MittelwerteWith H a number of Gaussian functions, with 1 the number of hidden neurons in the respective neural network and with v hi,, v hi,, w * the para of the respective neural network. L (d) is defined according to regulation (19). The conditional probability density is therefore described by a weighted sum of normal distributions, their weights u h , mean values
μhk und Varianzen
als Ausgangsgrößen dreier unterschiedlicher neuronaler Netze gegeben sind, die als Multilayer-μ h k and variances as output variables of three different neural networks, which are multilayer
Perzeptron (vgl. Vorschriften (23) bis (25)) die ersten s- k r Komponenten des Vektors v ' als s-dimensionale Eingangsgröße erhalten. Das Training erfolgt gemäß dem Maximum- Likelihood-Prinzip, welches in [7] beschrieben ist.Perceptron (cf. regulations (23) to (25)) receive the first s- k r components of the vector v 'as an s-dimensional input variable. The training takes place according to the maximum likelihood principle, which is described in [7].
Es werden N neuronale Netze trainiert und es werden N beding- te Wahrscheinlichkeitsdichten für einen N-dimensionalen Markov-Prozeß der Ordnung (n]_, ..., n^) geschätzt.N neural networks are trained and N conditional probability densities for an N-dimensional Markov process of order (n] _, ..., n ^) are estimated.
Nach Abschluß des Trainings sind die neuronalen Netze in der Lage, neue Zeitreihen unter Verwendung der Markov-Prozesse der ursprünglichen Zeitreihen {x^l zu generieren, beginnend mit den ersten n^-Werten jeder Zeitreihe {x^}, .After completing the training, the neural networks are able to generate new time series using the Markov processes of the original time series {x ^ l, starting with the first n ^ values of each time series {x ^},.
Die ersten s Werte {xι} ••• , {xnι } , ••• , {xl}N' ••• / {xnN }NJ werden dem neuronalen Netz zugeführt, das jeweils eine bedingte Wahrscheinlichkeitsdichte nachbildet. Gemäß der sogenannten Monte-Carlo-Methode werden neue Werte {xi} | = 1 N gebildetThe first s values {xι} •••, {x nι }, •••, { x l} N '••• / { x n N } N J are fed to the neural network, which each simulates a conditional probability density. According to the so-called Monte Carlo method, new values {xi} | = 1 N formed
gemäß den jeweiligen Wahrscheinlichkeitsdichten und diese
Werte werden al s neue Werte einer neuen Zeitreihe {xt } verwendet .according to the respective probability densities and these Values are used as new values of a new time series {xt}.
Eine neues s-Tupel von EingangswertenA new s-tuple of input values
{x2} ... , {xnι }± {xi }j , • • • , {x }N, - . {xnN }N> {xl } N{x 2 } ..., {x nι } ± {xi} j, • • •, {x} N , -. { x n N } N > { x l} N
wird wiederum dem jeweiligen neuronalen Netz zugeführt. Diese Vorgehensweise der Rückkopplung von neu generierten Werten wird beliebig oft wiederholt. Die neuen Zeitreihen (xt) werden derart bearbeitet, daß sie die gleiche Verteilung aufweisen wie die ursprünglichen Zeitreihen { t}ι, und bilden somitis in turn fed to the respective neural network. This procedure for the feedback of newly generated values is repeated as often as required. The new time series (xt) are processed in such a way that they have the same distribution as the original time series {t} ι , and thus form d
Surrogat-Zeitreihen { t} > k = 1, ... , N . Durch Wiederholung dieser Iteration wird somit eine vorgebbare, beliebige Anzahl M Surrogat-Zeitreihen { t} ■ / k = 1, ... , N, i = 1, ... , M, generiert (Schritt 101) .Surrogate time series {t} > k = 1, ..., N. By repeating this iteration, a predefinable, arbitrary number M surrogate time series {t} ■ / k = 1, ..., N, i = 1, ..., M, is thus generated (step 101).
Die Zeitreihen {xt}^ und die Surrogat-Zeitreihen {xt} • werden einem statistischen Test, welcher in [6] beschrieben ist, unterzogen (Schritt 102) .The time series {xt} ^ and the surrogate time series {xt} • are subjected to a statistical test, which is described in [6], (step 102).
Als Null-Hypothese wird definiert, daß das jeweilige dynamische System durch einen s-dimensionalen Markov-Prozeß der Ordnung (n , ..., njj) ausreichend genau beschrieben werden kann.The null hypothesis defines that the respective dynamic system can be described with sufficient accuracy by an s-dimensional Markov process of order (n, ..., njj).
Zum Testen der Null-Hypothese wird der sogenannte Student-t- Test angewendet. Bei dem Student-t-Test wird für jede Surrogat-Zeitreihe ein Surrogat-Maß m . (r) ermittelt. Die Ermittlung der Surrogat-Maße τ ■ (r) erfolgt in gleicher Weise wie die Ermittlung des Maßes mk(r) für die statistische Abhängigkeit für die Zeitreihen {x^}, .
Die Abhängigkeit von r ergibt sich durch die letzte Komponen- k r te des Vektors v ' . Es werden also die statistischen Abhängigkeiten zwischen den letzten nk-Werten jeder Zeitreihe {xt}k und dem Wert, der r-Schritte in der Zukunft liegt, gemessen.The so-called Student t test is used to test the null hypothesis. In the Student t test, a surrogate measure m. (r) determined. The determination of the surrogate measures τ ■ (r) is carried out in the same way as the determination of the measure m k (r) for the statistical dependency for the time series {x ^},. The dependence on r results from the last component of the vector v '. The statistical dependencies between the last n k values of each time series {xt} k and the value that lies r steps in the future are measured.
Aus den Surrogat-Maßen mr . (r) werden Surrogat-Mittelwerte μ^(r) und Surrogat-Standardabweichungen σ (r) ermittelt gemäß den folgenden Vorschriften:From the surrogate measurements mr. (r) Surrogate mean values μ ^ (r) and surrogate standard deviations σ (r) are determined according to the following regulations:
Der Student-t-Test erfolgt gemäß folgender Vorschrift:The Student t test is carried out in accordance with the following regulation:
κ VM + 1 σr (r) κ VM + 1 σr (r)
Durch Bildung eines Testwerts tk(r) wird ein Wert ermittelt, durch den die Surrogat-Zeitreihen mit dem Maß mk(r) der ursprünglichen Zeitreihe {xt}k verglichen werden. Der Wert wird auch als Signifikanz tk(r) bezeichnet. Falls die Signifikanz tk(r) für alle r, wobei beispielsweise 1 < r < 10 gilt, kleiner als 1,833 ist (M = 10), so wird die Null-Hypothese akzep- tiert.By forming a test value t k (r), a value is determined by which the surrogate time series are compared with the measure m k (r) of the original time series {xt} k . The value is also referred to as significance t k (r). If the significance t k (r) for all r, for example 1 <r <10, is less than 1.833 (M = 10), the null hypothesis is accepted.
Anschaulich lautet die Null-Hypothese:The null hypothesis is clearly:
Die Zeitreihe {xt}k läßt sich durch einen mehrdimensionalen Markov-Prozeß beschreiben, bei dem die letzten n_-Werte der Zeitreihe { x^ ) ι , . . . und die letzten n^-Werte der Zeitreihe {x-t-N berücksichtigt werden.
Wird die Null-Hypothese akzeptiert, so werden die untersuchten Zeitreihen {xt}^ a^s eine Zeitreihe einer ersten Gruppe, die durch den Markov-Prozeß der jeweiligen Ord- nung (n]_, ..., jsj) beschrieben werden kann, klassifiziert (Schritt 103) und das Verfahren wird beendet.The time series {xt} k can be described by a multi-dimensional Markov process, in which the last n_ values of the time series {x ^) ι,. , , and the last n ^ values of the time series {xtN are taken into account. If the null hypothesis is accepted, the examined time series {xt} ^ a ^ s become a time series of a first group which can be described by the Markov process of the respective order (n] _, ..., jsj) , classified (step 103) and the process is ended.
Wird die Null-Hypothese verworfen, so wird die Ordnung (ni, ..., ΠN) des Markov-Prozesses erhöht, und das Verfahren wird wiederholt, beginnend mit dem Training der neuronalen Netze (Schritt 104) .If the null hypothesis is rejected, the order (ni, ..., ΠN) of the Markov process is increased and the process is repeated, starting with the training of the neural networks (step 104).
Wenn kein detailliertes Wissen über das untersuchte dynamische System vorhanden ist, wird mit folgenden Startwerten be- gönnen: n_ = 1, nj = 0 für j = 2, ..., N.If there is no detailed knowledge of the dynamic system examined, the following start values are used: n_ = 1, nj = 0 for j = 2, ..., N.
Die Anzahl untersuchter Zeitreihen ist beliebig, bei zwei Zeitreihen werden lediglich zwei neuronale Netze benötigt.
The number of time series examined is arbitrary, with two time series only two neural networks are required.
Im Rahmen dieses Dokuments wurden folgende Veröffentlichungen zitiert:The following publications have been cited in this document:
[1] C. Schittenkopf und G. Deco, Exploring and Intrinsic Information Loss in Single-Humped Maps by Refining Multi-Symbol Partitions, Physica D, 94, S. '57-64, 1996[1] C. Schittenkopf and G. Deco, Exploring and intrinsic information loss in single-Humped Maps by Refining multi-symbol partition, Physica D, 94, p '57-64, 1996
[2] J. Theiler et al, Testing for nonlinearity in time series: The method of Surrogate data, Physica D, 58, S. 77-94, 1992[2] J. Theiler et al, Testing for nonlinearity in time series: The method of Surrogate data, Physica D, 58, pp. 77-94, 1992
[3] G. Deco, C. Schittenkopf und B. Schürmann, Determining the Information Flow of Dynamical Systems from Continuous Probability Distributions, Physical Review Letters, 78, S. 2345 - 2348, 1997[3] G. Deco, C. Schittenkopf and B. Schürmann, Determining the Information Flow of Dynamical Systems from Continuous Probability Distributions, Physical Review Letters, 78, pp. 2345 - 2348, 1997
[4] B. W. Silverman, Density Estimation for Statistics and Data Analysis, Chapman and Hall, ISBN 0-412-24620-1, S. 34 - 94, London, 1986[4] B. W. Silverman, Density Estimation for Statistics and Data Analysis, Chapman and Hall, ISBN 0-412-24620-1, pp. 34-94, London, 1986
[5] C. Gardiner, Handbook of Stochastic Methods,[5] C. Gardiner, Handbook of Stochastic Methods,
2. Auflage, Springer Verlag, ISBN 0-387-11357-6,2nd edition, Springer Verlag, ISBN 0-387-11357-6,
S. 33 - 36, New York, 1985Pp. 33-36, New York, 1985
[6] C. Schittenkopf und G. Deco, Testing Nonlinear Markovian[6] C. Schittenkopf and G. Deco, Testing Nonlinear Markovian
Hypotheses in Dynamical Systems, Physica D, 104,Hypotheses in Dynamical Systems, Physica D, 104,
S. 61 - 74, 1997Pp. 61-74, 1997
[7] A. Papoulis, Probability, Random Variables, and[7] A. Papoulis, Probability, Random Variables, and
Stochastic Processes, McGraw-Hill, New York, 1991, ISBN 0-07-100870-5, S. 260 - 263Stochastic Processes, McGraw-Hill, New York, 1991, ISBN 0-07-100870-5, pp. 260-263
[8] C. M. Bishop, Neural Networks for Pattern Recognition, Clarendon Press, Oxford, S. 33 - 50, ISBN 0-19-85364-2,
[9] DE 196 08 734 Cl[8] CM Bishop, Neural Networks for Pattern Recognition, Clarendon Press, Oxford, pp. 33-50, ISBN 0-19-85364-2, [9] DE 196 08 734 Cl
[10] DE 196 43 918 Cl
[10] DE 196 43 918 Cl