WO1999023576A1 - Method and device for classification of a first time sequence and a second time sequence - Google Patents

Method and device for classification of a first time sequence and a second time sequence Download PDF

Info

Publication number
WO1999023576A1
WO1999023576A1 PCT/DE1998/003184 DE9803184W WO9923576A1 WO 1999023576 A1 WO1999023576 A1 WO 1999023576A1 DE 9803184 W DE9803184 W DE 9803184W WO 9923576 A1 WO9923576 A1 WO 9923576A1
Authority
WO
WIPO (PCT)
Prior art keywords
time series
statistical
samples
surrogate
measure
Prior art date
Application number
PCT/DE1998/003184
Other languages
German (de)
French (fr)
Inventor
Gustavo Deco
Christian Schittenkopf
Rosaria Silipo
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to EP98961058A priority Critical patent/EP1027663A1/en
Priority to JP2000519368A priority patent/JP2001522094A/en
Publication of WO1999023576A1 publication Critical patent/WO1999023576A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis

Definitions

  • the invention relates to the classification of a first time series and at least one second time series.
  • a given measurement signal x has any number of samples xj-, which are sampled with a step size w (see FIG. 2). It is important to determine linear and nonlinear statistical dependencies between the sample values x- j -. Depending on a predetermined number of samples v in the past, which are analyzed with regard to their statistical dependency, the information obtained by the analysis is used to predict a number of values z in the future.
  • a surrogate for a given time series is to be understood as a time series that has certain statistical properties that are the same as the given time series.
  • [6] describes the training of a neural network according to the maximum likelihood principle.
  • a Markov process of order m is to be understood as a time-discrete random process in which a future value depends only on the values that lie m steps in the past.
  • the rank of a time series is further understood to mean the order of the samples of a time series according to the size of the samples.
  • a method for classifying a time series is known from [9], in which a predeterminable number of surrogates is determined for the time series.
  • a predeterminable number of surrogates is determined for the time series.
  • non-linear correlations between the values of the time series and the values of the surrogates are determined using a culinary-based method.
  • the time series is classified based on the non-linear correlations.
  • Another method for classifying a time series is known from [10]. This process becomes dynamic System modeled according to their probability density. A neural network is trained according to the probabilities of a non-linear Markov process of order m according to the maximum likelihood principle.
  • the invention is based on the problem of creating a method and a device with which a classification of a plurality of time series with regard to their statistical dependency of the samples is possible.
  • a nonlinear Markov process is modeled for a first time series by a first statistical estimator.
  • a nonlinear Markov process for the second time series is modeled by a second statistical estimator.
  • At least one surrogate time series is formed for the first time series using the first statistical estimator.
  • At least one surrogate time series is formed for the second time series using the second statistical estimator.
  • a first measure for the statistical dependency of the samples of the first time series and the samples of the second time series is formed for a predetermined number of future samples.
  • a second measure for the statistical dependence of the values of the surrogate time series on one another is formed for a predetermined number of samples lying in the future.
  • a difference measure is formed from the first measure and the second measure.
  • the classification is such that
  • the first time series and the second time series are assigned to a first group,
  • the device has a processor unit which is set up in such a way that a non-linear Markov process is modeled for a first time series by a first statistical estimator. A nonlinear Markov process for the second time series is replaced by a second statistical
  • Model estimator At least one surrogate time series is formed for the first time series using the first statistical estimator. At least one surrogate time series is formed for the second time series using the second statistical estimator. A first measure for the statistical dependency of the samples of the first time series and the samples of the second time series is formed for a predetermined number of future samples. Furthermore, a second measure for the statistical dependence of the values of the surrogate time series on one another is formed for a predetermined number of samples lying in the future. A difference measure is formed from the first measure and the second measure. The classification is such that
  • the first time series and the second time series are assigned to a first group,
  • the invention makes it possible for the first time to establish statistical dependency between multidimensional time series, i.e. several time series.
  • a nonlinear neural network as a statistical estimator, since a neural network is very well suited for estimating probability densities.
  • the invention can be used in various fields of application. Statistical dependencies between measured signals of an electroencephalogram (EEG) or an electrocardiogram (EKG) can be determined.
  • EEG electroencephalogram
  • EKG electrocardiogram
  • the invention can also be used very advantageously for analyzing a financial market, the course of the signal in this case, for example, describing the course of a share or a foreign exchange rate.
  • FIG. 1 shows a sketch in which the invention is shown in its individual elements
  • Figure 2 is a sketch showing the course of a measurement signal f, which is converted into a time series ⁇ x ⁇ by sampling with a step size w
  • Figure 3 is a sketch showing a computer with which the invention is carried out.
  • a first time series ⁇ xt ⁇ unc ⁇ a second time series ⁇ yt ⁇ each have a predeterminable number of samples x- j -, y ⁇ of a signal, in particular an electrical signal.
  • the signals are measured by a measuring device MG (see FIG. 3) and fed to a computer R.
  • the method described below is carried out in the computer and the results are fed to a means for further processing WV.
  • ny is modeled using a nneuurroonnaalleenn NNeettzzeess NNNN XX ,, NNNNyy
  • the information flow of the first time series ⁇ t ⁇ and the second time series ⁇ yt ⁇ is approximated.
  • a time series is identified by the following designation:
  • Each neural network NN X , NNy is trained to approximate a non-linear Markov process of order n x , ny using the maximum likelihood principle with which the learning rule is followed to maximize the product of the probabilities.
  • the respective neural network NN X , NNy is thus intended to estimate the conditional probability
  • ⁇ , ⁇ i: k +1 ) i expM vk, rs + 1 K s + 1 k, rl v s + 1, dv s + 1
  • denotes the Fourier transform of the probability densities and K_ denotes the variables of the function ⁇ l ..., K ⁇ , ... I in Fourier space.
  • i V- ⁇ .
  • regulation (14) can be simplified to the following regulation:
  • a measure is formed for the statistical dependency between the sample values v-, ' r , ..., v', r -, of the respective time series.
  • the measure mj (r) represents a cumulative-based characterization of the information flow of the dynamic system from which the time series ⁇ xt ⁇ ] are determined, and quantifies the dependencies of the values ⁇ xt + r ⁇ kk e J - taking nj values into account Past time series ⁇ x ⁇ - ⁇ ..
  • a 2-layer, forward-looking neural network is trained to measure the probability densities p (+ l ⁇ k ⁇ * t ⁇ •••, ⁇ x - n ⁇ + l ⁇ ⁇ •••> ⁇ N > ••• * ⁇ x tn N + l ⁇ N
  • a neural network is trained for each time series ⁇ xt ⁇ ⁇ ⁇ - in such a way that the neural network performs an estimate of the respective probability density of the Markov process of order (n] _, ..., ⁇ N):
  • L (d) is defined according to regulation (19).
  • the conditional probability density is therefore described by a weighted sum of normal distributions, their weights u h , mean values
  • Perceptron receive the first s- k r components of the vector v 'as an s-dimensional input variable.
  • the training takes place according to the maximum likelihood principle, which is described in [7].
  • N neural networks are trained and N conditional probability densities for an N-dimensional Markov process of order (n] _, ..., n ⁇ ) are estimated.
  • the neural networks are able to generate new time series using the Markov processes of the original time series ⁇ x ⁇ l, starting with the first n ⁇ values of each time series ⁇ x ⁇ ,.
  • the first s values ⁇ x ⁇ •••, ⁇ x n ⁇ ⁇ , •••, ⁇ x l ⁇ N '••• / ⁇ x n N ⁇ N J are fed to the neural network, which each simulates a conditional probability density. According to the so-called Monte Carlo method, new values ⁇ xi ⁇
  • 1 N formed
  • time series ⁇ xt ⁇ ⁇ and the surrogate time series ⁇ xt ⁇ • are subjected to a statistical test, which is described in [6], (step 102).
  • null hypothesis defines that the respective dynamic system can be described with sufficient accuracy by an s-dimensional Markov process of order (n, ..., njj).
  • the so-called Student t test is used to test the null hypothesis.
  • a surrogate measure m. (r) determined.
  • the determination of the surrogate measures ⁇ ⁇ (r) is carried out in the same way as the determination of the measure m k (r) for the statistical dependency for the time series ⁇ x ⁇ ,.
  • the dependence on r results from the last component of the vector v '.
  • the statistical dependencies between the last n k values of each time series ⁇ xt ⁇ k and the value that lies r steps in the future are measured.
  • Surrogate mean values ⁇ ⁇ (r) and surrogate standard deviations ⁇ (r) are determined according to the following regulations:
  • the Student t test is carried out in accordance with the following regulation:
  • t k (r) By forming a test value t k (r), a value is determined by which the surrogate time series are compared with the measure m k (r) of the original time series ⁇ xt ⁇ k .
  • the time series ⁇ xt ⁇ k can be described by a multi-dimensional Markov process, in which the last n_ values of the time series ⁇ x ⁇ ) ⁇ ,. , , and the last n ⁇ values of the time series ⁇ xtN are taken into account. If the null hypothesis is accepted, the examined time series ⁇ xt ⁇ ⁇ a ⁇ s become a time series of a first group which can be described by the Markov process of the respective order (n] _, ..., jsj) , classified (step 103) and the process is ended.
  • the order (ni, ..., ⁇ N) of the Markov process is increased and the process is repeated, starting with the training of the neural networks (step 104).
  • the number of time series examined is arbitrary, with two time series only two neural networks are required.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Complex Calculations (AREA)

Abstract

Time sequences are examined with respect to their statistical dependence and neuronal networks are trained in such a way that time sequence probability densities caused by a each neuronal network are modelled. Neuronal networks are used to determine surrogate time sequences and variables are determined for the statistical dependence of time sequence samples and surrogate time sequence samples. Said variables are compared with each other and the dynamic performance of each basic time sequence is examined as to whether it is described by a Markhov process in the order of (n1,..., nN).

Description

Beschreibungdescription
Verfahren und Vorrichtung zur Klassifikation einer ersten Zeitreihe und mindestens einer zweiten ZeitreiheMethod and device for classifying a first time series and at least a second time series
Die Erfindung betrifft die Klassifikation einer ersten Zeitreihe und mindestens einer zweiten Zeitreihe.The invention relates to the classification of a first time series and at least one second time series.
In verschiedensten Anwendungen ist es hilfreich, dynamische Systeme im Hinblick auf deren statistische Abhängigkeit zur Vorhersage des Verlaufs eines Meßsignals zu analysieren.In a wide variety of applications, it is helpful to analyze dynamic systems with regard to their statistical dependency in order to predict the course of a measurement signal.
Dabei weist ein gegebenes Meßsignal x eine beliebige Anzahl von Abtastwerten x-j-, die mit einer Schrittweite w abgetastet werden, auf (siehe Figur 2) . Es gilt, lineare und nichtlineare statistische Abhängigkeiten zwischen den Abtastwerten x-j- zu ermitteln. Abhängig von einer vorgegebenen Anzahl von Abtastwerten v in der Vergangenheit, die hinsichtlich ihrer statistischen Abhängigkeit analysiert werden, wird die durch die Analyse gewonnene Information dazu verwendet, eine Anzahl von Werten z in der Zukunft vorherzusagen.A given measurement signal x has any number of samples xj-, which are sampled with a step size w (see FIG. 2). It is important to determine linear and nonlinear statistical dependencies between the sample values x- j -. Depending on a predetermined number of samples v in the past, which are analyzed with regard to their statistical dependency, the information obtained by the analysis is used to predict a number of values z in the future.
Im 1-dimensionalen Fall, d.h. für eine Zeitreihe ( ), ist zur Analyse der statistischen Abhängigkeit das Konzept des Informationsflusses aus [1] und [3] bekannt. Bei einem solchen Verfahren wird der Verlust der Information zwischen vergangenen Werten und Werten, die eine vorgebbare Anzahl von Schritten in der Zukunft liegen, ermittelt. Abhängig von dem Verlauf des Informationsflusses kann auf die statistische Ab- hängigkeit der Abtastwerte und der Werte, die in der Zukunft liegen, geschlossen werden.In the 1-dimensional case, i.e. for a time series (), the concept of information flow from [1] and [3] is known for the analysis of the statistical dependency. In the case of such a method, the loss of information between past values and values that lie a predeterminable number of steps in the future is determined. Depending on the course of the information flow, the statistical dependence of the sample values and the values that lie in the future can be concluded.
Die Ermittlung einer Surrogat-Zeitreihe zu einer vorgegebenen Zeitreihe, d.h. eine Menge von Abtastwerten eines Signals, sowie Grundlagen über Surrogate sind in [2] und [6] zu finden. Unter einem Surrogat zu einer vorgegebenen Zeitreihe ist eine Zeitreihe zu verstehen, die gewisse gleiche statistische Eigenschaften aufweist wie die vorgegebene Zeitreihe.The determination of a surrogate time series for a given time series, ie a number of samples of a signal, and the basics of surrogates can be found in [2] and [6]. A surrogate for a given time series is to be understood as a time series that has certain statistical properties that are the same as the given time series.
Ein Überblick über verschiedene statistische Schätzer, beispielsweise neuronale Netze, Kernel-Schätzer, usw. ist in [4] und [8] zu finden.An overview of various statistical estimators, for example neural networks, kernel estimators, etc. can be found in [4] and [8].
Unter einer Ku ulante ist im weiteren ein Koeffizient der Taylor-Expansion der Logarithmusfunktion der Fourier-Below a column is a coefficient of the Taylor expansion of the logarithmic function of the Fourier
Transformierten einer Wahrscheinlichkeitsdichte zu verstehen. Grundlagen über Kumulanten sind in [5] zu finden. Die Expansion von charakteristischen Funktionen in Kumulanten ist in [5] beschrieben.To understand transforms of a probability density. Basics about accumulators can be found in [5]. The expansion of characteristic functions in cumulants is described in [5].
In [6] ist das Training eines neuronalen Netzes gemäß dem Ma- ximum-Likelihood-Prinzip beschrieben.[6] describes the training of a neural network according to the maximum likelihood principle.
Unter einem Markov-Prozeß der Ordnung m ist im weiteren ein zeitdiskreter Zufallsprozeß zu verstehen, bei dem ein zukünftiger Wert nur von den Werten, die m Schritte in der Vergangenheit liegen, abhängt.In the following, a Markov process of order m is to be understood as a time-discrete random process in which a future value depends only on the values that lie m steps in the past.
Unter dem Rang einer Zeitreihe ist im weiteren die Ordnung der Abtastwerte einer Zeitreihe nach der Größe der Abtastwerte zu verstehen.The rank of a time series is further understood to mean the order of the samples of a time series according to the size of the samples.
Aus [9] ist ein Verfahren zur Klassifikation einer Zeitreihe bekannt, bei dem für die Zeitreihe eine vorgebbare Anzahl von Surrogaten bestimmt wird. Für die Zeitreihe und für die Surrogate werden nichtlineare Korrelationen zwischen den Werten der Zeitreihe und den Werten der Surrogate mit einer ku ulan- tenbasierten Methode ermittelt. Anhand der nichtlinearen Korrelationen wird die Zeitreihe klassifiziert.A method for classifying a time series is known from [9], in which a predeterminable number of surrogates is determined for the time series. For the time series and for the surrogates, non-linear correlations between the values of the time series and the values of the surrogates are determined using a culinary-based method. The time series is classified based on the non-linear correlations.
Aus [10] ist ein weiteres Verfahren zur Klassifikation einer Zeitreihe bekannt. Bei diesem Verfahren wird ein dynamisches System entsprechend ihrer Wahrscheinlichkeitsdichte modelliert. Ein neuronales Netz wird entsprechend den Wahrscheinlichkeiten eines nichtlinearen Markov-Prozesses der Ordnung m nach dem Maximum-Likelihood-Prinzip trainiert.Another method for classifying a time series is known from [10]. This process becomes dynamic System modeled according to their probability density. A neural network is trained according to the probabilities of a non-linear Markov process of order m according to the maximum likelihood principle.
Der Erfindung liegt das Problem zugrunde, ein Verfahren sowie eine Vorrichtung zu schaffen, mit der eine Klassifikation mehrerer Zeitreihen hinsichtlich ihrer statistischen Abhängigkeit der Abtastwerte möglich wird.The invention is based on the problem of creating a method and a device with which a classification of a plurality of time series with regard to their statistical dependency of the samples is possible.
Das Problem wird durch das Verfahren gemäß Patentanspruch 1 sowie durch die Vorrichtung gemäß Patentanspruch 11 gelöst.The problem is solved by the method according to claim 1 and by the device according to claim 11.
Bei dem Verfahren wird ein nichtlinearer Markov-Prozeß für eine erste Zeitreihe durch einen ersten statistischen Schätzer modelliert. Ein nichtlinearer Markov-Prozeß für die zweite Zeitreihe wird durch einen zweiten statistischen Schätzer modelliert. Zu der ersten Zeitreihe wird unter Verwendung des ersten statistischen Schätzers mindestens eine Surrogat- Zeitreihe gebildet. Zu der zweiten Zeitreihe wird unter Verwendung des zweiten statistischen Schätzers mindestens eine Surrogat-Zeitreihe gebildet. Es wird ein erstes Maß für die statistische Abhängigkeit der Abtastwerte der ersten Zeitreihe und den Abtastwerten der zweiten Zeitreihe für eine vorge- gebene Anzahl von zukünftigen Abtastwerten gebildet. Ferner wird ein zweites Maß für die statistische Abhängigkeit der Werte der Surrogat-Zeitreihen voneinander für eine vorgegebene Anzahl von in der Zukunft liegenden Abtastwerten gebildet. Aus dem ersten Maß und dem zweiten Maß wird ein Unterschieds- maß gebildet. Die Klassifikation derart erfolgt, daßIn the method, a nonlinear Markov process is modeled for a first time series by a first statistical estimator. A nonlinear Markov process for the second time series is modeled by a second statistical estimator. At least one surrogate time series is formed for the first time series using the first statistical estimator. At least one surrogate time series is formed for the second time series using the second statistical estimator. A first measure for the statistical dependency of the samples of the first time series and the samples of the second time series is formed for a predetermined number of future samples. Furthermore, a second measure for the statistical dependence of the values of the surrogate time series on one another is formed for a predetermined number of samples lying in the future. A difference measure is formed from the first measure and the second measure. The classification is such that
- falls das Unterschiedsmaß kleiner ist als ein vorgegeben Schwellenwert, die erste Zeitreihe und die zweite Zeitreihe einer ersten Gruppe zugeordnet werden,if the difference measure is smaller than a predetermined threshold value, the first time series and the second time series are assigned to a first group,
- sonst die erste Zeitreihe und die zweite Zeitreihe einer zweiten Gruppe zugeordnet werden. Die Vorrichtung weist eine Prozessoreinheit auf, die derart eingerichtet ist, daß ein nichtlinearer Markov-Prozeß für eine erste Zeitreihe durch einen ersten statistischen Schätzer modelliert wird. Ein nichtlinearer Markov-Prozeß für die zweite Zeitreihe wird durch einen zweiten statistischen- Otherwise the first time series and the second time series are assigned to a second group. The device has a processor unit which is set up in such a way that a non-linear Markov process is modeled for a first time series by a first statistical estimator. A nonlinear Markov process for the second time series is replaced by a second statistical
Schätzer modelliert. Zu der ersten Zeitreihe wird unter Verwendung des ersten statistischen Schätzers mindestens eine Surrogat-Zeitreihe gebildet. Zu der zweiten Zeitreihe wird unter Verwendung des zweiten statistischen Schätzers minde- stens eine Surrogat-Zeitreihe gebildet. Es wird ein erstes Maß für die statistische Abhängigkeit der Abtastwerte der ersten Zeitreihe und den Abtastwerten der zweiten Zeitreihe für eine vorgegebene Anzahl von zukünftigen Abtastwerten gebildet. Ferner wird ein zweites Maß für die statistische Abhängigkeit der Werte der Surrogat-Zeitreihen voneinander für eine vorgegebene Anzahl von in der Zukunft liegenden Abtastwerten gebildet. Aus dem ersten Maß und dem zweiten Maß wird ein Unterschiedsmaß gebildet. Die Klassifikation derart erfolgt, daßModel estimator. At least one surrogate time series is formed for the first time series using the first statistical estimator. At least one surrogate time series is formed for the second time series using the second statistical estimator. A first measure for the statistical dependency of the samples of the first time series and the samples of the second time series is formed for a predetermined number of future samples. Furthermore, a second measure for the statistical dependence of the values of the surrogate time series on one another is formed for a predetermined number of samples lying in the future. A difference measure is formed from the first measure and the second measure. The classification is such that
- falls das Unterschiedsmaß kleiner ist als ein vorgegeben Schwellenwert, die erste Zeitreihe und die zweite Zeitreihe einer ersten Gruppe zugeordnet werden,if the difference measure is smaller than a predetermined threshold value, the first time series and the second time series are assigned to a first group,
- sonst die erste Zeitreihe und die zweite Zeitreihe einer zweiten Gruppe zugeordnet werden.- Otherwise the first time series and the second time series are assigned to a second group.
Durch die Erfindung wird es erstmals möglich, statistische Abhängigkeit zwischen multidimensionalen Zeitreihen, d.h. mehreren Zeitreihen, zu ermitteln.The invention makes it possible for the first time to establish statistical dependency between multidimensional time series, i.e. several time series.
Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.Further developments of the invention result from the dependent claims.
Es ist in einer Weiterbildung vorteilhaft, jeweils ein nichtlineares neuronales Netz als statistischen Schätzer einzusetzen, da ein neuronales Netz sehr gut geeignet ist zur Schät- zung von Wahrscheinlichkeitsdichten. Die Erfindung ist in verschiedenen Anwendungsgebieten einsetzbar. So können statistische Abhängigkeiten zwischen gemessenen Signalen eines Elektroencephalogramms (EEG) oder eines Elektrokardiogramms (EKG) ermittelt werden.In a further development, it is advantageous to use a nonlinear neural network as a statistical estimator, since a neural network is very well suited for estimating probability densities. The invention can be used in various fields of application. Statistical dependencies between measured signals of an electroencephalogram (EEG) or an electrocardiogram (EKG) can be determined.
Die Erfindung kann ferner sehr vorteilhaft eingesetzt werden zur Analyse eines Finanzmarktes, wobei mit dem Signalverlauf in diesem Fall beispielsweise der Kursverlauf einer Aktie oder eines Devisenkurses beschrieben wird.The invention can also be used very advantageously for analyzing a financial market, the course of the signal in this case, for example, describing the course of a share or a foreign exchange rate.
Ein Ausführungsbeispiel der Erfindung ist in den Figuren dargestellt und wird im weiteren näher erläutert.An embodiment of the invention is shown in the figures and is explained in more detail below.
Es zeigen Figur 1 eine Skizze, in der die Erfindung in ihren einzelnen Elementen dargestellt ist; Figur 2 eine Skizze, die den Verlauf eines Meßsignals f, das durch Abtasten mit einer Schrittweite w in eine Zeitreihe {x } überführt wird, zeigt; Figur 3 eine Skizze, in der ein Rechner, mit dem die Erfindung durchgeführt wird, dargestellt ist.FIG. 1 shows a sketch in which the invention is shown in its individual elements; Figure 2 is a sketch showing the course of a measurement signal f, which is converted into a time series {x} by sampling with a step size w; Figure 3 is a sketch showing a computer with which the invention is carried out.
Eine erste Zeitreihe {xt} unc^ eine zweite Zeitreihe {yt} weisen jeweils eine vorgebbare Anzahl von Abtastwerten x-j-, y^ eines Signals, insbesondere eines elektrischen Signals, auf.A first time series {xt} unc ^ a second time series {yt} each have a predeterminable number of samples x- j -, y ^ of a signal, in particular an electrical signal.
Die Signale werden von einem Meßgerät MG (vgl. Fig. 3) gemessen und einem Rechner R zugeführt. In dem Rechner wird das im folgenden beschriebene Verfahren durchgeführt und die Ergeb- nisse werden einem Mittel zur Weiterverarbeitung WV zugeführt .The signals are measured by a measuring device MG (see FIG. 3) and fed to a computer R. The method described below is carried out in the computer and the results are fed to a means for further processing WV.
Für jede Zeitreihe {xt}' {^t} wird unter Verwendung eines nneeuurroonnaalleenn NNeettzzeess NNNNXX,, NNNNyy eeiin nichtlinearer Markov-Prozeß der Ordnung nx, ny modelliert Mit dem nichtlinearen Markov-Prozeß der Ordnung m wird jeweils der Informationsfluß der ersten Zeitreihe { t} bzw. der zweiten Zeitreihe {yt} approximiert.For each time series {xt} '{^ t} a nonlinear Markov process of the order n x , ny is modeled using a nneuurroonnaalleenn NNeettzzeess NNNN XX ,, NNNNyy With the non-linear Markov process of order m, the information flow of the first time series {t} and the second time series {yt} is approximated.
Bei einer beliebigen Zahl N von Zeitreihen, die in dem Verfahren berücksichtigt werden können, wird eine Zeitreihe durch folgende Bezeichnung gekennzeichnet:For any number N of time series that can be taken into account in the method, a time series is identified by the following designation:
{xt}k , k = 1, ...,N (1) .{x t } k , k = 1, ..., N (1).
Es wird für jede Zeitreihe {xtju ei-n Ma-ß der statistischenFor each time series {xtju e i- n measure of the statistical
Abhängigkeit eines Wertes {xt+r^k (ein Wert, der r Schritte in der Zukunft liegt) gebildet. Dabei werden nj vergangene Abtastwerte (j=l,...,N) berücksichtigt. Dependence of a value {xt + r ^ k (ei n value r steps in the future is located) is formed. Here nj past samples (j = 1, ..., N) are taken into account.
Die Charakteristik des Systems wird ausgedrückt durch die folgende Differenz zwischen Wahrscheinlichkeitsdichtefunktio- nen p ( ) :The characteristic of the system is expressed by the following difference between probability density functions p ():
p({xt} ■■■>
Figure imgf000009_0001
{ t +r }kJ
p ({ x t} ■■■ >
Figure imgf000009_0001
{t + r} k J
- p({xt} ..., jxt-n1+l}1,{xt}2'-'{xt-n2+l}2'-'{xt}N,-' {xt-nN+l} ' p({ t+r}k)- p ({xt} ..., jxt-n 1 + l} 1 , {xt} 2 '-' { x t-n2 + l} 2 '-' { x t} N , - '{ x tn N + l} 'p ({t + r} k )
(2) .(2).
Für den Fall, daß die statistischen Abhängigkeiten innerhalb von r Schritten in der Zukunft verschwinden, ergibt sich Vorschrift (2) zu:In the event that the statistical dependencies disappear within r steps in the future, regulation (2) results in:
p({xt} ■•• . {xt- + 1}^ { t}2< - > {xt-n2 +l}2. - . { t}N' ••• . jxt-nN + l}N> { t+r}Jp ({xt} ■ •• . {xt- + 1} ^ {t} 2 <-> { x tn 2 + l} 2. -. {t} N '•••. j x tn N + l } N > {t + r} J
= p({xt} ••- {xt-n1+l}1' { t}2'--'{xt-n2+l}2----{xt}N— jxt-nN+l}NJ p({ t+r}k)= p ({ x t} •• - { x tn 1 + l} 1 '{t} 2 ' - '{ x tn 2 + l} 2 ---- { x t} N - j x tn N + l} N Y p ({t + r} k )
(3) .(3).
Jedes neuronale Netz NNX, NNy wird, um einen nichtlinearen Markov-Prozeß der Ordnung nx, ny zu approximieren, trainiert, indem das Maximum-Likelihood-Prinzip angewendet wird, mit dem die Lernvorschrift befolgt wird, das Produkt der Wahrscheinlichkeiten zu maximieren. Das jeweilige neuronale Netz NNX, NNy soll somit eine Einschätzung der bedingten WahrscheinlichkeitEach neural network NN X , NNy is trained to approximate a non-linear Markov process of order n x , ny using the maximum likelihood principle with which the learning rule is followed to maximize the product of the probabilities. The respective neural network NN X , NNy is thus intended to estimate the conditional probability
p xt xt-1' *t- -nx' Yt-1' Υt-n y>px t xt-1 '* t- -n x ' Yt-1 'Υt-n y>
P Yt !xt_!, ... , xt-nx' Yt-1' ••• ' yt-riyP Yt! X t _ !, ..., xt-n x 'Yt-1' ••• 'yt-riy
durchführen. Um die Analyse durchzuführen, werden Kumulanten höherer Ordnung anstelle der Wahrscheinlichkeitsdichten verwendet. Durchcarry out. To perform the analysis, higher order cumulants are used instead of the probability densities. By
Transformation der Vorschrift (3) in den Fourier-Raum werden charakteristische Funktionen
Figure imgf000010_0001
, Φ2k , Φ3k gebildet, die die
Transformation of the rule (3) into the Fourier space become characteristic functions
Figure imgf000010_0001
, Φ 2 k, Φ3k formed which the
Fourier-Transformierten der Wahrscheinlichkeitsdichten der Vorschrift (3) darstellen.Represent Fourier transforms of the probability densities of regulation (3).
Die Vorschrift (3) wird zu:Regulation (3) becomes:
In Φ = In Φj + In Φ'In Φ = In Φj + In Φ '
wobei mit dem + 1 -dimensionalen Vektor
Figure imgf000010_0002
being with the +1 dimensional vector
Figure imgf000010_0002
' ,r = ({ t- +1}^ ••• ( t} j t-n2 +l}2. - . { t}2' - / {xt-nN +l}N, - , { t }N, (xt+r}k)' , r = ({t- +1} ^ ••• (t} j tn 2 + l} 2. -. {t} 2' - / { x tn N + l} N , -, {t} N , ( x t + r} k )
undand
NN
∑ n :7) k = l∑ n: 7) k = l
giltapplies
φϊ = φϊ(κϊ'-'κs'κs + ι) = JP
Figure imgf000010_0003
k,r τ k,r k,r dv rks,'r d ,
φ ϊ = φ ϊ ( κ ϊ'- ' κ s' κ s + ι) = J P
Figure imgf000010_0003
k, r τ k, rk, r dv r k s , 'rd,
Pl v-, vc V s + 1. dv vs k, +r ]_
Figure imgf000011_0001
Pl v-, v c V s + 1. dv v s k, + r ] _
Figure imgf000011_0001
Φ, Φi : k +1) = i expM v k, r s + 1 K s + 1 k, r l vs + 1, dv s + 1Φ, Φi: k +1 ) = i expM vk, rs + 1 K s + 1 k, rl v s + 1, dv s + 1
10) .10).
Dabei werden mit Φ die Fourier-Transformierte der Wahr- scheinlichkeitsdichten und mit K_ die Variablen der Funktion Φl... , K ■ , ...I im Fourier-Raum bezeichnet. Es gilt i = V-ϊ .Φ denotes the Fourier transform of the probability densities and K_ denotes the variables of the function Φl ..., K ■, ... I in Fourier space. The following applies: i = V-ϊ.
Wenn man die charakteristischen Funktionen in Kumulanten, die in [5] beschrieben sind, expandiert, so folgt darausIf one expands the characteristic functions in cumulants, which are described in [5], it follows from this
Figure imgf000011_0002
Figure imgf000011_0002
Φi : i2 :
Figure imgf000011_0003
Φi: i2:
Figure imgf000011_0003
il, ... , iή = s + 1 :i3;
Figure imgf000011_0004
il, ..., iή = s + 1: i3;
Figure imgf000011_0004
Mit (.) wird die jeweilige Kumulante bezeichnet. Einsetzen der Erweiterung in die Vorschrift (5) ergibt folgende Bedingung:The respective cumulant is designated with (.). Inserting the extension into regulation (5) results in the following condition:
Figure imgf000012_0001
Figure imgf000012_0001
mit der Einschränkungwith the limitation
B s (Ξia: ia = s + 1 Λ ^Via: ia = s + l) (15) .B s (Ξi a : i a = s + 1 Λ ^ Vi a : i a = s + l) (15).
Diese Bedingung gilt für den Fall, daß alle Arten von statistischen Abhängigkeiten innerhalb von r Schritten m der Zukunft zu 0 werden.This condition applies in the event that all kinds of statistical dependencies become 0 within r steps m of the future.
Im Fall der statistischen Unabhängigkeit zwischen den Ab- tastwerten kann die Vorschrift (14) vereinfacht werden zu folgender Vorschrift:In the case of statistical independence between the sample values, regulation (14) can be simplified to the following regulation:
(k). = 0 V i1,...,ii e (l, ...,s + 1} (16).(k). = 0 V i 1 , ..., i i e (l, ..., s + 1} (16).
'll-.ij J 'll-.ij J
Es wird ein Maß gebildet für die statistische Abhängigkeit zwischen den Abtastwerten v-,'r,..., v ',r-, der jeweiligen Zeitreihen.A measure is formed for the statistical dependency between the sample values v-, ' r , ..., v', r -, of the respective time series.
Die statistische Abhängigkeit der Abtastwerte der Zeitreihe {x^}k, die r Schritte in der Zukunft liegen, ist gegeben nach folgender Vorschrift:The statistical dependency of the samples of the time series {x ^} k , which are r steps in the future, is given according to the following rule:
Figure imgf000012_0002
Die statistische Abhängigkeit von Abtastwerten unterschiedlicher Zeitreihen {xt}^ voneinander wird gemäß folgender Vorschrift beschrieben:
Figure imgf000012_0002
The statistical dependency of samples of different time series {xt} ^ on each other is described according to the following rule:
Das Maß mj (r) repräsentiert jeweils eine kumulantenbasierte Charakterisierung des Informationsflusses des dynamischen Systems, aus dem die Zeitreihen {xt}], ermittelt werden, und quantifiziert die Abhängigkeiten der Werte {xt+r^k keJ- Berücksichtigung von nj Werten in der Vergangenheit der jeweiligen Zeitreihe {x^-}..The measure mj (r) represents a cumulative-based characterization of the information flow of the dynamic system from which the time series {xt} ] are determined, and quantifies the dependencies of the values {xt + r ^ kk e J - taking nj values into account Past time series {x ^ -} ..
Für den Fall, daß ein weiteres Maß m^^fr) den Wert 0 annimmt, sind die Abtastwerte der jeweiligen Zeitreihe voneinander statistisch unabhängig. Wachsende positive Werte des jeweiligen weiteren Maßes m^j^r) deuten eine steigende statistische Abhängigkeit unter den Abtastwerten der jeweiligen ZeitreiheIn the event that a further dimension m ^^ fr) assumes the value 0, the samples of the respective time series are statistically independent of one another. Growing positive values of the respective further measure m ^ j ^ r) indicate an increasing statistical dependency among the samples of the respective time series
K!» an.K! » on.
mkk(r) = X(k)? • + K(k)? P-l' in = s + 1
Figure imgf000013_0001
m kk ( r ) = X (k)? • + K (k)? Pl 'in = s + 1
Figure imgf000013_0001
mit k = 1, N,with k = 1, N,
k-1
Figure imgf000013_0002
j = l
k-1
Figure imgf000013_0002
j = l
k und U(k) = :2o ; j=lk and U (k) =: 2o; j = l
Zur Modellierung des Markov-Prozesses der Ordnung (n_, ..., ΠN) wird also ein 2-schichtiges vorwärtsgerichtetes neuronales Netz trainiert, um die Wahrscheinlichkeitsdichten p( + l}k {*t} ••• , {x - +l}^ ••• > }N> ••• * {xt-nN +l}N To model the Markov process of order (n_, ..., ΠN), a 2-layer, forward-looking neural network is trained to measure the probability densities p (+ l} k {* t} •••, {x - + l} ^ •••>} N > ••• * { x tn N + l} N
zu approximieren.to approximate.
Gemäß den folgenden Vorschriften wird jeweils ein neuronales Netz für jede Zeitreihe {xt}ι<- derart trainiert, daß das neuronale Netz eine Schätzung der jeweiligen Wahrscheinlichkeitsdichte des Markov-Prozesses der Ordnung (n]_, ..., ΠN) durchführt:According to the following regulations, a neural network is trained for each time series {xt} ι < - in such a way that the neural network performs an estimate of the respective probability density of the Markov process of order (n] _, ..., ΠN):
HH
Σ '21 h= lΣ '21 h = l
pK + l}k M ••• . {x t-
Figure imgf000014_0001
••• > ) ■■■ ' (xt-nN +l}
p K + l} k M •••. { x t -
Figure imgf000014_0001
•••>) ■ ■■ '( x tn N + l}
Figure imgf000014_0002
Figure imgf000014_0002
k 1, N (22)k 1, N (22)
u v hO +
Figure imgf000014_0003
uv hO +
Figure imgf000014_0003
.23:.23:
Figure imgf000014_0004
Figure imgf000014_0004
(24;
Figure imgf000015_0001
(24;
Figure imgf000015_0001
:25:: 25:
Dabei werden mit H eine Anzahl von Gauss-Funktionen, mit 1 die Anzahl der verdeckten Neuronen in dem jeweiligen neuronalen Netz und mit vhi , , vhi , , w* die Para
Figure imgf000015_0003
Figure imgf000015_0002
meter des jeweiligen neuronalen Netzes bezeichnet. L(d) ist gemäß Vorschrift (19) definiert. Die bedingte Wahrscheinlich- keitsdichte ist demnach durch eine gewichtete Summe von Nor- malverteilungen beschrieben, deren Gewichte uh , Mittelwerte
With H a number of Gaussian functions, with 1 the number of hidden neurons in the respective neural network and with v hi,, v hi,, w * the para
Figure imgf000015_0003
Figure imgf000015_0002
of the respective neural network. L (d) is defined according to regulation (19). The conditional probability density is therefore described by a weighted sum of normal distributions, their weights u h , mean values
μhk und Varianzen
Figure imgf000015_0004
als Ausgangsgrößen dreier unterschiedlicher neuronaler Netze gegeben sind, die als Multilayer-
μ h k and variances
Figure imgf000015_0004
as output variables of three different neural networks, which are multilayer
Perzeptron (vgl. Vorschriften (23) bis (25)) die ersten s- k r Komponenten des Vektors v ' als s-dimensionale Eingangsgröße erhalten. Das Training erfolgt gemäß dem Maximum- Likelihood-Prinzip, welches in [7] beschrieben ist.Perceptron (cf. regulations (23) to (25)) receive the first s- k r components of the vector v 'as an s-dimensional input variable. The training takes place according to the maximum likelihood principle, which is described in [7].
Es werden N neuronale Netze trainiert und es werden N beding- te Wahrscheinlichkeitsdichten für einen N-dimensionalen Markov-Prozeß der Ordnung (n]_, ..., n^) geschätzt.N neural networks are trained and N conditional probability densities for an N-dimensional Markov process of order (n] _, ..., n ^) are estimated.
Nach Abschluß des Trainings sind die neuronalen Netze in der Lage, neue Zeitreihen unter Verwendung der Markov-Prozesse der ursprünglichen Zeitreihen {x^l zu generieren, beginnend mit den ersten n^-Werten jeder Zeitreihe {x^}, .After completing the training, the neural networks are able to generate new time series using the Markov processes of the original time series {x ^ l, starting with the first n ^ values of each time series {x ^},.
Die ersten s Werte {xι} ••• , {x } , ••• , {xl}N' ••• / {xnN }NJ werden dem neuronalen Netz zugeführt, das jeweils eine bedingte Wahrscheinlichkeitsdichte nachbildet. Gemäß der sogenannten Monte-Carlo-Methode werden neue Werte {xi} | = 1 N gebildetThe first s values {xι} •••, {x }, •••, { x l} N '••• / { x n N } N J are fed to the neural network, which each simulates a conditional probability density. According to the so-called Monte Carlo method, new values {xi} | = 1 N formed
gemäß den jeweiligen Wahrscheinlichkeitsdichten und diese Werte werden al s neue Werte einer neuen Zeitreihe {xt } verwendet .according to the respective probability densities and these Values are used as new values of a new time series {xt}.
Eine neues s-Tupel von EingangswertenA new s-tuple of input values
{x2} ... , {x }± {xi }j , • • • , {x }N, - . {xnN }N> {xl } N{x 2 } ..., {x } ± {xi} j, • • •, {x} N , -. { x n N } N > { x l} N
wird wiederum dem jeweiligen neuronalen Netz zugeführt. Diese Vorgehensweise der Rückkopplung von neu generierten Werten wird beliebig oft wiederholt. Die neuen Zeitreihen (xt) werden derart bearbeitet, daß sie die gleiche Verteilung aufweisen wie die ursprünglichen Zeitreihen { t}ι, und bilden somitis in turn fed to the respective neural network. This procedure for the feedback of newly generated values is repeated as often as required. The new time series (xt) are processed in such a way that they have the same distribution as the original time series {t} ι , and thus form d
Surrogat-Zeitreihen { t} > k = 1, ... , N . Durch Wiederholung dieser Iteration wird somit eine vorgebbare, beliebige Anzahl M Surrogat-Zeitreihen { t} ■ / k = 1, ... , N, i = 1, ... , M, generiert (Schritt 101) .Surrogate time series {t} > k = 1, ..., N. By repeating this iteration, a predefinable, arbitrary number M surrogate time series {t} ■ / k = 1, ..., N, i = 1, ..., M, is thus generated (step 101).
Die Zeitreihen {xt}^ und die Surrogat-Zeitreihen {xt} • werden einem statistischen Test, welcher in [6] beschrieben ist, unterzogen (Schritt 102) .The time series {xt} ^ and the surrogate time series {xt} • are subjected to a statistical test, which is described in [6], (step 102).
Als Null-Hypothese wird definiert, daß das jeweilige dynamische System durch einen s-dimensionalen Markov-Prozeß der Ordnung (n , ..., njj) ausreichend genau beschrieben werden kann.The null hypothesis defines that the respective dynamic system can be described with sufficient accuracy by an s-dimensional Markov process of order (n, ..., njj).
Zum Testen der Null-Hypothese wird der sogenannte Student-t- Test angewendet. Bei dem Student-t-Test wird für jede Surrogat-Zeitreihe ein Surrogat-Maß m . (r) ermittelt. Die Ermittlung der Surrogat-Maße τ ■ (r) erfolgt in gleicher Weise wie die Ermittlung des Maßes mk(r) für die statistische Abhängigkeit für die Zeitreihen {x^}, . Die Abhängigkeit von r ergibt sich durch die letzte Komponen- k r te des Vektors v ' . Es werden also die statistischen Abhängigkeiten zwischen den letzten nk-Werten jeder Zeitreihe {xt}k und dem Wert, der r-Schritte in der Zukunft liegt, gemessen.The so-called Student t test is used to test the null hypothesis. In the Student t test, a surrogate measure m. (r) determined. The determination of the surrogate measures τ ■ (r) is carried out in the same way as the determination of the measure m k (r) for the statistical dependency for the time series {x ^},. The dependence on r results from the last component of the vector v '. The statistical dependencies between the last n k values of each time series {xt} k and the value that lies r steps in the future are measured.
Aus den Surrogat-Maßen mr . (r) werden Surrogat-Mittelwerte μ^(r) und Surrogat-Standardabweichungen σ (r) ermittelt gemäß den folgenden Vorschriften:From the surrogate measurements mr. (r) Surrogate mean values μ ^ (r) and surrogate standard deviations σ (r) are determined according to the following regulations:
Figure imgf000017_0001
Figure imgf000017_0001
Der Student-t-Test erfolgt gemäß folgender Vorschrift:The Student t test is carried out in accordance with the following regulation:
κ VM + 1 σr (r) κ VM + 1 σr (r)
Durch Bildung eines Testwerts tk(r) wird ein Wert ermittelt, durch den die Surrogat-Zeitreihen mit dem Maß mk(r) der ursprünglichen Zeitreihe {xt}k verglichen werden. Der Wert wird auch als Signifikanz tk(r) bezeichnet. Falls die Signifikanz tk(r) für alle r, wobei beispielsweise 1 < r < 10 gilt, kleiner als 1,833 ist (M = 10), so wird die Null-Hypothese akzep- tiert.By forming a test value t k (r), a value is determined by which the surrogate time series are compared with the measure m k (r) of the original time series {xt} k . The value is also referred to as significance t k (r). If the significance t k (r) for all r, for example 1 <r <10, is less than 1.833 (M = 10), the null hypothesis is accepted.
Anschaulich lautet die Null-Hypothese:The null hypothesis is clearly:
Die Zeitreihe {xt}k läßt sich durch einen mehrdimensionalen Markov-Prozeß beschreiben, bei dem die letzten n_-Werte der Zeitreihe { x^ ) ι , . . . und die letzten n^-Werte der Zeitreihe {x-t-N berücksichtigt werden. Wird die Null-Hypothese akzeptiert, so werden die untersuchten Zeitreihen {xt}^ a^s eine Zeitreihe einer ersten Gruppe, die durch den Markov-Prozeß der jeweiligen Ord- nung (n]_, ..., jsj) beschrieben werden kann, klassifiziert (Schritt 103) und das Verfahren wird beendet.The time series {xt} k can be described by a multi-dimensional Markov process, in which the last n_ values of the time series {x ^) ι,. , , and the last n ^ values of the time series {xtN are taken into account. If the null hypothesis is accepted, the examined time series {xt} ^ a ^ s become a time series of a first group which can be described by the Markov process of the respective order (n] _, ..., jsj) , classified (step 103) and the process is ended.
Wird die Null-Hypothese verworfen, so wird die Ordnung (ni, ..., ΠN) des Markov-Prozesses erhöht, und das Verfahren wird wiederholt, beginnend mit dem Training der neuronalen Netze (Schritt 104) .If the null hypothesis is rejected, the order (ni, ..., ΠN) of the Markov process is increased and the process is repeated, starting with the training of the neural networks (step 104).
Wenn kein detailliertes Wissen über das untersuchte dynamische System vorhanden ist, wird mit folgenden Startwerten be- gönnen: n_ = 1, nj = 0 für j = 2, ..., N.If there is no detailed knowledge of the dynamic system examined, the following start values are used: n_ = 1, nj = 0 for j = 2, ..., N.
Die Anzahl untersuchter Zeitreihen ist beliebig, bei zwei Zeitreihen werden lediglich zwei neuronale Netze benötigt. The number of time series examined is arbitrary, with two time series only two neural networks are required.
Im Rahmen dieses Dokuments wurden folgende Veröffentlichungen zitiert:The following publications have been cited in this document:
[1] C. Schittenkopf und G. Deco, Exploring and Intrinsic Information Loss in Single-Humped Maps by Refining Multi-Symbol Partitions, Physica D, 94, S. '57-64, 1996[1] C. Schittenkopf and G. Deco, Exploring and intrinsic information loss in single-Humped Maps by Refining multi-symbol partition, Physica D, 94, p '57-64, 1996
[2] J. Theiler et al, Testing for nonlinearity in time series: The method of Surrogate data, Physica D, 58, S. 77-94, 1992[2] J. Theiler et al, Testing for nonlinearity in time series: The method of Surrogate data, Physica D, 58, pp. 77-94, 1992
[3] G. Deco, C. Schittenkopf und B. Schürmann, Determining the Information Flow of Dynamical Systems from Continuous Probability Distributions, Physical Review Letters, 78, S. 2345 - 2348, 1997[3] G. Deco, C. Schittenkopf and B. Schürmann, Determining the Information Flow of Dynamical Systems from Continuous Probability Distributions, Physical Review Letters, 78, pp. 2345 - 2348, 1997
[4] B. W. Silverman, Density Estimation for Statistics and Data Analysis, Chapman and Hall, ISBN 0-412-24620-1, S. 34 - 94, London, 1986[4] B. W. Silverman, Density Estimation for Statistics and Data Analysis, Chapman and Hall, ISBN 0-412-24620-1, pp. 34-94, London, 1986
[5] C. Gardiner, Handbook of Stochastic Methods,[5] C. Gardiner, Handbook of Stochastic Methods,
2. Auflage, Springer Verlag, ISBN 0-387-11357-6,2nd edition, Springer Verlag, ISBN 0-387-11357-6,
S. 33 - 36, New York, 1985Pp. 33-36, New York, 1985
[6] C. Schittenkopf und G. Deco, Testing Nonlinear Markovian[6] C. Schittenkopf and G. Deco, Testing Nonlinear Markovian
Hypotheses in Dynamical Systems, Physica D, 104,Hypotheses in Dynamical Systems, Physica D, 104,
S. 61 - 74, 1997Pp. 61-74, 1997
[7] A. Papoulis, Probability, Random Variables, and[7] A. Papoulis, Probability, Random Variables, and
Stochastic Processes, McGraw-Hill, New York, 1991, ISBN 0-07-100870-5, S. 260 - 263Stochastic Processes, McGraw-Hill, New York, 1991, ISBN 0-07-100870-5, pp. 260-263
[8] C. M. Bishop, Neural Networks for Pattern Recognition, Clarendon Press, Oxford, S. 33 - 50, ISBN 0-19-85364-2, [9] DE 196 08 734 Cl[8] CM Bishop, Neural Networks for Pattern Recognition, Clarendon Press, Oxford, pp. 33-50, ISBN 0-19-85364-2, [9] DE 196 08 734 Cl
[10] DE 196 43 918 Cl [10] DE 196 43 918 Cl

Claims

Patentansprüche claims
1. Verfahren zur Klassifikation einer ersten Zeitreihe und einer zweiten Zeitreihe, die jeweils eine vorgegebene Anzahl von Abtastwerten aufweisen, durch einen Rechner,1. A computer for classifying a first time series and a second time series, each of which has a predetermined number of samples,
- bei dem ein nichtlinearer Markov-Prozeß für die erste Zeitreihe durch einen ersten statistischen Schätzer modelliert wird,a non-linear Markov process for the first time series is modeled by a first statistical estimator,
- bei dem ein nichtlinearer Markov-Prozeß für die zweite Zeitreihe durch einen zweiten statistischen Schätzer modelliert wird,a non-linear Markov process is modeled for the second time series by a second statistical estimator,
- bei dem zu der ersten Zeitreihe unter Verwendung des ersten statistischen Schätzers mindestens eine Surrogat-Zeitreihe gebildet wird, - bei dem zu der zweiten Zeitreihe unter Verwendung des zweiten statistischen Schätzers mindestens eine Surrogat- Zeitreihe gebildet wird,in which at least one surrogate time series is formed for the first time series using the first statistical estimator, in which at least one surrogate time series is formed for the second time series using the second statistical estimator,
- bei dem ein erstes Maß für die statistische Abhängigkeit der Abtastwerte der ersten Zeitreihe und den Abtastwerten der zweiten Zeitreihe für eine vorgegebene Anzahl von zukünftigen Abtastwerten gebildet wird,a first measure for the statistical dependency of the samples of the first time series and the samples of the second time series is formed for a predetermined number of future samples,
- bei dem ein zweites Maß für die statistische Abhängigkeit der Werte der Surrogat-Zeitreihen voneinander für eine vorgegebene Anzahl von in der Zukunft liegenden Abtastwerten ge- bildet wird,a second measure of the statistical dependence of the values of the surrogate time series on one another is formed for a predetermined number of samples lying in the future,
- bei dem aus dem ersten Maß und dem zweiten Maß ein Unter- schiedsmaß gebildet wird, und- in which a difference is formed from the first dimension and the second dimension, and
- bei dem die Klassifikation derart erfolgt, daß- in which the classification is such that
- falls das Unterschiedsmaß kleiner ist als ein vorgegeben Schwellenwert, die erste Zeitreihe und die zweite Zeitreihe einer ersten Gruppe zugeordnet werden,if the difference measure is smaller than a predetermined threshold value, the first time series and the second time series are assigned to a first group,
- sonst die erste Zeitreihe und die zweite Zeitreihe einer zweiten Gruppe zugeordnet werden.- Otherwise the first time series and the second time series are assigned to a second group.
2. Verfahren nach Anspruch 1, bei dem mehrere zweite Zeitreihen berücksichtigt werden. 2. The method according to claim 1, in which several second time series are taken into account.
3. Verfahren nach Anspruch 1 oder 2, bei dem zu der ersten Zeitreihe und der zweiten Zeitreihe unter Verwendung des ersten statistischen Schätzers und des zweiten statistischen Schätzers jeweils mehrere Surrogat- Zeitreihen gebildet werden.3. The method of claim 1 or 2, in which a plurality of surrogate time series are formed for the first time series and the second time series using the first statistical estimator and the second statistical estimator.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem als statistischer Schätzer ein neuronales Netz verwendet wird.4. The method according to any one of claims 1 to 3, in which a neural network is used as a statistical estimator.
5. Verfahren nach einem der Ansprüche 1 bis 4, bei dem anstelle der ersten Zeitreihe und/oder der zweiten Zeitreihe und/oder mindestens einer weiteren Zeitreihe eine modifizierte Gaußsche Zeitreihe, die dadurch gebildet wird, daß normalverteilte Zufallszahlen ermittelt werden und diese entsprechend dem Rang der Zeitreihe sortiert werden, eingesetzt wird.5. The method according to any one of claims 1 to 4, in which instead of the first time series and / or the second time series and / or at least one further time series, a modified Gaussian time series, which is formed in that normal distributed random numbers are determined and this according to the rank of the time series are used.
6. Verfahren nach einem der Ansprüche 1 bis 5, bei dem das erste Maß gemäß folgender Vorschrift gebildet wird:6. The method according to any one of claims 1 to 5, wherein the first dimension is formed according to the following rule:
mkk(r) = N(k)? • + X(k)? J-l» s + 1
Figure imgf000022_0001
mkk (r) = N (k)? • + X ( k )? Jl » s + 1
Figure imgf000022_0001
mit k = 1, N,with k = 1, N,
k-1
Figure imgf000022_0002
j = l
k-1
Figure imgf000022_0002
j = l
Figure imgf000022_0003
j= l
Figure imgf000022_0003
j = l
wobei mit • i, j, k positive ganze Zahlen bezeichnet werden,being with I, j, k are positive integers,
• K Kumulanten bezeichnet werden,K cumulants are designated,
• nj eine Anzahl der verwendeten Werte der• nj a number of the used values of the
Zeitreihe {xt}' aus der Vergangenheit,Time series {x} 'from the past,
bezeichnet wird.referred to as.
7. Verfahren nach einem der Ansprüche 1 bis 6, bei dem für den Fall, daß die erste Zeitreihe und die zweite Zeitreihe der zweiten Gruppe zugeordnet werden, das Verfahren iterativ solange wiederholt wird, bis die erste Zeitreihe und die zweite Zeitreihe der ersten Gruppe zugeordnet werden, wobei in jeder Iteration die Ordnung des Markov-Prozesses erhöht wird.7. The method according to any one of claims 1 to 6, in which in the event that the first time series and the second time series are assigned to the second group, the method is repeated iteratively until the first time series and the second time series are assigned to the first group the order of the Markov process is increased in each iteration.
8. Verfahren nach einem der Ansprüche 1 bis 7, bei dem durch die erste Zeitreihe und die zweite Zeitreihe Kursverläufe eines Finanzmarktes beschrieben werden.8. The method according to any one of claims 1 to 7, in which the course of a financial market is described by the first time series and the second time series.
9. Verfahren nach einem der Ansprüche 1 bis 7, bei dem durch die erste Zeitreihe und die zweite Zeitreihe der Verlauf eines Elektroencephalogramms beschrieben wird.9. The method according to any one of claims 1 to 7, in which the course of an electroencephalogram is described by the first time series and the second time series.
10. Verfahren nach einem der Ansprüche 1 bis 7, bei dem durch die erste Zeitreihe und die zweite Zeitreihe der Verlauf eines Elektrokardiogramms beschrieben wird.10. The method according to any one of claims 1 to 7, in which the course of an electrocardiogram is described by the first time series and the second time series.
11. Vorrichtung zur Klassifikation einer ersten Zeitreihe und mindestens einer zweiten Zeitreihe, die jeweils eine vorgege- bene Anzahl von Abtastwerten aufweisen, mit einer Prozessoreinheit, die derart eingerichtet ist, daß11. Device for classifying a first time series and at least one second time series, each of which has a predetermined number of samples, with a processor unit which is set up in such a way that
- ein nichtlinearer Markov-Prozeß für die erste Zeitreihe durch einen ersten statistischen Schätzer modelliert wird,a nonlinear Markov process for the first time series is modeled by a first statistical estimator,
- ein nichtlinearer Markov-Prozeß für die zweite Zeitreihe durch einen zweiten statistischen Schätzer modelliert wird, - zu der ersten Zeitreihe unter Verwendung des ersten statistischen Schätzers mindestens eine Surrogat-Zeitreihe gebildet wird,a nonlinear Markov process for the second time series is modeled by a second statistical estimator, at least one surrogate time series is formed for the first time series using the first statistical estimator,
- zu der zweiten Zeitreihe unter Verwendung des zweiten sta- tistischen Schätzers mindestens eine Surrogat-Zeitreihe gebildet wird,at least one surrogate time series is formed for the second time series using the second statistical estimator,
- ein erstes Maß für die statistische Abhängigkeit der Abtastwerte der ersten Zeitreihe und den Abtastwerten der zweiten Zeitreihe für eine vorgegebene Anzahl von zukünftigen Ab- tastwerten gebildet wird,a first measure for the statistical dependency of the samples of the first time series and the samples of the second time series is formed for a predetermined number of future samples,
- ein zweites Maß für die statistische Abhängigkeit der Werte der Surrogat-Zeitreihen voneinander für eine vorgegebene Anzahl von in der Zukunft liegenden Abtastwerten gebildet wird,a second measure for the statistical dependence of the values of the surrogate time series on one another is formed for a predetermined number of samples lying in the future,
- aus dem ersten Maß und dem zweiten Maß ein Unterschiedsmaß gebildet wird, und- a difference measure is formed from the first measure and the second measure, and
- die Klassifikation derart erfolgt, daß- The classification takes place in such a way that
- falls das Unterschiedsmaß kleiner ist als ein vorgegeben Schwellenwert, die erste Zeitreihe und die zweite Zeitreihe einer ersten Gruppe zugeordnet werden, — sonst die erste Zeitreihe und die zweite Zeitreihe einer zweiten Gruppe zugeordnet werden.- if the difference is less than a predetermined threshold, the first time series and the second time series are assigned to a first group, - otherwise the first time series and the second time series are assigned to a second group.
12. Vorrichtung nach Anspruch 11, bei der die Prozessoreinheit derart eingerichtet ist, daß weitere Zeitreihen berücksichtigt werden.12. The apparatus of claim 11, wherein the processor unit is set up such that further time series are taken into account.
13. Vorrichtung nach Anspruch 11 oder 12, bei der die Prozessoreinheit derart eingerichtet ist, daß zu der ersten Zeitreihe und der zweiten Zeitreihe unter Verwendung des statistischen Schätzers jeweils mehrere Surrogat- Zeitreihen gebildet werden.13. The apparatus of claim 11 or 12, wherein the processor unit is set up such that a plurality of surrogate time series are formed for each of the first time series and the second time series using the statistical estimator.
14. Vorrichtung nach einem der Ansprüche 11 bis 13, bei der die Prozessoreinheit derart eingerichtet ist, daß als statistischer Schätzer ein neuronales Netz verwendet wird. 14. The device according to any one of claims 11 to 13, wherein the processor unit is set up such that a neural network is used as a statistical estimator.
15. Vorrichtung nach einem der Ansprüche 11 bis 14, bei der die Prozessoreinheit derart eingerichtet ist, daß anstelle der ersten Zeitreihe und/oder der zweiten Zeitreihe und/oder mindestens einer weiteren Zeitreihe eine modifizier- te Gaußsche Zeitreihe, die dadurch gebildet wird, daß N normalverteilte Zufallszahlen ermittelt werden und diese entsprechend dem Rang der Zeitreihe sortiert werden, eingesetzt wird.15. Device according to one of claims 11 to 14, wherein the processor unit is set up in such a way that instead of the first time series and / or the second time series and / or at least one further time series, a modified Gaussian time series which is formed by the fact that N normally distributed random numbers are determined and these are sorted according to the rank of the time series.
16. Vorrichtung nach einem der Ansprüche 11 bis 15, bei dem das erste Maß gemäß folgender Vorschrift gebildet wird:16. The device according to one of claims 11 to 15, wherein the first dimension is formed according to the following rule:
Figure imgf000025_0001
Figure imgf000025_0001
mit k = 1, ... , N,with k = 1, ..., N,
k-1 mit L(k) = ∑ nj j = lk-1 with L (k) = ∑ nj j = l
k und U(k) = ∑ nj j = lk and U (k) = ∑ nj j = l
wobei mitbeing with
• i, j, k positive ganze Zahlen bezeichnet werden, • Kumulanten bezeichnet werden,• i, j, k are called positive integers, • cumulants are called,
• nj eine Anzahl der verwendeten Werte der• nj a number of the used values of the
Zeitreihe { t}' aus der Vergangenheit,Time series from the past,
bezeichnet wird.referred to as.
17. Vorrichtung nach einem der Ansprüche 11 bis 16, bei der die Prozessoreinheit derart eingerichtet ist, daß für den Fall, daß die erste Zeitreihe und die zweite Zeitreihe der zweiten Gruppe zugeordnet werden, das Verfahren iterativ solange wiederholt wird, bis die die erste Zeitreihe und die zweite Zeitreihe der ersten Gruppe zugeordnet werden, wobei in jeder Iteration die Ordnung des Markov-Prozesses erhöht wird.17. The device according to one of claims 11 to 16, in which the processor unit is set up such that in the event that the first time series and the second time series are assigned to the second group, the method is repeated iteratively until the first time series and the second time series are assigned to the first group, wherein the order of the Markov process is increased in each iteration.
18. Vorrichtung nach einem der Ansprüche 11 bis' 17, bei der die Prozessoreinheit derart eingerichtet ist, daß durch die erste Zeitreihe und die zweite Zeitreihe Kursverläufe eines Finanzmarktes beschrieben werden.18. A device according to any one of claims 11 to '17, wherein the processor unit is set up such that a financial market are described by the first time series and the second time series rate gradients.
19. Vorrichtung nach einem der Ansprüche 11 bis 18, bei der die Prozessoreinheit derart eingerichtet ist, daß durch die erste Zeitreihe und die zweite Zeitreihe der Verlauf eines Elektroencephalogramms beschrieben wird.19. Device according to one of claims 11 to 18, wherein the processor unit is set up in such a way that the course of an electroencephalogram is described by the first time series and the second time series.
20. Vorrichtung nach einem der Ansprüche 11 bis 19, bei der die Prozessoreinheit derart eingerichtet ist, daß durch die erste Zeitreihe und die zweite Zeitreihe der Verlauf eines Elektrokardiogramms beschrieben wird. 20. Device according to one of claims 11 to 19, wherein the processor unit is set up such that the course of an electrocardiogram is described by the first time series and the second time series.
PCT/DE1998/003184 1997-11-04 1998-10-30 Method and device for classification of a first time sequence and a second time sequence WO1999023576A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP98961058A EP1027663A1 (en) 1997-11-04 1998-10-30 Method and device for classification of a first time sequence and a second time sequence
JP2000519368A JP2001522094A (en) 1997-11-04 1998-10-30 Method and apparatus for classifying a first time series and at least one second time series

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19748676.2 1997-11-04
DE19748676 1997-11-04

Publications (1)

Publication Number Publication Date
WO1999023576A1 true WO1999023576A1 (en) 1999-05-14

Family

ID=7847569

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE1998/003184 WO1999023576A1 (en) 1997-11-04 1998-10-30 Method and device for classification of a first time sequence and a second time sequence

Country Status (3)

Country Link
EP (1) EP1027663A1 (en)
JP (1) JP2001522094A (en)
WO (1) WO1999023576A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001085018A3 (en) * 2000-05-09 2003-02-27 Siemens Ag Method and device for the classification of serial values, computer-readable storage medium and computer programme element
CN110462629A (en) * 2017-03-30 2019-11-15 罗伯特·博世有限公司 The system and method for eyes and hand for identification

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997033237A1 (en) * 1996-03-06 1997-09-12 Siemens Aktiengesellschaft Method of classification, by a computer, of a time series, having a preselectable number of sampled values, in particular of an electrical signal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997033237A1 (en) * 1996-03-06 1997-09-12 Siemens Aktiengesellschaft Method of classification, by a computer, of a time series, having a preselectable number of sampled values, in particular of an electrical signal

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DECO G ET AL: "LEARNING TIME SERIES EVOLUTION BY UNSUPERVISED EXTRACTION OF CORRELATIONS", PHYSICAL REVIEW E. STATISTICAL PHYSICS, PLASMAS, FLUIDS, AND RELATED INTERDISCIPLINARY TOPICS, vol. 51, no. 3, March 1995 (1995-03-01), pages 1780 - 1790, XP000677868 *
SILIPO R ET AL: "Dynamics modelling in brain circulation", NEURAL NETWORKS FOR SIGNAL PROCESSING VII. PROCEEDINGS OF THE 1997 IEEE SIGNAL PROCESSING SOCIETY WORKSHOP (CAT. NO.97TH8330), NEURAL NETWORKS FOR SIGNAL PROCESSING VII. PROCEEDINGS OF THE 1997 IEEE SIGNAL PROCESSING SOCIETY WORKSHOP, AMELIA ISLAND,, ISBN 0-7803-4256-9, 1997, New York, NY, USA, IEEE, USA, pages 162 - 171, XP002094263 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001085018A3 (en) * 2000-05-09 2003-02-27 Siemens Ag Method and device for the classification of serial values, computer-readable storage medium and computer programme element
CN110462629A (en) * 2017-03-30 2019-11-15 罗伯特·博世有限公司 The system and method for eyes and hand for identification
CN110462629B (en) * 2017-03-30 2024-04-02 罗伯特·博世有限公司 System and method for identifying eyes and hands

Also Published As

Publication number Publication date
JP2001522094A (en) 2001-11-13
EP1027663A1 (en) 2000-08-16

Similar Documents

Publication Publication Date Title
EP0934567B1 (en) Method of classifying statistical dependency of a measurable series of statistical values
DE60208223T2 (en) ARRANGEMENT AND METHOD FOR FACE DETECTION USING PARTS OF THE LEARNED MODEL
DE69908360T2 (en) COMPUTER SYSTEM AND METHOD FOR EXPLAINING THE BEHAVIOR OF A MODEL THAT MAKES INPUT DATA ON OUTPUT DATA
DE4241688C2 (en) Method for generating a word part model for speech recognition
DE112018006885B4 (en) TRAINING DEVICE, LANGUAGE ACTIVITY DETECTOR AND METHOD FOR DETECTING LANGUAGE ACTIVITY
DE112018000723T5 (en) Update management for an RPU arrangement
DE3938645C1 (en)
EP3736817A1 (en) Checking and / or improvement in the consistency of data codes in medical image processing
DE69815390T2 (en) NEURONAL NETWORKS
EP0925541B1 (en) Method and device for computer assisted generation of at least one artificial training data vector for a neuronal network
Back et al. Input variable selection using independent component analysis
DE102010046867A1 (en) Method for classifying patterns in image data sets
DE102020207449A1 (en) Method, computer program and device for processing signals
WO1999023576A1 (en) Method and device for classification of a first time sequence and a second time sequence
EP1359539A2 (en) Neurodynamic model of processing visual information
WO1998007100A1 (en) Computer-aided selection of training data for neural networks
EP0885423B1 (en) Method of and apparatus for classification of a time series of an electrical signal by a computer,
DE19549300C1 (en) Evaluation variable determination system for Bayesian network graph
EP1254415A1 (en) Device, storage medium and a method for detecting objects strongly resembling a given object
EP1114398B1 (en) Method for training a neural network, method for classifying a sequence of input parameters using a neural network, neural network and array for training a neural network
EP1170678B1 (en) Method and apparatus for automatically searching for relevant sets of images
EP0943130B1 (en) Method for non-stationary separation of signals of various sources
Follett et al. Achieving parsimony in bayesian VARs with the horseshoe prior
DE60204693T2 (en) Signal processing system with a device for correcting a covariance matrix
EP0968472B1 (en) Method and apparatus for computer-assisted extraction of statistically independent digital signals from digital signals

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1998961058

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 09530711

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1998961058

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 1998961058

Country of ref document: EP