WO2003046886A1 - Method for classifying a temporal series of events by means of a network containing pulsed neurones - Google Patents

Method for classifying a temporal series of events by means of a network containing pulsed neurones Download PDF

Info

Publication number
WO2003046886A1
WO2003046886A1 PCT/DE2002/004225 DE0204225W WO03046886A1 WO 2003046886 A1 WO2003046886 A1 WO 2003046886A1 DE 0204225 W DE0204225 W DE 0204225W WO 03046886 A1 WO03046886 A1 WO 03046886A1
Authority
WO
WIPO (PCT)
Prior art keywords
neurons
neural network
neuron
input variables
value
Prior art date
Application number
PCT/DE2002/004225
Other languages
German (de)
French (fr)
Inventor
Gustavo Deco
Jan Storck
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Publication of WO2003046886A1 publication Critical patent/WO2003046886A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Definitions

  • the invention relates to a method for classifying a temporal sequence of input variables using a neural network containing pulsed neurons, a neural network which contains pulsed neurons in the form of oscillating neurons, and an arrangement for classifying a temporal sequence of input variables using a pulsed neuron containing neural network.
  • a neural network has neurons that are at least partially linked to one another. Input neurons of the neural network are supplied with input signals as input variables.
  • the neural network usually has several layers. Depending on a neuron supplied to the neural network and an activation function provided for the neuron, a neuron generates a signal, which in turn is fed to neurons of a further layer as an input variable according to a predeterminable weighting. In an output layer, an output variable is generated in an output neuron as a function of quantities that are supplied to the output neuron by neurons of the previous layer.
  • the neural network encodes information by action potentials or "spikes” that characterize neural firing events (Rieke, F., Warland, D., de Ruyter van Steveninck, R. and Bialek,. (1997) , Spikes: Exploring the neural code. Cambridge: The MIT Press).
  • spatiotemporal firing patterns therefore encode information regarding sensory stimuli.
  • different classes of Stimuli can be distinguished by different types of spatio-temporal firing patterns.
  • the maximization of the transinformation as a means of describing the differentiability to achieve this goal has recently been proposed (Deco, G. and Schürmann, B.
  • the invention is also based on the object of specifying a corresponding neural network.
  • the invention enables the classification of temporal sequences in question with less computational effort by using oscillating neurons that allow the phase to be the only relevant parameter for the temporal pulse profile.
  • the calculation of the mutual information based on a cost function is compared to that dealt with above State of the art in terms of accuracy and especially in terms of time significantly improved because the density determination required for entropy calculation takes place in a room of much smaller dimensions. It is crucial that the need for classification in a minimum of time is already implicitly ensured by the fact that the cost function depends solely on the phases, which in turn can be calculated immediately after a single oscillation.
  • the cost function is preferably determined on the basis of a differentiation value I (T) which satisfies the following rule:
  • T is the observation time of an output pulse
  • s is the random variable that corresponds to the stimulus class
  • tj denotes the time corresponding to the i-th firing of a neuron a, tci (cl> , • • •, t kc (cK) the maximum values are less than T, and ci, ..., c ⁇ are certain code neurons.
  • I (T) / (r, ⁇ ⁇ >, ⁇ W, ..., ⁇ ⁇ *> ⁇ )
  • ⁇ i (a> denotes the time corresponding to the ith firing of a neuron a with respect to a specific reference value, ie, the phases.
  • the input variables are preferably measured physical signals.
  • the method according to the invention and the arrangement according to the invention can thus be used in the context of the description of a technical system, in particular for the description, for example for examining a multichannel signal, has been recorded by an electroencephalograph. and describes an electroencephalogram.
  • the method and the system according to the invention can also be used for analyzing multivariate financial data in the field of the financial market and for analyzing economic relationships.
  • the method and the arrangement according to the invention are also suitable for the implementation of software for a processor as well as for hardware.
  • a preferred field of application of the method and the system according to the invention is in the field of speech analysis.
  • Fig. 2 a second class of stimuli
  • Fig. 4 phase distributions of code neurons after learning, in response to a stimulus 1
  • Fig. 5 phase distributions of code neurons before learning, in response to a stimulus 2
  • the constant ⁇ describes the decay of the membrane potential when there are no input signals.
  • the synaptic strength is denoted by w.
  • the constant ⁇ is the internal drive (drive) that leads to a periodic pulse train when there are no pulse signals: charge is collected until the membrane potential V (t) reaches a predetermined threshold ⁇ , which leads to a pulse generation (discharge). After the pulse has been generated, the model is reset to a predetermined initial potential V (0) (in the present case this potential is set to zero), and the charging process starts again.
  • Each neuron i is described by a membrane potential V ⁇ which follows an equation of the type of equation (1).
  • the neural network containing N neurons is described by the following system of differential equations:
  • w ⁇ j denotes the synaptic strength between a neuron i and a neuron, the direction running from j to i, Ii (t) denotes the external stimulus, which acts as an additional input variable with constant weight, and ⁇ ⁇ denotes the internal drive of the neuron.
  • each neuron has an absolute refractory period after the emission of a pulse during which it cannot fire again.
  • I ⁇ (t) is fed into the input neurons with a strength of 0.2.
  • the architecture used here is a fully linked network similar to that described in Storck, J. and Deco, G. (1998), Spike-Based Hebbian Learning for Stimulus Discrimination, In Artificial Neural Networks - ICANN '98, Skövde, Sweden, Springer-Verlag, Heidelberg, suggests: Each neuron sends its action potentials and receives input from all other neurons via synaptic efficiencies with adaptive strength. The axonal transmission delay was chosen randomly in the range between 0 and 2 ms.
  • a cost function is introduced for global optimization.
  • the pure parameters that is, the synaptic efficiencies zen are designed so that the stimulus presented at the entrance can be classified as reliably as possible. For this reason, the mutual information between the stimulus class and the pulse response of the network is introduced as a measure of the differentiability.
  • the aim here is not, as has been the case up to now, to reconstruct the input or the input variables from the output or the output variables, but to derive the name of the class to which the presented stimulus belongs, namely from a set of given classes.
  • the random variable that corresponds to the class of the stimulus is denoted by s, ie the results of s are s (j) with the probability pj.
  • a measure of the distinguishability for an observation time T of the output pulses can be defined by the mutual information between the random variables s and the pyramidal pulse times of certain code neurons Ci, ...., c ⁇ , ie by the following differentiation value:
  • ti ⁇ a denotes the time it takes for the i th firing of a t ( ⁇ t (ct)
  • Neurons corresponds to a, and where ⁇ * denote the maximum values that are smaller than T.
  • ⁇ ⁇ (a> denotes the time corresponding to the ith firing of a neuron a with respect to a specific reference value, that is, the phases (since the firing time of one of the code neurons can be used as a self-reference, so that the number of relative phases is actually reduced to K - 1).
  • the external stimulus (the input or the input variable) consists of three non-homogeneous Poisson processes which are fed into the network simultaneously and represent a three-dimensional input current.
  • 1 shows such a three-dimensional input current for a first stimulus class
  • FIG. 2 for a second stimulus class.
  • Both classes consist of three dimensions, each with a non-homogeneous Poisson process for each dimension.
  • the sine wave rates follow (in FIGS. 1 and 2 the upper curve profiles in each case), while the third component (in FIGS.
  • the functions that describe the change in the different Poisson rates as a function of time in the three inputs define two different input classes.
  • One class is sampled on the basis of the three rate curves (for input variable 1, 2 or 3), as shown in FIG. 1, while the rates for class 2 are shown in FIG. 2.
  • These two stimuli differ only in the coherence (the temporal relationship) of their various components, which makes the classification task a kind of temporal clustering.
  • the neural network for this experiment consists of fully linked neurons. Due to the three-dimensional nature of the input signal, there are consequently three input neurons that receive the time-dependent stimulus. Such an input neuron receives no input or input zero if the Poisson process does not generate a pulse to which it belongs and a stimulus 0.2 in the case of an input pulse event. The remaining or hidden neurons receive no external input at all. In order to keep the computing effort low, the cost function is determined from a subset of the total number of neurons. These code neurons, which are taken into account when calculating the mutual information, are chosen arbitrarily, but to the exclusion of the input neurons.
  • the statistics required to calculate the mutual information probabilities are obtained by the pulse patterns (ie, the phase patterns) in response to 500 input samples for each of the two different stimuli.
  • a sample (name) in turn consists of a string of input pulses with which the network is then driven until the phases are measured and the procedure can proceed to the next sampling.
  • I (T) is calculated and the weight update of the current iteration can be started. Before the whole process is restarted for.
  • an optimization method can be used, such as the ALOPEX algorithm described in Storck, J. and Deco, G. (1998), Spike-Based Hebbian Learning for Stimulus Discrimination. Artificial Neural Networks - ICANN '98, Skövde, Sweden, Springer-Verlag, Heidelberg.
  • the complete information which determines the value of the cost function, and thus the degree of distinctness, is contained in the common distribution of the phases, the size of which is equal to the number of code neurons.
  • a visualization of the common distribution of the phases of the code neurons is therefore only possible for up to two of them.
  • the present experiment uses three code neurons, which leads to two relative phases, for which the result is shown in FIGS. 3 to 6. However, even for a larger number of code neurons in even more complex applications, the probability structure be derived from the two-dimensional distributions of subsets.
  • phase distributions of the code neurons before and after the learning show in detail the phase distributions of the code neurons before and after the learning.
  • the phase distributions in response to stimulus 1 (FIG. 3) and stimulus 2 (FIG. 5) show an unstructured form due to the random initialization of the synaptic efficiencies. Their similarity leads to a low value of the cost function, i.e. the mutual information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

The invention relates to a method for classifying a temporal series of input variables by means of a neuronal network containing pulsed neurones. Oscillating neurones are used as pulsed neurones, and the mutual information between the stimulus category of the input variables and the pulse behaviour (= cost function) of the neurones is determined on the basis of a differential value.

Description

VERFAHREN ZUM KLASSIFIZIEREN EINER ZEITLICHEN FOLGE VON EREIGNISSEN UNTER VERWENDUNG EINES GEPULSTE NEURONEN ENTHALTENDEN NETZES . METHOD FOR CLASSIFYING A TIME SEQUENCE OF EVENTS USING A PULSE NEURONAL NETWORK.
Beschreibungdescription
Verfahren zum Klassifizieren einer zeitlichen Folge von Eingangsgrößen unter Verwendung eines gepulste Neuronen enthaltenden neuronalen Netzes, neuronales Netz und Anordnung zum Durchführen des VerfahrensMethod for classifying a temporal sequence of input variables using a neural network containing pulsed neurons, neural network and arrangement for carrying out the method
Die Erfindung betrifft ein Verfahren zum Klassifizieren einer zeitlichen Folge von Eingangsgrößen unter Verwendung eines gepulste Neuronen enthaltenden neuronalen Netzes, ein neuronales Netz, welches gepulste Neuronen in Gestalt oszillierender Neuronen enthält, und eine Anordnung zum Klassifizieren einer zeitlichen Folge von Eingangsgrößen unter Verwendung eines gepulste Neuronen enthaltenden neuronalen Netzes.The invention relates to a method for classifying a temporal sequence of input variables using a neural network containing pulsed neurons, a neural network which contains pulsed neurons in the form of oscillating neurons, and an arrangement for classifying a temporal sequence of input variables using a pulsed neuron containing neural network.
Ein neuronales Netz weist Neuronen auf, die zumindest teilweise miteinander verknüpft sind. Eingangsneuronen des neuronalen Netzes werden Eingangssignale als Eingangsgrößen zugeführt. Das neuronale Netz weist üblicherweise mehrere Schichten auf. Abhängig von einem Neuron des neuronalen Netzes zugeführten Eingangsgrößen und einer für das Neuron vorgesehene Aktivierungsfunktion generiert jeweils ein Neuron ein Signal, welches wiederum Neuronen einer weiteren Schicht als Eingangsgröße gemäß einer vorgebbaren Gewichtung zugeführt wird. In einer Ausgängsschicht wird in einem Ausgangsneuron eine Ausgangsgröße abhängig von Größen generiert, die dem Ausgangsneuron von Neuronen der vorangegangenen Schicht zugeführt werden.A neural network has neurons that are at least partially linked to one another. Input neurons of the neural network are supplied with input signals as input variables. The neural network usually has several layers. Depending on a neuron supplied to the neural network and an activation function provided for the neuron, a neuron generates a signal, which in turn is fed to neurons of a further layer as an input variable according to a predeterminable weighting. In an output layer, an output variable is generated in an output neuron as a function of quantities that are supplied to the output neuron by neurons of the previous layer.
Das neuronale Netz kodiert Informationen durch Aktionspotentiale oder "Pulse" ("Spikes"), die neurale Feuerungsereignisse (Firing Events) charakterisieren (Rieke, F., Warland, D., de Ruyter van Steveninck, R. und Bialek, . (1997), Spikes: Exploring the neural code. Cambridge: The MIT Press) . Im Rahmen der Zeitkodierung kodieren deshalb sogenannte raumzeitliche Feuerungsmuster Information bezüglich sensorischer Stimuli. Mit anderen Worten können unterschiedliche Klassen von Stimuli durch unterschiedliche Arten von spatio-temporalen Feuerungsmustern unterschieden werden. In diesem Zusammenhang wurde kürzlich die Maximierung der Transinformation als Mittel zum Beschreiben der Unterscheidbarkeit zur Erreichung dieses Ziels vorgeschlagen (Deco, G. und Schürmann, B. (1999), Spatio-temporal coding in the cortex: information flow based learning in spiking neural networks (Neural Compu- tion, Bd. 11, S. 919-934, 1999), Erscheinung geplant in Neural Computation, März 1999) . Durch Maximieren der Transinformation zwischen dem Namen der eingegebenen Klasse und dem resultierenden Pulsmuster, das durch die Neuronen bereitgestellt wird, die die Kodierung des präsentierten Stimulus vornehmen, werden optimale ünterscheidungseigenschaften sichergestellt.The neural network encodes information by action potentials or "spikes" that characterize neural firing events (Rieke, F., Warland, D., de Ruyter van Steveninck, R. and Bialek,. (1997) , Spikes: Exploring the neural code. Cambridge: The MIT Press). In the context of time coding, so-called spatiotemporal firing patterns therefore encode information regarding sensory stimuli. In other words, different classes of Stimuli can be distinguished by different types of spatio-temporal firing patterns. In this context, the maximization of the transinformation as a means of describing the differentiability to achieve this goal has recently been proposed (Deco, G. and Schürmann, B. (1999), Spatio-temporal coding in the cortex: information flow based learning in spiking neural networks (Neural Computing, Vol. 11, pp. 919-934, 1999), planned publication in Neural Computation, March 1999). By maximizing the trans information between the name of the entered class and the resulting pulse pattern provided by the neurons that encode the presented stimulus, optimal discriminatory properties are ensured.
Es wird bemerkt, dass nicht das Eingangssignal in seiner ursprünglichen Form, das aus dem Ansprechen des Netzpulsmusters extrahiert wird, sondern der Name der Klasse, zu der es gehört, diesen Ansatz von dem sogenannten Rekonstruktionsverfahren von Bialek unterscheidet. In diesem Hinblick sind Klassen durch Nutzerdefinitionen festgelegt. Hierzu sei folgendes Beispiel genannt: Verschiedene Sprecher, Männer und Frauen, sprechen jeweils zwei Sprachen, nämlich ihre Muttersprache und eine Fremdsprache. Die mögliche Klassifikationsaufgabe kann nunmehr darin bestehen, gegebene Aufzeichnungs- tonspuren zu unterscheiden in Übereinstimmung mit i) der gesprochenen Sprache, ii) dem Geschlecht des Sprechers oder iii) Muttersprache gegenüber Nichtmuttersprache. Die Entscheidung bezüglich der zu lösenden Aufgabe, d.h. i) oder ii) oder iii) bei dem gegebenen Beispiel, muss im vornherein gemeinsam mit der entsprechenden Auszeichnung der eingegebenen Trainingsprobe getroffen werden. Nur dann, wenn jede der Eingangsgrößen als zu einer bestimmten Klasse gehörend gekennzeichnet ist, versucht der Algorithmus in der Lernphase die in Form von Proben vorliegenden Klassen durch eine gegenseitige Informationsmaximierungsadaption der Netzparameter zu trennen, d.h., die synaptischen Effizienzen, welche die verschiedenen Neuronen verknüpfen.It is noted that it is not the input signal in its original form, which is extracted from the response of the network pulse pattern, but the name of the class to which it belongs that distinguishes this approach from the so-called Bialek reconstruction method. In this regard, classes are defined by user definitions. The following example is given here: Different speakers, men and women, each speak two languages, namely their mother tongue and a foreign language. The possible classification task can now consist of differentiating given recording sound tracks in accordance with i) the spoken language, ii) the gender of the speaker or iii) mother tongue versus non-mother tongue. The decision regarding the task to be solved, ie i) or ii) or iii) in the given example, must be made in advance together with the corresponding award of the training sample entered. Only when each of the input variables is identified as belonging to a certain class does the algorithm attempt the classes in the form of samples in the learning phase by adapting the network parameters to one another to maximize information separate, that is, the synaptic efficiencies that link the different neurons.
Um das vorstehend Ausgeführte vor biologischem Hintergrund zu verdeutlichen, scheint es für einen Bereich des Gehirns nicht so sehr von Interesse zu sein, das genaue Eingangssignal zu offenbaren, das es von einem anderen Bereich im Gehirn erhält, sondern vielmehr eine Datenkompression durchzuführen, bevor einige Aufgaben auf höherem Niveau in Angriff genommen werden. Da diese Art von Argumentation auch aus einem rein technischen Gesichtspunkt heraus Sinn zu machen scheint, motiviert dies den eher "unbiologischen" Ansatz der globalen Optimierung einer sogenannten Kostenfunktion auf Grundlage der gegenseitigen Information.To clarify the foregoing against a biological background, it does not seem to be of much interest to one area of the brain to reveal the exact input signal it receives from another area in the brain, but rather to perform data compression before performing some tasks be tackled at a higher level. Since this kind of reasoning also seems to make sense from a purely technical point of view, this motivates the more "unbiological" approach of global optimization of a so-called cost function based on the mutual information.
In der zuletzt genannten Druckschrift ist das Prinzip minimaler Zeit/maximaler Zuverlässigkeit (MTMR-Prinzip) vorgeschlagen worden, das in der Begrenzung der Anzahl von Pulsen besteht, die für eine Klassifikation zur Verfügung stehen, indem das Zeitfenster begrenzt wird. Während diese Druckschrift die prinzipielle Verwendbarkeit der dort festgelegten Kostenfunktion diskutiert, zielt die Erfindung auf einen wesentlich einfacheren Rahmen (im Hinblick auf die Berechenbarkeit) für die Stimulus-Klassifikation ab.In the last-mentioned publication, the principle of minimum time / maximum reliability (MTMR principle) has been proposed, which consists in limiting the number of pulses that are available for classification by limiting the time window. While this document discusses the basic usability of the cost function specified there, the invention aims at a much simpler framework (with regard to the predictability) for the stimulus classification.
Eine Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren zum Klassifizieren einer zeitlichen Folge von Eingangsgrößen unter Verwendung eines gepulste Neuronen enthaltenden neutralen Netzes zu schaffen, das mit deutlich weniger Rechenaufwand als bislang zum Ziel kommt. Ferner liegt die Erfindung die Aufgabe zugrunde, ein entsprechendes neuronales Netz anzugeben. Schließlich ist es Aufgabe der vorliegenden Erfindung, eine hierfür geeignete Anordnung bereitzustellen.It is an object of the present invention to provide a method for classifying a temporal sequence of input variables using a neutral network containing pulsed neurons, which is achieved with significantly less computational effort than previously. The invention is also based on the object of specifying a corresponding neural network. Finally, it is an object of the present invention to provide an arrangement suitable for this.
Gelöst wird diese Aufgabe durch das Verfahren, das neuronale Netz und die Anordnung mit den Merkmalen der unabhängigen Patentansprüche. In Übereinstimmung mit einem ersten Aspekt stellt die vorliegende Erfindung ein Verfahren zum Klassifizieren einer zeitlichen Folge von Eingangsgrößen unter Verwendung eines gepulste Neuronen enthaltenden neuronalen Netzes bereit, bei dem als gepulste Neuronen oszillierende Neuronen verwendet werden, und bei dem auf Grundlage eines Unterscheidungswertes die gegenseitige Information zwischen Stimulusklasse der Eingangsgrößen und Pulsverhalten (= Kostenfunktion) der Neuronen ermittelt wird.This problem is solved by the method, the neural network and the arrangement with the features of the independent claims. In accordance with a first aspect, the present invention provides a method of classifying a temporal sequence of inputs using a neural network containing pulsed neurons, in which oscillating neurons are used as pulsed neurons, and in which, based on a discrimination value, the mutual information between The stimulus class of the input variables and pulse behavior (= cost function) of the neurons is determined.
Gemäß einem zweiten Aspekt stellt die vorliegende Erfindung ein Neuronales Netz bereit, welches gepulste Neuronen in Gestalt oszillierender Neuronen enthält, und das zum Klassifizieren einer zeitlichen Folge von Eingangsgrößen vorsieht: Ermitteln der gegenseitigen Information zwischen Stimulusklasse der Eingangsgrößen und Pulsverhalten (= Kostenfunktion) der Neuronen ermittelt wird.According to a second aspect, the present invention provides a neural network, which contains pulsed neurons in the form of oscillating neurons, and which provides for classifying a chronological sequence of input variables: determining the mutual information between the stimulus class of the input variables and pulse behavior (= cost function) of the neurons becomes.
Gemäß einem dritten Aspekt stellt die vorliegende Erfindung eine Anordnung zum Klassifizieren einer zeitlichen Folge von Eingangsgrößen unter Verwendung eines gepulste Neuronen enthaltenden neuronalen Netzes bereit, mit einem Prozessor, der derart ausgelegt ist, dass folgende Schritte durchführbar sind: a) als gepulste Neuronen werden oszillierende Neuronen verwendet werden, und b) auf Grundlage eines Unterscheidungswertes wird die gegenseitige Information zwischen Stimulusklasse der Eingangsgrößen und Pulsverhalten (= Kostenfunktion) der Neuronen ermittelt wird.According to a third aspect, the present invention provides an arrangement for classifying a temporal sequence of input variables using a neural network containing pulsed neurons, with a processor which is designed such that the following steps can be carried out: a) oscillating neurons as pulsed neurons are used, and b) the mutual information between the stimulus class of the input variables and pulse behavior (= cost function) of the neurons is determined on the basis of a differentiation value.
Durch die Erfindung ist die in Rede stehende Klassifikation zeitlicher Folgen mit weniger Rechenaufwand dadurch möglich, dass oszillierende Neuronen zum Einsatz kommen, die es gestatten, dass die Phase den einzigen relevanten Parameter für den zeitlichen Pulsverlauf darstellt. Infolge hiervon ist die Berechnung der gegenseitigen Information auf Grundlage einer Kostenfunktion im Vergleich zu dem vorstehend abgehandelten Stand der Technik bezüglich Genauigkeit und insbesondere hinsichtlich Zeiteinsatz deutlich verbessert, weil die für die Entropieberechnung erforderliche Dichteermittlung in einem Raum viel kleinerer Dimension erfolgt. Entscheidend ist, dass die Notwendigkeit für die Klassifikation in minimaler Zeit bereits implizit sichergestellt ist durch die Tatsache, dass die Kostenfunktion ausschließlich von den Phasen abhängt, die ihrerseits unmittelbar nach einer einzigen Oszillation berechnet werden können.The invention enables the classification of temporal sequences in question with less computational effort by using oscillating neurons that allow the phase to be the only relevant parameter for the temporal pulse profile. As a result, the calculation of the mutual information based on a cost function is compared to that dealt with above State of the art in terms of accuracy and especially in terms of time significantly improved because the density determination required for entropy calculation takes place in a room of much smaller dimensions. It is crucial that the need for classification in a minimum of time is already implicitly ensured by the fact that the cost function depends solely on the phases, which in turn can be calculated immediately after a single oscillation.
Durch den erfindungsgemäßen Ansatz, als Neuronen oszillierende Neuronen einzusetzen, ist die in Rede stehende Klassifikation wesentlich einfacher und genauer in die Praxis umzusetzen, wodurch die Anwendung viel komplexerer Arten von Stimuli ermöglicht wird.The inventive approach of using oscillating neurons as neurons makes the classification in question much easier and more precise to put into practice, which enables the use of much more complex types of stimuli.
Bevorzugte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.Preferred developments of the invention result from the dependent claims.
Bevorzugt erfolgt die Ermittlung der Kostenfunktion auf Grundlage eines Unterscheidungswerts I (T) , der folgender Vorschrift genügt:The cost function is preferably determined on the basis of a differentiation value I (T) which satisfies the following rule:
Figure imgf000006_0001
Figure imgf000006_0001
wobeiin which
T die Beobachtungszeit eines Ausgangspulses ist, s die Zufallsvariable ist, die der Stimulusklasse entspricht, tj. die Zeit entsprechend dem i-ten Feuern eines Neurons a bezeichnet, tci(cl> , • • • , tkc (cK) die Maximalwerte kleiner als T sind, und ci, ...,cκ bestimmte Codeneuronen sind.T is the observation time of an output pulse, s is the random variable that corresponds to the stimulus class, tj. denotes the time corresponding to the i-th firing of a neuron a, tci (cl> , • • •, t kc (cK) the maximum values are less than T, and ci, ..., c κ are certain code neurons.
Aufgrund des Einsatzes oszillierender Neuronen für die gepulsten Neuronen lässt sich der Unterscheidungswert, der vorstehend genannt ist, wie folgt vereinfachen: I(T) =/ (r, {φ^>, φW, ..., φ<*>})Due to the use of oscillating neurons for the pulsed neurons, the distinctive value mentioned above can be simplified as follows: I (T) = / (r, {φ ^>, φW, ..., φ <*>})
wobei Φi(a> die Zeit entsprechend dem i-ten Feuern eines Neurons a in bezug auf einen bestimmten Referenzwert, d.h., die Phasen bezeichnet.where Φi (a> denotes the time corresponding to the ith firing of a neuron a with respect to a specific reference value, ie, the phases.
Bevorzugt handelt es sich bei den Eingangsgrößen um gemessene physikalische Signale.The input variables are preferably measured physical signals.
Damit ist das erfindungsgemäße Verfahren und die erfindungsgemäße Anordnung im Rahmen der Beschreibung eines technischen Systems, insbesondere zur Beschreibung, beispielsweise zur Untersuchung eines mehrkanaligen Signals, einsetzbar, das auf dem Gebiet der Medizin z.B. durch einen Elektroenzephalogra- phen aufgenommen worden ist. und ein Elektroenzephalogramm beschreibt.The method according to the invention and the arrangement according to the invention can thus be used in the context of the description of a technical system, in particular for the description, for example for examining a multichannel signal, has been recorded by an electroencephalograph. and describes an electroencephalogram.
Das erfindungsgemäße Verfahren und die erfindungsgemäße Anlage können außerdem zur Analyse multivarianter Finanzdaten auf dem Gebiet des Finanzmarkts sowie zur Analyse ökonomischer Zusammenhänge eingesetzt werden.The method and the system according to the invention can also be used for analyzing multivariate financial data in the field of the financial market and for analyzing economic relationships.
Ferner eignet sich das erfindungsgemäße Verfahren und die erfindungsgemäße Anordnung auch für die Implementation von Software für einen Prozessor als auch für Hardware.Furthermore, the method and the arrangement according to the invention are also suitable for the implementation of software for a processor as well as for hardware.
Ein bevorzugtes Einsatzgebiet des erfindungsgemäßen Verfahrens und der erfindungsgemäßen Anlage liegt auf dem Gebiet der Sprachanalyse.A preferred field of application of the method and the system according to the invention is in the field of speech analysis.
Ein Ausführungsbeispiel der Erfindung ist in den Figuren dargestellt und wird im weiteren näher erläutert.An embodiment of the invention is shown in the figures and is explained in more detail below.
Es zeigen: Fig. 1 eine erste Klasse von Stimuli,Show it: 1 shows a first class of stimuli,
Fig . 2 eine zweite Klasse von Stimuli,Fig. 2 a second class of stimuli,
Fig. 3 Phasenverteilungen von Codeneuronen vor dem Lernen, ansprechend auf einen Stimulus 1,3 phase distributions of code neurons before learning, in response to a stimulus 1,
Fig . 4 Phasenverteilungen von Codeneuronen nach dem Lernen, ansprechend auf einen Stimulus 1,Fig. 4 phase distributions of code neurons after learning, in response to a stimulus 1,
Fig . 5 Phasenverteilungen von Codeneuronen vor dem Lernen, ansprechend auf einen Stimulus 2,Fig. 5 phase distributions of code neurons before learning, in response to a stimulus 2,
Fig. 6 Phasenverteilungen von Codeneuronen nach dem Lernen, ansprechend auf einen Stimulus 2.6 phase distributions of code neurons after learning, in response to a stimulus 2.
Zunächst wird auf das Neuronenmodell und die Architektur des neuronalen Netzes eingegangen, die der Erfindung zugrunde liegen. Vorausgesetzt wird, dass ausschließlich das Pulsereignis selbst, d.h., die präzisen Pulszeitpunkte, das den Träger für die Information bildet und das die exakte Form der Pulse und der dentritischen Signale keinerlei relevante Information enthält. Auf dem Neuronenniveau wird vorliegend ein Integrier- und Feuerungsmodell mit interner treibender Kraft eingesetzt, das beispielsweise in Tuckwell, H. (1981), Sto- chastic Nonlinear Systems, S. 162-171, editiert durch Arnold, L. und Lefever, R. , Berlin: Springer Verlag, und Tuckwell, H. (1981), Introduction to Theoretical Neurobiology, Cambridge: Cambridge University Press offenbart ist. Dieser Prozess kann ausgedrückt werden durch die stochastische Itδ-Differenzial- gleichung, die aus Gardener, C. (1990), Handbook of Stocha- stic Methods, Berlin: Springer Verlag, entnommen ist:First, the neuron model and the architecture of the neural network, which are the basis of the invention, will be discussed. It is assumed that only the pulse event itself, i.e. the precise pulse times that forms the carrier for the information and that the exact form of the pulses and the dentritic signals contain no relevant information. At the neuron level, an integration and firing model with internal driving force is used, which is described, for example, in Tuckwell, H. (1981), Stochastic Nonlinear Systems, pp. 162-171, edited by Arnold, L. and Lefever, R. , Berlin: Springer Verlag, and Tuckwell, H. (1981), Introduction to Theoretical Neurobiology, Cambridge: Cambridge University Press. This process can be expressed by the stochastic Itδ differential equation, which is taken from Gardener, C. (1990), Handbook of Stochastic Methods, Berlin: Springer Verlag:
Figure imgf000008_0001
Figure imgf000008_0001
In der Gleichung (1) beschreibt die Konstante τ das Abklingen des Membranpotentials, wenn keine Eingangssignale vorliegen. Die Verknüpfung mit anderen Neuronen ist durch dS (t) = ∑χδ(t- tx) dt gegeben, wobei es sich hier um einen Sprungprozess handelt, der durch das Auftreffen eintreffender Pulse zu den Zeiten tα definiert ist. Die synaptische Stärke ist mit w bezeichnet. Die Konstante ω ist der interne Antrieb (drive) , der zu einem periodischen Pulszug führt, wenn keine Pulssignale vorliegen: Ladung wird gesammelt, bis das Membranpotential V(t) eine vorher festgelegte Schwelle θ erreicht, was zu einer Pulserzeugung (Entladung) führt. Nach der Erzeugung des Pulses wird das Modell auf ein vorgegebenes anfängliches Potential V(0) rückgesetzt (vorliegend wird dieses Potential mit null festgelegt), und der Ladeprozess startet erneut. Für die Bezeichnung des Neurons werden nunmehr Zusatzindizes eingeführt. Jedes Neuron i wird durch ein Membranpotential V± beschrieben, das einer Gleichung des Typs der Gleichung (1) folgt. Der Ausgangspulszug entsprechend dem Neuron i wird deshalb durch die Pulserzeugungszeitpunkte tι (1> , ..., tk (1> , ..., beschrieben und er ist durch o± (t) = ∑kδ(t-tk (l) ) gegeben.In equation (1), the constant τ describes the decay of the membrane potential when there are no input signals. The linkage with other neurons is given by dS (t) = ∑χδ (t- t x ) dt, which is a jump process that occurs when the incoming pulses hit the Times t α is defined. The synaptic strength is denoted by w. The constant ω is the internal drive (drive) that leads to a periodic pulse train when there are no pulse signals: charge is collected until the membrane potential V (t) reaches a predetermined threshold θ, which leads to a pulse generation (discharge). After the pulse has been generated, the model is reset to a predetermined initial potential V (0) (in the present case this potential is set to zero), and the charging process starts again. Additional indices are now being introduced for the designation of the neuron. Each neuron i is described by a membrane potential V ± which follows an equation of the type of equation (1). The output pulse train corresponding to the neuron i is therefore described by the pulse generation times tι (1> , ..., t k (1> , ..., and it is by o ± (t) = ∑ k δ (tt k (l) ) given.
Das N Neuronen enthaltende neuronale Netz wird durch das folgende System von Differentialgleichungen beschrieben:The neural network containing N neurons is described by the following system of differential equations:
Figure imgf000009_0001
Figure imgf000009_0001
+ L ιYfi{t→ψ)dt+ L ιYfi {t → ψ) dt
+ iύidt+li(t)dt+ iύidt + li (t) dt
( 2 ](2]
wobei i = 1, ..., N. In der Gleichung (2) bezeichnet w±j die synaptische Stärke zwischen einem Neuron i und einem Neuron , wobei die Richtung von j nach i verläuft, Ii (t) bezeichnet den externen Stimulus, der als zusätzliche Eingangsgröße mit konstantem Gewicht wirkt, und ω± bezeichnet den internen Antrieb des Neurons.where i = 1, ..., N. In equation (2) w ± j denotes the synaptic strength between a neuron i and a neuron, the direction running from j to i, Ii (t) denotes the external stimulus, which acts as an additional input variable with constant weight, and ω ± denotes the internal drive of the neuron.
Das Differentialsystem gemäß der Gleichung (2) kann numerisch diskret in der folgenden Weise (Euler-Integration) dargestellt werden V,(*+Δr) = V,( + -^) (3)The differential system according to equation (2) can be represented numerically and discretely in the following way (Euler integration) V, (* + Δr) = V, (+ - ^) (3)
Figure imgf000010_0001
Figure imgf000010_0001
Es wird angenommen, dass jedes Neuron eine absolute Refrak- tärzeit nach der Emission eines Pulses aufweist, während welcher es nicht erneut feuern kann. Bei den vorliegenden Simulationen sind sowohl Δt wie die Todzeit mit 1 ms gewählt, θ = 2π mV, ω± = 0,125 mV und τ± = 250 ms für sämtliche Neuronen. I± (t) wird in die Eingangsneuronen mit einer Stärke von 0,2 zugeführt.It is assumed that each neuron has an absolute refractory period after the emission of a pulse during which it cannot fire again. In the present simulations, both Δt and the time of death were chosen to be 1 ms, θ = 2π mV, ω ± = 0.125 mV and τ ± = 250 ms for all neurons. I ± (t) is fed into the input neurons with a strength of 0.2.
Als Architektur wird vorliegend ein vollständig verknüpftes Netz ähnlich zu demjenigen verwendet, das in Storck, J. und Deco, G. (1998), Spike-Based Hebbian Learning for Stimulus Discrimination, In Artificial Neural Networks - ICANN '98, Skövde, Schweden, Springer-Verlag, Heidelberg, vorgeschlagen ist: Jedes Neuron sendet seine Aktionspotentiale zu und empfängt eine Eingabe von sämtlichen anderen Neuronen über synaptische Effizienzen mit adaptiver Stärke. Die axonale Transmissionsverzögerung wurde auf Zufallsbasis im Bereich zwischen 0 und 2 ms gewählt.The architecture used here is a fully linked network similar to that described in Storck, J. and Deco, G. (1998), Spike-Based Hebbian Learning for Stimulus Discrimination, In Artificial Neural Networks - ICANN '98, Skövde, Sweden, Springer-Verlag, Heidelberg, suggests: Each neuron sends its action potentials and receives input from all other neurons via synaptic efficiencies with adaptive strength. The axonal transmission delay was chosen randomly in the range between 0 and 2 ms.
Wichtig ist, dass ein Zustand schwacher Kopplung zwischen den Neuronen sichergestellt ist. Dies schließt eine Unterbrechung der vorab definierten Oszillationen der neuronalen Aktivität aus, und es verbleiben ausschließlich Phasen dieser oszillierenden Pulsneuronen als unbeschränkte Variablen.It is important that a state of weak coupling between the neurons is ensured. This precludes an interruption of the predefined oscillations of the neuronal activity, and only phases of these oscillating pulse neurons remain as unlimited variables.
Der Aktualisierungsprozess dieser schwachen synaptischen Kopplungen wird nunmehr erläutert.The process of updating these weak synaptic couplings will now be explained.
Für die globale Optimierung wird eine Kostenfunktion eingeführt. Die reinen Parameter, d.h., die synaptischen Effizien- zen, sind so ausgelegt, dass der am Eingang präsentierte Stimulus so zuverlässig wie möglich klassifiziert werden kann. Aus diesem Grund wird vorliegend die gegenseitige Information zwischen der Stimulusklasse und dem Pulsansprechen des Netzes als Maß für die Unterscheidbarkeit eingeführt. Ziel hierbei ist nicht, wie bislang, die Eingabe bzw. die Eingangsgrößen aus der Ausgabe bzw. den Ausgangsgrößen zu rekonstruieren, sondern den Namen der Klasse abzuleiten, zu der der präsentierte Stimulus gehört, und zwar aus einem Satz gegebener Klassen.A cost function is introduced for global optimization. The pure parameters, that is, the synaptic efficiencies zen are designed so that the stimulus presented at the entrance can be classified as reliably as possible. For this reason, the mutual information between the stimulus class and the pulse response of the network is introduced as a measure of the differentiability. The aim here is not, as has been the case up to now, to reconstruct the input or the input variables from the output or the output variables, but to derive the name of the class to which the presented stimulus belongs, namely from a set of given classes.
Die Zufallsvariable, die der Klasse des Stimulus entspricht, wird mit s bezeichnet, d.h., die Ergebnisse von s lauten s (j) mit der Wahrscheinlichkeit pj . Aus dem informationstheoretischen Gesichtspunkt kann ein Maß für die Unterscheidbarkeit für eine Beobachtungszeit T der Ausgangspulse definiert werden durch die gegenseitige Information zwischen den Zufallsvariablen s und den pyramidalen PulsZeitpunkten bestimmter Codeneuronen Ci, ...., cκ, d.h., durch folgenden Unterscheidungswert :The random variable that corresponds to the class of the stimulus is denoted by s, ie the results of s are s (j) with the probability pj. From the information-theoretical point of view, a measure of the distinguishability for an observation time T of the output pulses can be defined by the mutual information between the random variables s and the pyramidal pulse times of certain code neurons Ci, ...., c κ , ie by the following differentiation value:
Figure imgf000011_0001
wobei ti <a) die Zeit bezeichnet, die dem i-ten Feuern eines t( ύ t(ct)
Figure imgf000011_0001
where ti <a) denotes the time it takes for the i th firing of a tt (ct)
Neurons a entspricht, und wobei ^ * die Maximalwerte bezeichnen, die kleiner sind als T.Neurons corresponds to a, and where ^ * denote the maximum values that are smaller than T.
Durch den erfindungsgemäßen Einsatz von oszillierenden Neuronen vereinfacht sich die Gleichung (1) zuThe use of oscillating neurons according to the invention simplifies equation (1)
Figure imgf000011_0002
Figure imgf000011_0002
wobei Φ± (a> die Zeit entsprechend dem i-ten Feuern eines Neurons a in Bezug auf einen bestimmten Referenzwert bezeichnet, d.h., die Phasen (da der FeuerungsZeitpunkt von einem der Codeneuronen als Selbstbezug herangezogen werden kann, so dass die Anzahl der relativen Phasen sich tatsächlich reduziert auf K - 1 ) .where Φ ± (a> denotes the time corresponding to the ith firing of a neuron a with respect to a specific reference value, that is, the phases (since the firing time of one of the code neurons can be used as a self-reference, so that the number of relative phases is actually reduced to K - 1).
Der Maximalwert von I ist durch die Entropie der Zufallsvariablen s gegeben, z.B. im Fall von zwei gleichermaßen wahrscheinlichen Stimuli H(s) = In 2 nats « 0,69 nats. Wenn das Maximum durch den Unterscheidungswert I (T) erzielt ist, bedeutet dies, dass die in der Beobachtungszeit T enthaltene pyramidale Raum-/Zeitmuster ausreichend Information enthalten, um die Klassen von präsentierten Eingangsstimuli perfekt zu klassifizieren; d.h., das neuronale Netz wirkt als perfektes Klassifikationsmittel. Im Gegensatz zu dem bisherigen MTMR-Prinzip tritt die minimale Zeitbeschränkung im vorliegenden Fall von oszillierenden Neuronen nicht mehr auf, weil es ausreicht, einen einzigen (d.h., den ersten) Pulszeitpunkt pro Neuron zu kennen. Hierdurch wird die Berechnung der Wahrscheinlichkeiten stark vereinfacht, die zur Ermittlung eines gegenseitigen Informationstermini notwendig sind:The maximum value of I is given by the entropy of the random variable s, e.g. in the case of two equally probable stimuli H (s) = in 2 nats «0.69 nats. If the maximum is achieved by the differentiation value I (T), this means that the pyramidal space / time patterns contained in the observation time T contain sufficient information to perfectly classify the classes of presented input stimuli; i.e. the neural network acts as a perfect means of classification. In contrast to the previous MTMR principle, the minimal time limitation no longer occurs in the case of oscillating neurons in the present case, because it is sufficient to know a single (i.e., the first) pulse time per neuron. This greatly simplifies the calculation of the probabilities that are necessary to determine a mutual information term:
I(X Y) = J f fay)VXj$ d»iI (XY) = J f fay) VX j $ d »i
(6)(6)
Anhand der Fig. 1 bis 6 wird nunmehr die Klassifizierung zeitlicher Abfolgen bzw. Sequenzen erläutert, die durch nicht homogene Poisson-Prozesse erzeugt werden. Bei dem in Fig. 1 bis 6 dargestellten Fall besteht der externe Stimulus (der Eingang bzw. die Eingangsgröße) aus drei nicht homogenen Poisson-Prozessen, die gleichzeitig in das Netz eingespeist werden und einen dreidimensionalen Eingangsstrom darstellen. Fig. 1 zeigt einen derartigen dreidimensionalen Eingangsstrom für eine erste Stimulusklasse und Fig. 2 für eine zweite Stimulusklasse. Beide Klassen bestehen aus drei Dimensionen mit jeweils einem nicht homogenen Poisson-Prozess für jede Dimension. In den ersten zwei Komponenten folgen die Raten Sinuswellen (in Fig. 1 und 2 jeweils die oberen Kurvenverläufe), während die dritte Komponente (in Fig. 1 und 2 jeweils die unteren Kurvenverläufe) durch eine vollständig zufällige Rate festgelegt ist. Die Differenz zwischen den beiden Klassen betrifft die Beziehung der ersten beiden Komponenten: Für die Klasse 1 (Fig. 1) liegt eine Phasenverschiebung vor, während für die Klasse 2 (Fig. 2) keine Phasenverschiebung vorliegt. Um zu ermitteln, ob im aktuellen Zeitpunkt ein Puls vorliegt, wird aus einem Poisson-Prozess mit einer gegebenen Rate durch die vorstehend genannten Klassifikationen eine Probe genommen.The classification of temporal sequences or sequences which are generated by non-homogeneous Poisson processes will now be explained with reference to FIGS. 1 to 6. In the case shown in FIGS. 1 to 6, the external stimulus (the input or the input variable) consists of three non-homogeneous Poisson processes which are fed into the network simultaneously and represent a three-dimensional input current. 1 shows such a three-dimensional input current for a first stimulus class and FIG. 2 for a second stimulus class. Both classes consist of three dimensions, each with a non-homogeneous Poisson process for each dimension. In the first two components the sine wave rates follow (in FIGS. 1 and 2 the upper curve profiles in each case), while the third component (in FIGS. 1 and 2, the lower curves in each case) is determined by a completely random rate. The difference between the two classes relates to the relationship between the first two components: there is a phase shift for class 1 (FIG. 1), while there is no phase shift for class 2 (FIG. 2). In order to determine whether a pulse is present at the current time, a sample is taken from a Poisson process at a given rate using the classifications mentioned above.
Mit anderen Worten legen die Funktionen, welche die Änderung der verschiedenen Poisson-Raten als Funktion der Zeit in den drei Eingängen beschreiben, zwei unterschiedliche Eingangsklassen fest. Die eine Klasse wird ausgehend von den drei Ratenkurven (für die Eingangsgröße 1, 2 bzw. 3) abgetastet, wie in Fig. 1 gezeigt, während die Raten für die Klasse 2 in Fig. 2 dargestellt sind. Diese zwei Stimuli unterscheiden sich lediglich in der Kohärenz (der zeitlichen Beziehung) ihrer verschiedenen Komponenten, wodurch die Aufgabe der Klassifizierung zu einer Art von zeitlicher Clusterbildung gemacht wird.In other words, the functions that describe the change in the different Poisson rates as a function of time in the three inputs define two different input classes. One class is sampled on the basis of the three rate curves (for input variable 1, 2 or 3), as shown in FIG. 1, while the rates for class 2 are shown in FIG. 2. These two stimuli differ only in the coherence (the temporal relationship) of their various components, which makes the classification task a kind of temporal clustering.
Das neuronale Netz für dieses Experiment besteht aus vollständig verknüpften Neuronen. Aufgrund der dreidimensionalen Natur des Eingangssignals liegen konsequenterweise drei Eingangsneuronen vor, welche den zeitabhängigen Stimulus empfangen. Ein derartiges Eingangsneuron empfängt keinen Eingang bzw. den Eingang null, wenn von dem Poisson-Prozess kein Puls erzeugt wird, zu dem es gehört, und einen Stimulus 0,2 im Fall eines Eingangspulsereignisses. Die verbleibenden bzw. verborgenen Neuronen empfangen überhaupt keine externe Eingabe. Um den Rechenaufwand niedrig zu halten, wird die Kostenfunktion aus einem Teilsatz der Gesamtzahl der Neuronen ermittelt. Diese Codeneuronen, die bei der Berechnung der gegenseitigen Information in Betracht gezogen werden, werden willkürlich gewählt, jedoch unter Ausschluss der Eingangsneuronen. Hierdurch ist sichergestellt, dass die Information be- züglich des Stimulus aus der verborgenen Dynamik des Netzes extrahiert werden muss, wodurch die Betrachtung auf den tatsächlich interessierenden Fall einer internen Informationskodierung eines Netzes von Pulsneuronen beschränkt ist. Bei jeder Aktualisierung der Kostenfunktion wird die für die Berechnung der Wahrscheinlichkeiten im gegenseitigen Informationsbegriff erforderlichen Statistik durch die Pulsmuster (d.h., die Phasenmuster) ansprechend auf 500 Eingangsproben für jeden der zwei unterschiedlichen Stimuli erhalten. Eine derartige Probe (Name) besteht ihrerseits aus einem Strang von Eingangspulsen, mit denen das Netz daraufhin getrieben wird, bis die Phasen gemessen werden, und die Prozedur zur nächsten Probenahme weiterschreiten kann. Schließlich wird I (T) berechnet, und die Gewichtsaktualisierung der aktuellen Iterierung kann in Angriff genommen werden. Bevor der gesamte Prozess für neu gestartet wird.The neural network for this experiment consists of fully linked neurons. Due to the three-dimensional nature of the input signal, there are consequently three input neurons that receive the time-dependent stimulus. Such an input neuron receives no input or input zero if the Poisson process does not generate a pulse to which it belongs and a stimulus 0.2 in the case of an input pulse event. The remaining or hidden neurons receive no external input at all. In order to keep the computing effort low, the cost function is determined from a subset of the total number of neurons. These code neurons, which are taken into account when calculating the mutual information, are chosen arbitrarily, but to the exclusion of the input neurons. This ensures that the information is with regard to the stimulus has to be extracted from the hidden dynamics of the network, whereby the consideration is limited to the actually interesting case of an internal information coding of a network of pulse neurons. Each time the cost function is updated, the statistics required to calculate the mutual information probabilities are obtained by the pulse patterns (ie, the phase patterns) in response to 500 input samples for each of the two different stimuli. Such a sample (name) in turn consists of a string of input pulses with which the network is then driven until the phases are measured and the procedure can proceed to the next sampling. Finally I (T) is calculated and the weight update of the current iteration can be started. Before the whole process is restarted for.
In diesem Zusammenhang kann ein Optimierungsverfahren zum Einsatz kommen, wie etwa der ALOPEX-Algorithmus, der in Storck, J. und Deco, G. (1998) , Spike-Based Hebbian Learning for Stimulus Discrimination. In Artificial Neural Networks - ICANN '98, Skövde, Schweden, Springer-Verlag, Heidelberg, erläutert ist.In this context, an optimization method can be used, such as the ALOPEX algorithm described in Storck, J. and Deco, G. (1998), Spike-Based Hebbian Learning for Stimulus Discrimination. Artificial Neural Networks - ICANN '98, Skövde, Sweden, Springer-Verlag, Heidelberg.
Für das angezogene Experiment konnte eine Maximierung der gegenseitigen Information auf den optimalen Wert von I = 0,69 nats erzielt werden. Die vollständige Information, die den Wert der Kostenfunktion ermittelt, und damit den Grad der Un- terscheidbarkeit, ist in der gemeinsamen Verteilung der Phasen enthalten, wobei ihre Größe gleich der Anzahl der Codeneuronen ist. Eine Visualisierung der gemeinsamen Verteilung der Phasen der Codeneuronen ist deshalb ausschließlich für bis maximal zwei von ihnen möglich. Das vorliegende Experiment verwendet drei Codeneuronen, was zu zwei Relativphasen führt, für die das Ergebnis in Fig. 3 bis Fig. 6 gezeigt ist. Es kann jedoch sogar für eine größere Anzahl von Codeneuronen in noch komplexeren Anwendungen die Wahrscheinlichkeitsstruk- tur aus den zweidimensionalen Verteilungen von Teilsätzen hergeleitet werden.For the experiment attracted, the mutual information could be maximized to the optimal value of I = 0.69 nats. The complete information, which determines the value of the cost function, and thus the degree of distinctness, is contained in the common distribution of the phases, the size of which is equal to the number of code neurons. A visualization of the common distribution of the phases of the code neurons is therefore only possible for up to two of them. The present experiment uses three code neurons, which leads to two relative phases, for which the result is shown in FIGS. 3 to 6. However, even for a larger number of code neurons in even more complex applications, the probability structure be derived from the two-dimensional distributions of subsets.
In Fig. 3 bis Fig. 6 sind im einzelnen die Phasenverteilungen der Codeneuronen vor und nach dem Lernen gezeigt. Vor dem Lernen zeigen die Phasenverteilungen beim Ansprechen auf den Stimulus 1 (Fig. 3) und den Stimulus 2 (Fig. 5) eine unstrukturierte Form aufgrund der zufälligen Initialisierung der synaptischen Effizienzen. Ihre Ähnlichkeit führt zu einem niedrigen Wert der Kostenfunktion, d.h., der gegenseitigen Information.3 to 6 show in detail the phase distributions of the code neurons before and after the learning. Before learning, the phase distributions in response to stimulus 1 (FIG. 3) and stimulus 2 (FIG. 5) show an unstructured form due to the random initialization of the synaptic efficiencies. Their similarity leads to a low value of the cost function, i.e. the mutual information.
Nach dem Lernen akkumuliert für den Stimulus 1 (Fig. 4) der Hauptteil der Wahrscheinlichkeitsmasse im Zentrum des abgedeckten Bereichs, während für den Stimulus 2 (Fig. 6) die höchsten Dichtewerte an den Rändern auftreten. Dieses komplementäre Muster des Ansprechverhaltens stimmt überein mit einem hohen Wert des gegenseitigen Informationsterms per Definitionen und stellt damit eine hohe Unterscheidungsfähigkeit bzw. Unterscheidbarkeit dar. After learning, the majority of the probability mass accumulates in the center of the covered area for stimulus 1 (FIG. 4), while the highest density values occur at the edges for stimulus 2 (FIG. 6). This complementary pattern of response behavior corresponds to a high value of the mutual information term by definition and thus represents a high degree of distinctiveness.

Claims

Patentansprüche claims
1. Verfahren zum Klassifizieren einer zeitlichen Folge von Eingangsgrößen unter Verwendung eines gepulste Neuronen enthaltenden neuronalen Netzes, bei dem a) als gepulste Neuronen oszillierende Neuronen verwendet werden, und b) auf Grundlage eines Unterscheidungswertes die gegenseitige Information zwischen Stimulusklasse der Eingangsgrößen und Pulsverhalten (= Kostenfunktion) der Neuronen ermittelt wird.1. Method for classifying a temporal sequence of input variables using a neural network containing pulsed neurons, in which a) oscillating neurons are used as pulsed neurons, and b) the mutual information between the stimulus class of the input variables and pulse behavior (= cost function) on the basis of a distinctive value ) of the neurons is determined.
2. Verfahren nach Anspruch 1, bei dem der Unterscheidungswert I (T) folgender Vorschrift genügt:2. The method according to claim 1, wherein the distinctive value I (T) satisfies the following requirement:
Figure imgf000016_0001
Figure imgf000016_0001
wobeiin which
T die Beobachtungszeit eines Ausgangspulses ist, s die Zufallsvariable ist, die der Stimulusklasse entspricht, tι(a) die Zeit entsprechend dem i-ten Feuern eines Neurons a bezeichnet, tkci(cl) - • • tkcK (cK) die Maximalwerte kleiner als T sind, undT is the observation time of an output pulse, s is the random variable that corresponds to the stimulus class, tι (a) denotes the time corresponding to the ith firing of a neuron a, tkci (cl) - • • t kcK (cK) the maximum values less than T are, and
Cι,...,cκ bestimmte Codeneuronen sind.Cι, ..., c κ are certain code neurons.
3. Verfahren nach Anspruch 2, bei dem der Unterscheidungswert I (T) unter Verwendung oszillierender Neuronen folgender Vorschrift genügt:3. The method according to claim 2, wherein the differentiation value I (T) using oscillating neurons satisfies the following rule:
Figure imgf000016_0002
Figure imgf000016_0002
wobei Φi(a) die Zeit entsprechend dem i-ten Feuern eines Neurons a in bezug auf einen bestimmten Referenzwert, d.h., die Phasen bezeichnet. where Φi (a) denotes the time corresponding to the ith firing of a neuron a with respect to a specific reference value, ie, the phases.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem die Eingangsgrößen gemessene physikalische Signale sind.4. The method according to any one of claims 1 to 3, wherein the input variables are measured physical signals.
5. Verfahren nach Anspruch 4, bei dem die physikalischen Signale bei der Sprachanalyse gemessene Signale sind.5. The method of claim 4, wherein the physical signals are measured signals in speech analysis.
6. Neuronales Netz, welches gepulste Neuronen in Gestalt oszillierender Neuronen enthält, und das zum Klassifizieren einer zeitlichen Folge von Eingangsgrößen vorsieht: Ermitteln der gegenseitigen Information zwischen Stimulusklasse der Eingangsgrößen und Pulsverhalten (= Kostenfunktion) der Neuronen ermittelt wird.6. Neural network, which contains pulsed neurons in the form of oscillating neurons, and which provides for classifying a chronological sequence of input variables: determining the mutual information between the stimulus class of the input variables and pulse behavior (= cost function) of the neurons.
7. Neuronales Netz nach Anspruch 6, bei dem der Unterscheidungswert I(T) folgender Vorschrift genügt:7. Neural network according to claim 6, in which the differentiation value I (T) satisfies the following requirement:
κn ι{*{ >,...,ig,#*,.. g})κn ι {* {>, ..., ig, # *, .. g})
wobeiin which
Zufallsvariable ist, die der Stimulusklasse entspricht, ti(a) die Zeit entsprechend dem i-ten Feuern eines Neurons a bezeichnet, tkci(cl) ι • • • ι tkcK (cK) die Maximalwerte kleiner als T sind, und ci, ... , cκ bestimmte Codeneuronen sind.Is a random variable that corresponds to the stimulus class, ti (a) denotes the time corresponding to the i-th firing of a neuron a, tkci (cl) ι • • • ι t kcK (cK) the maximum values are less than T, and ci ,. .., c κ are certain code neurons.
8. Neuronales Netz nach Anspruch 7, bei dem der Unterscheidungswert I(T) unter Verwendung oszillierender Neuronen folgender Vorschrift genügt:8. Neural network according to claim 7, in which the differentiation value I (T) using oscillating neurons satisfies the following rule:
Figure imgf000017_0001
Figure imgf000017_0001
wobei Φι( ) die Zeit entsprechend dem i-ten Feuern eines Neurons a in bezug auf einen bestimmten Referenzwert, d.h., die Phasen bezeichnet. where Φι () denotes the time corresponding to the i-th firing of a neuron a with respect to a specific reference value, ie, the phases.
9. Neuronales Netz nach einem der Ansprüche 6 bis 7, eingesetzt zur Klassifikation eines physikalischen Signals.9. Neural network according to one of claims 6 to 7, used for the classification of a physical signal.
10. Neuronales Netz nach Anspruch 9, wobei das physikalische Signal ein bei der Sprachanalyse gemessenes Signal ist.10. The neural network of claim 9, wherein the physical signal is a signal measured in speech analysis.
11. Anordnung zum Klassifizieren einer zeitlichen Folge von Eingangsgrößen unter Verwendung eines gepulste Neuronen enthaltenden neuronalen Netzes, mit einem Prozessor, der derart ausgelegt ist, dass folgende Schritte durchführbar sind: a) als gepulste Neuronen werden oszillierende Neuronen verwendet werden, und b) auf Grundlage eines Unterscheidungswertes wird die gegenseitige Information zwischen Stimulusklasse der Eingangsgrößen und Pulsverhalten (= Kostenfunktion) der Neuronen ermittelt wird.11. Arrangement for classifying a time sequence of input variables using a neural network containing pulsed neurons, with a processor which is designed such that the following steps can be carried out: a) oscillating neurons are used as pulsed neurons, and b) on the basis A distinctive value is used to determine the mutual information between the stimulus class of the input variables and pulse behavior (= cost function) of the neurons.
12. Anordnung nach Anspruch 11, bei dem der Unterscheidungswert I(T) folgender Vorschrift genügt:12. Arrangement according to claim 11, in which the differentiation value I (T) satisfies the following requirement:
Figure imgf000018_0001
Figure imgf000018_0001
wobeiin which
T die Beobachtungszeit eines Ausgangspulses ist, s die Zufallsvariable ist, die der Stimulusklasse entspricht, t! (a) die Zeit entsprechend dem i-ten Feuern eines Neurons a bezeichnet, tkci(cl), • • • , tkcK (cK) die Maximalwerte kleiner als T sind, und cι,...,cκ bestimmte Codeneuronen sind.T is the observation time of an output pulse, s is the random variable that corresponds to the stimulus class, t ! (a) denotes the time corresponding to the i-th firing of a neuron a, tkci (cl) , • • •, t kcK (cK) the maximum values are less than T, and cι, ..., c κ are certain code neurons.
13. Anordnung nach Anspruch 12, bei dem der Unte scheidungs- wert I(T) unter Verwendung oszillierender Neuronen folgender Vorschrift genügt:13. Arrangement according to claim 12, in which the distinction value I (T) using oscillating neurons satisfies the following requirement:
Figure imgf000018_0002
wobei Φi(a) die Zeit entsprechend dem i-ten Feuern eines Neurons a in bezug auf einen bestimmten Referenzwert, d.h., die Phasen bezeichnet.
Figure imgf000018_0002
where Φi (a) denotes the time corresponding to the ith firing of a neuron a with respect to a specific reference value, ie, the phases.
14. Anordnung nach einem der Ansprüche 11 bis 13, eingesetzt zur Klassifikation eines physikalischen Signals.14. Arrangement according to one of claims 11 to 13, used for the classification of a physical signal.
15. Anordnung nach Anspruch 14, wobei das physikalische Signal ein bei der Sprachanalyse gemessenes Signal ist. 15. The arrangement according to claim 14, wherein the physical signal is a signal measured in speech analysis.
PCT/DE2002/004225 2001-11-22 2002-11-14 Method for classifying a temporal series of events by means of a network containing pulsed neurones WO2003046886A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10157220A DE10157220A1 (en) 2001-11-22 2001-11-22 Method for classifying a time sequence of input variables using a neural network containing pulsed neurons, neural network and arrangement for carrying out the method
DE10157220.4 2001-11-22

Publications (1)

Publication Number Publication Date
WO2003046886A1 true WO2003046886A1 (en) 2003-06-05

Family

ID=7706524

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2002/004225 WO2003046886A1 (en) 2001-11-22 2002-11-14 Method for classifying a temporal series of events by means of a network containing pulsed neurones

Country Status (2)

Country Link
DE (1) DE10157220A1 (en)
WO (1) WO2003046886A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5771306A (en) * 1992-05-26 1998-06-23 Ricoh Corporation Method and apparatus for extracting speech related facial features for use in speech recognition systems
US6021387A (en) * 1994-10-21 2000-02-01 Sensory Circuits, Inc. Speech recognition apparatus for consumer electronic applications
DE19949637A1 (en) * 1999-10-14 2001-04-19 Dietrich Kuehner Noise detection and separation arrangement, having neural network which forms classification signal giving indication of type of acoustic signal

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5771306A (en) * 1992-05-26 1998-06-23 Ricoh Corporation Method and apparatus for extracting speech related facial features for use in speech recognition systems
US6021387A (en) * 1994-10-21 2000-02-01 Sensory Circuits, Inc. Speech recognition apparatus for consumer electronic applications
DE19949637A1 (en) * 1999-10-14 2001-04-19 Dietrich Kuehner Noise detection and separation arrangement, having neural network which forms classification signal giving indication of type of acoustic signal

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANDREAS V.M. HERZ: "How is time represented in the brain", OXFORD UNIVERITY PRESS, 2001, Oxford, pages 1 - 17, XP002233540, Retrieved from the Internet <URL:http://www.itb.biologie.hu-berlin.de/~herz/dresden.pdf> [retrieved on 20030305] *
B. W. VAN SCHOOTEN: "Solving computational problems using coherent oscillation", M.SC. THESIS, September 1997 (1997-09-01), pages 1 - 50, XP002233539, Retrieved from the Internet <URL:http://www.few.eur.nl/few/people/jvandenberg/master theses/boris.pdf> [retrieved on 20030305] *

Also Published As

Publication number Publication date
DE10157220A1 (en) 2003-06-12

Similar Documents

Publication Publication Date Title
EP2165296B1 (en) Method and device for computer-aided prediction of intended movements
DE102005046747B3 (en) Computer-aided learning of neural networks involves changing cross-links between first and second layers of neurons of neural network based on variable state of neural network which is determined using feature instances and categories
EP1183619A2 (en) Situation-dependent operating semantic n-order network
DE60002290T2 (en) Method of detecting anomalies in a signal
DE102020212515A1 (en) Method and device for training a machine learning system
EP0901658A1 (en) Process for optimizing fuzzy rules using a computer
DE102019205085A1 (en) Self-monitoring of a function based on artificial intelligence
EP1519301A2 (en) Apparatus for classifying physiological events
DE19537010C2 (en) Learning method and arrangement for emulating a dynamic process
EP1227425B1 (en) Device for finding the triggers of paroxysmally occurring illnesses
DE102016124205A1 (en) Computer-implemented process for optimizing a manufacturing process
WO2003046886A1 (en) Method for classifying a temporal series of events by means of a network containing pulsed neurones
DE102020212514A1 (en) Method for determining an output signal using a machine learning system
DE102021201833A1 (en) Device for processing at least one input data set using a neural network and method
WO2021089591A1 (en) Method for training an artificial neural network, computer program, storage medium, device, artificial neural network and application of the artificial neural network
DE4225885C2 (en) Correlation determination method and link structure estimation method for neurons
EP2284576B1 (en) Method and system for predicting events
DE102018216078A1 (en) Method and device for operating a control system
DE19549300C1 (en) Evaluation variable determination system for Bayesian network graph
EP1114398B1 (en) Method for training a neural network, method for classifying a sequence of input parameters using a neural network, neural network and array for training a neural network
AT411143B (en) DEVICE FOR EVALUATING PSYCHOLOGICAL AND BIOMEDICAL RAW DATA
DE102006056106A9 (en) System and method for the production and use of signal classifiers
WO2020094415A1 (en) Measurement method and measurement apparatus for determining a technical property of a program code for controlling an electronic device
EP1519303A2 (en) Device for classifying physiological events
DE102005045120A1 (en) Dynamic information selection device, has neuron network with neuron pools, which are networked with one another and have neurons, where global background signal is applied to part of neuron pools and can be adjusted to number of set values

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR IE IT LU MC NL PT SE SK TR

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Country of ref document: JP