WO2007036465A2 - Verfahren zum rechnergestützten lernen eines neuronalen netzes und neuronales netz - Google Patents

Verfahren zum rechnergestützten lernen eines neuronalen netzes und neuronales netz Download PDF

Info

Publication number
WO2007036465A2
WO2007036465A2 PCT/EP2006/066523 EP2006066523W WO2007036465A2 WO 2007036465 A2 WO2007036465 A2 WO 2007036465A2 EP 2006066523 W EP2006066523 W EP 2006066523W WO 2007036465 A2 WO2007036465 A2 WO 2007036465A2
Authority
WO
WIPO (PCT)
Prior art keywords
neurons
layer
category
neural network
input information
Prior art date
Application number
PCT/EP2006/066523
Other languages
English (en)
French (fr)
Other versions
WO2007036465A3 (de
Inventor
Gustavo Deco
Martin Stetter
Miruna Szabo
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to EP06806783A priority Critical patent/EP1934895A2/de
Priority to US11/992,785 priority patent/US8423490B2/en
Publication of WO2007036465A2 publication Critical patent/WO2007036465A2/de
Publication of WO2007036465A3 publication Critical patent/WO2007036465A3/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks

Definitions

  • the invention relates to the dynamic selection of information.
  • Data processing systems in particular intelligent agents or systems for evaluating data, receive input information. To do this, the system must process and output the input information according to certain criteria, or derive and execute an action from the input information.
  • the preparation of the input information with regard to a task to be solved is of particular importance here.
  • numerous classification methods exist for assigning input information to particular classes. The aim here is to obtain a representation of the input information which is as optimal as possible for the task to be solved.
  • Areas of application of classification methods in the medical field relate to the classification of patients into groups with different diagnoses and drug tolerances.
  • Another application for example, is traffic engineering, where sensor readings are categorized into different categories.
  • classification methods are used in industrial automation to classify, for example, expected product quality based on sensor values of the industrial process.
  • Feature For the preparation of input information numerous mathematical classification methods are known, for. B. machine learning with so-called. "Support Vector Machines".
  • features are first extracted from the input information, which can each occur in a specific feature expression.
  • a feature is understood to be a specific property of the input information.
  • Characteristic expression is understood to mean whether, to what extent or in which way a particular feature is incorporated into the Input information is given. The expression can in this case only indicate the presence or the absence of a feature, but the expression can also describe any intermediate stages. In the area of language processing, for example, a feature could indicate whether or not the
  • Digitization of an acoustic speech signal information was clipping (clipping) or not.
  • a feature could specify a gray value distribution of pixels of an image.
  • the expression can be z. For example, for each of 256 gray levels, how often it occurs.
  • Other features could be the volume of a speech signal, the volatility of a stock price, the speed of a vehicle, the unevenness of a surface, as well as the structures of an X-ray image. The examples given show that the extraction of features is used in a wide variety of areas of data processing.
  • a classification of the extracted features is carried out after extraction of different features of the input information. If edges are extracted as features in an image, then in a second step it can be classified whether the edges belong, for example, to the image of a face or a building.
  • the disadvantage here is that most methods can not decide for themselves which features are important for the later classification and which are unimportant. Such a distinction of features with respect to a problem to be solved must then be done by hand and be given to the system in some form. Finally, methods are also known which can select features in a targeted manner. However, the extraction of the characteristics or their characteristics remains unaffected.
  • a neural network which allows a selective representation of the expression of features of input information in response to an attention filter.
  • a feature here is the location of one Object, which occurs in the forms left and right;
  • Another characteristic is the type of object that occurs in the "target object” and “other object” expressions.
  • the representation of the characteristics of these features is selectively influenced by an attention filter.
  • the disadvantage here again is that the attention filter, d. H. the information about the meaning of the individual features, must be supplied by hand from outside. It is not possible here to generate the neural network automatically depending on the meaning of the features.
  • the document [Richard P. Lippmann: An Introduction to Computing with Neural Nets, IEEE ASSP MAGAZINE APRIL 1987, pp. 4-22] relates to a general introduction to the computational methods of neural networks.
  • the article also mentions the use of neural networks to classify patterns. Nevertheless, this document can not be read as a reward-based learning rule.
  • the document does not show the feature that forward and backward weights are strengthened or weakened depending on whether one was previously correct categorization of input information has been made.
  • the publication [Michael Esslinger and Ingo Schaal: OCR with SNNS, pattern recognition with neural networks, practical report on the lecture Artificial Intelligence SS 2004 on 02.07.2004, 16 pages] also deals with pattern recognition in neural networks.
  • the document also describes various learning rules in section 4. However, the adaptation of the weights does not take place in the manner determined according to the invention.
  • the publication [Siegfried Macho: Models of Learning: Neural Networks, Universitas Friburgensis may 93, 6 pages] also concerns a general article on learning models with neural networks. Although the article mentions the adaptation of associative connections, there is no reference in this document to the special reward-based Hebbian learning method according to the invention.
  • the object of the invention is to generate a method for learning a neural network, which automatically adapts the neural network to the meaning of the characteristic values and categories underlying the network and thereby simulates the learning process of higher living beings in a computer-aided manner.
  • the method according to the invention generates a neural network in which the neurons of the neural network are divided into at least two layers comprising a first layer and a second layer crosslinked with the first layer, wherein the crosslinking between the first and second layers of the neural network is provided by synaptic networks Represents connections between neurons and the strength of a connection is represented by a weight.
  • synaptic connections between a first and a second neuron comprise a forward-directed connection from the first to the second neuron and a back-directed connection from the second to the first neuron.
  • input information is represented in each case by one or more feature expressions of one or more features, wherein each feature pronunciation comprises one or more neurons of the first layer, and in the second layer a plurality of categories are stored, each category one or comprises a plurality of neurons of the second layer.
  • at least one category in the second layer is assigned to the feature expressions of the input information in the first layer.
  • an input information is input to the first layer, and then at least one state quantity of the neural network is determined and compared with the associated at least one category of that input information, wherein it is determined in the comparison whether there is a match for the input information between the at least one state quantity of the neural network Network and the associated at least one category of input information is present.
  • the activity of the neurons in the neural network is determined and the neurons are classified as active or inactive depending on their activity.
  • the activity of the neurons provides important information about the functioning of the neural network, and it is therefore advantageous to consider the activity of the neurons as parameters in the neural network.
  • the weights of the synaptic connections between active neurons of the first layer and active neurons of the second layer are amplified if a match is found in the comparison of the state quantities of the neural network for an input information with the associated at least one category of the input information.
  • the method is thus an advantageous modification of the Hebb learning method known from the prior art, according to which connection strengths between active neurons are amplified.
  • the modification consists in that the amplification is performed only if the state of the neural network indicates that the neural network provides a correct categorization.
  • the weights of the forward-looking synaptic connections of first active neurons from one of the first and second layers become second inactive neurons from the other of the first and second layers weakened.
  • Such synaptic connections indicate that there is an improper cross-linking between the neurons, so that a weakening of such connections is made to learn the network quickly and effectively.
  • the weights of the synaptic connections between active first layer neurons and second layer active neurons are attenuated. This effectively prevents false categories from being learned in the neural network.
  • the weights of all synaptic are attenuated.
  • the categories of the second layer represent solutions of a task, the solution of the task depending on the input information.
  • the learned network can distinguish features according to their relevance with regard to the task.
  • the features are subdivided into diagnostic features which are relevant for the solution of the task, and into non-diagnostic features which are not relevant to the solution of the task.
  • each assigned at least one category of input information is a correct solution of the task. This advantageously achieves that the predetermined categorization task is effectively achieved with the neural network.
  • the method according to the invention is used as an iterative method in which the steps of inputting input information and subsequent comparison as well as changing the crosslinking are repeated several times depending on the comparison result.
  • a particularly well-trained neural network can thus be generated.
  • the iteration is terminated after reaching a convergence criterion.
  • a normalization of the networking of the neural network is performed after each iteration step in order to ensure the convergence of the method.
  • Layer of the neural network exciting pulsed neurons which are commonly used in neural networks.
  • the excitatory pulsed neurons of the first layer are at least partially grouped into input pools, each feature expression being associated with at least one input pool.
  • the input pools cooperate with each other and the activities of the input pools each represent a feature expression. This will easily the Characteristic values are directly connected to states of the input pools.
  • the exciting pulsed neurons are the second
  • a category pool is referred to as active if it has at least a predetermined number of active neurons.
  • the neural network also comprises inhibitory pulsed neurons which form at least one inhibitory pool in the first and / or second layer, the inhibiting pool having a global inhibition on the input and / or second or Category Pools.
  • the invention further relates to a neural network having a plurality of neurons, wherein the network is designed such that it is learned with the method according to the invention.
  • a learned network has the advantage that it can be generated automatically and can be adapted effectively to the circumstances of a given categorization task.
  • Fig. 1 schematically shows the categorization task used in one embodiment of the invention
  • Fig. 2 is a diagram showing an embodiment of the neural network taught by the method of the present invention.
  • FIG. 3 shows a diagram to illustrate the learning of a neuron with the method according to the invention
  • Fig. 4 is a diagram showing the change in activity of neurons in a neural network during learning with the method of the invention.
  • Fig. 5 is a diagram showing the change in synaptic weights in learning different initial neural networks.
  • the embodiment of the method according to the invention described below is based in a slightly modified form on a neurophysiological experiment which is described in reference [2]. It examined the activity of neurons in the inferotemporal cortex (ITC) of awake monkeys, who were given a visual categorization task. It was measured how the ITC representation of visual stimuli is influenced by the categorization of the monkeys. The monkeys have been taught to divide a set of pictures into two categories, each category associated with the left and right positions of a lever, respectively. The monkeys had to pull the lever in the appropriate direction when a corresponding stimulus was shown. Fig. 1 shows a kind of experiment conducted in which the monkeys had to divide ten schematized faces Fl to FlO into two categories.
  • the trained animals were tested on face test specimens. The animals had to perform the learned categorization tasks. In these tests, the average activity of all visually-responsive neurons in the ITC cortex was measured. For each neuron, the activity responses were sorted according to the features of the presented stimulus and averaged over many trials. As a result, average activities have been obtained which reveal which feature expressions most or least excite certain neurons.
  • a structure of a neural network adapted to the biological conditions is specified, which is used for the Solution of the above categorization tasks is appropriate.
  • This network structure is shown in FIG. It was taken into account that two brain layers are relevant for the solution of categorization tasks in the brain of higher organisms.
  • the first layer L1 is the inferotemporal cortex already mentioned above.
  • four so-called input pools 101, 102, 103 and 104 of specific exciting pulsed neurons are formed.
  • a pool of neurons is characterized in particular by the fact that all
  • the first layer L1 is networked with a second layer L2 which comprises a category pool 201 and a category pool 202 of excitatory pulsed neurons and corresponds to the prefrontal cortex (PFC) in the brain.
  • PFC prefrontal cortex
  • Each input pool is associated with corresponding feature values of the categorization tasks, the neurons being active in the corresponding input pools if a corresponding feature expression is present on the presented stimulus.
  • the input pool 101 stands for the feature expression D2 "raised eyes”
  • the pool 102 stands for the feature expression DI “subsurface eyes”
  • the pool 103 concerns the feature Nl “long nose”
  • the pool 104 stands for the feature N2 "short nose”.
  • the feature expression D 1 "lowered eyes” is associated with the category C 1 and the feature expression D 2 "raised eyes” is associated with the category C 2.
  • the feature values N1 and N2 relate to a non-diagnostic feature of no relevance in the definition of the category.
  • the pools 120 and 110 still exist in the layer L1 of FIG. 2.
  • the pool 120 represents a so-called non-specific neuron pool, which stands for all other exciting pulsed neurons in the layer L1.
  • the pool 110 is a pool that represents the inhibitory pulsed neurons in this layer.
  • layer L2 comprises a non-specific pool 220 for all other exciting pulsed neurons of layer L2 and a pool 210 for all inhibitory neurons in this layer.
  • the network structure just described is based on the structure described in reference [3], which has previously been used to explain various experimental paradigms (see also reference [I]).
  • IF neurons spiked integrate-and-fire neurons
  • V (t) membrane potential
  • I sy n (t) is the total incoming synaptic current
  • C m is the membrane capacitance
  • g m is the membrane leakage conductivity
  • V L is the resting potential.
  • each of the layers L1 and L2 consists of a large number of IF neurons.
  • the layer N12 130 comprises inhibiting neurons in the inhibiting pool 210.
  • Each individual pool was driven by different inputs.
  • Each compound carries a so-called Poisson spike train with a spontaneous frequency rate of 3 Hz, which is a typical value observed in the cerebral cortex. This results in an external background input at a rate of 2.4 kHz for each neuron.
  • the neurons in the pools 101 to 104 additionally receive external inputs which code the particular stimulus.
  • a stimulus of a face is entered, which has a high eye position (input to the pool 101) and a long nose (input to the pool 103) , It is believed that the stimuli originate in deeper areas of the brain that process visual information to provide visual signals. It is assumed that when forwarding the visual signals all Imprints of the visual stimulus are processed and encoded in the same way, so that the so-called "bottom-up signals", which reach the layer L1, encode, on average, the present feature values of the stimulus with the same strength.
  • the conductivity values of the synapses between pairs of neurons are modulated by weights which may differ from their default value of 1.
  • the structure and function of the network are achieved by different modeling of these weights within and between the neuron pools.
  • forward weights and backward weights exist between a pair of a first and a second neuron or between the corresponding neuron pools.
  • a forward weight is the weight of a synaptic connection from the first to the second neuron and a backward weight is the weight of the synaptic connection from the second to the first neuron.
  • Wi denotes the strength of the weights of the connections between the pools 101 to 104, which are represented by curved arrows, as well as the weights between the neurons within the pools, which are each indicated by circular arrows directly to the pools.
  • These weights Wi in the layer L1 all have the same value.
  • w_2 denotes the strength of the weights between the pools 201 and 202
  • W +2 refers to the strength of the weights of the neurons within the pools 201 and 202.
  • weights of connections between the layer L1 and L2 play a major role, wherein in Fig. 2, the compounds in question (without naming the corresponding weights) are indicated by dashed double arrows.
  • the following definitions apply: w D2 -ci / W CI - D2: weights of the forward and rear ⁇ Wind change directed synaptic connection between the pools 101 and 201;
  • W N2 - C2 i W C2 - N2 weights of the forward or backward synaptic connection between the pools 104 and 202.
  • the connections between the ITC layer L1 and the PFC layer L2 are modeled as so-called plastic synapses. Their absolute strengths are inventively learned with a learning algorithm, which can be referred to as reward-oriented Hebbian learning.
  • the so-called mean-field model was used, which is a widely used method for determining the approximate behavior of a neural network at least for the stationary states (the means without dynamic transitions) to analyze. The method ensures that the dynamics of the network converge towards a stationary attractor that matches the asymptotic behavior of an asynchronously firing spiking network.
  • the mean-field approximation is described, for example, in the publications [3] and [4], the entire disclosure of which by this reference becomes content of the present application. In the embodiment of the invention described here, the mean field analysis described in reference [3] is used.
  • the initial network structure described above is learned in order to modify the weights within and between the neutron pools such that the experimental data of the experiment described in reference [2] are reproduced correctly.
  • the learning method is based on Hebb's learning well-known in the art. In this learning, a simultaneous activity of neurons connected by a synaptic connection leads to an amplification of this synaptic connection.
  • a so-called reward-oriented Hebbian method is used in which the manner in which a synaptic connection between two neurons is changed depends, on the one hand, on the state of activity of the neurons and, on the other hand, on whether just considered simulated experiment a correct categorization was made, that is, that the task was properly solved. If the problem has been solved correctly, there is a so-called reward signal, in which the weights of the synaptic connections are changed in a different way than if there is no reward signal.
  • an experiment is simulated by corresponding input information into the layer L1.
  • the input information here leads to an activation of those pools which have the corresponding characteristic expression. are assigned to the input information. If an experiment leads to a correct categorization, that is, if there is a reward signal, both the forward and the backward synaptic connection will see a first presynaptic neuron from one of the
  • the forward synaptic connection is attenuated by an active presynaptic neuron from one of the layers L1 and L2 to an inactive postsynaptic neuron from the other of the layers L1 and L2. In all other cases of activity states, the synaptic connection is not changed.
  • both the forward and the backward connection between a first presynaptic neuron will become one of the Ll and L2 layers attenuated second postsynaptic neuron from the other of the layers Ll and L2, if both neurons are active. In all other cases, the synaptic connection is not changed.
  • FIG. 3 shows a diagram which again shows the procedure of the reward-oriented Hebb learning learning used in the method according to the invention.
  • the left diagram Dil in FIG. 3 shows the case of a reward signal and the right diagram DI2 shows the case that no reward signal is present.
  • active neurons are represented by hatched dots and inactive neurons by white dots.
  • the upper neurons in the diagrams are neurons from the PFC layer L2 and the lower neurons are neurons from the ITC layer L1.
  • the case of amplification of a synaptic connection is shown by solid arrows, and the case of weakening of a synaptic connection by dashed arrows. It can be seen that in the case of reward, the forward and backward synaptic connections between two active neurons.
  • a forward-directed synaptic connection between a presynaptic active neuron and a postsynaptic inactive neuron is attenuated. All other synaptic connections are not changed in the reward case. Without a reward signal, the forward and reverse synaptic connections between two active neurons from different layers are attenuated. All other synaptic connections between the neurons are not changed.
  • the stimuli were randomly presented to the neural network.
  • the internal variables of the network were reset, and then a spike dynamics for 500 ms of spontaneous activity, followed by 800 ms in the presence of stimulus-representing input information, was simulated.
  • the first 300 ms are considered to be the transitional time, and only the last 500 ms are used to obtain the time-averaged spiking rates for each simulated neuron.
  • the proportion of active neurons n a ⁇ in each pool i was calculated by comparing the previously calculated time-averaged spiking rate of each neuron within that pool with a predetermined threshold. At a spiking rate above 8 Hz for layer Ll and a spiking rate of 14 Hz for layer L2, one neuron was considered active. If the pool representing the correct category according to the given task has more than half of the neurons in the active state and, furthermore, if more than twice as many neurons are active in this pool than in the other category pool, this experiment becomes a Reward assigned, that is, a reward signal is set. If these conditions are not met, no reward will be awarded and there will be no reward signal. Next, for each pair of specific pools of different layers, the proportion of synaptic connections N p to be amplified and the synaptic connections N d to be attenuated are determined as a result of the experiment-provided stimulus.
  • N pre-post K TM ' food 1 ⁇ 1 pre ' n ' post) (2)
  • N p d re-post K TM ' 1 post ⁇ food) 1 ⁇ 1 pre ' n post) O)
  • variable C 13 will be referred to as the proportion of the enhanced synapses from a specific pool i in one layer to a specific pool j in another layer. This size is updated after each experiment as follows:
  • i and j denote the pre- or postsynaptic pool with (i; y) or (j; i) e ( ⁇ Dl, D2, Nl, N2 ⁇ , ⁇ Cl, C2 ⁇ );
  • q + and q_ are the transition probabilities for gain and attenuation, respectively.
  • (1 -C y (0) and C 1J (t) are parts of attenuated or amplified synaptic compounds and t is the number of the experiment Equation (6) applies to both the presence and absence of a reward signal, however can also have different values for q + and q_ be used in the two cases.
  • the average modified synaptic weight between the layers L1 and L2 can then be calculated for each pair of specific pools of different layers L1 and L2 as follows:
  • w + and w are the values corresponding to the connection strength between two pools when all the synaptic connections have been strengthened or weakened, and different values for connections from the layer L1 to the L2 layer and from L2 to Ll may be used as appropriate ,
  • N is the number of presynaptic pools associated with the postsynaptic pool j.
  • New values for the variables C 13 are calculated based on the new values for W 1 - after normalization so that the equation (7) is still valid.
  • all synaptic connections between two pools of different layers L1 and L2 are set to the calculated average values W 1 -.
  • connection weights between the two layers L1 and L2 were not chosen too small, so that an information exchange between the two layers is possible.
  • the weights were also chosen to be unduly large so that the neural network does not become over-amplified, thereby depriving the neurons of their selectivity.
  • biological constraints must be considered to achieve realistic neural activities for the modulated neurons.
  • the learning procedure was started with a balanced initial network in which all connections between the two Ll and L2 layers were set to the following average synaptic strength:
  • FIG. 4 shows the simulation results of the method according to the invention for a neuronal network with spiked neurons, wherein the network was learned with the method in 50 trials and the network activities were aided over these 50 attempts.
  • the abscissa represents the time in milliseconds after the presentation of a stimulus and the ordinate the activity in Hz.
  • the first column A of FIG. 4 shows the activities of the network at the beginning of the learning
  • the second column B of FIG. 4 shows the activities of the network after 200 learning steps
  • the third column C shows the activities of the network after 1500 learning steps, if one Convergence of synaptic parameters is achieved.
  • the first line in FIG. 4 shows the average rate of ticking for stimuli-responsive neurons.
  • the following grouping was made: the strongest responses of all specific Ll-layer neurons to the diagnostic trait of 50 trials were averaged (line BD of Fig. 4);
  • the second and third lines of FIG. 4 show the averaged spiking rates of the specific pools for those of the 50 trials in which the feature expressions DI ("subsurface") and NI ("long nose") were presented as stimulus.
  • the curve Dl here is the spiking rate for the
  • curve D2 is the spiking rate for neuron pool 101
  • curve Nl is the spiking rate for neuron pool 103
  • curve N2 is the spiking rate for neuron pool 104
  • curve Cl is the spiking rate for the category pool 201
  • the curve C2 is the spiking rate for the category pool 202.
  • the spiking rate INH for the inhibitory pool 210 is shown.
  • FIG. 5 shows diagrams representing the weights of the synaptic connections (ordinate of the diagrams) as a function of the number of learning steps (abscissa of the diagrams) for different scenarios.
  • Fig. 5 relate to an initial mesh previously set to the non-diagnostic feature "nose length" as a selective feature for determining the category.
  • the initial mesh of the lower three rows of Fig. 5 has been previously set to both the diagnostic feature "eye position" and the non-diagnostic feature "nose length” as selective features for determining the category.
  • network learning is performed such that only the "eye level” feature is a relevant feature for solving the problem. It is clearly seen from Fig. 5 that all forward and reverse synaptic connections representing the correct categorization of the diagnostic feature "eye level” are enhanced in learning, whereas the connections concerning the false categorization drop to zero. It also becomes clear that all Connections from and to non-diagnostic features lose their selectivity and all run against the same value.

Abstract

Die Erfindung betrifft ein Verfahren zum rechnergestützten Lernen eines neuronalen Netzes (1), umfassend eine Vielzahl von Neuronen: a) bei dem die Neuronen des neuronalen Netzes (1) in wenigstens zwei Schichten (L1, L2) umfassend eine erste Schicht (L1) und eine zweite, mit der ersten Schicht (L1) vernetzten Schicht (L2) eingeteilt werden; b) bei dem in der ersten Schicht (L1) Eingabeinformationen (I) jeweils durch eine oder mehrere Merkmalsausprägungen (D1, D2, N1, N2) von einem oder mehreren Merkmalen repräsentiert sind, wobei jede Merkmalsausprägung (D1, D2, N1, N2) ein oder mehrere Neuronen der ersten Schicht um- fasst, und in der zweiten Schicht eine Mehrzahl von Kategorien (C1, C2) gespeichert sind, wobei jede Kategorie ein oder mehrere Neuronen der zweiten Schicht (L2) umfasst; c) bei dem für eine oder mehrere Eingabeinformationen (I) jeweils wenigstens eine Kategorie (C1, C2) in der zweiten Schicht (L2) den Merkmalsausprägungen (D1, D2, N1, N2) der Eingabeinformation (I) in der ersten Schicht (L1) zugeordnet wird; d) bei dem in die erste Schicht (L1) eine Eingabeinformation (I) eingegeben wird und anschließend wenigstens eine Zustandsgröße des neuronalen Netzes (1) ermittelt wird und mit der in Schritt c) zugeordneten wenigstens einen Kategorie (C1, C2) dieser Eingabeinformation (I) verglichen wird; e) bei dem in Abhängigkeit von dem Vergleichsergebnis aus Schritt d) die Vernetzung zwischen der ersten und zweiten Schicht (L1, L2) verändert wird.

Description

Beschreibung
Verfahren zum rechnergestützten Lernen eines neuronalen Netzes und neuronales Netz
Die Erfindung betrifft die dynamische Selektion von Informationen. Systeme der Datenverarbeitung, insbesondere intelligente Agenten oder Systeme zur Auswertung von Daten, erhalten Eingabeinformationen. Hierzu muss das System die Eingabein- formationen nach bestimmten Kriterien aufbereiten und ausgeben oder aus den Eingabeinformationen eine Handlung ableiten und ausführen. Der Aufbereitung der Eingabeinformationen im Hinblick auf eine zu lösende Aufgabe kommt hierbei besondere Bedeutung zu. So existieren zahlreiche Klassifikationsverfah- ren, um Eingabeinformationen bestimmten Klassen zuzuordnen. Ziel ist es hierbei, eine für die zu lösende Aufgabe möglichst optimale Repräsentation der Eingabeinformationen zu gewinnen .
Anwendungsgebiete von Klassifikationsverfahren betreffen im medizinischen Bereich die Einteilung von Patienten in Gruppen mit verschiedenen Diagnosen und Medikamentenverträglichkeiten. Ein andere Anwendung ist beispielsweise die Verkehrstechnik, bei der Sensormesswerte in verschiedene Kategorien eingestuft werden. Ferner werden Klassifikationsverfahren in der industriellen Automation verwendet, um beispielsweise eine zu erwartende Produktqualität auf der Basis von Sensorwerten des industriellen Prozesses zu klassifizieren.
Zur Aufbereitung von Eingabeinformationen sind zahlreiche mathematische Klassifikationsverfahren bekannt, z. B. maschinelle Lernverfahren mit sog. "Support Vector Machines". Hierbei werden aus den Eingabeinformationen zunächst Merkmale extrahiert, welche jeweils in einer bestimmten Merkmalsaus- prägung vorkommen können. Als Merkmal wird eine bestimmte Eigenschaft der Eingabeinformationen verstanden. Unter Merkmalsausprägung wird verstanden, ob, in welchem Umfang oder auf welche Art ein bestimmtes Merkmal in den Eingabeinformationen gegeben ist. Die Ausprägung kann hierbei lediglich das Vorhandensein oder das Nichtvorhandensein eines Merkmals angeben, die Ausprägung kann aber auch beliebige Zwischenstufen beschreiben. Im Bereich der Sprachverarbeitung könnte ein Merkmal beispielsweise angeben, ob bei der
Digitalisierung eines akustischen Sprachsignals Informationen abgeschnitten wurden (Clipping) oder nicht. Im Bereich der Bildverarbeitung könnte ein Merkmal eine Grauwertverteilung von Pixeln eines Bildes angeben. Die Ausprägung kann hierbei z. B. für jede von 256 Graustufen angeben, wie häufig sie vorkommt. Weitere Merkmale könnten die Lautstärke eines Sprachsignals, die Volatilität eines Aktienkurses, die Geschwindigkeit eines Fahrzeugs, die Unebenheit einer Oberfläche, sowie die Strukturen eines Röntgenbildes sein. Die angegebenen Beispiele zeigen, dass die Extraktion von Merkmalen in unterschiedlichsten Bereichen der Datenverarbeitung zum Einsatz kommt.
Im Rahmen der bekannten mathematischen Verfahren wird nach Extraktion unterschiedlicher Merkmale der Eingabeinformationen eine Klassifikation der extrahierten Merkmale vorgenommen. Werden als Merkmale Kanten in einem Bild extrahiert, so kann in einem zweiten Schritt klassifiziert werden, ob die Kanten beispielsweise zu der Abbildung eines Gesichts oder eines Gebäudes gehören. Nachteilig wirkt sich hierbei aus, dass die meisten Verfahren nicht selbst entscheiden können, welche Merkmale für die spätere Klassifikation wichtig und welche unwichtig sind. Eine solche Unterscheidung von Merkmalen im Hinblick auf eine zu lösende Aufgabe muss dann von Hand erfolgen und dem System in irgendeiner Form vorgegeben werden. Bekannt sind schließlich auch Verfahren, die Merkmale gezielt auswählen können. Die Extraktion der Merkmale bzw. ihre Ausprägung bleibt hiervon jedoch unberührt.
Aus der Schrift [1] ist ein neuronales Netz bekannt, welches eine selektive Repräsentation der Ausprägung von Merkmalen von Eingabeinformationen in Abhängigkeit eines Aufmerksamkeitsfilters erlaubt. Ein Merkmal ist hierbei der Ort eines Objektes, welcher in den Ausprägungen links und rechts vorkommt; ein anderes Merkmal ist die Art des Objektes, welche in den Ausprägungen "Zielobjekt" und "anderes Objekt" vorkommt. Die Repräsentation der Ausprägungen dieser Merkmale wird durch einen Aufmerksamkeitsfilter selektiv beeinflusst.
Durch die Repräsentation der Ausprägungen der Merkmale wird es möglich, bestimmte Merkmale bzw. ihre Ausprägung zu verstärken, zu filtern, auszublenden, zu differenzieren, zu be- tonen, zu gewichten und zu bewerten. Dies erfolgt, indem die einzelnen Ausprägungen der Merkmale in der Repräsentation ge- wichtet werden. Wenn zum Beispiel ein Merkmal "Grauwert" nur in den Ausprägungen "Schwarz" und "Weiß" vorkommt, so kann eine tief-schwarze Eingabeinformation dadurch repräsentiert werden, dass der Ausprägung "Schwarz" ein besonders hohes Gewicht im Vergleich zu anderen Merkmalen verliehen wird. In der Schrift [1] wird ein solches großes Gewicht einer Ausprägung durch einen Pool von Neuronen mit hoher Aktivität repräsentiert .
Nachteilig wirkt sich jedoch auch hier wieder aus, dass der Aufmerksamkeitsfilter, d. h. die Information über die Bedeutung der einzelnen Merkmale, von Hand von außen zugeführt werden muss. Es ist hier nicht möglich, das neuronale Netz automatisiert in Abhängigkeit der Bedeutung der Merkmale entsprechend zu generieren.
Das Dokument [Richard P. Lippmann: An Introduction to Computing with Neural Nets, IEEE ASSP MAGAZINE APRIL 1987, S. 4- 22] betrifft eine allgemeine Einführung in die Berechnungsverfahren von neuronalen Netzen. Es wird in dem Artikel auch die Verwendung von neuronalen Netzen zur Klassifizierung von Mustern erwähnt. Nichtsdestotrotz kann dieser Druckschrift nicht eine belohnungsbasierte Lernregel entnommen werden. Insbesondere ist in dem Dokument nicht das Merkmal gezeigt, dass vorwärts- und rückwärtsgerichtete Gewichte in Abhängigkeit davon verstärkt bzw. abgeschwächt werden, ob zuvor eine korrekte Kategorisierung von Eingabeinformationen vorgenommen wurde .
Auch die Druckschrift [Michael Esslinger und Ingo Schaal: OCR mit SNNS, Mustererkennung mit neuronalen Netzen, Praktikumsbericht zum Vortrag Künstliche Intelligenz SS 2004 am 02.07.2004, 16 Seiten] beschäftigt sich mit der Mustererkennung in neuronalen Netzen. In der Druckschrift werden im Abschnitt 4. auch verschiede Lernregel beschrieben, wobei je- doch die Anpassung der Gewichte nicht in der Weise erfolgt, wie es gemäß der Erfindung festgelegt ist. Die Druckschrift [Siegfried Macho : Modelle des Lernens: Neuronale Netze, Uni- versitas Friburgensis mai 93, 6 Seiten] betrifft ebenfalls einen allgemein gehaltenen Artikel über Lernmodelle mit neu- ronalen Netzen. Es wird in dem Artikel zwar die Anpassung von assoziativen Verbindungen erwähnt, jedoch findet sich auch in diesem Dokument kein Hinweis auf das spezielle belohnungsba- sierte Hebb'sche Lernverfahren gemäß der Erfindung.
Aufgabe der Erfindung ist es, ein Verfahren zum Lernen eines neuronalen Netzes zu generieren, welches automatisiert das neuronale Netz der Bedeutung der dem Netz zugrunde liegenden Merkmalsausprägungen und Kategorien anpasst und dabei den Lernvorgang von höheren Lebewesen rechnergestützt nachbildet.
Diese Aufgabe wird durch die unabhängigen Patentansprüche gelöst. Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen definiert.
Das erfindungsgemäße Verfahren generiert ein neuronales Netz, bei dem die Neuronen des neuronalen Netzes in wenigstens zwei Schichten umfassend eine erste Schicht und eine zweite, mit der ersten Schicht vernetzten Schicht eingeteilt werden, wobei die Vernetzung zwischen der ersten und zweiten Schicht des neuronalen Netzes durch synaptische Verbindungen zwischen Neuronen repräsentiert und die Stärke einer Verbindung durch ein Gewicht wiedergegeben wird. Es wird somit auf bekannte Strukturen von neuronalen Netzen zurückgegriffen, um auf ein- fache Weise das erfindungsgemaße Verfahren umzusetzen. Hierbei umfassen die synaptischen Verbindungen zwischen einem ersten und einem zweiten Neuron eine vorwartsgerichtete Verbindung von dem ersten zum zweiten Neuron und eine ruckwarts- gerichtete Verbindung vom zweiten zum ersten Neuron.
In der ersten Schicht werden Eingabeinformationen jeweils durch eine oder mehrere Merkmalsauspragungen von einem oder mehreren Merkmalen repräsentiert, wobei jede Merkmalsauspra- gung ein oder mehrere Neuronen der ersten Schicht umfasst, und in der zweiten Schicht eine Mehrzahl von Kategorien gespeichert sind, wobei jede Kategorie ein oder mehrere Neuronen der zweiten Schicht umfasst. In dem erfindungsgemaßen Verfahren wird für eine oder mehrere Eingabeinformationen je- weils wenigstens eine Kategorie in der zweiten Schicht den Merkmalsauspragungen der Eingabeinformation in der ersten Schicht zugeordnet. Schließlich wird in die erste Schicht eine Eingabeinformation eingegeben und anschließend wenigstens eine Zustandsgroße des neuronalen Netzes ermittelt und mit der zugeordneten wenigstens einen Kategorie dieser Eingabeinformation verglichen, wobei bei dem durchgeführten Vergleich ermittelt wird, ob für die Eingabeinformation eine Übereinstimmung zwischen der wenigstens einen Zustandsgroße des neuronalen Netzes und der zugeordneten wenigstens einen Katego- rie der Eingabeinformation vorliegt. Hierdurch wird ein einfaches Kriterium geschaffen, um einen schnell durchzuführenden Vergleich zwischen Zustandsgroßen des neuronalen Netzes und Zuordnungen von Kategorien zu Merkmalsauspragungen der Eingabeinformation durchzufuhren .
Anschließend wird die Aktivität der Neuronen im neuronalen Netz ermittelt und die Neuronen in Abhängigkeit von ihrer Aktivität jeweils als aktiv oder inaktiv eingestuft. Die Aktivität der Neuronen liefert wichtige Aufschlüsse über die Funktionsweise des neuronalen Netzes, und es ist deshalb vorteilhaft, die Aktivität der Neuronen als Parameter im neuronalen Netz zu berücksichtigen. Gemäß der Erfindung werden die Gewichte der synaptischen Verbindungen zwischen aktiven Neuronen der ersten Schicht und aktiven Neuronen der zweiten Schicht verstärkt, wenn beim Vergleich der Zustandsgroßen des neuronalen Netzes für eine Eingabeinformation mit der zugeordneten wenigstens einen Kategorie der Eingabeinformation eine Übereinstimmung festgestellt wird. Das Verfahren ist somit eine vorteilhafte Abwandlung des aus dem Stand der Technik bekannten Hebb ' sehen Lernverfahrens, wonach Verbindungsstarken zwischen aktiven Neuronen verstärkt werden. Die Abwandlung besteht darin, dass die Verstärkung nur dann vorgenommen wird, wenn der Zustand des neuronalen Netzes darauf hindeutet, dass das neuronale Netz eine richtige Kategorisierung liefert.
Ferner werden erfindungsgemaß beim Vorliegen einer Übereinstimmung der Zustande des neuronalen Netzes für eine Eingabeinformation mit der zugeordneten wenigstens einen Kategorie die Gewichte der vorwartsgerichteten synaptischen Verbindungen von ersten aktiven Neuronen aus einer der ersten und zweiten Schicht zu zweiten inaktiven Neuronen aus der anderen der ersten und zweiten Schicht abgeschwächt. Derartige synaptische Verbindungen deuten darauf hin, dass eine nicht korrekte Vernetzung zwischen den Neuronen vorliegt, so dass eine Abschwachung von derartigen Verbindungen vorgenommen wird, um das Netz schnell und effektiv zu lernen.
Im umgekehrten Fall, wenn keine Übereinstimmung zwischen dem Zustand des neuronalen Netzes und der zugeordneten Kategorie der Eingabeinformation vorliegt, werden gemäß der Erfindung die Gewichte der synaptischen Verbindungen zwischen aktiven Neuronen der ersten Schicht und aktiven Neuronen der zweiten Schicht abgeschwächt. Hierdurch wird in effektiver Weise verhindert, dass in dem neuronalen Netz falsche Kategorien gelernt werden. Vorzugsweise werden im Falle, dass keine Uber- einstimmung vorliegt, die Gewichte von allen synaptischen
Verbindungen, die nicht abgeschwächt werden, nicht verändert. Durch das erfindungsgemaße Verfahren kann auf einfache Weise dynamisch die Vernetzung zwischen Neuronen aus einer ersten und einer zweiten Schicht entsprechend den Gegebenheiten des zugrunde liegenden Klassifikationssystems angepasst werden. Es ist somit nicht mehr erforderlich, dass das neuronale Netz per Hand an die unterschiedlichen Merkmalsauspragungen und entsprechenden Kategorisierungen angepasst wird.
In einer bevorzugten Ausfuhrungsform der Erfindung stellen die Kategorien der zweiten Schicht Losungen einer Aufgabe dar, wobei die Losung der Aufgabe von den Eingabeinformationen abhangt. Mit einem derartigen Verfahren kann das neuronale Netz auf einfache Weise an verschiedene Aufgabenstellungen angepasst werden.
In einer besonders bevorzugten Ausfuhrungsform des Verfahrens wird erreicht, dass das gelernte Netz Merkmale nach ihrer Relevanz im Hinblick auf die gestellte Aufgabe unterscheiden kann. Hierbei sind die Merkmale unterteilt in diagnostische Merkmale, welche für die Losung der Aufgabe relevant sind, und in nicht-diagnostische Merkmale, welche für die Losung der Aufgabe nicht relevant sind. Vorzugsweise ist hierbei jede zugeordnete wenigstens eine Kategorie einer Eingabeinformation eine richtige Losung der Aufgabe. Hierdurch wird in vorteilhafter Weise erreicht, dass mit dem neuronalen Netz die vorgegebene Kategorisierungsaufgäbe effektiv gelost wird.
In einer weiteren besonders bevorzugten Ausfuhrungsform der Erfindung liegt eine Übereinstimmung zwischen einer Zustands- große des neuronalen Netzes für eine Eingabeinformation und der zugeordneten wenigstens einen Kategorie der Eingabeinformation dann vor, wenn die Anzahl der aktiven Neuronen, die zu der zugeordneten wenigstens einen Kategorie dieser Eingabeinformation gehören, eine vorbestimmte Anzahl in Abhängigkeit von der Gesamtanzahl der Neuronen in der wenigstens einen Kategorie und/oder der Anzahl von aktiven Neuronen in anderen Kategorien überschreitet. Hierdurch wird sich in vorteilhafter Weise die biologische Erkenntnis von neuronalen Netzen zunutze gemacht, gemäß der eine verstärkte Aktivität von Neuronen auf das Vorliegen einer bestimmten Kategorie hindeutet.
Vorzugsweise werden beim Vorliegen einer Übereinstimmung des Zustandes des Netzes für eine Eingabeinformation mit der zugeordneten Kategorie der Eingabeinformation keine weiteren Veränderungen der synaptischen Verbindungen vorgenommen.
Das erfindungsgemaße Verfahren wird in einer besonders bevor- zugten Ausfuhrungsform als Iterationsverfahren eingesetzt, bei dem die Schritte der Eingabe von Eingabeinformationen und anschließendem Vergleich sowie der Veränderung der Vernetzung in Abhängigkeit des Vergleichsergebnisses mehrere Male wiederholt werden. Durch eine entsprechend häufige Wiederholung dieser Schritte kann somit ein besonders gut gelerntes neuronales Netz erzeugt werden. Vorzugsweise wird die Iteration nach Erreichung eines Konvergenzkriteriums beendet.
In einer besonders bevorzugten Ausfuhrungsform des erfin- dungsgemaßen Verfahrens wird nach jedem Iterationsschritt eine Normalisierung der Vernetzung des neuronalen Netzes durchgeführt, um die Konvergenz des Verfahrens sicherzustellen.
In einer weiteren Ausgestaltung der Erfindung stellen die miteinander vernetzten Neuronen der ersten und zweiten
Schicht des neuronalen Netzes erregende gepulste Neuronen dar, welche üblicherweise in neuronalen Netzen verwendet werden. Hierbei sind die erregenden gepulsten Neuronen der ersten Schicht zumindest teilweise in Eingabepools gruppiert, wobei jeder Merkmalsauspragung mindestens ein Eingabepool zugeordnet ist. Hierdurch wird die Schnelligkeit des erfin- dungsgemaßen Verfahrens erhöht, da bei den durchgeführten Berechnungen nur noch die Eingabepools und nicht alle Neuronen einzeln berücksichtigt werden müssen.
Vorzugsweise kooperieren die Eingabepools miteinander und die Aktivitäten der Eingabepools repräsentieren jeweils eine Merkmalsauspragung. Hierdurch werden auf einfache Weise die Merkmalsausprägungen direkt mit Zuständen der Eingabepools in Verbindung gesetzt.
In einer weiteren bevorzugten Ausführungsform der Erfindung sind auch die erregenden gepulsten Neuronen der zweiten
Schicht zumindest teilweise in Kategorie-Pools gruppiert, wobei jeder Kategorie mindestens ein Kategorie-Pool zugeordnet ist. Hierdurch wird die Schnelligkeit es erfindungsgemäßen Verfahrens nochmals erhöht. Im Gegensatz zu den Eingabepools konkurrieren die Kategorie-Pools jedoch vorzugsweise miteinander, und ein aktiver Kategorie-Pool setzt sich in der Konkurrenz durch. Ein Kategoriepool wird hierbei dann als aktiv bezeichnet, wenn er mindestens eine vorbestimmte Anzahl von aktiven Neuronen aufweist.
Wie bei herkömmlichen neuronalen Netzen üblich, umfasst das neuronale Netz in einer bevorzugten Ausführungsform auch hemmende gepulste Neuronen, die zumindest einen hemmenden Pool in der ersten und/oder zweiten Schicht bilden, wobei der hem- mende Pool eine globale Hemmung auf die Eingabe- und/oder Kategorie-Pools ausübt.
Neben dem oben beschriebenen Verfahren betrifft die Erfindung ferner ein neuronales Netz mit einer Vielzahl von Neuronen, wobei das Netz derart ausgestaltet ist, dass es mit dem erfindungsgemäßen Verfahren gelernt ist. Ein derart gelerntes Netz hat den Vorteil, dass es automatisiert erzeugt werden kann und effektiv den Gegebenheiten einer gestellten Katego- risierungsaufgäbe angepasst werden kann. Ausführungsbeispiele der Erfindung werden nachfolgend detailliert anhand der beigefügten Figuren beschrieben.
Fig. 1 zeigt schematisiert die in einer Ausführungsform der Erfindung verwendete Kategorisierungsaufgäbe;
Fig.2 zeigt ein Diagramm, welches eine Ausführungsform des mit dem erfindungsgemäßen Verfahren gelernten neuronalen Netzes zeigt;
Fig.3 zeigt ein Diagramm zur Verdeutlichung des Lernens eines Neurons mit dem erfindungsgemäßen Verfahren;
Fig.4 zeigt ein Diagramm, welches die Veränderung der Aktivität von Neuronen in einem neuronalen Netz während des Lernens mit dem erfindungsgemäßen Verfahren darstellt; und Fig.5 zeigt ein Diagramm, welches die Veränderung der sy- naptischen Gewichte beim Lernen von unterschiedlichen anfänglichen neuronalen Netzen zeigt.
Die im folgenden beschriebene Ausführungsform des erfindungsgemäßen Verfahrens beruht in gering abgewandelter Form auf einem neurophysiologischen Experiment, das in der Druckschrift [2] beschrieben ist. Es wurde hierbei die Aktivität von Neuronen in der inferotemporalen Cortex (ITC) von wachen Affen untersucht, denen eine visuelle Kategorisierungsaufgäbe gestellt wurde. Es wurde gemessen, wie die ITC-Repräsentation der visuellen Stimuli durch die den Affen angelernte Katego- risierung beeinflusst wird. Den Affen wurde gelehrt, einen Satz von Bildern in zwei Kategorien einzuteilen, wobei jede Kategorie mit der linken bzw. rechten Stellung eines Hebels in Verbindung steht. Die Affen mussten den Hebel in die ent- sprechende Richtung ziehen, wenn ein entsprechender Stimulus gezeigt wurde. Fig. 1 zeigt eine Art des durchgeführten Experiments, bei dem die Affen zehn schematisierte Gesichter Fl bis FlO in zwei Kategorien einteilen mussten. Wie sich aus den unterschiedlichen Gesichtern ergibt, unterscheiden sich diese insbesondere in der Höhe der Augenstellung, der Länge der Nase sowie der Höhe der Mundstellung. Nur ein Merkmal der Gesichter, nämlich die Augenstellung, war für die Lösung der Kategorisierungs- aufgabe relevant. In Fig. 1 sind fünf Gesichter Fl bis F5 mit der Merkmalsausprägung Dl "niedrige Augenstellung" gezeigt, welche gemäß der Aufgabenstellung der Kategorie Cl (entspricht "Hebel nach links") zuzuordnen sind. Ferner sind fünf Gesichter F6 bis FlO mit der Merkmalsausprägung D2 "hohe Augenstellung" gezeigt, welche gemäß der Aufgabenstellung der Kategorie C2 (entspricht "Hebel nach rechts") zuzuordnen sind. Die restlichen Merkmale, das heißt die Länge der Nase und die Stellung des Mundes sind so genannte nichtdiagnostische Merkmale in der gestellten Kategorisierungsauf- gabe, welche keine Informationen für den mit der Kategorie assoziierten Stimulus liefern und für die Kategorisierungs- aufgäbe keine Relevanz haben.
Nachdem die Affen mit den in Fig. 1 gezeigten Gesichtern als Stimuli trainiert wurden, wurden die gelernten Tiere mit Testexemplaren von Gesichtern getestet. Die Tiere mussten hierbei die gelernte Kategorisierungsaufgäbe durchführen. Bei diesen Tests wurde die durchschnittliche Aktivität von allen visuell reagierenden Neuronen in der ITC-Cortex gemessen. Für jedes Neuron wurden die Aktivitätsantworten in Abhängigkeit von den Merkmalen des präsentierten Stimulus sortiert und ü- ber viele Versuche hinweg gemittelt. Als Ergebnis hat man durchschnittliche Aktivitäten erhalten, aus denen sich ergibt, welche Merkmalsausprägungen bestimmte Neuronen am meisten bzw. am wenigsten erregen.
Ausgehend von dem soeben beschriebenen Experiment wird in der hier beschriebenen Ausführungsform des erfindungsgemäßen Verfahrens eine an die biologischen Gegebenheiten angepasste Struktur eines neuronalen Netzes vorgegeben, welches für die Lösung der obigen Kategorisierungsaufgäbe geeignet ist. Diese Netzwerkstruktur ist in Fig. 2 wiedergegeben. Es wurde hierbei berücksichtigt, dass für die Lösung von Kategorisierungs- aufgaben im Gehirn höherer Lebewesen zwei Gehirnschichten von Relevanz sind. Die erste Schicht Ll ist der bereits im vorangegangenen erwähnte inferotemporale Cortex. Bei der gestellten Kategorisierungsaufgäbe bilden sich hierbei vier so genannte Eingabepools 101, 102, 103 und 104 von spezifischen erregenden gepulsten Neuronen aus. Ein Pool von Neuronen zeichnet sich hierbei insbesondere dadurch aus, dass alle
Neuronen im Pool die gleichen synaptischen Gewichte zu Neuronen anderer Pools aufweisen. Die erste Schicht Ll ist mit einer zweiten Schicht L2 vernetzt, welche einen Kategorie-Pool 201 und einen Kategorie-Pool 202 aus erregenden gepulsten Neuronen umfasst und dem präfrontalen Cortex (PFC) im Gehirn entspricht. Wenn die Neuronen 201 aktiv sind, wird durch das Netzwerk das Vorhandensein der Kategorie Cl signalisiert, und wenn die Neuronen 202 aktiv sind, wird durch das Netzwerk das Vorhandensein der Kategorie C2 signalisiert.
Jeder Eingabepool ist mit entsprechenden Merkmalsausprägungen der Kategorisierungsaufgäbe verknüpft, wobei die Neuronen in den entsprechenden Eingabepools aktiv sind, wenn eine entsprechende Merkmalsausprägung beim präsentierten Stimulus vorliegt. Der Eingabepool 101 steht hierbei für die Merkmalsausprägung D2 "hochgestellte Augen", der Pool 102 steht für die Merkmalsausprägung Dl "tiefgestellte Augen", der Pool 103 betrifft das Merkmal Nl "lange Nase" und der Pool 104 steht für das Merkmal N2 "kurze Nase".
Wie bereits vorher erwähnt, sind in der hier beschriebenen Kategorisierungsaufgäbe nur die Augenstellungen für die Lösung der Aufgabe relevant. Insbesondere ist die Merkmalsausprägung Dl "tiefgestellte Augen" mit der Kategorie Cl und die Merkmalsausprägung D2 "hochgestellte Augen" mit der Kategorie C2 verknüpft. Die Merkmalsausprägungen Nl und N2 betreffen hingegen ein nicht-diagnostisches Merkmal ohne Relevanz bei der Festlegung der Kategorie. In der Schicht Ll der Fig. 2 existieren ferner noch die Pools 120 und 110. Der Pool 120 stellt einen so genannten nichtspezifischen Neuronenpool dar, der für alle weiteren erregen- den gepulsten Neuronen in der Schicht Ll steht. Der Pool 110 ist hingegen ein Pool, der die hemmenden gepulsten Neuronen in dieser Schicht repräsentiert. Analog umfasst die Schicht L2 einen nicht-spezifischen Pool 220 für alle weiteren erregenden gepulsten Neuronen der Schicht L2 und einen Pool 210 für alle hemmenden Neuronen in dieser Schicht. Die soeben beschriebene Netzwerkstruktur beruht auf der in der Druckschrift [3] beschriebenen Struktur, welche bereits früher verwendet wurde, um verschiedene experimentelle Paradigmen zu erklären (siehe auch Druckschrift [I]) .
In der hier beschriebenen Ausführungsform der Erfindung wird als Modell zur Beschreibung des Verhaltens der Neuronen das hinlänglich aus dem Stand der Technik bekannte Modell von spikenden Integrate-and-Fire-Neuronen (IF-Neuronen) verwen- det. In diesem Modell integriert ein IF-Neuron den äffernten Strom, der von auf das Neuron eintreffenden Spannungs-Spikes erzeugt wird, und das Neuron feuert Spannungspulse, wenn die Depolarisation der Zellmembran in dem Neuron eine Schwelle überschreitet. Das Modell eines Neurons wird durch folgendes Membranpotential V(t) beschrieben:
dV{f)
C \IJ m = -gm(V(t)-VL)-Isyn(t) (i: dt
Hierbei ist Isyn(t) der gesamte eingehende synaptische Strom, Cm ist die Membrankapazität, gm ist die Membran-Leck- Leitfähigkeit und VL ist das Ruhepotential. Eine genaue Beschreibung der mathematischen Formulierung von derartigen IF- Neuronen findet sich beispielsweise in der Druckschrift [3] .
In dem hier beschriebenen Verfahren besteht jede der Schichten Ll und L2 aus einer großen Anzahl von IF-Neuronen. Die Schicht Ll umfasst NEi = 800 erregende Neuronen, welche in Pools von f-NEi Neuronen für jeden spezifischen Eingabepool sowie von (l-4f) #NEi Neuronen für den nicht-spezifischen Pool eingeteilt sind. Die Schicht Ll umfasst ferner Nn = 200 hemmende Neuronen, welche den hemmenden Pool in der Schicht bil- det. Die zweite Schicht L2 umfasst NE2 = 520 erregende Neuronen, wobei f *NE2 Neuronen für jeden Kategorie-Pool 201 und 202 und (l-2f)-NE2 Neuronen für den nicht-spezifischen Pool 220 vorgesehen sind. Ferner umfasst die Schicht N12 = 130 hemmende Neuronen in dem hemmenden Pool 210. Aus Vereinfa- chungsgründen wurde das gleiche Verhältnis an Neuronen f = 0,1 für alle Pools von erregenden Neuronen gewählt. Ferner wurde das Verhältnis 80:20 von erregenden Neuronen zu hemmenden Neuronen gewählt, was neurophysiologischen experimentellen Daten entspricht. Bei der Durchführung des erfindungsge- mäßen Verfahrens mussten 1650 gekoppelte Differenzialglei- chungen (1) gelöst werden. Die numerische Integration wurde unter der Verwendung eines Runge-Kutta-Verfahrens mit einer Schrittgröße von 0,1 ms durchgeführt.
Jeder individuelle Pool wurde durch unterschiedliche Eingaben angetrieben. Zunächst erhalten alle Neuronen in dem modulierten Netzwerk eine spontane Hintergrundaktivität durch Next = 800 externe erregende Verbindungen erhalten. Jede Verbindung trägt hierbei einen so genannten Poisson-Spike-Train mit ei- ner spontanen Frequenzrate von 3 Hz, welcher ein typischer Wert ist, der im zerebralen Cortex beobachtet wird. Dies führt zu einer externen Hintergrundeingabe mit einer Rate von 2,4 kHz für jedes Neuron. Ferner erhalten die Neuronen in den Pools 101 bis 104 zusätzlich externe Eingaben, welche den speziellen Stimulus codieren. Diese Eingaben sind beispielhaft in Fig. 2 mit I dargestellt, wobei in der Situation der Fig. 2 ein Stimulus eines Gesichtes eingegeben wird, welches eine hohe Augenstellung (Eingabe in den Pool 101) und eine lange Nase (Eingabe in den Pool 103) aufweist. Es wird ange- nommen, dass die Stimuli ihren Ursprung in tieferen Bereichen des Gehirns haben, welche visuelle Information verarbeiten, um visuelle Signale bereitzustellen. Es wird angenommen, dass bei der Weiterleitung der visuellen Signale alle Merkmalsaus- Prägungen des visuellen Stimulus in gleicher Weise verarbeitet und codiert werden, so dass die so genannten "Bottom-Up- Signale", welche die Schicht Ll erreichen, im Durchschnitt die vorliegenden Merkmalsausprägungen des Stimulus mit der gleichen Stärke codieren. Wenn ein Pool der ITC-Schicht Ll stimuliert wird, ist die Rate des Poisson-Trains hin zu den Neuronen dieses Pools um den festen Wert λstim = 150 Hz erhöht.
In dem hier beschriebenen Verfahren werden die Leitfähigkeitswerte der Synapsen zwischen Paaren von Neuronen durch Gewichte moduliert, welche von ihrem Standardwert 1 abweichen können. Die Struktur und die Funktion des Netzwerks werden durch unterschiedliche Modellierung dieser Gewichte innerhalb und zwischen den Neuronenpools erreicht. Es existieren hierbei jeweils vorwärtsgerichtete Gewichte und rückwärtsgerichtete Gewichte zwischen einem Paar von einem ersten und einem zweiten Neuron bzw. zwischen den entsprechenden Neuronenpools. Ein vorwärtsgerichtetes Gewicht ist das Gewicht einer synaptischen Verbindung vom ersten zum zweiten Neuron und ein rückwärtsgerichtetes Gewicht ist das Gewicht der synaptischen Verbindung vom zweiten zum ersten Neuron. In Fig. 2 bezeichnet Wi die Stärke der Gewichte der Verbindungen zwischen den Pools 101 bis 104, welche durch gebogene Pfeile dargestellt sind, sowie auch die Gewichte zwischen den Neuronen innerhalb der Pools, welche jeweils durch kreisförmige Pfeile direkt an den Pools angedeutet sind. Diese Gewichte Wi in der Schicht Ll haben alle den gleichen Wert. Analog bezeichnet w_2 die Stärke der Gewichte zwischen den Pools 201 und 202, und W+2 betrifft die Stärke der Gewichte der Neuronen innerhalb der Pools 201 und 202.
Ferner spielen die folgenden Gewichte von Verbindungen zwischen der Schicht Ll und L2 eine große Rolle, wobei in Fig. 2 die betreffenden Verbindungen (ohne Bezeichnung der entsprechenden Gewichte) durch gestrichelte Doppelpfeile angedeutet sind. Es gelten folgende Definitionen: w D2-ci/ W CI-D2: Gewichte der vorwärtsgerichteten bzw. rück¬ wärtsgerichteten synaptischen Verbindung zwischen den Pools 101 und 201;
wD2-c2 i W C2-D2 : Gewichte der vorwärtsgerichteten bzw. rück¬ wärtsgerichteten synaptischen Verbindung zwischen den Pools
101 und 202;
wDi-Ci i W CI-DI : Gewichte der vorwärtsgerichteten bzw. rück- wärtsgerichteten synaptischen Verbindung zwischen den Pools
102 und 201;
W DI-C2 i W C2-DI : Gewichte der vorwärtsgerichteten bzw. rück¬ wärtsgerichteten synaptischen Verbindung zwischen den Pools 102 und 202;
W NI-CI / W CI-NI : Gewichte der vorwärtsgerichteten bzw. rück¬ wärtsgerichteten synaptischen Verbindung zwischen den Pools
103 und 201;
W NI-C2 i W C2-NI : Gewichte der vorwärtsgerichteten bzw. rück¬ wärtsgerichteten synaptischen Verbindung zwischen den Pools
103 und 202;
wN2-ci , wCi_N2 : Gewichte der vorwärtsgerichteten bzw. rückwärtsgerichteten synaptischen Verbindung zwischen den Pools
104 und 201;
W N2-C2 i W C2-N2 : Gewichte der vorwärtsgerichteten bzw. rück- wärtsgerichteten synaptischen Verbindung zwischen den Pools 104 und 202.
Strukturell ist das Netzwerk innerhalb der Schichten vollkommen durch erregende und hemmende Synapsen miteinander verbun- den. Zwischen zwei Schichten sind nur Neuronen aus den spezifischen Pools 101 bis 104 und 201, 202 durch erregende Synapsen vollkommen miteinander verbunden. In der hier beschriebenen Ausführungsform wird davon ausgegangen, dass Verbindungen innerhalb der Schichten Ll und L2 schon gebildet sind, beispielsweise durch Selbstorganisierungsmechanismen. Hierbei werden die Gewichte der Verbindun- gen zwischen und innerhalb der Neuronenpools 101, 102, 103 und 104 in der Schicht Ll auf den Standardwert Wi=I gesetzt. Es wird davon ausgegangen, dass die beiden Aktionen "Ziehe Hebel nach links" und "Ziehe Hebel nach rechts", welche den Kategorien Cl bzw. C2 entsprechen, bereits in der PFC-Schicht L2 codiert sind, und zwar derart, dass der Affe bereits darauf trainiert wurde, dass er nur beim Ziehen des Hebels in eine der Richtungen bei richtig gelöster Aufgabe eine Belohnung erhält. Die Pools, welche diese Aktionen codieren, weisen wahrscheinlich eine so genannte anti-korrelierte Aktivi- tat in ihrem Verhaltenskontext auf, was zu einer unterdurchschnittlichen Verbindungsstärke zwischen ihnen führt. In der hier beschriebenen Ausführungsform wird der Extremfall w_2 = 0 angenommen, d.h., es existiert keine direkte erregende Verbindung zwischen den zwei Kategorie-Pools in der Schicht L2. Innerhalb eines Kategorie-Pools werden die Verbindungen auf den Standardwert W+2=I gesetzt.
Die Gewichte von den nicht-spezifischen Neuronen in den Pools 120 und 220 weisen in dem hier beschriebenen Verfahren einen Wert von wn = 0,93 für beide Schichten Ll und L2 auf. Alle
Verbindungen von und zu den hemmenden Pools 110 und 210 sowie die Verbindungen innerhalb der Pools 120, 110, 220 und 210 werden auf den Standardwert w=l gesetzt.
Die Verbindungen zwischen der ITC-Schicht Ll und der PFC- Schicht L2 werden als so genannte plastische Synapsen modelliert. Ihre absoluten Stärken werden erfindungsgemäß mit einem Lern-Algorithmus gelernt, der als belohnungsorientiertes Hebb'sches Lernen bezeichnet werden kann. Zur Analyse des Verhaltens des neuronalen Netzes wurde das so genannte Mean- Field-Modell verwendet, welches ein weithin verwendetes Verfahren darstellt, um das approximative Verhalten eines neuronalen Netzes wenigstens für die stationären Zustände (das heißt ohne dynamische Übergänge) zu analysieren. Das Verfahren stellt sicher, dass die Dynamik des Netzwerks hin zu einem stationären Attraktor konvergiert, der mit dem asymptotischen Verhalten eines asynchron feuernden Spiking-Netzwerks übereinstimmt. Die Mean-Field-Approximation ist beispielsweise in den Druckschriften [3] und [4] beschrieben, deren gesamte Offenbarung durch diesen Verweis Inhalt der vorliegenden Anmeldung wird. In der hier beschriebenen Ausfuhrungsform der Erfindung wird die in der Druckschrift [3] beschriebene Mean-Field-Analyse verwendet.
In dem hier erläuterten erfindungsgemaßen Verfahren wird die im vorangegangenen beschriebenen anfanglichen Netzwerkstruktur gelernt, um die Gewichte innerhalb und zwischen den Neu- ronenpools derart zu modifizieren, dass die experimentellen Daten des in der Druckschrift [2] beschriebenen Experiments korrekt wiedergegeben werden. Das Lernverfahren beruht auf dem hinlänglich aus dem Stand der Technik bekannten Hebb ' - sehen Lernen. Bei diesem Lernen fuhrt eine gleichzeitige Ak- tivitat von über eine synaptische Verbindung miteinander verbundenen Neuronen zu einer Verstärkung dieser synaptischen Verbindung. In dem hier beschriebenen Lernverfahren wird ein so genanntes belohnungsorientiertes Hebb'sches Verfahren verwendet, bei dem die Art und Weise, wie eine synaptische Ver- bindung zwischen zwei Neuronen verändert wird, zum einen vom Aktivitatszustand der Neuronen und zum anderen davon abhangt, ob für das gerade betrachtete simulierte Experiment eine richtige Kategorisierung vorgenommen wurde, das heißt, dass die gestellte Aufgabe richtig gelost wurde. Wurde die Aufgabe richtig gelost, liegt ein so genanntes Belohnungssignal vor, bei dem die Gewichte der synaptischen Verbindungen in anderer Weise verändert werden, als wenn kein Belohnungssignal vorliegt .
In dem hier beschriebenen Verfahren wird ein Experiment durch entsprechende Eingabeinformation in die Schicht Ll simuliert. Die Eingabeinformation fuhrt hierbei zu einer Aktivierung derjenigen Pools, welche den entsprechenden Merkmalsauspra- gungen der Eingabeinformation zugeordnet sind. Führt ein Experiment zu einer richtigen Kategorisierung, das heißt liegt ein Belohnungssignal vor, wird sowohl die vorwärtsgerichtete als auch die rückwärtsgerichtete synaptische Verbindung zwi- sehen einem ersten präsynaptischen Neuron aus einer der
Schichten Ll und L2 und einem zweiten postsynaptischen Neuron aus der anderen der Schichten Ll und L2 verstärkt, falls beide Neuronen aktiv sind. Demgegenüber wird die vorwärtsgerichtete synaptische Verbindung von einem aktiven präsynaptischen Neuron aus einer der Schichten Ll und L2 zu einem inaktiven postsynaptischen Neuron aus der anderen der Schichten Ll und L2 abgeschwächt. In allen anderen Fällen von Aktivitätszu- ständen wird die synaptische Verbindung nicht verändert.
Im Falle, dass ein Experiment nicht zu einem Belohnungssignal führt, das heißt wenn das neuronale Netz die Kategorisie- rungsaufgabe nicht richtig gelöst hat, wird sowohl die vorwärtsgerichtete als auch die rückwärtsgerichtete Verbindung zwischen einem ersten präsynaptischen Neuron aus einer der Schichten Ll und L2 und einem zweiten postsynaptischen Neuron aus der anderen der Schichten Ll und L2 abgeschwächt, falls beide Neuronen aktiv sind. In allen anderen Fällen wird die synaptische Verbindung nicht verändert.
Fig. 3 zeigt ein Diagramm, welches nochmals die Vorgehensweise des im erfindungsgemäßen Verfahren verwendeten belohnungs- orientierten Hebb ' sehen Lernens zeigt. Das linke Diagramm Dil in Fig. 3 zeigt hierbei den Fall eines Belohnungssignals und das rechte Diagramm DI2 den Fall, dass kein Belohnungssignal vorliegt. In den beiden Diagrammen sind aktive Neuronen durch schraffierte Punkte und inaktive Neuronen durch weiße Punkte wiedergegeben. Die oberen Neuronen in den Diagrammen sind hierbei Neuronen aus der PFC-Schicht L2 und die unteren Neuronen sind Neuronen aus der ITC-Schicht Ll. Durch durchgezo- gene Pfeile wird der Fall einer Verstärkung einer synaptischen Verbindung und durch gestrichelte Pfeile der Fall einer Schwächung einer synaptischen Verbindung dargestellt. Man erkennt, dass im Belohnungsfall die vorwärts- und rückwärtsge- richteten synaptischen Verbindungen zwischen zwei aktiven Neuronen verstärkt werden. Demgegenüber wird eine vorwartsge- richtete synaptische Verbindung zwischen einem präsynaptischen aktiven Neuron und einem postsynaptischen inaktiven Neuron abgeschwächt. Alle anderen synaptischen Verbindungen werden im Belohnungsfall nicht verändert. Ohne Belohnungssignal werden die vorwärts- und ruckwartsgerichteten synaptischen Verbindungen zwischen zwei aktiven Neuronen aus unterschiedlichen Schichten abgeschwächt. Alle weiteren synapti- sehen Verbindungen zwischen den Neuronen werden nicht verändert .
Zur Durchfuhrung des Hebb ' sehen Lernverfahrens wurde ein sto- chastisches synaptisches Modell mit binaren Zustanden verwen- det, wie es beispielsweise in der Druckschrift [5] beschrieben ist. Zur Auswertung des Lernverhaltens wurde die oben erwähnte Mean-Field-Approximation verwendet.
In der hier beschriebenen Ausfuhrungsform des erfindungsgema- ßen Verfahrens wurden die Stimuli dem neuronalen Netzwerk zufallig präsentiert. Zunächst wurden die internen Variablen des Netzwerks zurückgesetzt und anschließend wurde eine Spike-Dynamik für 500 ms von spontaner Aktivität, gefolgt von 800 ms beim Vorliegen einer einen Stimulus repräsentierenden Eingabeinformation, simuliert. Für eine Zeitperiode, wenn der Stimulus dem neuronalen Netz präsentiert wird, werden die ersten 300 ms als Übergangszeit betrachtet und nur die letzten 500 ms werden verwendet, um die zeitgemittelten Spiking- Raten für jedes simulierte Neuron zu ermitteln.
Für typische durchschnittliche Feuer-Raten in den Simulationen führte das Zeitfenster von 500 ms für die Abschätzung dieser Raten zu nicht vernachlassigbaren Fluktuationen in den abgeschätzten Werten. Trotz der vollen synaptischen Konnekti- vitat und des gemeinsamen Werts für die Wirksamkeit der synaptischen Verbindungen in jedem Pool führte dies zu einer breiten Verteilung der abgeschätzten Feuer-Raten in den unterschiedlichen Pools für jedes Experiment. Dies hat nicht- triviale Konsequenzen beim Lernen auf der Basis der Mean- Field-Approximation . Insbesondere können unerwünschte Verstärkungen oder Abschwächungen zwischen unterschiedlichen Paaren von Puls auftreten, was zu einer falschen Anwendung des oben dargelegten Hebb ' sehen Lernverfahrens führte.
Nichtsdestotrotz wurden die Parameter des obigen Verfahrens nicht verändert, um die Robustheit des Modells im Hinblick auf Effekte zu zeigen, welche die Dynamik des Modells im Falle von weniger Einschränkungen beeinflussen würden.
In jedem Lernschritt der hier beschriebenen Ausführungsform wurde zunächst der Anteil der aktiven Neuronen na ± in jedem Pool i berechnet, und zwar durch den Vergleich der zuvor berechneten zeitgemittelten Spiking-Rate von jedem Neuron in- nerhalb dieses Pools mit einer vorgegebenen Schwelle. Bei einer Spiking-Rate von über 8 Hz für die Schicht Ll und einer Spiking-Rate von 14 Hz für die Schicht L2 wurde ein Neuron als aktiv eingestuft. Wenn der Pool, der gemäß der gestellten Aufgabe die richtige Kategorie darstellt, mehr als die Hälfte der Neuronen im aktiven Zustand aufweist und wenn ferner mehr als doppelt so viele Neuronen in diesem Pool aktiv sind als in dem anderen Kategorie-Pool, wird diesem Experiment eine Belohnung zugewiesen, das heißt es wird ein Belohnungssignal gesetzt. Liegen diese Voraussetzungen nicht vor, wird keine Belohnung vergeben und es liegt kein Belohnungssignal vor. Als nächstes wird für jedes Paar von spezifischen Pools aus unterschiedlichen Schichten der Anteil der zu verstärkenden synaptischen Verbindungen Np und der abzuschwächenden synaptischen Verbindungen Nd als Ergebnis des im Experiment be- reitgestellten Stimulus ermittelt.
Im Falle eines präsynaptischen Pools mit npre Neuronen und na pre aktiven Neuronen und eines postsynaptischen Pools mit nst Neuronen und na pOst aktiven Neuronen ergibt sich folgen- des :
Im Falle eines Belohnungssignals werden alle synaptischen Verbindungen zwischen Paaren von aktiven Neuronen verstärkt und alle vorwärtsgerichteten synaptischen Verbindungen von einem aktiven Neuron zu einem inaktiven Neuron werden abgeschwächt. Der Anteil an synaptischen Verbindungen, die verstärkt und abgeschwächt werden, lautet im Belohnungsfall wie folgt:
Npre-post = K™ ' Kost 1^1 pre ' n post ) ( 2 )
Npdre-post = K™ ' ^1 post ~ Kost ) 1^1 pre ' n post ) O )
Im Falle, dass kein Belohnungssignal vorliegt, werden alle synaptischen Verbindungen zwischen Paaren von aktiven Neuronen abgeschwächt, und es werden keine synaptischen Verbindungen verstärkt. Dies kann mathematisch wie folgt ausgedrückt werden:
Figure imgf000024_0001
Kre-post = Kre ' Kost
Figure imgf000024_0002
' n post ) ( 5 )
Im folgenden wird die Variable C13 als der Anteil der verstärkten Synapsen von einem spezifischen Pool i in einer Schicht zu einem spezifischen Pool j in einer anderen Schicht bezeichnet. Diese Größe wird nach jedem durchgeführten Expe- riment wie folgt aktualisiert:
Ci}(t+\) = C. (t) +(1-C,(t))N;q+ -C. (J)Nf1q_ (6)
Hierbei bezeichnen i und j den prä- bzw. postsynaptischen Pool mit (i;y)oder (j;i) e ({Dl,D2,Nl,N2},{Cl,C2}); q+ und q_ sind die U- bergangswahrscheinlichkeiten für eine Verstärkung bzw. Abschwächung. (1 -Cy(0) und C1J (t) sind Anteile von abgeschwächten bzw. verstärken synaptischen Verbindungen und t ist die Nummer des Experiments. Die Gleichung (6) gilt sowohl beim Vor- liegen als auch beim Nichtvorhandensein eines Belohnungssignals, jedoch können auch unterschiedliche Werte für q+ und q_ in den beiden Fäl len verwendet werden . In der hier beschriebenen Aus führungs form gi lt qrard = qrard = 0,01 und g »~rf = 0,05 .
Das durchschnittliche modifizierte synaptische Gewicht zwi- sehen den Schichten Ll und L2 kann dann für jedes Paar von spezifischen Pools aus unterschiedlichen Schichten Ll und L2 wie folgt berechnet werden:
W ύ =W+C ϋ + W(I-C^) (7)
Hierbei sind w+ und w" die Werte, die der Verbindungsstärke zwischen zwei Pools entsprechen, wenn alle synaptischen Verbindungen verstärkt bzw. abgeschwächt wurden. Unterschiedliche Werte für Verbindungen von der Schicht Ll nach der Schicht L2 und von L2 nach Ll können ggf. verwendet werden.
Wie oben bereits dargelegt wurde, kann die breite Verteilung der Feuer-Raten zu unerwünschten Verschiebungen beim Lernen der synaptischen Pools führen. Sehr unerwünscht sind solche Effekte, bei denen Gewichte von nicht-diagnostischen Merkmalen, welche im Idealfall um ihren anfänglichen Wert fluktuieren sollten, ihre Aktivität erhöhen und den Lernprozess behindern. Mehrere Regulierungsmechanismen können prinzipiell zur Vermeidung dieses Effekts verwendet werden. In dem hier beschriebenen Verfahren wird eine Normalisierung verwendet, mit der die Summe aller synaptischen Gewichte zu einem postsynaptischen Neuron jeweils konstant gehalten wird.
Es wurde eine subtraktive Normalisierung der gesamten affe- renten synaptischen Konnektivität, berechnet über alle präsynaptischen, jedes vorgegebene postsynaptische Neuron erreichende Eingaben, verwendet. Es wird das durchschnittliche synaptische Gewicht für alle Verbindungen zwischen einem präsynaptischen Pool i und einem postsynaptischen Pool j wie folgt berechnet: {t -\
Figure imgf000026_0001
Hierbei ist N die Anzahl der präsynaptischen Pools, die mit dem postsynaptischen Pool j verbunden sind. Neue Werte für die Variablen C13 werden basierend auf den neuen Werten für W1-, nach der Normalisierung berechnet, damit die Gleichung (7) weiterhin gültig ist. Für die nächste Präsentation eines Stimulus während des Lernprozesses werden alle synaptischen Verbindungen zwischen zwei Pools aus unterschiedlichen Schichten Ll und L2 auf die berechneten durchschnittlichen Werte W1-, gesetzt.
Im folgenden wird dargelegt, welche Parameterwerte für w+ und w~ zur Verstärkung bzw. Abschwächung der synaptischen Verbin- düng in der hier beschriebenen Ausführungsform des erfindungsgemäßen Verfahrens verwendet wurden. Um die Stabilität des neuronalen Netzes sicherzustellen, wurden die Verbindungsgewichte zwischen den zwei Schichten Ll und L2 nicht zu klein gewählt, so dass ein Informationsaustausch zwischen den beiden Schichten möglich ist. Die Gewichte wurden jedoch auch nicht übermäßig groß gewählt, so dass das neuronale Netz sich nicht übermäßig verstärkt, wodurch die Neuronen ihre Selektivität verlieren würden. Ferner müssen auch biologische Beschränkungen zur Erreichung von realistischen neuronalen Ak- tivitäten für die modulierten Neuronen berücksichtigt werden.
Für synaptische Verbindungen, welche zwei Pools von der Schicht Ll hin zur Schicht L2 verbinden, wurden die Werte w+ ff = 0,8 und w~ ff = 0 für den verstärkten bzw. abgeschwächten Zu- stand verwendet. Für synaptische Verbindungen von Pools der Schicht L2 hin zur Schicht Ll wurden als Stärken w+ fb = 0,4 und w~ fb = 0 für die Verstärkung bzw. Abschwächung der synaptischen Verbindung verwendet. Die Verstärkung der Verbindungen von Ll nach L2 wurde im Durchschnitt doppelt so groß ge- wählt wie die der Verbindungen von L2 nach Ll . Dieses Verhältnis trägt der Hypothese Rechnung, dass nach oben gerich- tete Verbindungen von Ll nach L2 die Aktivität in höheren cortikalen Bereichen antreibt, wohingegen nach unten gerichtete Verbindungen von L2 nach Ll eher modularer Natur sind. Die durchschnittliche synaptische Stärke zwischen zwei Pools zwischen den Schichten Ll und L2 wurde auf (w+ + w~) /2 gesetzt. Dieser Wert wurde während des Lernverfahrens aufgrund der verwendeten subtraktiven Normalisierung konstant gehalten .
Das Lernverfahren wurde mit einem ausgewogenem anfänglichen Netzwerk gestartet, in dem alle Verbindungen zwischen den beiden Schichten Ll und L2 auf folgende durchschnittliche synaptische Stärke gesetzt wurden:
wv= 0,4 und wß = 0,2 mit (i;j) e ({£>1,£>2,M,ΛT2},{C1,C2}) .
Im folgenden werden einige Ergebnisse der im vorangegangenen beschriebenen Ausführungsform des erfindungsgemäßen Lernverfahrens anhand der Figuren 4 und 5 dargestellt.
Fig. 4 zeigt die Simulationsergebnisse des erfindungsgemäßen Verfahrens für ein neuronales Netz mit spikenden Neuronen, wobei das Netz mit dem Verfahren in 50 Versuchen gelernt wurde und die Netzwerkaktivitäten über diese 50 Versuche gemit- telt wurden. In allen Diagrammen in Fig. 4 ist auf der Abszisse die Zeit in Millisekunden nach Präsentation eines Stimulus und auf der Ordinate die Aktivität in Hz aufgetragen. Die erste Spalte A der Fig. 4 zeigt die Aktivitäten des Netzes zu Beginn des Lernens, die zweite Spalte B der Fig. 4 zeigt die Aktivitäten des Netzes nach 200 Lernschritten und die dritte Spalte C zeigt die Aktivitäten des Netzes nach 1500 Lernschritten, wenn eine Konvergenz der synaptischen Parameter erreicht ist.
Die erste Zeile in Fig. 4 zeigt die durchschnittliche Spi- king-Rate für auf einen Stimulus reagierende Neuronen. Es wurde hierbei folgende Gruppierung vorgenommen: die stärksten Antworten von allen spezifischen Neuronen der Ll-Schicht auf das diagnostische Merkmal aus 50 Versuchen wurden gemittelt (Linie BD der Fig. 4);
- die schwächsten Antworten von allen spezifischen Neuronen der Ll-Schicht auf das diagnostische Merkmal aus 50 Versuchen wurden gemittelt (Linie WD der Fig. 4);
die stärksten Antworten von allen spezifischen Neuronen der Ll-Schicht auf das nicht-diagnostische Merkmal aus 50 Versuchen wurden gemittelt (Linie BN der Fig. 4);
die schwächsten Antworten von allen spezifischen Neuronen der Ll-Schicht auf das nicht-diagnostische Merkmal aus 50 Versuchen wurden gemittelt (Linie WN der Fig. 4) .
Die Diagramme in der ersten Zeile der Fig. 4 entsprechen den Berechnungen, die auch in dem Experiment aus dem Dokument [2] durchgeführt wurden.
Die zweite und dritte Zeile der Fig. 4 zeigen die gemittelten Spiking-Raten der spezifischen Pools für diejenigen der 50 Versuche, bei denen als Stimulus die Merkmalsausprägungen Dl ( "tiefgestellte Augen"), und Nl ("lange Nase") präsentiert wurden. Die Kurve Dl ist hierbei die Spiking-Rate für den
Neuronenpool 102, die Kurve D2 ist die Spiking-Rate für den Neuronenpool 101, die Kurve Nl ist die Spiking-Rate für den Neuronenpool 103, die Kurve N2 ist die Spiking-Rate für den Neuronenpool 104, die Kurve Cl ist die Spiking-Rate für den Kategorie-Pool 201 und die Kurve C2 ist die Spiking-Rate für den Kategorie-Pool 202. Darüber hinaus ist in der dritten Zeile der Fig. 4 die Spiking-Rate INH für den hemmenden Pool 210 gezeigt.
Man erkennt aus allen Diagrammen der Fig. 4, dass sich während des Lernens des neuronalen Netzes eine Selektion hinsichtlich der Merkmalsausprägungen und Kategorien ausbildet, welche am Anfang des Lernens nicht vorhanden ist. Insbesonde- re ist aus der untersten Zeile der Fig. 4 ersichtlich, dass sich eine starke Selektivität im Hinblick auf die Aktivität der Kategorie-Pools Cl und C2 ausbildet. Da die Kategorie Cl die richtige Lösung gemäß dem präsentierten Stimulus dar- stellt, ist die Aktivität dieses Neuronenpools sehr hoch, wohingegen die Aktivität der Kategorie C2 auf Null abfällt. Das Ergebnis der Fig. 4 entspricht den experimentellen Ergebnissen aus der Druckschrift [2], so dass mit dem gelernten neuronalen Netz sehr gut eine dynamische Informationsselektion zur Lösung einer Kategorisierungsaufgäbe vorgenommen werden kann .
Fig. 5 zeigt Diagramme, welche die Gewichte der synaptischen Verbindungen (Ordinate der Diagramme) in Abhängigkeit von der Anzahl an Lernschritten (Abszisse der Diagramme) für unterschiedliche Szenarien wiedergeben. Es werden hierbei die im vorangegangenen definierten Gewichte wDi_Ci, wDi-c2/ wD2-ci/ wD2- c2, WNI-CI, wNi-c2, wN2-Ci, wN2-C2 der vorwärtsgerichteten synapti¬ schen Verbindungen sowie die entsprechenden Gewichte der rückwärtsgerichteten synaptischen Verbindungen betrachtet. Es werden ferner zwei unterschiedliche anfänglich initialisierte neuronale Netze unterschieden. Die oberen drei Zeilen der Fig. 5 betreffen ein Anfangsnetz, welches zuvor auf das nicht-diagnostische Merkmal "Nasenlänge" als selektives Merk- mal zur Bestimmung der Kategorie eingestellt wurde. Demgegenüber wurde das Anfangsnetz der unteren drei Zeilen der Fig. 5 zuvor sowohl auf das diagnostische Merkmal "Augenstellung" als auch auf das nicht-diagnostische Merkmal "Nasenlänge" als selektive Merkmale zur Bestimmung der Kategorie eingestellt. Wie im vorangegangenen dargelegt wurde, wird das Lernen des Netzes jedoch derart durchgeführt, dass nur das Merkmal "Augenhöhe" ein relevantes Merkmal für die Lösung der Aufgabe ist. Man erkennt aus Fig. 5 deutlich, dass alle vorwärts- und rückwärtsgerichteten synaptischen Verbindungen, welche die korrekte Kategorisierung des diagnostischen Merkmals "Augenhöhe" darstellen, beim Lernen verstärkt werden, wohingegen die Verbindungen, welche die falche Kategorisierung betreffen, auf Null abfallen. Ferner wird ersichtlich, dass alle Verbindungen von und zu nicht-diagnostischen Merkmalen ihre Selektivität verlieren und alle gegen den gleichen Wert laufen .
Zitierte Literatur:
[1] Szabo, M., Almeida, R., Deco, G. und Stetter, M. (2004): "Cooperation and Biased Competition Model can explain Atten- tional Filtering in the Prefrontal Cortex", Eur. J. Neuro- sci., Vol. 9, S. 1669-1677
[2] Sigala, N. und Logothetis, N. (2002) : "Visual Categori- zation shapes Feature Selectivity in the Primate Temporal Cortex", Nature 415: 318-320
[3] Brunei, N. und Wang, X. J. (2001) : "Effects of Neuro- modulation in a Cortical Network Model of Object Working Memory dominated by Recurrent Inhibition", Comput . Neurosci. 11: 63-85
[4] DE 10 2004 013924 B3
[5] Fusi, S., Annunziato, M., Badoni, D., Salamon, A. and Amit, D. (2000) . "Spikedriven Synaptic Plasticity: Theory, Simulation, VLSI-implementation" , Neural Comput. 12: 2227- 2258

Claims

Patentansprüche
1. Verfahren zum rechnergestutzten Lernen eines neuronalen Netzes (1), umfassend eine Vielzahl von Neuronen: a) bei dem die Neuronen des neuronalen Netzes (1) in we¬ nigstens zwei Schichten (Ll, L2) umfassend eine erste Schicht (Ll) und eine zweite, mit der ersten Schicht (Ll) vernetzten Schicht (L2) eingeteilt werden, wobei die Vernetzung zwischen der ersten und zweiten Schicht (Ll, L2) durch synaptische Verbindungen zwischen Neuronen repräsentiert wird und die Starke einer Verbindung durch ein Gewicht (wDi_Ci,..., WC2-D2) wiedergegeben wird und wobei die synaptischen Verbindungen zwischen einem ersten und einem zweiten Neuron eine vorwartsgerichtete Verbindung von dem ersten zum zweiten Neuron und eine ruckwartsgerichtete Verbindung vom zweiten zum ersten Neuron umfassen; b) bei dem in der ersten Schicht (Ll) Eingabeinformationen
(I) jeweils durch eine oder mehrere Merkmalsauspragungen (Dl, D2, Nl, N2) von einem oder mehreren Merkmalen repräsentiert sind, wobei jede Merkmalsauspragung (Dl, D2, Nl, N2) ein oder mehrere Neuronen der ersten Schicht um- fasst, und in der zweiten Schicht eine Mehrzahl von Ka¬ tegorien (Cl, C2) gespeichert sind, wobei jede Kategorie ein oder mehrere Neuronen der zweiten Schicht (L2) um- fasst; c) bei dem für eine oder mehrere Eingabeinformationen (I) jeweils wenigstens eine Kategorie (Cl, C2) in der zwei¬ ten Schicht (L2) den Merkmalsauspragungen (Dl, D2, Nl, N2) der Eingabeinformation (I) in der ersten Schicht (Ll) zugeordnet wird; d) bei dem in die erste Schicht (Ll) eine Eingabeinformati¬ on (I) eingegeben wird und anschließend wenigstens eine Zustandsgroße des neuronalen Netzes (1) ermittelt wird und mit der in Schritt c) zugeordneten wenigstens einen Kategorie (Cl, C2) dieser Eingabeinformation (I) verglichen wird, wobei im Vergleich in Schritt d) ermittelt wird, ob für die Eingabeinformation (I) eine Uberein- Stimmung zwischen der wenigstens einen Zustandsgroße des neuronalen Netzes (1) und der zugeordneten wenigstens einen Kategorie (Cl, C2) der Eingabeinformation (I) vorliegt; e) bei dem die Aktivität der Neuronen im neuronalen Netz
(1) ermittelt wird und die Neuronen in Abhängigkeit von ihrer Aktivität jeweils als aktiv oder inaktiv eingestuft werden, wobei im Fall, dass eine Übereinstimmung in Schritt d) vorliegt, die Gewichte (wDi_Ci,..., WC2-D2) der synaptischen Verbindungen zwischen aktiven Neuronen der ersten Schicht (Ll) und aktiven Neuronen der zweiten Schicht (L2) verstärkt werden und die Gewichte der vor- wartsgerichteten synaptischen Verbindungen von ersten, aktiven Neuronen aus einer der ersten und zweiten Schicht (Ll, L2) zu zweiten, inaktiven Neuronen aus der anderen der ersten und zweiten Schicht (Ll, L2) abgeschwächt werden und im Fall, dass eine Übereinstimmung in Schritt d) nicht vorliegt, die Gewichte (wDi_Ci,..., WC2-D2) der synaptischen Verbindungen zwischen aktiven Neuronen der ersten Schicht (Ll) und aktiven Neuronen der zweiten Schicht (L2) abgeschwächt werden.
2. Verfahren nach Anspruch 1, bei dem die Kategorien (Cl, C2) der zweiten Schicht (L2) Losungen einer Aufgabe darstellen, wobei die Losung der Aufgabe von den Eingabeinformationen (I) abhangt .
3. Verfahren nach Anspruch 2, bei dem die Merkmale unterteilt sind in diagnostische Merkmale, welche für die Losung der Aufgabe relevant sind, und in nicht-diagnostische Merkmale, welche für die Losung der Aufgabe nicht relevant sind.
4. Verfahren nach Anspruch 2 oder 3, bei dem jede zugeordnete wenigstens eine Kategorie (Cl, C2) einer Eingabeinformation (I) eine richtige Losung der Aufgabe darstellt.
5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem eine Übereinstimmung zwischen der wenigstens einen Zustands- große des neuronalen Netzes (1) für eine Eingabeinformation (I) und der zugeordneten wenigstens einen Kategorie (Cl, C2) dieser Eingabeinformation (I) dann vorliegt, wenn die Anzahl der aktiven Neuronen, die zu der zugeordneten wenigstens ei- nen Kategorie dieser Eingabeinformation (I) gehören, eine vorbestimmte Anzahl in Abhängigkeit von der Gesamtanzahl der Neuronen in der zugeordneten wenigstens einen Kategorie und/oder der Anzahl von aktiven Neuronen in anderen Kategorien überschreitet.
6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem im Fall, dass eine Übereinstimmung in Schritt d) vorliegt, die Gewichte (wDi_Ci,..., WC2-D2) von allen synaptischen Verbindungen, die nicht verstärkt oder abgeschwächt werden, nicht verändert werden.
7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem im Fall, dass eine Übereinstimmung in Schritt d) nicht vorliegt, die Gewichte (wDi_Ci,..., WC2-D2) von allen synaptischen Verbindungen, die nicht abgeschwächt werden, nicht verändert werden .
8. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Schritte d) und e) iterativ mehrere Male durchgeführt werden.
9. Verfahren nach Anspruch 8, bei dem die Iteration der Schritte d) und e) nach Erreichung eines Konvergenzkriteriums beendet wird.
10. Verfahren nach Anspruch 8 oder 9, bei dem nach Durchfuhrung des Schrittes e) eine Normalisierung der Vernetzung des neuronalen Netzes durchgeführt wird.
11. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die miteinander vernetzten Neuronen der ersten und zweiten Schicht (Ll, L2) des neuronalen Netzes (1) erregende gepulste Neuronen sind.
12. Verfahren nach Anspruch 11, bei dem die erregenden gepulsten Neuronen der ersten Schicht (Ll) zumindest teilweise in Eingabepools (101, 102, 103, 104) gruppiert sind, wobei jeder Merkmalsausprägung (Cl, C2) mindestens ein Eingabepool (101, 102, 103, 104) zugeordnet ist.
13. Verfahren nach Anspruch 12, bei dem die Eingabepools (101, 102, 103, 104) miteinander kooperieren.
14. Verfahren nach Anspruch 12 oder 13, bei dem die Aktivitäten der Eingabepools (101, 102, 103, 104) jeweils eine Merkmalsausprägung repräsentieren.
15. Verfahren nach einem der Ansprüche 11 bis 14, bei dem die erregenden gepulsten Neuronen der zweiten Schicht (L2) zumindest teilweise in Kategorie-Pools (201, 202) gruppiert sind, wobei jeder Kategorie (Cl, C2) mindestens ein Kategorie-Pool (201, 202) zugeordnet ist.
16. Verfahren nach Anspruch 15, bei dem die Kategorie-Pools (201, 202) miteinander konkurrieren und sich ein aktiver Kategorie-Pool in der Konkurrenz durchsetzt.
17. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das neuronale Netz (1) hemmende gepulste Neuronen enthält, die mindestens einen hemmenden Pool (110, 210) in der ersten und/oder zweiten Schicht (Ll, L2) bilden, wobei der hemmende Pool (110, 210) eine globale Hemmung auf die Einga- be- und/oder Kategorie-Pools ausübt.
18. Neuronales Netz, umfassend eine Vielzahl von Neuronen, wobei das Netz derart ausgestaltet ist, dass es mit einem Verfahren nach einem der vorhergehenden Ansprüche gelernt ist.
PCT/EP2006/066523 2005-09-29 2006-09-20 Verfahren zum rechnergestützten lernen eines neuronalen netzes und neuronales netz WO2007036465A2 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP06806783A EP1934895A2 (de) 2005-09-29 2006-09-20 Verfahren zum rechnergestützten lernen eines neuronalen netzes und neuronales netz
US11/992,785 US8423490B2 (en) 2005-09-29 2006-09-20 Method for computer-aided learning of a neural network and neural network

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102005046747.4 2005-09-29
DE102005046747A DE102005046747B3 (de) 2005-09-29 2005-09-29 Verfahren zum rechnergestützten Lernen eines neuronalen Netzes und neuronales Netz

Publications (2)

Publication Number Publication Date
WO2007036465A2 true WO2007036465A2 (de) 2007-04-05
WO2007036465A3 WO2007036465A3 (de) 2007-12-21

Family

ID=37715781

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2006/066523 WO2007036465A2 (de) 2005-09-29 2006-09-20 Verfahren zum rechnergestützten lernen eines neuronalen netzes und neuronales netz

Country Status (4)

Country Link
US (1) US8423490B2 (de)
EP (1) EP1934895A2 (de)
DE (1) DE102005046747B3 (de)
WO (1) WO2007036465A2 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007014650B3 (de) * 2007-03-27 2008-06-12 Siemens Ag Verfahren zur rechnergestützten Verarbeitung von in einem Sensornetzwerk erfassten Messwerten
US9904889B2 (en) 2012-12-05 2018-02-27 Applied Brain Research Inc. Methods and systems for artificial cognition
US9239984B2 (en) 2012-12-21 2016-01-19 International Business Machines Corporation Time-division multiplexed neurosynaptic module with implicit memory addressing for implementing a neural network
US9373073B2 (en) 2012-12-21 2016-06-21 International Business Machines Corporation Time-division multiplexed neurosynaptic module with implicit memory addressing for implementing a universal substrate of adaptation
ES2864149T3 (es) * 2014-03-06 2021-10-13 Progress Inc Red neuronal y método de entrenamiento de red neuronal
US9619749B2 (en) 2014-03-06 2017-04-11 Progress, Inc. Neural network and method of neural network training
US10423694B2 (en) 2014-03-06 2019-09-24 Progress, Inc. Neural network and method of neural network training
KR20180027887A (ko) * 2016-09-07 2018-03-15 삼성전자주식회사 뉴럴 네트워크에 기초한 인식 장치 및 뉴럴 네트워크의 트레이닝 방법
US11295210B2 (en) * 2017-06-05 2022-04-05 D5Ai Llc Asynchronous agents with learning coaches and structurally modifying deep neural networks without performance degradation
TWI662511B (zh) * 2017-10-03 2019-06-11 財團法人資訊工業策進會 階層式影像辨識方法及系統
EP4058934A4 (de) * 2019-12-27 2023-07-12 Siemens Aktiengesellschaft Verfahren und apparat für die produktqualitätsprüfung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0495901B1 (de) * 1989-10-10 2001-01-03 Neurosciences Research Foundation, Inc. Kategorisierungsautomatismus, der neuronale gruppenauswahl mit wiedereingabe benutzt
WO2003054794A2 (de) * 2001-12-20 2003-07-03 Siemens Aktiengesellschaft Auswerten von mittels funktionaler magnet-resonanz-tomographie gewonnenen bildern des gehirns
DE102004013924B3 (de) * 2004-03-22 2005-09-01 Siemens Ag Vorrichtung zur kontextabhängigen Datenanalyse

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0495901B1 (de) * 1989-10-10 2001-01-03 Neurosciences Research Foundation, Inc. Kategorisierungsautomatismus, der neuronale gruppenauswahl mit wiedereingabe benutzt
WO2003054794A2 (de) * 2001-12-20 2003-07-03 Siemens Aktiengesellschaft Auswerten von mittels funktionaler magnet-resonanz-tomographie gewonnenen bildern des gehirns
DE102004013924B3 (de) * 2004-03-22 2005-09-01 Siemens Ag Vorrichtung zur kontextabhängigen Datenanalyse

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HAUKE BARTSCH, MARTIN STETTER, AND KLAUS OBERMAYER: "On the Influence of Threshold Variability in a Mean-Field Model of the Visual Cortex" LECTURE NOTES ON ARTIFICIAL INTELLIGENCE (LNAI), Nr. 2036, 2001, Seiten 174-187, XP002453918 Springer Verlag Berlin Heidelberg *
MIRUNA SZABO, GUSTAVO DECO, STEFANO FUSI, PAOLO L GIUDICE, MAURIZIO MATTIA, MARTIN STETTER: "Learning to attend: modeling the shaping of selectivity in infero-temporal cortex in a categorization task" BIOL CYBERNETICS, Bd. 94, 23. März 2006 (2006-03-23), Seiten 351-365, XP019343845 *
RITA ALMEIDA, GUSTAVO DECO AND MARTIN STETTER: "Modular biased-competition and cooperation: a candidate mechanism for selective working memory" EUROPEAN JOURNAL OF NEUROSCIENCE, Bd. 20, Nr. 10, November 2004 (2004-11), Seiten 2789-2803, XP002453917 *
SZABO M ET AL: "A neuronal model for the shaping of feature selectivity in IT by visual categorization" NEUROCOMPUTING, ELSEVIER SCIENCE PUBLISHERS, AMSTERDAM, NL, Bd. 65-66, Juni 2005 (2005-06), Seiten 195-201, XP004889477 ISSN: 0925-2312 *
SZABO MIRUNA ET AL: "COORPERATION AND BIASED COMPETITION MODEL CAN EXPLAIN ATTENTIANAL FILTERING IN THE PREFRONTAL CORTEX" EUROPEAN JOURNAL OF NEUROSCIENCE, OXFORD UNIVERSITY PRESS, GB, Bd. 19, Nr. 6, 2004, Seiten 1969-1977, XP008069137 ISSN: 0953-816X *

Also Published As

Publication number Publication date
EP1934895A2 (de) 2008-06-25
US8423490B2 (en) 2013-04-16
DE102005046747B3 (de) 2007-03-01
WO2007036465A3 (de) 2007-12-21
US20100088263A1 (en) 2010-04-08

Similar Documents

Publication Publication Date Title
DE102005046747B3 (de) Verfahren zum rechnergestützten Lernen eines neuronalen Netzes und neuronales Netz
DE112018002822T5 (de) Klassifizieren neuronaler netze
DE102014212556A1 (de) Verfahren und system zur gewinnung einer verbesserten struktur eines neuronalen zielnetzes
EP0910023A2 (de) Verfahren und Anordnung zur neuronalen Modellierung eines dynamischen Systems mit nichtlinearem stochastischem Verhalten
DE10296704T5 (de) Fuzzy-Inferenznetzwerk zur Klassifizierung von hochdimensionalen Daten
DE3938645C1 (de)
WO2002047026A2 (de) Verfahren zur ermittlung konkurrierender risiken
DE60125536T2 (de) Anordnung zur generierung von elementensequenzen
EP1456798A2 (de) Auswerten von mittels funktionaler magnet-resonanz-tomographie gewonnenen bildern des gehirns
DE112016000198T5 (de) Entdecken und Nutzen von informativen Schleifensignalen in einem gepulsten neuronalen Netzwerk mit zeitlichen Codierern
WO2020178009A1 (de) Training neuronaler netzwerke für effizientes implementieren auf hardware
DE19611732C1 (de) Verfahren zur Ermittlung von zur Entfernung geeigneten Gewichten eines neuronalen Netzes mit Hilfe eines Rechners
EP1359539A2 (de) Neurodynamisches Modell der Verarbeitung visueller Informationen
DE102021201833A1 (de) Vorrichtung zur Verarbeitung von mindestens einem Eingangsdatensatz unter Verwendung eines neuronalen Netzes sowie Verfahren
DE102004013924B3 (de) Vorrichtung zur kontextabhängigen Datenanalyse
DE102020212514A1 (de) Verfahren zur Ermittlung eines Ausgabesignals mittels eines maschinellen Lernsystems
WO2020187394A1 (de) Verfahren zum trainieren eines autoencoders und zum klassifizieren von daten sowie autoencoder und computerprogramm hierzu
DE102019214308B4 (de) Schnelles quantisiertes Training trainierbarer Module
DE102006033267B4 (de) Verfahren zur rechnergestützten Ermittlung von quantitativen Vorhersagen aus qualitativen Informationen mit Hilfe von Bayesianischen Netzwerken
DE102005046946B3 (de) Vorrichtung zur rechnergestützten Ermittlung von Assoziationen zwischen Informationen auf der Basis eines neuronalen Netzes
DE102005045120A1 (de) Vorrichtung und Verfahren zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes
DE102005030136B4 (de) Verfahren zur rechnergestützten Simulation von biologischen RNA-Interferenz-Experimenten
WO2022069275A1 (de) Vorrichtung und computerimplementiertes verfahren für eine netzwerkarchitektursuche
EP4256475A1 (de) Vergleichen eines ersten knn mit einem zweiten knn
Frisch Die Architektur-und Werteinstellungsproblematik der Parameter Neuronaler Netze

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006806783

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2006806783

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11992785

Country of ref document: US