DE4215179A1 - Synaptic processor for neural network - initialises input expectation limited by maximum and neutral expectations then modifies expectation using increase and reduction terms - Google Patents

Synaptic processor for neural network - initialises input expectation limited by maximum and neutral expectations then modifies expectation using increase and reduction terms

Info

Publication number
DE4215179A1
DE4215179A1 DE4215179A DE4215179A DE4215179A1 DE 4215179 A1 DE4215179 A1 DE 4215179A1 DE 4215179 A DE4215179 A DE 4215179A DE 4215179 A DE4215179 A DE 4215179A DE 4215179 A1 DE4215179 A1 DE 4215179A1
Authority
DE
Germany
Prior art keywords
expectation
signal
input
term
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE4215179A
Other languages
German (de)
Inventor
George E Mobus
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MOBUS GEORG E
Caterpillar Inc
Original Assignee
MOBUS GEORG E
Caterpillar Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MOBUS GEORG E, Caterpillar Inc filed Critical MOBUS GEORG E
Publication of DE4215179A1 publication Critical patent/DE4215179A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Complex Calculations (AREA)
  • Image Processing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Feedback Control In General (AREA)

Abstract

The synaptic processor for generating a result signal as a result of an input signal contains an arrangement for initialising an input expectation which is limited by maximum and neutral expectations. It contains an arrangement for receiving the input signal and modifying the input expectation. The net modification of the input expectation contains an increase and a reductio term. The increase term is a function of the input signal and a first increasing gradient constant. The reduction term is a function of a first decreasing gradient constant independent of the increaseing constant. A further arrangement generates the result signal from the input expectation. USE - For use as component of neutral network.

Description

Die Erfindung bezieht sich allgemein auf Nerven- oder Neural­ netzwerke und inbesondere auf einen Prozessor zum Aufbau künstlicher Neuronen. Das Interesse an den informations­ verarbeitenden Fähigkeiten des Gehirns besteht seit dem späten 19. Jahrhundert. Jedoch haben erst in letzer Zeit künstliche auf Neuronen basierende Netzwerke die Fähigkeiten erlangt, um wirklich nützlich zu sein. Beispielsweise finden künstliche Neuralnetzwerke Verwendungen in Sicht- und Spracherkennungs­ systemen, in der Signalverarbeitung und der Roboteranwendung.The invention relates generally to nerve or neural networks and in particular on a processor to build artificial neurons. Interest in the information Brain's manufacturing skills have existed since the late 19th century. However, only recently have artificial networks based on neurons acquired the skills to to be really useful. For example, find artificial Neural networks uses in vision and speech recognition systems, in signal processing and robot application.

Die Forschung und Entwicklung von Neuralnetzwerken hat sich aus Versuchen entwickelt, die Vorgänge und Funktionen des Gehirns nachzubilden. Daher hat vieles der Terminologie biologische Ursprünge.The research and development of neural networks has grown up Try to develop the processes and functions of the brain replicate. Therefore, much of the terminology has biological Origins.

Die Basiskomponente eines Neuralnetzwerkes ist ein Neuron. Ein Neuron kann als ein gewichteter Addierer angesehen werden. Ein Neuron hat eine Anzahl von Eingängen. Jede Eingangsgröße wird mit einem Gewichtungswert multipliziert und die Produkte werden addiert. Die Wichtungen können positiv (anregend) sein oder negativ (hemmend) sein. Die Ausgabe des Neurons ist eine Funk­ tion der Summe der Produkte.The basic component of a neural network is a neuron. A Neuron can be viewed as a weighted adder. A Neuron has a number of inputs. Every input variable will multiplied by a weighting value and the products are added. The weightings can be positive (stimulating) or be negative (inhibitory). The output of the neuron is a radio tion of the sum of the products.

Ein (einziges) neurales Netzwerk ist bekannt als das Einzelschicht- oder Einzelebenennetzwerk. Einzelschichtnetzwerke sind zweckmäßig zum Lösen linear trennbarer Probleme. Eine Anwendung eines Einzelschichtnetz­ werks ist die Mustererkennung.A (single) neural network is known as that Single layer or single level network. Single-layer networks are useful for solving linear separable problems. An application of a single layer network factory is the pattern recognition.

Im einfachsten Fall ist jedes Neuron ausgestaltet zum Identi­ fizieren eines spezifischen Musters in den Eingangssignalen. In the simplest case, each neuron is designed for identification a specific pattern in the input signals.  

Jedes Neuron des Netzwerks hat die gleichen Eingaben. Die Ausgabe jedes Neurons ist entweder ein "Treffer" ("Hit") oder ein "verfehlt" ("miss"). Die Summe der Produkte für jedes Neuron wird mit einem Schwellenwert verglichen. Wenn die Summe eines Neurons größer ist als der Schwellenwert, dann hat es dieses Muster erkannt und signalisiert einen "Treffer". Die Anzahl der Ausgaben des Netzwerks ist gleich der Anzahl von Mustern, die erkannt werden sollen, und daher der Anzahl von Neuronen. Nur ein Neuron wird gleichzeitig einen "Treffer" signalisieren (wenn sein Muster in den Eingaben erscheint).Every neuron in the network has the same inputs. The Each neuron's output is either a "hit" or a "miss". The sum of the products for each Neuron is compared to a threshold. If the sum of a neuron is greater than the threshold, then it has this pattern is recognized and signals a "hit". The Number of expenses of the network is equal to the number of Patterns to be recognized, and therefore the number of Neurons. Only one neuron gets a "hit" at the same time signal (if its pattern appears in the entries).

In einem komplexeren Fall ist die Ausgabe des Neurons nicht ein "Treffer" oder "verfehlt". Es ist vielmehr ein abgestufter Skalenwert, der anzeigt, wie nahe das Eingabemuster an dem Neuronenmuster ist.In a more complex case the output of the neuron is not one "Hit" or "missed". Rather, it is a graded one Scale value that shows how close the input pattern is to the Is neuron pattern.

Für schwierigere Probleme wird ein mehrschichtiges Netzwerk benötigt.For more difficult problems there is a multi-layer network needed.

Die Wichtungen eines Neurons können entweder fest oder anpaßbar sein. Anpaßbare Wichtungen machen ein Neuralnetzwerk flexibler. Anpaßbare Wichtungen werden durch Lerngesetze oder -regeln modifiziert. Die meisten Lerngesetze basieren auf Assozia­ tivität. Ausgehend von einer Lernregel, die von Donald O. Hebb 1949 vorgeschlagen wurde (Hebb′s Regel), hat die Lerntheorie allgemein angenommen, daß die Essenz der Lernphänomene eine Assoziation zwischen zwei oder mehr Signalen einbezieht. In Hebb′s Regel beispielsweise wird die mit einer Eingabe asso­ zierte Wichtung vergrößert, wenn sowohl die Eingabeleitung wie die Ausgabeleitung gleichzeitig aktiv sind. Es gab viele Va­ riationen zu diesem Thema, aber so oder so leiten sich die meisten der neuralen Lernregeln von dieser Basis her.The weights of a neuron can either be fixed or customizable be. Customizable weights make a neural network more flexible. Customizable weights are made through learning laws or rules modified. Most learning laws are based on association activity. Based on a learning rule developed by Donald O. Hebb Was proposed in 1949 (Hebb’s rule), has learning theory generally believed that the essence of learning phenomena is a Association between two or more signals. In Hebb's rule, for example, is the asso with one entry graced weighting increases when both the input line and the output line is active at the same time. There were many Va rations on this topic, but one way or the other they are guided most of the neural learning rules from this basis.

In neuerer Zeit haben sich andere Lerngesetze mit assoziativen Regeln beschäftigt, die auf gleichzeitigen Eingangssignalen basieren. Bei dieser Betrachtungsweise wird die Wichtung eines Eingangs erhöht, wenn dieser Eingang und ein bestimmter Nach­ bareingang beide innerhalb eines beschränkten Zeitfensters aktiv sind.More recently, other learning laws have become associative Rules busy on simultaneous input signals based. With this approach, the weighting becomes a Input increases if this input and a certain after  cash receipt both within a limited time window are active.

Es ist nun allgemein anerkannt, daß es beispielsweise in der aktiven Mustererkennung und -klassifizierung die Korrelation zwischen mehrfachen Eingangssignalen bzw. Eingangssignalen und Ausgangssignalen ist, die den adaptiven Mapping-Mechanismus bildet. Jedes System, das "lernen" würde, ein Muster zu er­ kennen und/oder ein eine Kategorie einzuteilen, muß diese Korrelationen verschlüsseln oder kodieren. Daher wurde die meiste, wenn nicht gar alle Arbeit auf einen auf Assoziation basierenden Mechanismus gerichtet.It is now generally accepted that, for example, in the active pattern recognition and classification the correlation between multiple input signals or input signals and Output signals is the adaptive mapping mechanism forms. Any system that would "learn" a pattern to it know and / or classify a category, it must Encrypt or encode correlations. Hence the most, if not all, work on one on association based mechanism.

Jedoch hat sich jede dieser Lernregeln als begrenzend heraus­ gestellt. Jede Regel funktioniert gut für eine gegebene spezi­ fische Art oder Gruppe von Problemen, aber keine davon hat sich bisher als ausreichend allgemein oder anpassungsfähig (adaptiv) herausgestellt, um für das breite Spektrum von Problemen auf diesem Gebiet angewendet zu werden.However, each of these learning rules has proven to be limiting posed. Each rule works well for a given spec fish type or group of problems, but none of them have hitherto considered sufficient general or adaptable exposed to for the wide range of problems to be applied in this area.

Das Wort adaptiv ist der Schlüssel. Adaptation oder adaptives Ansprechen (adaptive response AR) ist der Vorgang des Verän­ derns des Ansprechens des Netzwerks, um die Anforderungen der neuen Bedingungen zu erfüllen.The word adaptive is the key. Adaptation or adaptives Adaptive response AR is the process of change the response of the network to meet the requirements of to meet new conditions.

In einem biologischen System werden solche Veränderungen nicht auf die erste Erfahrung einer Veränderung hin durchgeführt. Vielmehr muß die Veränderung oft und/oder über einen langen Zeitrahmen hinweg auftreten, bevor der Organismus sich einer wesentlichen Veränderung unterzieht. Biologische Systeme neigen dazu, in dieser Beziehung sehr konservativ zu sein.Such changes do not occur in a biological system carried out on the first experience of a change. Rather, the change must be frequent and / or over a long period Time frames occur before the organism becomes one undergoes significant change. Biological systems tend about being very conservative in this regard.

Die Entwicklung von Muskelgewebe in einen Athleten oder Sport­ ler liefert ein gutes Beispiel dieses Aspekts von adaptivem Ansprechen. Betrachten wir einen Möchtegern-Gewichtsheber, der gerade mit diesem Sport anfängt. The development of muscle tissue in an athlete or sport It provides a good example of this aspect of adaptive Speak to. Let's consider a wannabe weight lifter who just starting this sport.  

Nach einer Woche üben, kann er fähig sein, beträchtlich mehr Gewicht zu heben, als er am Anfang konnte. Man bemerke, daß die Art von Übung periodisch ist mit langen Intervallen (im Ver­ gleich zu der Zeit der Übung selbst) zwischen Episoden. Kurz­ fristig behält der Körper zwischen Episoden die Erinnerung der physischen Anforderung, die an die Muskeln gestellt wurde.After a week of practice, he may be able to do considerably more Lifting weight than he could at the beginning. Note that the Type of exercise is periodic with long intervals (in Ver at the time of the exercise itself) between episodes. In short in time, the body keeps the memory of the episodes physical requirement that was placed on the muscles.

Diese Erinnerung verstärkt sich mit der Fortsetzung der Übung. Wenn der Gewichtheber eine Woche weitermacht, wird er bemerken, daß das Heben desselben Gewichts am Ende dieser Woche etwas leichter sein wird als am Beginn.This memory increases with the continuation of the exercise. If the weight lifter continues for a week, he will notice that lifting the same weight a bit at the end of this week will be easier than at the beginning.

Wenn er mit dem Training einen Monat fortfährt, wird er finden, daß er noch mehr Gewicht heben kann mit der gleichen scheinba­ ren Anstrengung, die benötigt war für weniger Gewicht in den Anfangstagen.If he continues training for a month, he will find that he can lift even more weight with the same apparent weight the effort that was needed for less weight in the Early days.

Fortgesetztes regelmäßiges Training wird zu physischen Verän­ derungen in der Muskulatur führen. Muskelpakete werden anschwellen, wenn neues Gewebe aufgebaut wird, um die fortgesetzten Anforderungen erfüllen zu helfen. Eine Art Langzeitgedächtnis wird sich ergeben, wodurch dieses neue Gewebe für einige Zeit vorhanden bleiben wird, auch wenn das Training für eine Weile aufgegeben wurde.Continued regular training turns into physical changes changes in the muscles. Muscle packs swell when new tissue is built up around the to help meet continued requirements. A kind of Long-term memory will emerge, making this new Tissue will remain in place for some time, even if that Training has been abandoned for a while.

Warum produziert der Körper dieses neue Gewebe nicht bei der ersten oder sogar der zweiten Anforderungepisode? Der Grund dafür ist, daß biologische Gewebe sich entwickelt haben, um der stochastischen Natur der Umwelt zu begegnen. Sie sind inhärent (von Natur aus) konservativ und halten nur die Menge von An­ sprechvermögen aufrecht, wie es "normalerweise" notwendig ist, um das tägliche Leben zu meistern. Nur nachdem der Körper wie­ derholt den neuem Anforderungsniveau ausgesetzt wurde, spricht er durch Erzeugen von neuer Muskelfaser an.Why doesn't the body produce this new tissue at first or even second requirement episode? The reason is that biological tissues have evolved to to meet the stochastic nature of the environment. They are inherent (inherently) conservative and only hold the amount of an speak upright, as is "normally" necessary, to master everyday life. Only after the body like who was repeatedly exposed to the new level of requirements speaks he starts by creating new muscle fiber.

Was geschieht mit dem Atheleten, der mit dem Training nachläßt? Bis zu einem gewissen Punkt hängt dies davon ab, wielange er trainiert hat. Wenn er nach einer Woche aufhört, dann wird er ungefähr innerhalb einer weiteren Woche zu seiner Fähigkeit vor dem Training zurückgekehrt sein. Wenn er jedoch nach 6 Monaten Training aufhört, kann es viele Monate dauern, bis die neue Kapazität zurück auf das Niveau vor dem Training schwindet. Sollte der Athlet ein Trainingsprogramm innerhalb mehrerer Monate nach dem Aufhören wiederaufnehmen, ist es in der Tat wahr­ scheinlich, daß er seine Spitzenleistung in einer relativ kurzen Zeit verglichen mit dem Anfangsprozeß wiedergewinnt. Dies hat seinen Grund in der Langzeitgedächtniswirkung des adaptiven Ansprechens.What happens to the athlete who loses training? To a certain extent, it depends on how long he is has trained. If he stops after a week, then he will  about his ability within another week returned to training. If, however, after 6 months Training stops, it can take many months for the new one Capacity wilts back to the level before training. The athlete should complete a training program within several months after resuming it is indeed true apparently that he is peak at a relative level short time compared to the initial process. This is due to the long-term memory effect of the adaptive response.

Tatsächlich zeigt das adaptive Ansprechen von biologischen Systemen, daß Lernen nicht streng genommen eine Korrelation zwischen zwei Signalen ist. Vielmehr ist eine allgemeinere Betrachtungsweise, daß Lernen auf dem Verschlüsseln von Information basiert, die in dem sich zeitlich verändernden Signal entlang eines einzelnen Eingangskanals innewohnt.Indeed shows the adaptive response of biological Systems that learning is not strictly a correlation is between two signals. Rather, it is a more general one Consideration that learning on encrypting Information based in the changing over time Signal inherent in a single input channel.

Die vorliegende Erfindung ist darauf gerichtet, einen Prozessor vorzusehen als einen Baustein eines Neuralnetzwerks, das auf diesem eher grundlegenden Lerngesetz basiert.The present invention is directed to a processor to be provided as a building block of a neural network based on based on this rather basic learning law.

Gemäß einem Aspekt der vorliegenden Erfindung wird ein synap­ tischer Prozessor vorgesehen zum Erzeugen eines Ergebnissignals infolge eines Eingangssignals. Der synaptische Prozessor umfaßt erste und zweite Erwartungen (expectations). Der synaptische Prozessor modifiziert die erste Erwartung als eine Funktion des Eingangssignals und der zweiten Erwartung und modifiziert die zweite Erwartung als eine Funktion der ersten Erwartung. Das Ergebnissignal wird bestimmt infolge der ersten Erwartung.According to one aspect of the present invention, a synap tical processor provided for generating a result signal due to an input signal. The synaptic processor includes first and second expectations. The synaptic The processor modifies the first expectation as a function of the Input signal and the second expectation and modified the second expectation as a function of the first expectation. The Result signal is determined based on the first expectation.

Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist ein Verarbeitungselement vorgesehen. Das Verarbeitungselement umfaßt einen synaptischen Eingabeprozessor zum Erzeugen eines Ergebnissignals infolge eines Eingangssignals. Der synaptische Eingangsprozessor umfaßt erste und zweite Erwartungen. Der synaptische Prozessor modifiziert die erste Erwartung als eine Funktion des Eingangssignals und der zweiten Erwartung und modifiziert die zweite Erwartung als eine Funktion der ersten Erwartung. Das Ergebnissignal wird bestimmt infolge der ersten Erwartung. Das Verarbeitungselement erzeugt ein Ausgabesignal infolge des Ergebnissignals und eines Schwellensignals.According to a further aspect of the present invention, a Processing element provided. The processing element includes a synaptic input processor to generate a Result signal due to an input signal. The synaptic Input processor includes first and second expectations. The synaptic processor modifies the first expectation as one Function of the input signal and the second expectation and  modifies the second expectation as a function of the first Expectation. The result signal is determined as a result of the first Expectation. The processing element generates an output signal due to the result signal and a threshold signal.

Fig. 1 ist ein Blockdiagramm eines synaptischen Prozessors oder einer Adaptrode; Fig. 1 is a block diagram of a synaptic processor or Adaptrode;

Fig. 2 ist eine schematische Darstellung der Eingabeerwar­ tungsmodifikationsmittel des synaptischen Prozessors in Fig. 1; Fig. 2 is a schematic representation of the input modification means of the synaptic processor in Fig. 1;

Fig. 3 ist eine schematische Darstellung der ergebnissignal­ erzeugenden Mittel des synaptischen Prozessors von Fig. 1; Fig. 3 is a schematic representation of the result signal generating means of the synaptic processor of Fig. 1;

Fig. 4 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit linearer Verstärkung auf ein Eingabesignal mit einer hohen Eingangserwartung zeigt; Fig. 4 is a graphical representation showing the response of the input expectation of a single-level adapter with linear gain to an input signal with a high input expectation;

Fig. 5 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit linearer Verstärkung auf ein Eingabesignal mit einer Adaptrode mit einer niedrigen Eingabeerwartung zeigt; Fig. 5 is a graph showing the response of the input expectation of a single level and linear gain gain to an input signal of an adapter with a low input expectation;

Fig. 6 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit nicht-linearer Verstärkung auf ein Eingabesignal mit hoher Intensität und von kurzer Dauer zeigt; Fig. 6 is a graph showing the response of the input expectation of a single level, non-linear gain adaptrode to a high intensity, short duration input signal;

Fig. 7 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit nicht-linearer Verstärkung auf ein Eingabesignal mit hoher Intensität und von mittlerer Dauer zeigt; Fig. 7 is a graph showing the response of the input expectation of a single level, non-linear gain adapter to an input signal of high intensity and medium duration;

Fig. 8 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit nicht-linearer Verstärkung auf ein Eingabesignal mit hoher Intensität und von langer Dauer zeigt; Fig. 8 is a graph showing the response of the input expectation of a single level, non-linear gain adaptrode to a high intensity, long duration input signal;

Fig. 9 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit nicht-linearer Verstärkung auf ein sättigendes Eingabesignal zeigt; Fig. 9 is a graph showing the response of input expectation of a single level, non-linear gain adaptrode to a saturating input signal;

Fig. 10 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit nicht linearer Verstärkung auf ein stochastisches Eingabesignal zeigt; Fig. 10 is a graph showing the response of the input expectation of a single level, non-linear gain adaptrode to a stochastic input signal;

Fig. 11 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit nicht-linearer Verstärkung auf ein sequentielles Eingabesignal zeigt; Fig. 11 is a graph showing the response of the input expectation of a single level, non-linear gain adaptrode to a sequential input signal;

Fig. 12 ist eine graphische Darstellung, die das Ansprechen der Eingaberwartung einer Adaptrode mit einer einzigen Ebene mit linearer Verstärkung auf ein Eingabesignal mit hoher Intensität und von kurzer Dauer zeigt; Fig. 12 is a graph showing the response of the input expectation of a single level linear gain adaptrode to a high intensity, short duration input signal;

Fig. 13 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene mit mit linearer Verstärkung auf ein Eingabesignal mit hoher Intenität und von mittlerer Dauer zeigt; Fig. 13 is a graph showing the response of the input expectation of a single-level adapter with linear gain to an input signal of high intensity and of medium duration;

Fig. 14 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene mit linearer Verstärkung auf ein Eingabesignal mit hoher Intensität und von langer Dauer zeigt, Fig. 14 is a graph showing the response of the input anticipation of a Adaptrode with a single plane with linear amplification to an input signal with high intensity and of long duration,

Fig. 15 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene mit linearer Verstärkung auf ein sättigendes Eingabesignal zeigt; Fig. 15 is a graphical representation showing the response of the input expectation of a single level linear gain adapter to a saturating input signal;

Fig. 16 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene mit linearer Verstärkung auf ein stochastisches Eingabesignal zeigt; Fig. 16 is a graph showing the response of the input expectation of a single level linear gain adapter to a stochastic input signal;

Fig. 17 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene mit linearer Verstärkung auf ein sequentielles Eingabesignal zeigt; Fig. 17 is a graph showing the response of the input expectation of a single level linear gain adapter to a sequential input signal;

Fig. 18 ist ein Blockdiagramm eines synaptischen Prozessors oder Adaptrode mit mehreren Ebenen; Figure 18 is a block diagram of a multi-level synaptic processor or adapter;

Fig. 19 ist eine graphische Darstellung des synaptischen Pro­ zessors mit mehreren Ebenen von Fig. 18; Fig. 19 is a graphical representation of the multi-level synaptic processor of Fig. 18;

Fig. 20 ist eine graphische Darstellung eines synaptischen Pro­ zessors mit mehreren Ebenen, der eine Durchlaß- oder Torfunktion verwendet; Fig. 20 is a graphical representation of a multilevel synaptic processor using a pass or gate function;

Fig. 21 ist eine schematische Darstellung der erwartungs­ modifizierenden Mittel eines synaptischen Prozessors mit drei Ebenen; Figure 21 is a schematic representation of the expectation modifying means of a three level synaptic processor;

Fig. 22 ist eine schematische Darstellung der wirksammachungs­ signalerzeugenden Mittel von Fig. 18; Fig. 22 is a schematic illustration of the efficacious signal generating means of Fig. 18;

Fig. 23 ist eine schematische Darstellung der Hürdenzeichen­ quelle von Fig. 22; Fig. 23 is a schematic illustration of the hurdle sign source of Fig. 22;

Fig. 24 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-liearen Verstärkungen auf ein Eingabesignal von hoher Intensität und kurzer Dauer zeigt; Fig. 24 is a graph showing the response of the expectations of a three-level, non-linear gain adapter to an input signal of high intensity and short duration;

Fig. 25 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein Eingabesignal von hoher Intensität und mittlerer Dauer zeigt; Fig. 25 is a graph showing the response of the expectations of a three-level, non-linear gain adapter to an input signal of high intensity and medium duration;

Fig. 26 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein Eingabesignal von hoher Intensität und langer Dauer zeigt; Fig. 26 is a graphical representation showing the response of expectations of a three-level, non-linear gain adapter to an input signal of high intensity and long duration;

Fig. 27 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein sättigendes Eingabesignal von hoher Intensität zeigt; Fig. 27 is a graph showing the response of the expectations of a three-level, non-linear gain adapter to a high intensity saturating input signal;

Fig. 28 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein stochastisches Eingabesignal zeigt; Fig. 28 is a graphical representation showing the response of the expectations of a three-level adaptrode with non-linear gains to a stochastic input signal;

Fig. 29 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein sequentielles Eingabesignal zeigt; Fig. 29 is a graphical representation showing the response of the expectations of a three-level, non-linear gain adapter to a sequential input signal;

Fig. 30 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein Eingabesignal von hoher Intensität und kurzer Dauer zeigt, wobei die zweite Erwartung mit einem Tor oder Gate versehen ist; Fig. 30 is a graphical representation showing the response of expectations of a three-level, non-linear gain adapter to an input signal of high intensity and short duration, with the second expectation provided with a gate;

Fig. 31 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und nicht­ linearen Verstärkungen auf ein Eingabesignal von hoher Intensität und mittlerer Dauer zeigt, wobei die zweite Erwartung mit einem Gate versehen ist; Fig. 31 is a graphical representation showing the response of expectations of a three level, nonlinear gain adapter to a high intensity, medium duration input signal with the second expectation gated;

Fig. 32 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein Eingabesignal von hoher Intensität und langer Dauer zeigt, wobei die zweite Erwartung mit einem Gate versehen ist; Fig. 32 is a graph showing the response of expectations of a three-level, non-linear gain adapter to an input signal of high intensity and long duration with the second expectation gated;

Fig. 33 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein sättigendes Eingabesignal von hoher Intensität zeigt, wobei die zweite Erwartung mit einem Gate versehen ist; Fig. 33 is a graphical representation showing the response of the expectations of a three-level, non-linear gain adapter to a high intensity saturating input signal with the second expectation gated;

Fig. 34 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein stochastisches Eingabesignal zeigt, wobei die zweite Erwartung mit einem Gate versehen ist; Fig. 34 is a graph showing the response of the expectations of a three-level, non-linear gain adapter to a stochastic input signal, the second expectation being gated;

Fig. 35 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linaren Verstärkungen auf ein sequentielles Eingabesignal zeigt, wobei die zweite Erwartung mit einem Gate versehen ist; Fig. 35 is a graphical representation showing the response of the expectations of a three-level, non-linear gain adapter to a sequential input signal with the second expectation gated;

Fig. 36 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein Eingabesignal von hoher Intensität und von kurzer Dauer zeigt, wobei die erste Erwartung eine lineare Verstärkung hat; Fig. 36 is a graph showing the response of expectations of a three-level adapter to a high intensity, short duration input signal, the first expectation having a linear gain;

Fig. 37 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein Eingabesignal von hoher Intensität und mittlerer Dauer zeigt, wobei die erste Erwartung eine lineare Verstärkung hat; Fig. 37 is a graph showing the response of the expectations of a three level adapter to a high intensity, medium duration input signal, the first expectation having a linear gain;

Fig. 38 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartungen einer Adaptrode mit drei Ebenen auf ein Eingabesignal von hoher Intensität und langer Dauer zeigt, wobei die erste Erwartung eine lineare Verstärkung hat; Fig. 38 is a graph showing the response of input expectations of a three-level adapter to a high intensity, long duration input signal, the first expectation having a linear gain;

Fig. 39 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein sättigendes Eingabesignal von hoher Intensität zeigt, wobei die erste Erwartung eine lineare Verstärkung hat; Fig. 39 is a graph showing the response of expectations of a three level adapter to a high intensity saturating input signal, the first expectation having a linear gain;

Fig. 40 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein stochastisches Eingabesignal zeigt, wobei die erste Erwartung eine lineare Verstärkung hat; Fig. 40 is a graph showing the response of the expectations of a Adaptrode with three levels on a stochastic input signal, wherein the first expectation has a linear gain;

Fig. 41 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein sequentielles Eingabesignal zeigt, wobei die erste Erwartung eine lineare Verstärkung hat; Fig. 41 is a graph showing the response of the expectations of a three level adapter to a sequential input signal, the first expectation having a linear gain;

Fig. 42 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein Eingabesignal von hoher Intensität und kurzer Dauer zeigt, wobei die erste Erwartung eine lineare Verstärkung hat und wobei die zweite Erwartung mit einem Gate versehen ist; Fig. 42 is a graphical representation showing the response of the expectations of a three-level adapter to a high intensity, short duration input signal, the first expectation having a linear gain and the second expectation having a gate;

Fig. 43 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein Eingabesignal von hoher Intensität und mittlere Dauer zeigt, wobei die erste Erwartung eine lineare Verstärkung hat und wobei die zweite Erwartung mit einem Gate versehen ist; Fig. 43 is a graph showing the response of the expectations of a three-level adapter to a high intensity, medium duration input signal, the first expectation having a linear gain and the second expectation having a gate;

Fig. 44 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein Eingabesignal von hoher Intensität und langer Dauer zeigt, wobei die erste Erwartung eine lineare Verstärkung hat und wobei die zweite Erwartung mit einem Gate versehen ist; Fig. 44 is a graph showing the response of the expectations of a three-level adapter to a high intensity, long duration input signal, the first expectation having a linear gain and the second expectation having a gate;

Fig. 45 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein sättigendes Eingabesignal von hoher Intensität zeigt, wobei die erste Erwartung eine lineare Verstärkung hat und wobei die zweite Erwartung mit einem Gate versehen ist; Fig. 45 is a graph showing the response of the expectations of a three-level adapter to a high intensity saturating input signal, the first expectation having a linear gain and the second expectation being gated;

Fig. 46 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein stochastisches Eingabesignal zeigt, wobei die erste Erwartung eine lineare Verstärkung hat und wobei die zweite Erwartung mit einem Gate versehen ist; Fig. 46 is a graphical representation showing the response of the expectations of a three-level adapter to a stochastic input signal, the first expectation having a linear gain and the second expectation being gated;

Fig. 47 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein sequentieles Eingabesignal zeigt, wobei die erste Erwartung eine lineare Verstärkung, und wobei die zweite Erwartung mit einem Gate versehen ist; Fig. 47 is a graphical representation showing the response of the expectations of a three-level adapter to a sequential input signal, the first expectation being a linear gain and the second expectation being gated;

Fig. 48 ist ein Blockdiagramm eines Verarbeitungselements mit einer Eingabeadaptrodenanordnung, einen Addier- und Ausgabeprozessor und einem Schwellenprozessor; Fig. 48 is a block diagram of a processing element with an input adapter arrangement, an add and output processor and a threshold processor;

Fig. 49 ist eine graphische Darstellung des Addier-und Ausgabeprozessors von Fig. 48; Fig. 49 is a graphical representation of the add and output processor of Fig. 48;

Fig. 50 ist eine schematische Darstellung des Multiplika­ tionsgitters von Fig. 49; Fig. 50 is a schematic illustration of the multiplication grid of Fig. 49;

Fig. 51 ist eine schematische Darstellung des Schwellen­ prozessors von Fig. 48; Fig. 51 is a schematic illustration of the threshold processor of Fig. 48;

Fig. 52 ist eine graphische Darstellung von zwei synaptischen Prozessoren, wobei die Ausgabe des einen verwendet wird als Gate für den anderen; Figure 52 is a graphical representation of two synaptic processors, with the output of one used as a gate for the other;

Fig. 53 ist eine Legende für Fig. 58-64; Fig. 53 is a legend for Figs. 58-64;

Fig. 54 ist ein Blockdiagramm eines assoziativen Netzwerks mit zwei Neuristoren, das die Assoziation bei konditioniertem Ansprechen zeigt; Figure 54 is a block diagram of an associative network with two neuristors showing the association in conditioned response;

Fig. 55 ist ein Blockdiagramm des Netzwerks von Fig. 54, in dem ein bedingter Reiz oder Stimulus assoziert worden ist mit einem nicht-bedingten Stimulus/Ansprechen; Fig. 55 is a block diagram of the network of Fig. 54 in which a conditional stimulus has been associated with an unconditional stimulus / response;

Fig. 56 ist ein Blockdiagramm des Netzwerks von Fig. 55 nach einer Periode ohne Stimulus; Fig. 56 is a block diagram of the network of Fig. 55 after a period without stimulus;

Fig. 57 ist ein Blockdiagramm des Netzwerks, das die bedingte Stimulus/Ansprech-Assoziation von Fig. 56 zeigt; Fig. 57 is a block diagram of the network showing the conditional stimulus / response association of Fig. 56;

Fig. 58 ist ein Blockdiagramm des Netzwerks von Fig. 57, das die Wirkung eines gegenteiligen, nicht bedingten Stimulus zeigt; Figure 58 is a block diagram of the network of Figure 57 showing the effect of an opposite unconditional stimulus;

Fig. 59 ist ein Blockdiagramm des Netzwerks von Fig. 58, das die Wirkung einer nachfolgenden zeitweise bedingten Stimulus/Ansprech-Assoziation zeigt; und Figure 59 is a block diagram of the network of Figure 58 showing the effect of a subsequent intermittent stimulus / response association; and

Fig. 60 ist ein Blockdiagramm des Netzwerks von Fig. 63, das die Langzeitassoziation zwischen dem bedingten Ansprechen und dem ersten nicht-bedingten Stimulus zeigt. FIG. 60 is a block diagram of the network of FIG. 63, showing the long-term association between the conditional response and the first non-conditional stimulus.

Beste Art zum Ausführen der ErfindungBest mode for carrying out the invention

Bezüglich Fig. 1 ist ein Ausführungsbeispiel eines synaptischen Prozessors 102 oder eine Adaptrode mit einer einzigen Ebene zur Verwendung in einem Neuralnetzwerk gezeigt.Referring to Fig. 1 is shown an embodiment of a synaptic processor 102 or a Adaptrode with a single plane for use in a neural network.

Es sei darauf hingewiesen, daß ein Teil dieser Anmeldung durch Urheberrecht (Copyright) geschütztes Material enthält.It should be noted that part of this application is by Contains copyrighted material.

Herkömmlicherweise wurden Neuralnetzwerke ausgeführt unter Verwendung eines weiten Bereichs von Technologien. Diese Tech­ nologien können analog oder digital sein. Die tatsächliche Um­ setzung verändert sich mit der Anwendung, basierend beispiels­ weise auf der Netzwerkkomplexität. Während Analogschaltungen eine kostengünstige, aber schnelle Anwendung vorsehen, werden größere Netzwerke beschwerlich und einige Genauigkeit geht verloren. Komplexere Netzwerke werden allgemein auf All­ zweckcomputern oder speziell entworfener Hardware ausgeführt. Aus diesem Grund ist es praktisch, die vorliegende Erfindung mathematisch zu beschreiben. Es sei jedoch bemerkt, daß die vorliegende Erfindung nicht auf eine solche mathematische Ausführung oder sogar auf eine anloge oder digitale Ausführung beschränkt ist.Traditionally, neural networks have been run under Use a wide range of technologies. This tech Technologies can be analog or digital. The actual order Settlement changes with the application, based on example wise on network complexity. During analog circuits provide an inexpensive but quick application larger networks arduous and some accuracy goes lost. More complex networks are generally based on All purpose computers or specially designed hardware. For this reason, it is practical to use the present invention to describe mathematically. However, it should be noted that the present invention does not apply to such a mathematical  Execution or even analogue or digital execution is limited.

Der synaptische Prozessor 102 empfängt ein Eingabesignal X und erzeugt ein Ergebnissignal r. Das Ergebnissignal ist eine Funktion einer Eingangserwartung W0, wie unten beschrieben.The synaptic processor 102 receives an input signal X and generates a result signal r. The result signal is a function of an input expectation W 0 , as described below.

In Teilen der folgenden Diskussion wird eine Unterscheidung gemacht zwischen einem kontinuierlichen System und einem dis­ kreten System. In einem kontinuierlichen System werden die Systemparameter kontinuierlich auf den neuesten Stand gebracht und werden als kontinuierlich variabel bezeichnet. In einem diskreten System werden die Systemparameter in diskreten Zeitintervallen, typischerweise als Δt bezeichnet, auf den neuesten Stand gebracht.In parts of the following discussion there is a distinction made between a continuous system and a dis cretan system. In a continuous system, the System parameters continuously updated and are called continuously variable. In one discrete system, the system parameters are in discrete Time intervals, typically referred to as Δt, on the brought up to date.

Ferner wird der Ausdruck Intensität wie in hoher Intensität oder mittlerer Intensität bei der Beschreibung des Eingabe­ signals verwendet. Beispielsweise besteht in einem diskreten System, in dem das Eingabesignal als eine Serie von Pulsen mit einer eingestellten Breite gebildet wird, ein Eingabesignal von hoher Intensität hauptsächlich aus Pulsen. Die Adaptrode 102 mit einer Ebene umfaßt Mittel 104 zur Anfangseinstellung (Initialisierung) der Eingabeerwartung. Die Eingabeerwartung W0 ist begrenzt durch eine Maximalerwartung WM und eine Gleichgewichtserwartung WE. In einem Ausführungsbeispiel ist der Eingabeerwartung W0 der Anfangswert gleich WE, typischerweise Null (0) gegeben.Furthermore, the expression intensity such as high intensity or medium intensity is used in the description of the input signal. For example, in a discrete system in which the input signal is formed as a series of pulses with a set width, a high intensity input signal consists mainly of pulses. The single-level adapter 102 comprises means 104 for initial setting (initialization) of the input expectation. The input expectation W 0 is limited by a maximum expectation W M and an equilibrium expectation W E. In one embodiment, the input expectation W 0 is given the initial value equal to W E , typically zero (0).

Ein Mittel 106 empfängt das Eingabesignal und ermittelt eine Größe des Eingabesignals. Die Größe des Eingabesignals ist abhängig von der genauen Beschaffenheit des Signals. Beispielsweise kann das Eingabesignal in einem kontinuierlichen System eine sich ändernde Frequenz haben. Das Eingabesignal kann auch eine sich ändernde kontinuierliche Spannung oder Strom haben. Wenn das Neuralnetzwerk digital ausgeführt wird, ist das Eingabesignal ein logischer Pegel niedrig (0) oder ein logischer Pegel hoch (nicht-Null). Means 106 receives the input signal and determines one Size of the input signal. The size of the input signal is depending on the exact nature of the signal. For example, the input signal can be in a continuous System have a changing frequency. The input signal can also be a changing continuous voltage or Have electricity. If the neural network is digital, the input signal is a logic level low (0) or on logic level high (non-zero).  

Mittel oder eine Prozeßeinheit 108 modifiziert die Einga­ beerwartung W0. Die Mittel 108 errechnen eine Nettomodifikation für die Eingabeerwartung. Die Nettomodifikation wird zu der vorherigen Eigabeerwartung addiert, um eine neue Eingabeer­ wartung zu bilden. Die Nettomodifikation hat einen Vergröße­ rungsterm und einen Verkleinerungsterm. Der Vergrößerungsterm neigt zum Vergrößern der Eingabeerwartung und der Verkleine­ rungsterm neigt zum Verkleinern der Eingabeerwartung. Der Nettoeffekt der beiden Terme hängt von ihrer relativen Größe ab.Means or a process unit 108 modifies the input waiting W 0 . The means 108 calculate a net modification for the input expectation. The net modification is added to the previous input expectation to form a new input expectation. The net modification has an enlargement term and a reduction term. The enlargement term tends to increase the input expectation and the decrease term tends to decrease the input expectation. The net effect of the two terms depends on their relative size.

Die Eingabeerwartung W0 stellt die gegenwärtige Erwartung der Adaptrode bezüglich der Intensität des Eingabesignals dar. Die Adaptrode adaptiert oder lernt von dem Eingabesignal. Das heißt, die Adaptrode behält eine Erinnerung über die Einga­ beerwartung seiner Vergangenheit. Seine Erwartung des zukünf­ tigen Eingabesignals basiert auf dieser Vergangenheit.The input expectation W 0 represents the current expectation of the adapter with regard to the intensity of the input signal. The adapter adapts or learns from the input signal. In other words, the Adaptrode keeps a memory of the waiting for his past. His expectation of the future input signal is based on this past.

Der Vergrößerungsterm ist eine Funktion des Eingabesignals und neigt dazu, die Eingabeerwartung "hochzuziehen". Der Verklei­ nerungsterm ist keine Funktion des Eingabesignals und versieht die Adaptrode mit einer eingebauten Voreinstellung, und zwar zu erwarten, daß sie auf lange Sicht ein schwaches Signal empfangen wird.The magnification term is a function of the input signal and tends to "pull up" the input expectation. The sales The term is not a function of the input signal and provides the adaptrode with a built-in preset, to expect them to send a weak signal in the long run Will be received.

In einem Ausführungsbeispiel ist der Vergrößerungsterm eine Funktion des Eingabesignals, und der Verkleinerungsterm ist unabhängig von dem Eingabesignal. In einem anderen Ausfüh­ rungsbeispiel ist der Vergrößerungsterm eine Funktion einer Steigkonstanten α0 und der Verkleinerungsterm ist eine Funktion einer Abfallkonstanten δ0. Ferner sind die Steig- und Ab­ fallkonstanten unabhängig. In einem weiteren Ausführungs­ beispiel ist der Vergrößerungsterm eine Funktion von nur einem Eingabesignal.In one embodiment, the increase term is a function of the input signal and the decrease term is independent of the input signal. In another exemplary embodiment, the increase term is a function of a rise constant α 0 and the decrease term is a function of a decrease constant δ 0 . Furthermore, the rise and fall constants are independent. In another embodiment, the magnification term is a function of only one input signal.

In einem ersten Ausführungsbeispiel wird die Eingabeerwartung folgendermaßen modifiziert:In a first embodiment, the input expectation modified as follows:

W⁰ = W⁰p + X · α⁰ · [WM - W⁰p] - δ⁰ · [W⁰p - WE] (Gl. 1)W⁰ = W⁰ p + X · α⁰ · [W M - W⁰ p ] - δ⁰ · [W⁰ p - W E ] (Eq. 1)

wobeiin which

W⁰ = die neue Eingabeerwartung,
W⁰p = die vorherige Eingabeerwartung,
X = das Eingabesignal,
α⁰ = die Steigkonstante,
WM = die Maximalerwartung,
δ⁰ = eine Abfallkonstante, und
WE = die Gleichgewichtserwartung
W⁰ = the new input expectation,
W⁰ p = the previous input expectation,
X = the input signal,
α⁰ = the climb constant,
W M = the maximum expectation,
δ⁰ = a drop constant, and
W E = equilibrium expectation

ist.is.

Im ersten Ausführungsbeispiel ist der Vergrößerungsterm eine nicht-lineare Funktion. Daher sagt man, daß eine Adaptrode mit einer Ebene entsprechend dem ersten Ausführungsbeispiel eine nicht-lineare Verstärkung hat.In the first embodiment, the enlargement term is one non-linear function. It is therefore said that an adapter with a level corresponding to the first embodiment has non-linear gain.

In einem zweiten Ausführungsbeispiel wird die Eingabeerwartung folgendermaßen modifiziert:In a second embodiment, the input expectation modified as follows:

W⁰ = W⁰p + X · α⁰ - δ⁰ · [W⁰p - WE] (Gl. 2)W⁰ = W⁰ p + X · α⁰ - δ⁰ · [W⁰ p - W E ] (Eq. 2)

In dem zweiten Ausführungsbeispiel ist der Vergrößerungsterm eine lineare Funktion. Daher sagt man, daß die Adaptrode gemäß dem zweiten Ausführungsbeispiel eine lineare Verstärkung hat. Ferner ist die Eingabeerwartung W0 nicht ausdrücklich auf einen Maximalwert begrenzt. Jedoch hat eine Simulation gezeigt, daß Gleichung 2 einen maximalen Stetigzustandsgleichgewichtswert erreicht, wenn ein kontinuierliches Eingabesignal über eine geeignete Zeitperiode vorhanden ist. Der exakte Maximalwert ist eine Funktion der Gleichungsparameter, der Intensität des Ein­ gabesignals und der Größe des Eingabesignals.In the second embodiment, the magnification term is a linear function. Therefore, it is said that the adapter according to the second embodiment has a linear gain. Furthermore, the input expectation W 0 is not expressly limited to a maximum value. However, simulation has shown that Equation 2 achieves a maximum steady state equilibrium value when a continuous input signal is present for an appropriate period of time. The exact maximum value is a function of the equation parameters, the intensity of the input signal and the size of the input signal.

Sowohl in linearen wie nicht-linearen Verstärkungsmodellen sind die Ratenkonstanten so eingestellt, daß die Abfallrate über einen längeren Zeitrahmen besteht als die Steigrate. Das heißt, α0 ist größer als δ0. Bezüglich Fig. 2 umfassen die eingabe- erwartungsmodifizierenden Mittel 108 Mittel 202 zum Bestim­ men des Vergrößerungsterms und Mittel 204 zum Bestimmen des Verkleinerungsterms.In both linear and non-linear gain models, the rate constants are set so that the rate of fall is longer than the rate of climb. That is, α 0 is larger than δ 0 . Referring to FIG. 2, the input erwartungsmodifizierenden means comprise means 202 for 108 men Bestim the magnification term and means 204 for determining the reduction term.

Aus Gleichung 1 ist der Vergrößerungsterm:From equation 1 the magnification term is:

X · α⁰ · [WM - W⁰p].X · α⁰ · [W M - W⁰ p ].

In dem bevorzugten Ausführungsbeispiel ist der Vergröße­ rungsterm positiv und wird zur Eingabeerwartung addiert. Die den Vergrößerungsterm bestimmenden Mittel 202 umfassen einen Verzögerungsblock 206 zum Erzeugen einer verzögerten oder vorherigen Eingabeerwartung W0 p. Die verzögerte Eingabeer­ wartung (W0 p) wird von der maximalen Erwartung WM durch einen ersten Addierer (Summierer) 208 abgezogen. Ein erster Multiplizierer 210 multipliziert die Ausgabe des ersten Addierers 208 mit der Steigkonstante α0.In the preferred embodiment, the magnification term is positive and is added to the input expectation. The means 202 determining the enlargement term comprise a delay block 206 for generating a delayed or previous input expectation W 0 p . The delayed input expectation (W 0 p ) is subtracted from the maximum expectation WM by a first adder (summer) 208. A first multiplier 210 multiplies the output of the first adder 208 by the rising constant α 0 .

In ähnlicher Weise ist der Verkleinerungsterm in Gleichung 1 definiert als:Similarly, the reduction term in Equation 1 is defined as:

δ⁰ · [W⁰p - WE].δ⁰ · [W⁰ p - W E ].

In dem bevorzugten Ausführungsbeispiel ist der Verkleine­ rungsterm positiv und wird von der Eingabeerwartung abgezogen. Die den Verkleinerungsterm bestimmenden Mittel 204 umfassen einen zweiten Addierer 212 zum Abziehen der Gleichgewichts­ erwartung von der verzögerten Eingabeerwartung. Ein zweiter Multiplizierer 214 multipliziert die Ausgabe des zweiten Addierers 212 mit der Abfall- oder Verfallkonstanten δ0. Ein dritter Multiplizierer 216 multipliziert die Ausgabe des ersten Multiplizierers 210 mit dem Eingabesignal X. Ein dritter Addierer 218 addiert die Ausgabe des dritten Multiplizierers 216 und zieht die Ausgabe des zweiten Multiplizierers 214 von der verzögerten Eingabeerwartung ab, um die neue Eingabeerwartung W0 zu bilden. In the preferred embodiment, the decrease term is positive and is subtracted from the input expectation. The means 204 determining the reduction term comprise a second adder 212 for subtracting the equilibrium expectation from the delayed input expectation. A second multiplier 214 multiplies the output of the second adder 212 by the decay constant δ 0 . A third multiplier 216 multiplies the output of the first multiplier 210 by the input signal X. A third adder 218 adds the output of the third multiplier 216 and subtracts the output of the second multiplier 214 from the delayed input expectation to form the new input expectation W 0 .

Mit Bezug wieder auf Fig. 1 erzeugt ein Mittel 110 ein Er­ gebnissignal r als eine Funktion der Eingabeerwartung W0. In einem Ausführungsbeispiel ist das Ergebnissignal eine lineare Funktion der Eingabeerwartung.Referring back to FIG. 1, means 110 generates a result signal r as a function of input expectation W 0 . In one embodiment, the result signal is a linear function of the input expectation.

In einem weiteren Ausführungsbeispiel ist das Ergebnissignal eine nicht-lineare Funktion der Eingabeerwartung. Zum Beispiel ist in einem kontinuierlichen System:In a further exemplary embodiment, the result signal is a non-linear function of input expectation. For example is in a continuous system:

r = K · W⁰ e- λτ (Gl. 3A)r = KW⁰ e - λτ ( Eq.3A )

wobeiin which

r = das Ergebnissignal,
k = eine erste Konstante,
W⁰ = die Eingabeerwartung,
λ = eine zweite Konstante, und
τ = ein vorbestimmtes Zeitdifferential
r = the result signal,
k = a first constant,
W⁰ = the input expectation,
λ = a second constant, and
τ = a predetermined time differential

ist.is.

Das Zeitdifferential τ wird bestimmt als die laufende Zeit minus der Zeit, bei der die Größe des Eingabesignals nicht-Null geworden ist. In einem weiteren Beispiel ist für ein diskretes System:The time differential τ is determined as the running time minus the time at which the size of the input signal is non-zero has become. Another example is for a discrete System:

r(t) = k · W⁰,r (t) = kW⁰,

wenn X < 0, oder anderenfallsif X <0, or otherwise

r(t) = r(t-Δt) - λ · r(t-Δ t) (Gl. 3B)r (t) = r (t-Δt) - λ · r (t-Δt) (Eq. 3B)

wobeiin which

r = das Ergebnissignal,
k = eine erste Konstante,
W⁰ = die Eingangserwartung, und
λ = eine zweite Konstante
r = the result signal,
k = a first constant,
W⁰ = the input expectation, and
λ = a second constant

ist.is.

Mit Bezug auf Fig. 3 sind die Ergebnissignal-erzeugenden Mittel 110 zum Umsetzen der Gleichung 3B gezeigt. Die Mittel 110 um­ fassen einen vierten Multiplizierer 302 zum Multiplizieren der Eingangserwartung W0 mit einer Konstanten k. Ein zweiter Ver­ zögerungsblock 303 gibt das Ergebnissignal an einen fünften Multiplizierer 304 und einen vierten Addierer 306 weiter. Der fünfte Multiplizierer 304 multipliziert das verzögerte Ergeb­ nissignal mit einer Konstanten. Der vierte Addierer 306 zieht die Ausgabe des fünften Multiplizierers 304 von dem verzögerten Ergebnissignal ab. Der Entscheidungsblock 308 vergleicht das Eingabesignal X mit einer Schwelle (zum Beispiel Null). Wenn das Eingabesignal größer ist die Schwelle, wird die Ausgabe des vierten Multiplizierers 302 durch den Steuerblock 310 weitergegeben. Anderenfalls wird die Ausgabe des vierten Addierers 306 weitergegeben.With reference to FIG. 3, the resultant signal-generating means 110 are shown for converting the equation 3B. The means 110 comprise a fourth multiplier 302 for multiplying the input expectation W 0 by a constant k. A second delay block 303 passes the result signal to a fifth multiplier 304 and a fourth adder 306. The fifth multiplier 304 multiplies the delayed result signal by a constant. The fourth adder 306 subtracts the output of the fifth multiplier 304 from the delayed result signal. Decision block 308 compares the input signal X to a threshold (e.g. zero). If the input signal is greater than the threshold, the output of fourth multiplier 302 is passed through control block 310. Otherwise the output of the fourth adder 306 is passed on.

Um gewisse Betriebszustände der Adaptrode 102 zu verdeutlichen, wird eine graphische Darstellung der Adaptrode 102 verwendet. Bezüglich der Fig. 4 und 5 wird ein Eingabesignal X an die Eingabeerwartung-modifizierenden Mittel 108 angelegt. Die Ver­ größerungs- und Verkleinerungsterme werden bestimmt und zum Bestimmen der neuen Eingabeerwartung verwendet. Die Ergebnis­ signal-erzeugenden Mittel 110 (Ansprecheinheit) bestimmen das Ergebnissignal als eine Funktion der Eingabeerwartung.A graphic representation of the adapter 102 is used to illustrate certain operating states of the adapter 102. Referring to Figs. 4 and 5 is applied an input signal X to the input expectation modifying means 108. The enlargement and reduction dates are determined and used to determine the new input expectation. The result signal generating means 110 (response unit) determine the result signal as a function of the input expectation.

Die Adaptrode 102 von Fig. 4 hat eine hohe Eingabeerwartung, wie durch den Balken 402 verdeutlicht wird. Im Gegensatz dazu hat der Balken 502 der Adaptrode 102 von Fig. 5 eine relativ geringe Eingabeerwartung. Ähnliche Darstellungen werden in der gesamten folgenden Diskussion verwendet, um wichtige Merkmale der vorliegenden Erfindung zu verdeutlichen.The adapter electrode 102 of FIG. 4 has a high input expectation, as is illustrated by the bar 402. In contrast, the bar 502 of the adapter 102 of FIG. 5 has a relatively low input expectation. Similar representations are used throughout the following discussion to illustrate important features of the present invention.

Mit Bezug auf die Fig. 6 bis 11 ist die Eingabeerwartung W0 einer Adaptrode 102 mit einer einzigen Ebene und nicht-linearer Verstärkung gezeigt für eine Anzahl von unterschiedlichen Ein­ gabesignalen. In jedem Beispiel sind die Steigkonstante α0 und die Verfallkonstante δ0 0,25 bzw. 0,125. Es sei bemerkt, daß diese Konstanten nur zu Zwecken der Darstellung gewählt wurden. Die maximale Erwartung WM ist auf eins gestellt, und die Gleichgewichtserwartung WE ist auf Null gestellt. Mit der Eingabeerwartung wird bei Null begonnen. Ferner hat das Ein­ gabesignal eine Größe von 1,0.With reference to FIGS. 6 to 11 the input expectation W 0 a Adaptrode 102 having a single plane and non-linear gain playback signal waveforms shown for a number of different A. In each example, the rise constant is α 0 and the decay constant is δ 0 0.25 and 0.125, respectively. It should be noted that these constants have been chosen for purposes of illustration only. The maximum expectation W M is set to one and the equilibrium expectation W E is set to zero. The input expectation starts from zero. Furthermore, the input signal has a size of 1.0.

Die graphischen Darstellungen, die in der folgenden Diskussion verwendet werden, stellen das Ansprechen der Eingabeerwartungs- modifizierenden Mittel 108 für ein diskretes System dar. Das heißt, die Eingabeerwartung wird in diskreten Zeitintervallen von δt modifiziert. Für eine Adaptrode 102 mit einer einzigen Ebene und nicht-linearer Verstärkung wird die Eingabeerwartung bestimmt durch:The graphs used in the following discussion used to respond to input expectations modifying means 108 for a discrete system  that is, the input expectation is at discrete time intervals modified from δt. For a single adapter adapter 102 Level and non-linear gain becomes the input expectation determined by:

W⁰(t) = W⁰ (t-Δt) + X(t) · α⁰ · [WM-W⁰ (t-Δt)] - δ⁰ · [W⁰ (t-Δt) - WE]. (Gl. 4A)W⁰ (t) = W⁰ (t-Δt) + X (t) · α⁰ · [W M -W⁰ (t-Δt)] - δ⁰ · [W⁰ (t-Δt) - W E ]. (Eq.4A)

Mit Bezug auf die Fig. 6-17 und 24-47 ist das Eingabesignal eine Reihe von Pulsen von konstanter Breite und Größe. Das Eingabesignal wird bei jeder Darstellung unten als ein Balken gezeigt. Der Balken zeigt an, daß das Eingabesignal nicht Null ist. Es sei bemerkt, daß, wähend die Darstellungen in Fig. 6-17 und 24-47 auf diskreten Daten basieren, die Daten durch ein Liniendiagramm dargestellt werden. Das Liniendiagramm ist be­ sonders zweckmäßig bei der Untersuchung der Ansprecheigen­ schaften der Adaptrode.With reference to FIGS. 6-17 and 24-47 the input signal is a series of pulses of constant width and size. The input signal is shown as a bar at each display below. The bar indicates that the input signal is not zero. It should be noted that while the representations in Figures 6-17 and 24-47 are based on discrete data, the data is represented by a line graph. The line diagram is particularly useful when examining the responsiveness of the adapter.

In Fig. 6 ist zur Zeit t=0 das Eingabesignal gleich Null und die Eingabeerwartung ist auch Null. Zur Zeit t=5 ist das Eingabesignal nicht-Null und hat eine Größe von 1,0. Die Ein­ gabe bleibt nicht-Null bis t=9.In Fig. 6 = 0 at time t, the input signal is equal to zero and the input expectation is also zero. At time t = 5, the input signal is non-zero and has a size of 1.0. The input remains non-zero until t = 9.

Wie gezeigt ist, während die Eingabe nicht-Null ist, der Vergrößerungsterm größer als der Verkleinerungsterm, und die Eingabeerwartung steigt exponentiell an. Nachdem das Eingabesignal wieder Null wird, fällt die Eingabeerwartung ab zu der Gleichgewichtserwartung WE hin.As shown, while the input is non-zero, the increase term is greater than the decrease term and the input expectation increases exponentially. After the input signal becomes zero again, the input expectation drops to the equilibrium expectation W E.

In Fig. 7 wird ein Eingabesignal von mittlerer Dauer an die Adaptrode angelegt. Wie gezeigt, wird ein Eingabesignal mit einer Größe von 1,0 zur Zeit t=5 angelegt und wird wieder Null bei t=14. Es sei bemerkt, daß die Nettomodifikation tatsächlich abnimmt, obwohl die Eingabeerwartung über die Zeitsperiode zunimmt, während der das Eingabesignal nicht Null ist. Dies wird der Tatsache zugeschrieben, daß der Vergröße­ rungsterm eine Funktion der Differenz zwischen der Maximaler­ wartung und der gegenwärtigen Erwartung ist und wegen den größer werdenden Wirkungen des Verkleinerungsterms.In Fig. 7, an input signal of medium duration is applied to the adapter. As shown, an input signal of magnitude 1.0 is applied at time t = 5 and becomes zero again at t = 14. It should be noted that the net modification actually decreases, although the input expectation increases over the period during which the input signal is not zero. This is attributed to the fact that the magnification term is a function of the difference between the maximum expectation and the current expectation and because of the increasing effects of the diminishing term.

Diese Wirkung wird weiter in Fig. 8 gezeigt, in der ein Eingabesignal von hoher Intensität und langer Dauer an die Adaptrode angelegt wird. Die Eingabeerwartung scheint sich einem bestimmten Wert anzunähern.This effect is further shown in Fig. 8, in which an input signal of high intensity and long duration is applied to the adapter. The input expectation seems to be approaching a certain value.

Wie in Fig. 9 gezeigt, erreicht die Eingabeerwartung in der Tat bei einem Eingabesignal von maximaler Intensität und konstanter Größe einen Sättigungspunkt oder Stetigzustands- oder Gleichgewichtswert. In dieser Situation gleichen der Vergrößerungsterm und der Verkleinerungsterm einander aus und die Nettomodifikation ist Null.Indeed, as shown in Figure 9, the input expectation reaches a saturation point or steady state or equilibrium value with an input signal of maximum intensity and constant size. In this situation, the enlargement term and the reduction term balance each other and the net modification is zero.

In Fig. 10 wurde, wie gezeigt, ein stochastisches oder Zu­ fallseingabesignal an die Adaptrode 102 angelegt. Wenn das Eingabesignal nicht-Null ist, läßt der Vergrößerungsterm die Nettomodifikation positiv werden, und wenn das Eingabesignal Null ist, läßt der Verkleinerungsterm die Nettomodifikation negativ werden.In Fig. 10, as shown, a stochastic or random input signal has been applied to the adapter 102. If the input signal is non-zero, the increase term will make the net modification positive, and if the input signal is zero, the decrease term will make the net modification negative.

In Fig. 11 wurde ein sequentielles Eingabesignal an die Adaptrode angelegt. Das heißt, daß das Eingabesignal nicht-Null ist für eine erste kurze Zeitperiode oder Zeitspanne (5 t 10), Null ist für eine zweite Zeitspanne (11 t 24) und dann nicht Null ist für eine dritte Zeitspanne (25 t 29). Die sich ergebende Eingabeerwartung zeigt die Lernfähigkeit der Einzelebenenadaptrode. Während der ersten und zweiten Zeitspanne steigt und fällt die Eingabeerwartung wie erwartet und oben beschrieben. Bei t=25 wird das Eingabesignal nicht- Null und die Eingabeerwartung beginnt wieder zu steigen. Jedoch steigt sie ausgehend von ihrem laufenden oder gegenwärtigen Wert.In Fig. 11, a sequential input signal has been applied to the adapter. That is, the input signal is non-zero for a first short period or period (5 to 10), is zero for a second period (11 to 24) and then is not zero for a third period (25 to 29). The resulting input expectation shows the learning ability of the single-level adapter. During the first and second periods, the input expectation rises and falls as expected and as described above. At t = 25 the input signal becomes non-zero and the input expectation begins to rise again. However, it increases based on its current or current value.

Die Steig- und Verfallkonstanten werden die Art der Ver­ größerungs- und Verkleinerungsraten der Eingabeerwartung beeinflussen. Wenn beispielsweise die Steig- und Verfall­ konstanten eine ähnliche Größe haben, werden die Vergrößerungs- und Verkleinerungsraten der Eingabeerwartung ähnlich sein. Wenn andererseits die Verfallkonstante relativ gesehen viel kleiner ist als die Steigkonstante (δ0 « α0) wird die Adaptrode "schnell" lernen und langsam "vergessen".The rise and fall constants will affect the type of enlargement and reduction rates of the input expectation. For example, if the rise and fall constants are of a similar size, the increase and decrease rates will be similar to the input expectation. If, on the other hand, the decay constant is relatively smaller than the rise constant (δ 0 «α 0 ), the adapter will learn" quickly "and slowly" forget ".

Mit Bezug auf die Fig. 12-17 ist die Eingabeerwartung W0 einer Adaptrode 102 mit einer einzigen Ebene und mit linearer Ver­ stärkung gezeigt für eine Anzahl verschiedener Eingabesignale. In jedem Beispiel sind die Steigkonstante α0 und die Verfall­ konstante δ0 4,0 bzw. 0,125. Die Gleichgewichtserwartung WE ist auf Null gesetzt und die Eingabeerwartung beginnt bei Null.With reference to FIGS. 12-17, the input expectation W 0 a Adaptrode 102 having a single plane and having a linear Ver strengthening shown for a number of different input signals. In each example, the climb constant α 0 and the decay constant δ 0 are 4.0 and 0.125, respectively. The equilibrium expectation W E is set to zero and the input expectation starts at zero.

Die Fig. 12-17 stellen das Ansprechen der die Eingabeerwartung modifizierenden Mittel für ein diskretes System dar. Daher wird die Eingabeerwartung für eine Adaptrode mit einer einzigen Ebene und mit linearer Verstärkung bestimmt durch: Figures 12-17 illustrate the response of the input expectation modifiers for a discrete system. Therefore, the input expectation for a single level, linear gain adapter is determined by:

W⁰(t) = W⁰ (t-Δt) + X(t) · α⁰ - δ⁰ · [W⁰ (t-Δt) - WE]. (Gl. 4B)W⁰ (t) = W⁰ (t-Δt) + X (t) · α⁰ - δ⁰ · [W⁰ (t-Δt) - W E ]. (Eq.4B)

In Fig. 12 wird ein Eingabesignal von hoher Intensität und kurzer Dauer an die Einzelebenenadaptrode 102 angelegt. In Fig. 13 und 14 wird ein Eingabesignal von hoher Intensität und mittlerer bzw. langer Dauer an die Adaptrode 102 angelegt. Es sei jedoch bemerkt, daß obwohl der Vergrößerungsterm als eine lineare Funktion definiert ist, die Eingabeerwartung wegen des Verkleinerungsterms keine lineare Funktion ist.In Fig. 12 an input signal of high intensity and short duration is applied to the Einzelebenenadaptrode 102nd In Figs. 13 and 14, an input signal of high intensity and of medium or long duration is applied to the Adaptrode 102nd It should be noted, however, that although the enlargement term is defined as a linear function, the input expectation due to the reduction term is not a linear function.

In Fig. 15 wird ein Eingabesignal von maximaler Intensität und mit einer konstanten Größe (1,0) an die Einzelebenenadaptrode 102 angelegt. Wie bei der Adaptrode 102 mit einer einzigen Ebene und mit nicht-linearer Verstärkung erreicht auch die Eingabeerwartung der Adaptrode mit einer einzigen Ebene und linearer Verstärkung einen Gleichgewichtswert. Man bemerke jedoch, daß die Eingabeerwartung W0 durch Gleichung 4 nicht auf einen Maximalwert beschränkt ist. Vielmehr ist der Gleich­ gewichtswert eine Funktion der Adaptrodenparameter, der In­ tensität des Eingabesignals und der Größe des Eingabesignals. Für eine gegebene Adaptrode würde der Gleichgewichtswert eine Maximalerwartung erreichen, wenn ein Eingabesignal von maxi­ maler Intensität und maximaler Größe für eine geeignete Dauer angelegt wird.In FIG. 15, an input signal of maximum intensity and with a constant size (1.0) is applied to the single-level adapter 102. As with the single-level, non-linear gain adaptrode 102, the input expectation of the single-level, linear gain adaptrode reaches an equilibrium value. Note, however, that the input expectation W 0 by Equation 4 is not limited to a maximum value. Rather, the equilibrium value is a function of the adapter parameters, the intensity of the input signal and the size of the input signal. For a given adapter, the equilibrium value would reach a maximum expectation if an input signal of maximum intensity and maximum size was applied for a suitable duration.

In Fig. 16 wird ein stochastisches Eingabesignal an die Ein­ zelebenenadaptrode 102 angelegt. In Fig. 17 wird ein sequen­ tielles Eingabesignal an die Einzelebenenadaptrode angelegt. Beide Diagramme verdeutlichen, daß die Einzelebenenadaptrode mit einer linearen Verstärkung eine ähnliche Lernfähigkeit hat wie die Adaptrode mit nicht-linearer Verstärkung.In Fig. 16, a stochastic input signal to the A 102 is applied zelebenenadaptrode. In Fig. 17, a sequential input signal is applied to the single-level adapter. Both diagrams show that the single-level adaptrode with a linear gain has a similar ability to learn as the adaptrode with non-linear gain.

Diese Beispiele zeigen die "Lern" (Steig-)- und "Vergessens" (Verfall-)-Aspekte der Einzelebenenadaptrode. Ferner können, da die Steig- und Verfallkonstanten unabhängig sind, die "Lern"- und "Vergessens"-Aspekte jeder Adaptrode unabhängig eingestellt werden. Das heißt, beide können schnell sein, beide können langsam sein, oder jegliche Kombination gemäß der gewünschten Eigenschaften.These examples show the "learning" (climb -) and "forgetting" (Decay -) aspects of the single level adapter. Furthermore, because the rise and fall constants are independent, the "learning" - and "forgetting" aspects of each adapter set independently will. That means both can be fast, both can be slow, or any combination as desired Properties.

Die Adaptrode mit einer einzigen Ebene zeigt Erinnerungsfä­ higkeiten in einer Zeitdomäne oder -bereich. Durch Gestatten von Veränderungen der Gleichgewichtserwartung (für die Eingabeerwartung) besteht die von der Adaptrode gezeigte Erinnerungsfähigkeit in mehrfachen Zeitdomänen. Solch eine Adaptrode wird Adaptrode mit mehreren Ebenen oder Mehrebenenadaptrode genannt.The single-level adapter shows memories skills in a time domain or area. By allowing of changes in equilibrium expectations (for the Input expectation) there is the one shown by the adapter Memory ability in multiple time domains. Such a Adaptrode becomes multi-level or Multi-level adapter called.

Mit Bezug auf Fig. 18 hat ein synaptischer Prozessor 1002 oder Mehrebenenadaptrode eine Vielzahl von Erwartungen. Die Erwar­ tungen werden allgemein durch Wl bezeichnet, wobei 0 l L ist.Referring to Figure 18, a synaptic processor 1002 or multi-level adapter has a variety of expectations. The expectations are generally denoted by W l , where 0 l is L.

Ein Mittel 1004 gibt den Erwartungen Wl Anfangswerte. Die Er­ wartungen werden durch eine Maximalerwartung WM und eine Gleichgewichtserwartung WE beschränkt. Allgemein haben die Er­ wartungen die Beziehungen:A mean 1004 gives the expectations W l initial values. The expectations are limited by a maximum expectation W M and an equilibrium expectation W E. In general, the expectations have the relationships:

WM W⁰ W¹ WL WE.W M W⁰ W¹ W L W E.

Ein Mittel oder Prozeßeinheit 1006(l) modifiziert die Erwartung Wl. Die modifizierenden Mittel 1006(l) bestimmen eine Nettomo­ difikation und addieren die Nettomodifikation zu der Erwartung Wl. Die Nettomodifikation hat einen Vergrößerungsterm und einen Verkleinerungsterm. Allgemein ist der Vergrößerungsterm eine Funktion der vorhergehenden Erwartung Wl-1, wenn l 0. Wenn l = 0 ist, dann ist der Vergrößerungsterm eine Funktion der Ma­ ximalerwartung WM. Der Verkleinerungsterm ist eine Funktion der folgenden Erwartung Wl+1, wenn l < L oder WE, wenn l = L.A means or process unit 1006 (1) modifies the expectation W 1 . The modifying means 1006 (l) determine a net modification and add the net modification to the expectation W l . The net modification has an enlargement term and a reduction term. Generally, the magnification term is a function of the previous expectation W l-1 if l 0. If l = 0, the magnification term is a function of the maximum expectation W M. The reduction term is a function of the following expectation W l + 1 if l <L or W E if l = L.

In einem ersten Ausführungsbeispiel ist die erste Erwartung W0 eine Funktion der Größe des Eingabesignals.In a first embodiment, the first expectation W 0 is a function of the size of the input signal.

In einem zweiten Ausführungsbeispiel hat die erste Erwartung W0 eine lineare Verstärkung (wie oben beschrieben).In a second embodiment, the first expectation W 0 has a linear gain (as described above).

In einem dritten Ausführungsbeispiel hat die erste Erwartung W0 eine nicht-lineare Verstärkung (wie oben beschrieben).In a third embodiment, the first expectation W 0 has a non-linear gain (as described above).

In einem vierten Ausführungsbeispiel ist der Vergrößerungsterm jeder Erwartung Wl eine Funktion einer Steigkonstanten αl und der Verkleinerungsterm ist eine Funktion einer Verfallkon­ stanten δl.In a fourth exemplary embodiment, the increase term of each expectation W l is a function of a rise constant α l and the decrease term is a function of a fall constant δ l .

In einem fünften Ausführungsbeispiel ist der Vergrößerungsterm jeder weiteren Erwartung Wl (l < 0) eine Funktion der Differenz zwischen der vorhergehenden Erwartung Wl-1 und der gegen­ wärtigen Erwartung Wl. In a fifth exemplary embodiment, the enlargement term of each further expectation W l (l <0) is a function of the difference between the previous expectation W l-1 and the current expectation W l .

In einem sechsten Ausführungsbeispiel ist der Verkleinerungs­ term jeder Erwartung Wl eine Funktion der Differenz zwischen der gegenwärtigen Erwartung Wl und der folgenden Erwartung Wl+1 oder eine Funktion der Differenz zwischen der gegenwärtigen Erwartung Wl und der Gleichgewichtserwartung WE, wenn l = L.In a sixth embodiment, the reduction term of each expectation W l is a function of the difference between the current expectation W l and the following expectation W l + 1 or a function of the difference between the current expectation W l and the equilibrium expectation W E when l = L.

In einem siebten Ausführungsbeispiel wird die erste Erwartung modifiziert gemäß:In a seventh embodiment, the first expectation modified according to:

W⁰ = W⁰ + X · α⁰ · [WM-W⁰p] - δ⁰ · [W⁰p - W¹] (Gl. 5A)W⁰ = W⁰ + X · α⁰ · [W M -W⁰ p ] - δ⁰ · [W⁰ p - W¹] (Eq. 5A)

wobei W0 p die vorhergehende erste Erwartung ist.where W 0 p is the previous first expectation.

In einem achten Ausführungsbeispiel wird die erste Erwartung modifiziert gemäß:In an eighth embodiment, the first expectation modified according to:

W⁰ = W⁰p + X · α⁰ - δ⁰ · [W⁰p - W¹] (Gl. 5B).W⁰ = W⁰ p + X · α⁰ - δ⁰ · [W⁰ p - W¹] (Eq. 5B).

Jede weitere Erwartung (Wl für l < 0) wird modifiziert gemäß:Every further expectation (W l for l <0) is modified according to:

Wl = Wl p + αl · [Wl-1 - Wl p] - δl · [W⁰p-Wl+1] (Gl. 6)W l = W l p + α l · [W l-1 - W l p ] - δ l · [W⁰ p -W l + 1 ] (Eq. 6)

wobei Wl p die vorhergehende Erwartung ist, Wl+1 die Erwartung der nächsten Ebene ist, wenn l < L ist, oder die Gleichge­ wichtserwartung WE ist, wenn l = L ist, und wobei Wl-1 die vorhergehende Erwartung ist. where W l p is the previous expectation, W l + 1 is the next level expectation if l <L, or the equilibrium expectation W E if l = L, and where W l-1 is the previous expectation .

Wie in der Einzelebenenadaptrode werden die Ratenkonstanten für jede Ebene typischerweise so eingestellt, daß die Verfallrate über einen längeren Zeitrahmen geht als die Anstiegsrate. Das heißt αl < δl. Ferner wird in einer Mehrebenenadaptrode jede der Ratenkonstanten für jede Ebene (l) so eingestellt, daß die Anstiegs- und Verfallraten einer Ebene (l) über einen längeren Zeitrahmen gehen als die Anstiegs- und Verfallraten der vor­ hergehenden Ebene (l-1). Das heißt:As in the single level adapter, the rate constants for each level are typically set so that the decay rate is longer than the rise rate. That means α ll . Furthermore, in a multi-level adapter, each of the rate constants for each level (l) is set so that the rise and decay rates of one level (l) go over a longer time frame than the rise and decay rates of the previous level (l-1). This means:

α⁰ α¹ αl αL und d⁰ δ¹ δl δL.α⁰ α¹ α l α L and d⁰ δ¹ δ l δ L.

Mittel 1008 erzeugen das Ergebnissignal als eine Funktion der ersten Erwartung W0. Wie oben beschrieben, kann das Ergebnis­ signal eine lineare oder nicht-lineare Funktion der ersten Erwartung W0 sein.Means 1008 generate the result signal as a function of the first expectation W 0 . As described above, the result signal can be a linear or non-linear function of the first expectation W 0 .

Mit Bezug auf Fig. 19 ist die Mehrebenenadaptrode 1002 wie gezeigt graphisch dargestellt. Die graphische Darstellung zeigt mehrere wichtige Merkmale der Mehrebenenadaptrode 1002. Zum ersten ist die erste Erwartung W0 die einzige Erwartung, die direkt von dem Eingabesignal X beeinflußt wird. Zum zweiten ist das Ergebnissignal r nur eine Funktion der ersten Erwartung W0.Referring to FIG. 19, the multi-level adapter 1002 is graphically shown as shown. The graphic representation shows several important features of the multi-level adapter 1002. First, the first expectation W 0 is the only expectation that is directly influenced by the input signal X. Second, the result signal r is only a function of the first expectation W 0 .

Auch ist die Größe der Balken 1102(l) ein Zeichen für die re­ lative Größe der entsprechenden Erwartung. Ferner zeigen die Pfeile an, daß jede Erwartung sowohl positiv (durch den Ver­ größerungsterm) als auch negativ (durch den Verkleinerungsterm) beeinflußt wird.Also, the size of the bars 1102 (l) is a sign of the right relative size of the corresponding expectation. Furthermore, the Arrows indicate that every expectation is both positive (by Ver enlargement term) as well as negative (due to the reduction term) being affected.

Mit Bezug wieder auf Fig. 18 umfaßt in einem weiteren Ausfüh­ rungsbeispiel die Mehrebenenadaptrode 1002 Mittel 1010 zum Empfang eines zweiten Eingabesignals Hl und zum entsprechenden Erzeugen eines Ermöglichungs- oder Potentationssignals Pl. Das Ermöglichungssignal wird mit einer der Erwartungen assoziiert für l < 0. With reference again to FIG. 18, in a further exemplary embodiment, the multi-level adapter 1002 comprises means 1010 for receiving a second input signal H 1 and for generating an enable or potentiation signal P 1 accordingly. The enable signal is associated with one of the expectations for l <0.

In einem ersten Ausführungsbeispiel geben die Initiiermittel 1004 einem Durchlaß- oder Torsignal gl einen Anfangswert. Die das Ermöglichungssignal erzeugenden Mittel 1010 vergleichen das zweite Eingabesignal Hl mit dem Durchlaßsignal und erzeugen ansprechend darauf das Ermöglichungssignl Pl. Zum Beispiel kann in einem diskreten System Pl bestimmt werden durch:In a first exemplary embodiment, the initiating means 1004 give an initial value to a pass or gate signal g l . The means 1010 generating the enable signal compare the second input signal H 1 with the pass signal and in response generate the enable signal P 1 . For example, in a discrete system P l can be determined by:

pl = 1, wenn Hl < gl, oder andernfalls pl = 0. (Gl. 7)p l = 1 if H l <g l , or otherwise p l = 0. (Eq. 7)

In einem durchgehenden System ist Pl eine Funktion der Differenz zwischen dem zweiten Eingabesignal Hl und dem Durchlaßsignal gl.In a continuous system, P l is a function of the difference between the second input signal H l and the pass signal g l .

In einem zweiten Ausführungsbeispiel wird das zweite Eingabe­ signal Hl bestimmt als eine Funktion der Summe aus einer Viel­ zahl von Wechselwirkungssignalen hn, wobei N die Anzahl der Wechselwirkungssignale bezeichnet und wobei 0 n N ist. Die Wechselwirkungssignale werden weiter unten beschrieben.In a second exemplary embodiment, the second input signal H l is determined as a function of the sum of a large number of interaction signals h n , where N denotes the number of interaction signals and where 0 n is N. The interaction signals are described below.

In einem dritten Ausführungsbeispiel wird das Durchlaßsignal gl verändert als eine Funktion eines Parameters der Adaptrode 1002. Beispielsweise kann das Durchlaßssignal eine Funktion von W0 oder von dem Ergebnissignal r sein.In a third embodiment, the pass signal g l is changed as a function of a parameter of the adapter 1002. For example, the pass signal can be a function of W 0 or of the result signal r.

Mit Bezug auf Fig. 20 hat in dem bevorzugten Ausführungsbei­ spiel jede Erwartung (außer l = 0) ein zugehöriges Durch­ laßssignal gl. Wie gezeigt, beeinflußt die durch das Ermög­ lichungssignal Pl erreichte Ermöglichung nur den Vergröße­ rungsterm oder das "Lernen" der Erwartung. Der Verkleinerungs­ term oder das "Vergessen" wird nicht beeinflußt.With reference to Fig. 20 has in the preferred Ausführungsbei play any expectation (except for l = 0) associated through laßssignal g l. As shown, the enable achieved by the enable signal P 1 only affects the magnification term or the "learning" of the expectation. The reduction term or the "forgetting" is not affected.

Daher wird Gleichung 6 für l < 0:Therefore, equation 6 for l <0:

Wl = Wl p + pl · αl · [Wl-1 - Wl p] - δl · [W⁰p - Wl+1] (Gl. 8)W l = W l p + p l · α l · [W l-1 - W l p ] - δ l · [W⁰ p - W l + 1 ] (Eq. 8)

wobei Wl+1 die nächste Erwartung ist, wenn l < L, und die Gleichgewichtserwartung WE ist, wenn l = L.where W l + 1 is the next expectation if l <L, and the equilibrium expectation W E if l = L.

Wenn in einem diskreten System P = 1 ist, sagt man, daß das Er­ möglichungssignal in einem "Erlaubnis"-Zustand ist, da Lernen gestattet ist. Wenn P = 0 ist, sagt man, daß das Ermöglichungs­ signal in einem "Verhinderungs"-Zustand ist, da Lernen nicht gestattet ist.If P = 1 in a discrete system, it is said that the Er Possibility signal is in a "permission" state since learning is permitted. If P = 0, it is said that the enabling signal is in a "prevention" state since learning is not is permitted.

Mit Bezug auf Fig. 21 werden die erwartungsmodifizierenden Mittel 1006(0), 1006(1), 1006(2) für eine Mehrebenenadaptrode mit drei Erwartungen (L = 2) in weiterer Einzelheit gezeigt gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.With reference to FIG. 21, the expectation modifying means 1006 (0), 1006 (1), 1006 (2) for a multi-level adapter with three expectations (L = 2) are shown in further detail according to an embodiment of the present invention.

Die ersten erwartungsmodifizierenden Mittel 1006(0) umfassen Mittel 1302(0) zum Bestimmen des Vergrößerungsterms und Mittel 1304(0) zum Bestimmen des Verkleinerungsterms der ersten Er­ wartung. Die Vergrößerungsterm-bestimmenden Mittel 1302(0) umfassen einen dritten Verzögerungsblock 1306, welcher eine verzögerte oder vorhergehende erste Erwartung W0 p erzeugt. Die verzögerte erste Erwartung (W0 p) wird von der maximalen Er­ wartung WM durch einen fünften Addierer 1308 abgezogen. Ein sechster Multiplizierer 1310 multipliziert die Ausgabe des fünften Summierers 1308 mit einer ersten Steigkonstante α0.The first expectation modifying means 1006 (0) comprises means 1302 (0) for determining the increase term and means 1304 (0) for determining the decrease term of the first expectation. The enlargement term determining means 1302 (0) comprise a third delay block 1306, which generates a delayed or previous first expectation W 0 p . The delayed first expectation (W 0 p ) is subtracted from the maximum expectation W M by a fifth adder 1308. A sixth multiplier 1310 multiplies the output of the fifth summer 1308 by a first rise constant α 0 .

Die Vergrößerungsterm-bestimmenden Mittel 1304(0) umfassen einen sechsten Addierer 1312 zum Abziehen der zweiten Erwartung W1 von der verzögerten ersten Erwartung W0 p. Ein siebter Mul­ tiplizierer 1314 multipliziert die Ausgabe des sechsten Addie­ rers 1312 mit einer ersten Verfallkonstante δ0.The enlargement term determining means 1304 (0) comprise a sixth adder 1312 for subtracting the second expectation W 1 from the delayed first expectation W 0 p . A seventh multiplier 1314 multiplies the output of the sixth adder 1312 by a first decay constant δ 0 .

Ein achter Multiplizierer 1316 multipliziert die Ausgabe des sechsten Multipliziers 1310 mit dem Eingabesignal X. Ein sieb­ ter Addierer 1318 addiert die Ausgabe des achten Multiplizie­ rers 1316 und zieht die Ausgabe des siebten Multiplizieres 1314 von der verzögerten ersten Erwartung ab, um die neue erste Erwartung W0 zu bilden.An eighth multiplier 1316 multiplies the output of the sixth multiplier 1310 by the input signal X. A seventh adder 1318 adds the output of the eighth multiplier 1316 and subtracts the output of the seventh multiplier 1314 from the delayed first expectation by the new first expectation W. To form 0 .

Die zweiten Erwartungs-modifizierenden Mittel 1006(1) umfassen Mittel 1302(1) zum Bestimmen des Vergrößerungsterms, sowie Mittel 1304(1) zum Bestimmen des Verkleinerungsterms der zwei­ ten Erwartung. Die Vergrößerungsterm-bestimmenden Mittel 1302(1) umfassen einen vierten Verzögerungsblock 1320, der eine zweite verzögerte Erwartung W1 p erzeugt. Die Ermöglichungs-er­ zeugenden Mittel 1010(1) für die zweite Erwartung empfangen die erste Erwartung W0, die verzögerte zweite Erwartung W1 p und die Wechselwirkungssignale (interaction signals hN1 (N bezieht sich auf die Anzahl von Signalen und 1 bezieht sich auf die Erwartungsebene) und erzeugt das Ermöglichungssignal P1. Die Ermöglichungs-erzeugenden Mittel 1010 werden weiter unten erklärt. Das Ermöglichungssignal p1 wird mit einer zweiten Steigkonstante α1 durch einen neunten Multiplizierer 1322 multipliziert.The second expectation modifying means 1006 (1) comprises means 1302 (1) for determining the increase term, and means 1304 (1) for determining the decrease term of the second expectation. The enlargement term determining means 1302 (FIG. 1) comprise a fourth delay block 1320, which generates a second delayed expectation W 1 p . The enabling means 1010 (1) for the second expectation receive the first expectation W 0 , the delayed second expectation W 1 p, and the interaction signals h N1 (N refers to the number of signals and 1 refers to the expectation level) and generates the enable signal P 1. The enable generating means 1010 will be explained below, the enable signal p 1 is multiplied by a second rise constant α 1 by a ninth multiplier 1322.

Die Verkleinerungsterm-bestimmenden Mittel 1304(1) für die zweite Erwartung umfassen einen achten Addierer 1324 zum ab­ ziehen der dritten Erwartung W2 p von der zweiten Erwartung W1. Ein zehnter Multiplizierer 1326 multipliziert die Ausgabe des achten Addierers 1324 mit einer zweiten Verfallkonstante δ1.The reduction term determining means 1304 (1) for the second expectation comprise an eighth adder 1324 for subtracting the third expectation W 2 p from the second expectation W 1 . A tenth multiplier 1326 multiplies the output of the eighth adder 1324 by a second decay constant δ 1 .

Ein neunter Addierer 1328 addiert die Ausgabe des neunten Multiplizierers 1322 und zieht die Ausgabe des zehnten Multi­ plizierers 1326 von der verzögerten zweiten Erwartung W1 p ab, um die neue zweite Erwartung W1 zu bilden.A ninth adder 1328 adds the output of the ninth multiplier 1322 and subtracts the output of the tenth multiplier 1326 from the delayed second expectation W 1 p to form the new second expectation W 1 .

Die dritten Erwartungs-modifizierenden Mittel 1006(2) umfassen Mittel 1302(2) zum Bestimmen des Vergrößerungsterms, sowie Mittel 1304(2) zum Bestimmen des Verkleinerungsterms der drit­ ten Erwartung. Die Vergrößerungsterm-bestimmenden Mittel 1302(2) umfassen einen fünften Verzögerungsblock 1330, der eine verzögerte dritte Erwartung W2 p erzeugt. Die Ermöglichungs­ erzeugenden Mittel 1010(2) für die dritte Erwartung empfangen die zweite Erwartung W1, die verzögerte dritte Erwartung W2 p und die Wechselwirkungssignale hM2 (M bezieht sich auf die Anzahl von Signalen und 2 bezieht sich auf die Erwartungsebene) und erzeugen das Ermöglichungssignal P2. Das Ermöglichungssignal P2 wird mit einer dritten Steigkonstanten α2 durch einen elften Multiplizierer 1332 multipliziert.The third expectation modifying means 1006 (2) comprises means 1302 (2) for determining the increase term, and means 1304 (2) for determining the decrease term of the third expectation. The enlargement term determining means 1302 (2) comprise a fifth delay block 1330 which generates a delayed third expectation W 2 p . The enable-generating means 1010 (2) for the third expectation receive the second expectation W 1 , the delayed third expectation W 2 p and the interaction signals h M2 (M relates to the number of signals and 2 relates to the expectation level) and generate them the enable signal P 2 . The enable signal P 2 is multiplied by a third rise constant α 2 by an eleventh multiplier 1332.

Die Verkleinerungsterm-bestimmenden Mittel 1304(2) für die dritte Erwartung umfassen einen zehnten Addierer 1334 zum Abziehen der Gleichgewichtserwartung WE von der dritten Erwartung W2 p. Ein zwölfter Multiplizierer 1336 multipliziert die Ausgabe des zehnten Addierers 1334 mit einer dritten Ver­ fallkonstante δ2.The reduction term determining means 1304 (2) for the third expectation comprises a tenth adder 1334 for subtracting the equilibrium expectation WE from the third expectation W 2 p . A twelfth multiplier 1336 multiplies the output of the tenth adder 1334 by a third fall constant δ 2 .

Ein elfter Addierer 1338 addiert die Ausgabe des elften Mul­ tiplizierers 1332 und zieht die Ausgabe des zehnten Multi­ plizierers 1336 von der verzögerten dritten Erwartung W2 p ab, um die neue dritte Erwartung W2 zu bilden.An eleventh adder 1338 adds the output of the eleventh multiplier 1332 and subtracts the output of the tenth multiplier 1336 from the delayed third expectation W 2 p to form the new third expectation W 2 .

Mit Bezug auf Fig. 22 werden die Ermöglichungssignal­ erzeugenden Mittel 1010 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung weiter beschrieben. Die Ermöglichungs­ signal-erzeugenden Mittel 1010 umfassen einen multiplizierenden Balken 1402 und eine Hürdensignalquelle 1404. Wie in Fig. 23 gezeigt, umfaßt die Hürdensignalquelle 1404 eine Vielzahl von Multiplizierern 1502(n). Der multiplizierende Balken empfängt die Wechselwirkungssignale h1..N und ein Signal (+1 oder -1) aus einem Register oder Tabelle 1504. In digitalen Darstel­ lungen kann die Multiplikation mit -1 durchgeführt werden unter Verwendung der Zweierkomplementdarstellung.With reference to Fig. 22, the enable signal generating means 1010 will be further described according to an embodiment of the present invention. The enable signal generating means 1010 comprise a multiplying bar 1402 and a hurdle signal source 1404. As shown in FIG. 23, the hurdle signal source 1404 comprises a plurality of multipliers 1502 (n). The multiplying bar receives the interaction signals h 1..N and a signal (+1 or -1) from a register or table 1504. In digital representations, the multiplication by -1 can be carried out using the two's complement representation.

Zurückkehrend zu Fig. 22 werden die Ausgaben des Multiplizier­ balkens 1402 miteinander addiert durch einen zwölften Addierer 1406. Ein Addierer 1408 zieht das Torsignal gl von der Ausgabe des zwölften Addierers 1406 ab. Die Ausgabe des Addierers 1408 ist mit einem ersten Bedingungsblock 1410 verbunden. Ein erster Entscheidungsblock 1412 empfängt die vorhergehende Erwartung Wl-1. Ein zweiter Entscheidungsblock 1414 empfängt den vor­ hergehenden Wert der gegenwärtigen Erwartung Wl p. Ein Ent­ scheidungsblock wird die mit YES (JA) bezeichnete Eingabe weitergeben, wenn die Bedingung in den Bedingungsblock wahr ist. Wenn daher die Ausgabe des dreizehnten Multiplizierers 1408 größer als Null ist, werden die ersten unhd zweiten Bedingungsblöcke 1412, 1414 die vorhergehende Erwartung Wl-1 bzw. den vorigen Wert der gegenwärtigen Erwartung Wl p. Die ersten und zweiten Entscheidungsblocks 1412, 1414 werden eine Null bzw. eine Eins weitergeben, wenn die Ausgabe des Addierers 1408 nicht größer als Null ist. Ein dreizehnter Addierer 1416 zieht die Ausgabe des zweiten Entscheidungsblocks 1414 von der Ausgabe des ersten Entscheidungsblocks 1412 ab.Returning to FIG. 22, the outputs of the multiplier 1402 bar added to each other by a twelfth adder 1406. An adder 1408 will pull the gate signal g l from the output of the twelfth adder 1406 from. The output of adder 1408 is connected to a first condition block 1410. A first decision block 1412 receives the previous expectation W l-1 . A second decision block 1414 receives the previous value of the current expectation W l p . A decision block will pass the input labeled YES if the condition in the condition block is true. Therefore, if the output of the thirteenth multiplier 1408 is greater than zero, the first and second condition blocks 1412, 1414 become the previous expectation W l-1 and the previous value of the current expectation W l p, respectively. The first and second decision blocks 1412, 1414 will pass a zero and a one, respectively, if the output of adder 1408 is not greater than zero. A thirteenth adder 1416 subtracts the output of the second decision block 1414 from the output of the first decision block 1412.

Mit Bezug auf die Fig. 24-47 sind die Erwartungen W0, W1, W2 einer Adaptrode mit drei Ebenen und nicht-linearen Verstärkungen gezeigt für eine Anzahl von verschiedenen Eingangssignalen. In jedem Beispiel sind die erste Steigkonstante α0 und δ0 auf 0,25 bzw. 0,125 gesetzt. Die zweite Steigkonstante und die zweite Verfallkonstante α1 und δ1 sind 0,0625 bzw. 0,0312. Die dritte Steigkonstante und die dritte Verfallkonstante α2 und δ2 sind 0,156 bzw. 0,0078. Die Maximalerwartung WM ist auf eins gesetzt und die Gleichgewichtserwartung WE ist auf Null gesetzt. Die ersten, zweiten und dritten Erwartungen W0, W1, W2 beginnen bei Null.With reference to FIGS . 24-47, the expectations W 0 , W 1 , W 2 of an adapter with three levels and non-linear gains are shown for a number of different input signals. In each example, the first climb constant α 0 and δ 0 are set to 0.25 and 0.125, respectively. The second rise constant and the second decay constant α 1 and δ 1 are 0.0625 and 0.0312, respectively. The third rise constant and the third decay constant α 2 and δ 2 are 0.156 and 0.0078, respectively. The maximum expectation W M is set to one and the equilibrium expectation W E is set to zero. The first, second and third expectations W 0 , W 1 , W 2 start at zero.

Für eine Adaptrode mit drei Ebenen und nicht-linearer Ver­ stärkung in einem diskreten System wird die erste Erwartung bestimmt durch:For a three-level adapter with non-linear ver Strengthening in a discrete system becomes the first expectation determined by:

W⁰(t) = W⁰ (t-Δt) + X(t) · α⁰ · [WM-W⁰ (t-Δt)] - δ⁰ · [W⁰ (t-Δt) - W¹ (t-Δt)] (Gl. 9A)W⁰ (t) = W⁰ (t-Δt) + X (t) · α⁰ · [W M -W⁰ (t-Δt)] - δ⁰ · [W⁰ (t-Δt) - W¹ (t-Δt)] (Eq 9A)

Die zweite Erwartung wird bestimmt durch:The second expectation is determined by:

W¹(t) = W¹ (t-Δt) + α¹ · [W⁰-W¹ (t-Δt)] - δ¹ · [W¹ (t-Δt) - W² (t-Δt)] (Gl. 9B)W¹ (t) = W¹ (t-Δt) + α¹ · [W⁰-W¹ (t-Δt)] - δ¹ · [W¹ (t-Δt) - W² (t-Δt)] (Eq. 9B)

Die dritte Erwartung wird bestimmt durch:The third expectation is determined by:

W²(t) = W² (t-Δt) + α² · [W¹-W² (t-Δt)] - δ² · [W² (t-Δt) - WE] (Gl. 9C)W² (t) = W² (t-Δt) + α² · [W¹-W² (t-Δt)] - δ² · [W² (t-Δt) - W E ] (Eq. 9C)

In Fig. 24 wird ein Eingangssignal von hoher Intensität und kurzer Dauer an die Adaptrode mit drei Ebenen angelegt. Die erste Erwartung W0 steigt an, während das Eingabesignal nicht Null ist, und es fällt ab, wenn das Eingabesignal Null ist. Beginnend mit der Zeit t=5, wenn das Eingabesignal nicht Null wird, beginnt auch die zweite Erwartung W1 zu steigen. Jedoch ist der Vergrößerungsterm der zweiten Erwartung W1 eine Funk­ tion der ersten Erwartung W0. Daher steigt die zweite Erwartung W1 weiterhin an, nachdem das Eingabesignal Null wird wegen der ersten Erwartung W0. Tatsächlich wird, während die erste Er­ wartung größer ist als zweite Erwartung, der vergrößerte Term der zweiten Erwartung positiv sein. Es sei an dieser Stelle bemerkt, daß die Gleichgewichtserwartung der ersten Erwartung W0 für eine Mehrebenenadaptrode die folgende Erwartung, d. h. die zweite Erwartung W1 ist. Die erste Erwartung ist daher mit ihrem unteren Ende durch die zweite Erwartung beschränkt.In Fig. 24 an input signal of high intensity and short duration is applied to the Adaptrode with three levels. The first expectation W 0 rises while the input signal is not zero and falls when the input signal is zero. Starting with time t = 5, when the input signal does not become zero, the second expectation W 1 also begins to rise. However, the enlargement term of the second expectation W 1 is a function of the first expectation W 0 . Therefore, the second expectation W 1 continues to increase after the input signal becomes zero due to the first expectation W 0 . In fact, while the first expectation is greater than the second expectation, the increased term of the second expectation will be positive. It should be noted at this point that the equilibrium expectation of the first expectation W 0 for a multi-level adapter is the following expectation, ie the second expectation W 1 . The lower expectation of the first expectation is therefore limited by the second expectation.

In ähnlicher Weise ist der Vergrößerungsterm der dritten Er­ wartung eine Funktion der zweiten Erwartung. Wie in Fig. 24 gezeigt, steigt daher die dritte Erwartung weiter, während die zweite Erwartung groß genug ist, um die dritte Erwartung hoch­ zuziehen.Similarly, the magnification term of the third expectation is a function of the second expectation. Therefore, as shown in Fig. 24, the third expectation continues to increase while the second expectation is large enough to raise the third expectation.

In den Fig. 25 und 26 wird ein Eingabesignal von hoher Inten­ sität und mittlerer bzw. langer Dauer an die Adaptrode mit drei Ebenen angelegt. Beide Diagramme zeigen, daß die zweite Erwar­ tung W1 ansteigen wird, solange die erste Erwartung W0 groß genug ist, um den Vergrößerungsterm der zweiten Erwartung W1 größer zu machen als den Verkleinerungsterm.In Figs. 25 and 26, an input signal is intensity of high Inten and applied medium or long duration at the Adaptrode with three levels. Both diagrams show that the second expectation W 1 will increase as long as the first expectation W 0 is large enough to make the enlargement term of the second expectation W 1 larger than the decrease term.

Die Diagramme zeigen auch die längerfristigen Erinnerungsfä­ higkeiten einer Mehrebenenadaptrode. Daher sind die zweiten und dritten Erwartungen aus unterschiedlichen Zeitdomänen. Das heißt, daß jede zusätzliche Ebene oder Erwartung einer Mehr­ ebenenadaptrode eine langsamere Ansprechzeit hat. Obwohl die erste Erwartung sich relativ schnell ändert infolge eines Eingabesignals, ist es durch die nachfolgenden Erwartungen gebunden.The diagrams also show the longer-term memory capabilities of a multi-level adapter. Hence the second and third expectations from different time domains. The means that every additional level or expectation of a more level adapter has a slower response time. Although the first expectation changes relatively quickly as a result of a Input signal, it is due to the following expectations bound.

Obwohl die erste Erwartung W0 gesättigt wird infolge eines kontinuierlichen Eingabesignals, wird die darauffolgende Erwar­ tung tatsächlich mit einer viel langsameren Rate steigen. Wie in Fig. 27 gezeigt, werden die zweiten und dritten Er­ wartungen W1, W2 weiterhin ansteigen, jedoch mit einer viel geringeren Rate, während die erste Eingabeerwartung gesättigt ist. Wenn das Eingabesignal schließlich wieder Null wird, wird die erste Erwartung anfangen abzufallen mit einer Rate, die durch den Verkleinerungsterm bestimmt wird. Jedoch wird sie durch die zweite Erwartung begrenzt sein. Die zweite Erwartung fällt mit einer viel langsameren Rate ab, so daß sie die erste Erwartung oben halten wird abhängig davon, wie lang die Dauer des Eingabesignals nicht-Null war und daher, wie hoch die zweite Erwartung getrieben wurde. In ähnlicher Weise wird die dritte Erwartung die zweite Erwartung hochhalten oder deren Verfall verhindern.Although the first expectation W 0 becomes saturated due to a continuous input signal, the subsequent expectation will actually increase at a much slower rate. As shown in Fig. 27, the second and third expectations W 1 , W 2 will continue to rise, but at a much lower rate, while the first input expectation is saturated. When the input signal finally goes back to zero, the first expectation will begin to drop at a rate determined by the decrease term. However, it will be limited by the second expectation. The second expectation drops at a much slower rate so that it will keep the first expectation high depending on how long the input signal duration was non-zero and therefore how high the second expectation was driven. Similarly, the third expectation will keep the second expectation high or prevent it from decaying.

Für eine gegebene Erwartung (W1) hat die darauffolgende Erwar­ tung (Wl-1) auch Auswirkungen auf die Verfallrate; dies wird durch Fig. 28 verdeutlicht, in der ein stochastisches Eingabe­ signal an eine Adaptrode mit drei Ebenen angelegt wird. Das Eingabesignal hat die Wirkung, das Niveau der ersten Erwartung W0 nach oben zu treiben. Die zweite Erwartung W1 wird durch die erste Erwartung getrieben, und die dritte Erwartung wird durch die zweite Erwartung getrieben. Wenn das Eingabesignal Null ist, ist der Verkleinerungsterm der ersten Erwartung größer als der Vergrößerungsterm und daher ist die Nettomodifikation der ersten Erwartung negativ. Jedoch ist der Verkleinerungsterm der ersten Erwartung eine Funktion der Differenz zwischen der er­ sten Erwartung und der zweiten Erwartung. Wie gezeigt, ist daher die zweite Erwartung um so höher je niedriger die Ver­ fallrate für die erste Erwartung ist.For a given expectation (W 1 ), the subsequent expectation (W l-1 ) also has an impact on the expiration rate; This is illustrated by Fig. 28, in which a stochastic input signal is applied to an adapter with three levels. The input signal has the effect of driving the level of the first expectation W 0 up. The second expectation W 1 is driven by the first expectation, and the third expectation is driven by the second expectation. If the input signal is zero, the reduction expectation term of the first expectation is greater than the increase term and therefore the net modification of the first expectation is negative. However, the reduction term of the first expectation is a function of the difference between the first expectation and the second expectation. As shown, the lower the decay rate for the first expectation, the higher the second expectation.

Dies wird deutlicher in Fig. 29 gezeigt, in der ein sequen­ tielles Eingabesignal an eine Adaptrode mit drei Ebenen an­ gelegt wird. In einer ersten Zeitperiode wird das Eingabesignal nicht-Null (1,0). Während einer zweiten Zeitspanne nimmt die erste Erwartung ab, und zwar mit einer Rate, die durch die erste Verfallkonstante und den gegenwärigen Wert der zweiten Erwartung definiert wird. Während einer dritten Zeitspanne wird das Eingabesignal wieder nicht-Null und die erste Erwartung steigt. In einer vierten Zeitspanne wird das Eingabessignal wieder Null und die erste Erwartung nimmt ab. Jedoch ist die Verfallrate in der vierten Zeitspanne geringer als die Ver­ fallrate in der zweiten Zeitspanne, weil die zweite Erwartung durch die erste Erwartung auf ein höheres Niveau getrieben wurde.This is shown more clearly in Fig. 29, in which a sequential input signal is applied to a three-level adapter. In a first time period, the input signal becomes non-zero (1.0). During a second period, the first expectation decreases, at a rate defined by the first decay constant and the current value of the second expectation. During a third period, the input signal again becomes non-zero and the first expectation increases. In a fourth period, the input signal becomes zero again and the first expectation decreases. However, the decay rate in the fourth period is lower than the decay rate in the second period because the second expectation was driven to a higher level by the first expectation.

In den Fig. 30-35 sind die Erwartungen W0, W1, W2 einer Adap­ trode mit drei Ebenen und nicht-linearen Verstärkungen gezeigt für eine Anzahl verschiedener Eingabesignale. Ferner ist die zweite Erwartung durch ein Ermöglichungssignal P gegated oder beschränkt.In FIGS. 30-35, expectations are W 0, W 1, W 2 of a Adap trode with three levels and non-linear gains shown for a number of different input signals. Furthermore, the second expectation is gated or limited by an enable signal P.

Die erste Erwartung wird durch die Gleichung 9A bestimmt. Die zweite Erwartung wird bestimmt durch:The first expectation is determined by Equation 9A. The second expectation is determined by:

W¹(t) = W¹ (t-Δt) + P · α¹ · [W⁰-W¹ (t-Δt)] - δ¹ · [W¹ (t-Δt) - W² (t-Δt)] (Gl. 10A)W¹ (t) = W¹ (t-Δt) + P · α¹ · [W⁰-W¹ (t-Δt)] - δ¹ · [W¹ (t-Δt) - W² (t-Δt)] (Eq.10A)

Die dritte Erwartung wird bestimmt durch:The third expectation is determined by:

W²(t) = W² (t-Δt) + α² · [W¹-W² (t-Δt)] - δ² · [W² (t-Δt) - WE] (Gl. 10B)W² (t) = W² (t-Δt) + α² · [W¹-W² (t-Δt)] - δ² · [W² (t-Δt) - W E ] (Eq. 10B)

In diesen Beispielen ist das Ermöglichungssignal P einfach eine Null oder eine Eins. Jedoch kann das Ermöglichungssignal jeglichen Wert annehmen.In these examples, enable signal P is simply one Zero or one. However, the enable signal take on any value.

Die Eingabesignale, die in den Beispielen in den Fig. 30-35 verwendet werden, sind die gleichen wie die Eingabesignale für die entsprechenden Fig. 24-29. In jedem Beispiel ist das Er­ möglichungssignal anfangs Null und zu einer vorbestimmten Zeit wird das Ermöglichungssignal Eins. Es sei bemerkt, daß in jeder Figur die zweiten und dritten Erwartungen nicht "lernen" oder steigen, bis das Ermöglichungssignal eins ist. Es sei auch bemerkt, daß das Ermöglichungssignal nicht die Verfallrate der zweiten und dritten Erwartungen beeinflußt.The input signals used in the examples in Figures 30-35 are the same as the input signals for the corresponding Figures 24-29. In each example, the enable signal is initially zero and at a predetermined time the enable signal becomes one. It should be noted that in each figure the second and third expectations do not "learn" or increase until the enable signal is one. It should also be noted that the enable signal does not affect the rate of decay of the second and third expectations.

Mit Bezug auf die Fig. 36-47 sind die Erwartungen W0, W1, W2 einer Adaptrode mit drei Ebenen, deren erste Erwartung eine lineare Verstärkung hat, gezeigt, und zwar für eine Vielzahl verschiedener Eingabesignale. In jedem Beispiel ist die erste Steigkonstante α0 auf 4 gesetzt und die Verfallkonstante δ0 ist auf 0,125 gesetzt. Die zweiten Steig- und Verfallkonstanten α1, δ1 sind auf 0,0625 bzw. 0,0312 gesetzt. Die dritten Steig- und Verfallkonstanten α2, δ2 sind auf 0,0156 bzw. 0,0078 einge­ stellt.With reference to FIGS. 36-47, the expectations W 0 , W 1 , W 2 of an adapter with three levels, the first expectation of which has a linear gain, are shown, for a large number of different input signals. In each example, the first rise constant α 0 is set to 4 and the decay constant δ 0 is set to 0.125. The second rise and fall constants α 1 , δ 1 are set to 0.0625 and 0.0312, respectively. The third rise and fall constants α 2 , δ 2 are set to 0.0156 and 0.0078, respectively.

In den Fig. 36-47 sind die Eingabesignale ähnlich den Eingabesignalen der Fig. 29-35. In den Fig. 2-47 sind die zweiten und dritten Erwartungen durch das Ermöglichungssignal P gegated oder beschränkt, wie in Fig. 30-35. Das Ermögli­ chungssignal jedoch ist entweder Null oder Eins (zu Zwecken der Darstellung ist das Ermöglichungssignal mit einer Skala bis 30 angegeben). Die Ergebnisse sind ähnlich der von den nicht- linearen Modellen gezeigten. In FIGS. 36-47, the input signals 29-35 are similar to the input signals of FIG.. In Figs. 2-47, the second and third requirements by the enable signal P 30-35 are gated or restricted, as shown in Fig.. However, the enable signal is either zero or one (the enable signal is shown on a scale up to 30 for purposes of illustration). The results are similar to that shown by the non-linear models.

Mit Bezug auf Fig. 48 ist ein auf Adaptroden basierendes Neuron oder ein Neuristor 2002 gezeigt. Der Neuristor 2002 umfaßt eine Anordnung von Eingabeadaptroden. Die Eingabeadaptroden- Anordnung 2004 umfaßt eine Vielzahl von Adaptroden. Die Anzahl von Adaptroden ist allgemein durch J bezeichnet. Jede Eingabe­ adaptrode 2004(j) hat ein zugehöriges Eingabesignal Xj.Referring to Fig. 48, an adaptrode based neuron or neuristor 2002 is shown. Neuristor 2002 includes an array of input adapters. The input adapter assembly 2004 includes a plurality of adaptrodes. The number of adaptrodes is generally indicated by J. Each input adaptrode 2004 (j) has an associated input signal X j .

Das Ergebnissignal rj jeder Eingabeadaptrode 2004(j) kann angesehen werden als Ersatz für das Eingabesignal, multi­ pliziert mit dem Gewichtungssignal eines Standardneurons.The result signal r j of each input adapter 2004 (j) can be regarded as a replacement for the input signal, multiplied by the weighting signal of a standard neuron.

Der Neuristor 2002 umfaßt Mittel 2006 zum Initialisieren und Erzeugen eines Schwellensignals T.The neuristor 2002 comprises means 2006 for initializing and Generating a threshold signal T.

In einem Ausführungsbeispiel umfassen die das Schwellensignal erzeugenden Mittel 2006 Mittel zum Initialisieren des Schwellensignals auf einem vorbestimmten Wert.In one embodiment, they include the threshold signal generating means 2006 means for initializing the Threshold signal at a predetermined value.

In einem zweiten Ausführungsbeispiel ist das Schwellensignal eine Konstante.In a second embodiment, the threshold signal a constant.

In einem dritten Ausführungsbeispiel umfassen die Schwel­ lensignal-erzeugenden Mittel 2006 eine Ausgabeadaptrode 2008 und einen Schwellenprozessor 2010. Das Schwellensignal ist eine Funktion eines Schwellen modifizierenden Signals. Das Schwellen- modifizierende Signal kann die erste Erwartung sein oder das Ergebnissignal der Ausgabeadaptrode. Die Schwellensignal- erzeugenden Mittel 2006 bewirken das Integrieren der Ausgabe des Neuristors über die Zeit. Die Ausgabeadaptrode kann durch das Ergebnissignal (oder Ergebnissignale) einer oder mehrerer anderer Adaptroden gegated oder getastet sein.In a third embodiment, the smolder comprises lens signal-generating means 2006 an output adapter 2008 and a threshold processor 2010. The threshold signal is one Function of a threshold modifying signal. The Threshold-modifying signal can be the first expectation or the result signal of the output adapter. The Threshold signal generating means 2006 do this Integrate the output of the neuristor over time. The Output adapter can be replaced by the result signal (or Result signals) gated by one or more other adaptrodes or be groped.

Der Neuristor 2002 umfaßt Mittel 2012 zum Empfang des Eingabe­ adaptroden-Ergebnissignals rj und des Schwellensignals T und zum Erzeugen ansprechend darauf eines Ausgabesignals 0. The neuristor 2002 comprises means 2012 for receiving the input adaptrode result signal r j and the threshold signal T and for generating an output signal 0 in response thereto.

Mit Bezug auf Fig. 49 umfassen die Ausgabesignal erzeugenden Mittel 2012 Mittel zum Addieren des Ergebnissignals und zum Erzeugen eines Sigma-Signals. Das Sigma-Signal wird mit dem Schwellensignal T verglichen. Die Ausgabesignal erzeugenden Mittel 2012 umfassen einen zweiten multiplizierenden Balken 2102 und ein Zeichenregister oder -tabelle 2104. Die Ausgabe des Zeichenregisters 2104 ist ein +1 oder ein -1.With reference to Fig. 49, the output signal generating means comprise means for adding 2012 of the result signal and for generating a sigma-signal. The sigma signal is compared with the threshold signal T. The output signal generating means 2012 comprise a second multiplying bar 2102 and a character register or table 2104. The output of the character register 2104 is a +1 or a -1.

Bezüglich der Fig. 50 umfaßt die Zeichenquelle 2014 ein Zei­ chenregister oder -tabelle 2202 und eine Vielzahl von Mul­ tiplizierern 2204(j). Die Eingabe einer Adaptrode mit einem assoziierten +1 im Zeichenregister 2204 wird als EXCITATORY (ERREGEND) und die Eingabe einer Adaptrode mit einem zugehörigen -1 im Zeichenregister 2204 wird als INHIBITORY (HEMMEND) bezeichnet.Referring to Fig. 50 includes the characters source 2014. Zei chenregister or table 2202 and a plurality of Mul tiplizierern 2204 (j). The input of an adapter with an associated +1 in the character register 2204 is referred to as EXCITATORY (EXCITING) and the input of an adapter with an associated -1 in the character register 2204 is referred to as INHIBITORY (HEMMEND).

Zurückkehrend zu Fig. 49 umfassen die Ausgabesignale erzeu­ genden Mittel 2012 einen Additions- und Ausgabeprozessor. Ein vierzehnter Addierer 2106 addiert die Ergebnissignale rj und zieht das Schwellensignal von den Ergebnissignalen ab. Ein dritter Bedingungsblock 2108 vergleicht die Ausgabe des vier­ zehnten Addierers 2106 mit einem vorbestimmten Wert (0). Ein dritter Entscheidungsblock 2110 erzeugt das Ausgabesignal X0. In einem bevorzugten Ausführungsbeispiel erzeugt der dritte Entscheidungsblock 2110 eine Eins, wenn die Bedingung in dem Bedingungsblock 2108 wahr ist, und eine Null, wenn die Bedin­ gung in dem Bedingungsblock 2108 falsch ist.Returning to FIG. 49, the means 2012 generating output signals include an addition and output processor. A fourteenth adder 2106 adds the result signals r j and subtracts the threshold signal from the result signals. A third condition block 2108 compares the output of the four tenth adder 2106 with a predetermined value (0). A third decision block 2110 generates the output signal X 0 . In a preferred embodiment, third decision block 2110 generates a one if the condition in condition block 2108 is true and a zero if the condition in condition block 2108 is false.

Zurückkehrend zu Fig. 48 wird die erste Erwartung (oder das Ergebnissignal) jeder Eingabeadaptrode (Aj) verwendet als ein Wechselwirkungssignal (h) in der nachfolgenden Adaptrode (Aj+1), wie durch die Pfeile gezeigt wird. Es sollte erkannt werden, daß das Tasten jeder Adaptrode durch die vorgehende Adaptrode nur aus Erklärungszwecken geschieht.Returning to FIG. 48, the first expectation (or the result signal), each Eingabeadaptrode (A j) is used as an interaction signal (h) in the following Adaptrode (A j + 1), as shown by the arrows. It should be recognized that the keying of each adapter by the preceding adapter is only for explanatory purposes.

Allgemein werden Signale zwischen Eingabeadaptroden, die zum Tasten verwendet werden, als lokale oder örtliche Wechselwir­ kungssignale bezeichnet. Ferner steht das Ergebnissignal der Ausgabeadaptrode 2008 zum Tasten zu Verfügung, wie durch die Pfeile gezeigt wird.Generally, signals between input adapters are used for Keys can be used as local or local interactions designated signals. The result signal of the  Output adapter 2008 available for keying, as through the Arrows is shown.

Bezüglich der Fig. 51 ist ein Blockdigramm des Schwellenpro­ zessors 2010 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung gezeigt. Der Schwellenprozessor 2010 sieht drei Arten von Schwellensignalen vor. Das Schwellensignal ist durch T Type definiert. Wenn T Type eins ist, dann ist das Schwellensignal eine Konstante mit einer Größe von TC. Wenn T Type zwei ist, dann ist das Schwellensignal T die Differenz zwischen der Ein­ gabe des Schwellenprozessors 2010, multipliziert mit einer Konstanten und der Konstanten TM. In einem Ausführungsbeispiel ist die Eingabe in den Schwellenprozessor 2010 die erste Er­ wartung der Ausgabeadaptrode 2008 (W00). In einem zweiten Aus­ führungsbeispiel ist die Eingabe an den Schwellenprozessor 2010 das Ergebnissignal der Ausgabeadaptrode 2008. Wenn T Type drei ist, dann ist das Schwellensignal eine lineare Funktion von W00.Referring to Fig. 51 is a Blockdigramm of Schwellenpro zessors 2010 in accordance with an embodiment of the present invention. The threshold processor 2010 provides three types of threshold signals. The threshold signal is defined by T Type. If T Type is one, then the threshold signal is a constant with a size of T C. If T Type is two, then the threshold signal T is the difference between the input of the threshold processor 2010 multiplied by a constant and the constant T M. In one embodiment, the input to threshold processor 2010 is the first expectation of output adapter 2008 (W 00 ). In a second exemplary embodiment, the input to the threshold processor 2010 is the result signal of the output adapter 2008. If T Type is three, then the threshold signal is a linear function of W 00 .

Der Schwellenprozessor 2010 umfaßt vierte, fünfte und sechste Entscheidungsblöcke 2302, 2306, 2310 und vierte, fünfte und sechste Steuerblöcke 2304, 2308, 2312. Ein vierzehnter Multi­ plizierer 2314 multipliziert die erste Erwartung der Ausgabe­ adaptrode 2308 mit einer Konstanten β. Ein fünfzehnter Addierer 2316 zieht die Ausgabe des vierzehnten Multiplizierers 2314 von der Konstanten TC ab.The threshold processor 2010 includes fourth, fifth and sixth decision blocks 2302, 2306, 2310 and fourth, fifth and sixth control blocks 2304, 2308, 2312. A fourteenth multiplier 2314 multiplies the first expectation of the output adaptrode 2308 by a constant β. A fifteenth adder 2316 subtracts the output of the fourteenth multiplier 2314 from the constant T C.

Bezüglich Fig. 52 ist eine graphische Darstellung der ersten Eingabeadaptrode und der zweiten Eingabeadaptrode gezeigt, in die erste Adaptrode verwendet wird zum Takten der zweiten Er­ wartung der zweiten Adaptrode. Jede Erwartung ist allgemein mit Wab bezeichnet, wobei a sich auf die Erwartungsebene bezieht und b auf die Eingabeadaptrode.Referring to FIG. 52 there is shown a graphical representation of the first and second Eingabeadaptrode Eingabeadaptrode, is used in the first Adaptrode for clocking the second He maintenance of the second Adaptrode. Each expectation is generally labeled W ab , where a refers to the expectation level and b to the input adapter.

Typischerweise können Neuralnetzwerke unter Verwendung einer Vielzahl von Technologien umgesetzt werden. Diese umfassen "Standard"-Technologien wie Integration in sehr großem Maßstab (very large scale integration VLSI), Software-Simulatoren und Entwicklungssysteme, sowie Sonderzweckhardwaresysteme und "neuere" Technologien wie optische Prozessoren.Typically, neural networks can be created using a Variety of technologies to be implemented. These include "Standard" technologies such as integration on a very large scale (very large scale integration VLSI), software simulators and  Development systems, as well as special purpose hardware systems and "newer" technologies such as optical processors.

Industrielle Anwendbarkeit. Mit Bezug auf die Zeichnungen und beim Betrieb sieht die vorliegende Erfindung eine mehr funda­ mentale Lernfähigkeit in Neuralnetzwerken vor. Die Lernfähig­ keiten der Adaptrode basieren nicht auf Assoziativität per se, sondern vielmehr auf dem Verschlüsseln von Information, die in dem sich zeitlich verändernden Signal entlang eines einzigen Eingabekanals inhärent ist. Der Verschlüsselungsprozeß ist zeitexplizit und arbeitet in der Tat in vielfachen Zeitmaß­ stäben, so daß Information für jede dieser Zeitdomänen aufgezeichnet wird. Solch eine Behandlung von Informationsver­ schlüsselung sieht eine Alternative vor zu Rücklaufschleifen beim Umsetzen von Kurz- und Langzeitgedächtnissen. Die Adap­ trode hängt nicht inhärent von der Zuordnung mit einem anderen Kanal ab, um eine Erinnerung (Speicher) zu bilden.Industrial applicability. With reference to the drawings and in operation, the present invention sees a more funda mental learning ability in neural networks. The learnable capabilities of the adapter are not based on associativity per se, but rather on encrypting information contained in the time-varying signal along a single one Input channel is inherent. The encryption process is time explicit and indeed works in multiple times rods so that information for each of these time domains is recorded. Such a treatment of information ver encryption provides an alternative to return loops when implementing short and long-term memories. The adap trode is not inherently dependent on the association with another Channel to form a memory.

Assoziativität kann jedoch aus der Einführung der Tor- oder Gatterfunktion aufkommen, die ein Verschlüsseln verhindert, wenn nicht ein zweites Signal vorhanden ist. Assoziationen zwischen zwei oder mehr Eingabesignalen oder eine Kombination von Eingabe- und Ausgabesignalen können erreicht werden.Associativity, however, can result from the introduction of the gate or Gate function that prevents encryption, if there is no second signal. Associations between two or more input signals or a combination of input and output signals can be achieved.

Mit Bezug auf Fig. 54-60 sind Adaptroden verwendet worden, um ein assoziatives Netzwerk 2802 zu konstruieren. Das Netzwerk 2802 umfaßt erste und zweite Neuristoren 2804, 2806 mit jeweils drei Eingabeadaptroden und einer Ausgabeadaptrode (A10, A11, A12, A13, A20, A21, A22, A23). Zur Bezugnahme ist eine Legende für die Fig. 54-60 in Fig. 53 gezeigt. Die Legende zeigt die Symbole für drei Arten von Eingaben: hemmend--5302, lernend erregend--5304 und nicht-lernend erregend--5306.With reference to FIGS. 54-60 Adaptroden have been used to construct an associative network 2802nd The network 2802 comprises first and second neuristors 2804, 2806, each with three input adapters and one output adapter (A 10 , A 11 , A 12 , A 13 , A 20 , A 21 , A 22 , A 23 ). For reference, a legend for Figures 54-60 is shown in Figure 53. The legend shows the symbols for three types of inputs: inhibitory - 5302, learning-arousing - 5304 and non-learning-arousing - 5306.

Das Ermöglichungstasten wird gesteuert über eine örtliche Wechselwirkung zwischen den Eingabeadaptroden A11 und A12 und zwischen A23 und A22. Die letzere Adaptrode, A12 und A22 ist in jedem Fall die lernende Adaptrode innerhalb des betref­ fenden Neuristors (wie durch die Doppelplattenanschlüsse ange­ deutet). Das heißt, die Steigkonstanten für die zweiten und dritten Erwartungen der Adaptroden A12 und A22 sind nicht Null und die zweiten und dritten Erwartungen der Adaptroden A11, A13, A21 und A23 sind Null.The enable key is controlled by a local interaction between the input adapters A 11 and A 12 and between A 23 and A 22 . The latter adaptrode, A 12 and A 22, is in any case the learning adapter within the relevant neuristor (as indicated by the double-plate connections). That is, the rise constants for the second and third expectations of the adaptrodes A 12 and A 22 are not zero and the second and third expectations of the adaptrodes A 11 , A 13 , A 21 and A 23 are zero.

Schwellen sind festgelegt worden und auf einen Wert eingestellt worden, der ausreichend ist, um die Ausgabe zu verzögern. Die Neuristoren 2804, 2806 hemmen einander gegenseitig, daß, sobald ein Neuristor einen Vorteil erhält, der dazu neigen wird, die einzig ansprechende Einheit zu werden. Dies wird durch A11 und A21 erreicht, welche hemmende Ansprechverhalten haben, wie durch die kreisförmige Eingabe angedeutet wird.Thresholds have been set and set to a value sufficient to delay the output. The neuristors 2804, 2806 mutually inhibit each other that as soon as a neuristor gains an advantage it will tend to become the only responsive entity. This is achieved by A 11 and A 21 , which have inhibitory responses, as indicated by the circular input.

Die Eingaben UCS1 und UCS2 werden als zwei entgegengesetzte (jedoch nicht notwendigerweise einander ausschließende) Stimuli oder Reize von der externen Umgebung angenommen. UCR1 und UCR2 sind gegenseitig ausschließende Antworten. Die mit CS bezeich­ nete Eingabe steht beiden Neuristoren zur Verfügung, wie ge­ zeigt. Vor jeglichem Aussetzen hat weder A12 noch A22 irgend­ eine Erinnerungsspur verschlüsselt.The inputs UCS 1 and UCS 2 are accepted as two opposite (but not necessarily mutually exclusive) stimuli or stimuli from the external environment. UCR 1 and UCR 2 are mutually exclusive answers. The input labeled CS is available to both neuristors, as shown. Before any exposure, neither A 12 nor A 22 encrypted any trace of memory.

Zu Erklärungszwecken ist es hilfreich, das Netzwerk 2802 als eine einfache Robotersteuerung anzusehen. Hier ist das Ausgabeverhalten entweder, einen Stimulus zu suchen (UCR2) oder zu vermeiden (UCR1), wenn entweder eine Belohnung UCS2 zum Beispiel für die Verfügbarkeit von Leistung zum Wiederaufladen von Batterien oder eine Bestrafung UCR1, beispielsweise das Vorhandensein von hohen Temperaturen, mit dem entsprechenden Reiz assoziiert wird.For explanatory purposes, it is helpful to consider network 2802 as a simple robot controller. Here the output behavior is either to seek a stimulus (UCR 2 ) or to avoid it (UCR 1 ) if either a reward UCS 2 for example for the availability of power for recharging batteries or a punishment UCR 1 , for example the presence of high ones Temperatures associated with the corresponding stimulus.

In diesem Fall wird der Stimulus (CS) als das Vorhandensein einer Lichtquelle angenommen. Das Ziel ist, den Roboter zu trainieren, Licht mit der Verfügbarkeit von Leistung zu asso­ ziieren, so daß er die Lichtquelle aus eigenem Antrieb suchen wird. Es sollte bemerkt werden, daß es genau so möglich gewesen wäre zu entscheiden, daß das Netzwerk trainiert wird, Licht und Wärme zu assoziieren. In this case the stimulus (CS) is called the presence adopted a light source. The goal is to get the robot too train to asso light with the availability of power adorn so that he can find the light source on his own initiative becomes. It should be noted that it was just as possible would be to decide that the network is trained, light and To associate heat.  

Nach mehreren Versuchen (die benötigte Anzahl hängt von der Größe der Signale, ihrer Dauer und ihrer Phasenrelationen ab) von gemeinsamen Aussetzen, und zwar CS und UCS2, wird dies tatsächlich in 08355 00070 552 001000280000000200012000285910824400040 0002004215179 00004 08236Fig. 55 erreicht. Es sollte bemerkt werden, daß die Aussetzungen nicht exakt im gleichen Augenblick (d. h. genau in Phase) sein müssen. Wenn das CS Ausgesetztsein kurz vor den von UCS2 geschieht - wobei das Zeitfenster durch die αs und δs in den Adaptroden festgelegt ist - wird das Auftreten von UCS2 immer noch die Ermöglichung in A22 erzeugen.After several attempts (the number required depends on the size of the signals, their duration and their phase relations) of common exposures, namely CS and UCS 2 , this is actually achieved in 08355 00070 552 001000280000000200012000285910824400040 0002004215179 00004 08236 Fig. 55. It should be noted that the suspensions need not be at exactly the same moment (ie exactly in phase). If the CS exposure occurs just before that of UCS 2 - with the time window being determined by the αs and δs in the adaptrodes - the occurrence of UCS 2 will still create the enable in A 22 .

Die dem Netzwerk 2802 angebotenen Signale sind stochastisch und rauschen (ungefähr 10% nicht-Gaus′sches Rauschen). Nach nur drei Versuchen gemeinsamer Präsentation bei UCS2 und CS im Mittelbereich, beginnt das Netzwerk zu erscheinen wie Fig. 55. Wie gesehen werden kann, ist einige Ermöglichung bei A22 aufgetreten als das Ergebnis örtlicher Wechselwirkung zwischen A21 und A22.The signals offered to network 2802 are stochastic and noise (approximately 10% non-Gaussian noise). After only three attempts to present together at UCS 2 and CS in the middle, the network begins to appear as Fig. 55. As can be seen, some enabling has occurred at A 22 as the result of local interaction between A 21 and A 22 .

Das Netzwerk 2802 umfaßt eine hemmende Verbindung von einer Einheit zur anderen, um gegenseitiges Hemmen einzuführen. Dies ist notwendig, um die Regel des gegenseitigen Ausschließens der Antwort durchzusetzen. Es sollte jedoch bemerkt werden, daß die Regel eine verschwommene Regel ist, in der einiges Signal- "Lecken" von CS und UCS1 möglich ist, wenn UCS1 geringfügig aktiv ist, was auftreten kann. Allgemein wird die Ausgabe von UCS2 die Ausgabe von UCS1 dämpfen und umgekehrt, aber das gilt nicht ohne Einschränkung.Network 2802 includes a one-to-one inhibitory connection to introduce mutual inhibition. This is necessary to enforce the rule of mutual exclusion of the answer. However, it should be noted that the rule is a blurry rule in which some signal "leakage" from CS and UCS 1 is possible when UCS 1 is slightly active, which can occur. In general, the output of UCS 2 will dampen the output of UCS 1 and vice versa, but this is not without limitation.

Die schattierten Gebiete in jeder Adaptrode stellen die Ebenen für jede Erwartung dar, wie in der Legende gezeigt wird. Es sei bemerkt, daß jede nachfolgende Erwartung die vorhergehende Erwartung überlappt. Auch sind die Beziehungen W0 W1 W2 immer wahr.The shaded areas in each adaptrode represent the levels for each expectation, as shown in the legend. It should be noted that each subsequent expectation overlaps the previous expectation. The relationships W 0 W 1 W 2 are also always true.

Dunkle Pfeile zeigen, daß diese Leitung "aktiv" ist. Daher zeigt der dunke Pfeil im zweiten Neuristor 2806 einen starken örtlichen Wechselwirkungseffekt von A23 auf das Lernverhalten von vom A22. Der Pfeil im ersten Neuristor 2804 von A11 nach A12 stellt eine schwache Wechselwirkung dar und somit kann A11 nicht als genügend eingestuftes Ansprechen beitragen, um zu gestatten, daß eine Ermöglichung in A12 stattfindet.Dark arrows show that this line is "active". Therefore, the dark arrow in the second neuristor 2806 shows a strong local interaction effect of A 23 on the learning behavior of A 22 . The arrow in the first neuristor 2804 from A 11 to A 12 represents a weak interaction and thus A 11 cannot contribute enough response to allow enabling in A 12 .

Fig. 56 verdeutlicht den Zustand des Netzwerks 2802, nachdem das Netzwerk 2802 über einige Zeit ohne Eingaben gealtert ist. Wie gesehen werden kann, zeigt die Adaptrode A22 etwas Rest­ erinnerung an die Assoziation, der sie ausgesetzt worden war. Als Folge dieses Restes hat das Netzwerk eine Beziehung zwi­ schen den assoziierten Signalen festgestellt, die wieder auf­ gerufen werden kann, wie in Fig. 57 gezeigt. In Fig. 57 wird ein Signal nur bei CS zugeführt. Dies entspricht der Situation, daß der Roboter nur Licht sieht. Als ein Ergebnis der Ermög­ lichung von A22 wird das Eingabesignal bei A22 die erste Er­ wartung W0 schneller auf einen höheren Wert treiben, als in der ersten Erwartung von A12 erreicht wurde. Im Gegenzug ist dies genug, ein Ausgabesignal bei UCR2 zu treiben, worauf sich ein hemmendes Signal ergibt, das den ersten Neuristor 2804 dämpft. FIG. 56 illustrates the state of the network in 2802 after the network has aged in 2802 for some time without any input. As can be seen, the Adaptrode A 22 shows some residual memory of the association to which it was exposed. As a result of this remainder, the network has established a relationship between the associated signals that can be recalled, as shown in FIG. 57. In Fig. 57, a signal is supplied only at CS. This corresponds to the situation that the robot only sees light. As a result, enables lichung of A 22, the input signal at A is 22, the first maintenance W He was 0 Speeding up to a higher value than in the first expectancy of A reaches 12th In turn, this is enough to drive an output signal at UCR 2 , resulting in an inhibitory signal that attenuates the first neuristor 2804.

Auf diese Weise hat das Netzwerk 2802 gelernt, CS, für sich selbst ein bedeutungsloses Signal, als eine Ankündigung eines bedeutungsvollen Signals (in diesem Fall Leistungsverfügbar­ keit) auszunutzen. Das Ausmaß, mit dem diese zwei Signale in der Vergangenheit zusammen aufgetreten sind, wird einem gewissen Grad der Zuverlässigkeit der Voraussagefähigkeit der Assoziation ergeben. Der Roboter kann lernen, Lichter zu suchen, wenn er wenig Leistung hat, und wird zu einem gewissen Grad Vertrauen hineinsetzen, daß diese Assoziation stimmen wird.In this way the network has learned 2802, CS, for itself itself a meaningless signal, as an announcement of a meaningful signal (in this case power available speed). The extent to which these two signals in the past has occurred together certain degree of reliability of the predictability of the Association result. The robot can learn to turn lights looking for when he has little power, and becomes a certain Put a degree of trust that this association is correct becomes.

Soweit arbeitet das Netzwerk 2802, wie man es von jeder asso­ zitiativen Lernregel erwarten könnte. Außer der etwas ein­ zigartigen Weise, in der Zeit explizit und der Lernprozeß durch Verstärkung dynamisch ist, erreicht das Netzwerk 2802 im wesentlichen, was jedes andere auf Assoziation basierende Neu­ ralnetzwerk erreichen würde. So far the network 2802 works as you would from any asso might expect a citative learning rule. Except for something zigzig way, in time explicitly and through the learning process Gain is dynamic, the network reaches 2802 in essential what any other association based new network would reach.  

Aber nun wird eine schwierigere Betrachtung angestellt. Ange­ nommen, für ein kurzes Zeitinvervall besteht eine gegenteilige Beziehung zwischen UCS1 und CS, wie es beispielsweise geschehen kann, wenn ein Feuer in der Umgebung des Roboters ausbricht. Erstens müßte man sich mit dem geeigneten Ansprechverhalten befassen; das heißt, der Roboter sollte das Feuer meiden.But now a more difficult consideration is made. Assume, for a short time interval, there is an opposite relationship between UCS 1 and CS, as can happen, for example, if a fire breaks out in the vicinity of the robot. First, one would have to deal with the appropriate response; that is, the robot should avoid the fire.

Als zweites werden Mittel benötigt zum Bestimmen der Bedeutung dieser gegenteiligen Bedingung. Ist es nur Rauschen oder stellt es eine dauerhaftere Veränderung in der Natur der Umgebung dar?Second, means are needed to determine meaning this opposite condition. Is it just noise or poses is it a more permanent change in the nature of the environment?

Als drittes soll im Falle, daß diese neue Beziehung vorüber­ gehend ist, der Roboter sicherlich nicht die vorherige Asso­ ziation vergessen, da es ziemlich wahrscheinlich ist, daß die alte Beziehung in der Zukunft wieder die Norm sein wird.Third, in the event that this new relationship is over is going, the robot certainly not the previous asso forgotten because it is quite likely that the old relationship will be the norm again in the future.

In den Fig. 58-60 ist der Fortschritt des Verschlüsselns ge­ genteiliger Asssoziation gezeigt, die, da sie unterschiedliche Zeitdomänen darstellen, leicht in den Netzwerk ohne Interferenz gespeichert werden können. Man wird sehen, daß das Netzwerk 2802 richtig anspricht und den Bedeutungsgrad richtig bestimmt, der den neuen Bedingungen beigemessen werden muß.In FIGS. 58-60, the progress of encrypting ge gent piece Asssoziation is shown which, since they represent different time domains can be easily stored in the network without interference. It will be seen that network 2802 responds correctly and correctly determines the level of importance that must be attached to the new conditions.

In Fig. 58 wird das Netzwerk 2802 einem starken und etwas anhaltenden Reiz UCS1 ausgesetzt, was im Gegensatz steht zur bisherigen Erfahrung. Das System wird anfangs beginnen, den zweiten Neuristor 2806 auszulösen, als ob es auf die Verfüg­ barkeit von Leistung reagiert. Eine geringe Zeit wird benötigt, damit der erste Erwartungswert W0 von A11 sich aufbaut auf ein Niveau, das ausreichend ist, die Ausgabe des zweiten Neuristors 2806 über die hemmende Verbindung bei A21 zu übersteuern. Je­ doch wegen der stärkeren Betätigung des ersten Neuristors 2804 gewinnt er den Wettkampf, was zur richtigen Antwort (Vermeiden) bei UCR1 führt. Man bemerke, daß A22 die Ermöglichung W2 ist, wogegen A12 die Ermöglichung nur für W1 darstellt.In FIG. 58, the network in 2802 a strong and some lingering charm UCS 1 is exposed, which stands in contrast to previous experience. The system will initially begin to trigger the second neuristor 2806 as if it were responding to the availability of power. A short time is required for the first expected value W 0 of A 11 to build up to a level which is sufficient to overdrive the output of the second neuristor 2806 via the inhibiting connection at A 21 . However, due to the greater actuation of the first neuristor 2804, it wins the competition, which leads to the correct answer (avoidance) in UCR 1 . Note that A 22 is the enable W 2 , whereas A 12 is the enable only for W 1 .

Wenn dem Netzwerk nun nur die CS-Eingabe präsentiert wird, wird es für eine kurze Zeit reagieren, wenn auch schwach, mit einer Ausgabe bei UCR1 wie in Fig. 59. Der Grund ist, daß die zweite Erwartung W1 von A12 auf ein Niveau gestiegen ist, das gerade geringfügig größer ist als das der zweiten Erwartung W1 von A22. Dies wird andauern, bis W1 von A12 abgefallen ist auf das gleichen Niveau wie W1 von A22. Zu dieser Zeit wird das An­ sprechen mehrdeutig sein. Die Mehrdeutigkeit wird nicht lange dauern. Da die Aussetzung der gegenteiligen Bedingung kurz war und W2 von A12 nicht gestiegen ist, wird W1 von A12 weiterhin abfallen, und zwar unterhalb des Niveaus von W1 von A22. Zu dieser Zeit wird das Netzwerk 2802 mit der ursprünglichen UCR2-Antwort reagieren, da die ältere Assoziation als dominant wieder zum Vorschein kommt, wie in Fig. 60 gezeigt.If only the CS input is now presented to the network, it will respond for a short time, albeit weakly, with an output at UCR 1 as in Fig. 59. The reason is that the second expectation W 1 of A 12 is on a level has risen that is just slightly larger than that of the second expectation W 1 of A 22 . This will continue until W 1 of A 12 has dropped to the same level as W 1 of A 22 . At this time, speaking will be ambiguous. The ambiguity will not last long. Since the exposure to the opposite condition was short and W 2 of A 12 did not increase, W 1 of A 12 will continue to fall below the level of W 1 of A 22 . At this time, network 2802 will respond with the original UCR 2 response since the older association reappears as dominant, as shown in FIG. 60.

Andere Aspekte, Ziele und Vorteile der vorliegenden Erfindung können aus dem Studium der Zeichnungen, der Offenbarung und der beigefügten Ansprüche ersehen werden.Other aspects, goals and advantages of the present invention can from the study of drawings, revelation and the attached claims.

Zusammenfassend sieht die Erfindung folgendes vor: Ein synaptischer Prozessor zur Verwendung in einem Neural­ netzwerk erzeugt ein Ergebnissignal infolge eines Eingabe­ signals. Der synaptische Prozessor initialisiert eine Ein­ gabeerwartung und empfängt ein Eingabesignal. Der synaptische Prozessor bestimmt eine Nettomodifikation der Eingabeerwartung. Die Nettomodifikation der Eingabeerwartung hat einen Vergröße­ rungsterm und einen Verkleinerungsterm. Der Vergrößerungsterm wird bestimmt als eine Funktion des Eingabesignals. Der Ver­ kleinerungsterm ist unabhängig von der Größe des Eingabesignals und ist eine Funktion einer Verfallkonstanten. Der synaptische Prozessor erzeugt ein Ergebnissignal infolge der Eingabeer­ wartung.In summary, the invention provides the following: A synaptic processor for use in a neural network generates a result signal as a result of an input signals. The synaptic processor initializes an on expected and receives an input signal. The synaptic Processor determines a net modification of the input expectation. The net modification of the input expectation has an increase tion term and a reduction term. The enlargement term is determined as a function of the input signal. The Ver smaller term is independent of the size of the input signal and is a function of a decay constant. The synaptic Processor generates a result signal as a result of the inputs maintenance.

Claims (47)

1. Ein synaptischer Prozessor zum Erzeugen eines Ergebnis­ signals infolge eines Eingabesignals, der folgendes aufweist:
Mittel zum Initialisieren einer Eingaberwartung, wobei die Erwartung beschränkt ist durch eine Maximalerwartung und eine Gleichgewichtserwartung;
Mittel zum Empfangen des Eingabesignals und zum Modifizieren der Eingabeerwartung, wobei die Nettomodifikation der Eingabeerwartung einen Vergrößerungsterm und einen Verkleinerungsterm aufweist, wobei der Vergrößerungsterm eine Funktion des Eingabe­ signals und einer erste Anstiegskonstanten ist und wobei der Verkleinerungsterm eine Funktion einer ersten Abfallkonstanten ist, und wobei die ersten Anstiegs- und Abfallkonstanten unabhängig sind; und
Mittel zum Erzeugen des Ergebnissignals infolge der Eingangserwartung.
1. A synaptic processor for generating a result signal as a result of an input signal, which comprises:
Means for initializing an input expectation, the expectation being limited by a maximum expectation and an equilibrium expectation;
Means for receiving the input signal and modifying the input expectation, the net modification of the input expectation having an increase term and a decrease term, the increase term being a function of the input signal and a first increase constant, and wherein the decrease term is a function of a first decrease constant, and wherein first rise and fall constants are independent; and
Means for generating the result signal in response to the input expectation.
2. Synaptischer Prozessor nach Anspruch 1, wobei das Ergebnis­ signal eine lineare Funktion der Eingabeerwartung ist.2. The synaptic processor of claim 1, wherein the result signal is a linear function of input expectation. 3. Synaptischer Prozessor nach Anspruch 1, wobei das Ergebnis­ signal eine nicht-lineare Funktion der Eingabeerwartung ist.3. The synaptic processor of claim 1, wherein the result signal a non-linear function of input expectation is. 4. Synaptischer Prozessor nach Anspruch 1, wobei der Verklei­ nerungsterm proportional ist zu der Differenz zwischen der Eingabeerwartung und der Gleichgewichtserwartung.4. Synaptic processor according to claim 1, wherein the Verklei is proportional to the difference between the Input expectation and equilibrium expectation. 5. Synaptischer Prozessor nach Anspruch 1, wobei der Ver­ größerungsterm proportional ist zu der Differenz zwischen der Eingabeerwartung und der Maximalerwartung.5. The synaptic processor of claim 1, wherein the ver magnification term is proportional to the difference between the input expectation and the maximum expectation. 6. Synaptischer Prozessor nach Anspruch 1, mit Mitteln zum Modifizieren der Gleichgewichtserwartung, wobei die Nettomodifikation der Gleichgewichtserwartung einen zweiten Vergrößerungsterm und einen zweiten Verkleinerungssterm aufweist, wobei der zweite Vergrößerungsterm eine Funktion der Eingabeerwartung und einer zweiten Anstiegskonstanten ist und wobei der Verkleinerungsterm eine Funktion einer zweiten Abfall- oder Verfallkonstanten ist.6. Synaptic processor according to claim 1, with means for Modify equilibrium expectation, where the Net modification of equilibrium expectation a second  Enlargement term and a second reduction term , the second magnification term being a function the input expectation and a second rise constant and the reduction term is a function of a second decay or decay constant. 7. Synaptischer Prozessor nach Anspruch 1, wobei die die Eingabeerwartung modifizierenden Mittel Mittel umfassen, um die Eingabeerwartung zu diskreten Zeitintervallen von t auf den neuesten Stand zu bringen.7. The synaptic processor of claim 1, wherein the Input expectation modifying means include means to the input expectation at discrete time intervals of t to bring it up to date. 8. Synaptischer Prozessor zum Erzeugen eines Ergebnissignals infolge eines Eingabessignals, der folgendes aufweist:
Mittel zum Initialisieren erster und zweiter Erwartungen, wobei die ersten und zweiten Erwartungen beschränkt sind durch eine maximale Erwartung und eine Gleichgewichtserwartung;
Mittel zum Empfang des Eingabesignals und zum Modifizieren der ersten Erwartung infolge des Eingabesignals und der zweiten Erwartung;
Mittel zum Modifizieren der zweiten Erwartung infolge der ersten Erwartung; und
Mittel zum Erzeugen des Ergebnissignals infolge der ersten Erwartung.
8. Synaptic processor for generating a result signal as a result of an input signal, which comprises:
Means for initializing first and second expectations, the first and second expectations being limited by a maximum expectation and an equilibrium expectation;
Means for receiving the input signal and modifying the first expectation due to the input signal and the second expectation;
Means for modifying the second expectation as a result of the first expectation; and
Means for generating the result signal as a result of the first expectation.
9. Synaptischer Prozessor nach Anspruch 8, wobei die Erwartungen die folgenden Beziehungen haben: WM W⁰ W¹ WE,wobei
WM = die maximale Erwartung,
W0 = die erste Erwartung,
W1 = die zweite Erwartung und
WE = die Gleichgewichtserwartung
ist.
9. The synaptic processor of claim 8, wherein the expectations have the following relationships: W M W⁰ W¹ W E , where
W M = the maximum expectation
W 0 = the first expectation
W 1 = the second expectation and
W E = equilibrium expectation
is.
10. Synaptischer Prozessor nach Anspruch 8, wobei die erste Erwartung eine Funktion der Größe des Eingabesignals ist. 10. The synaptic processor of claim 8, wherein the first Expectation is a function of the size of the input signal.   11. Synaptischer Prozessor nach Anspruch 8, wobei die die erste Erwartung modifizierenden Mittel Mittel umfassen zum Verkleinern der ersten Erwartung infolge der zweiten Erwartung.11. The synaptic processor of claim 8, wherein the first Expectation modifying means include: Reduce the first expectation as a result of the second Expectation. 12. Synaptischer Prozessor nach Anspruch 11, wobei die die erste Erwartung verkleinernden Mittel Mittel umfassen zum Bestimmen der Differenz zwischen den ersten und zweiten Erwartungen und zum Verkleinern der ersten Erwartung infolge der Differenz und einer ersten Verfallkonstanten.12. The synaptic processor of claim 11, wherein the first expectation reducing means include means for Determine the difference between the first and second Expectations and to reduce the first expectation due to the difference and a first decay constant. 13. Synaptischer Prozessor nach Anspruch 8, wobei die die erste Erwartung modifizierenden Mittel Mittel umfassen zum Vergrößern der ersten Erwartung infolge der Größe des Eingabesignals und der maximalen Erwartung.13. The synaptic processor of claim 8, wherein the first Expectation modifying means include: Increase the first expectation due to the size of the Input signals and the maximum expectation. 14. Synaptischer Prozessor nach Anspruch 13, wobei die die erste Erwartung vergrößernden Mittel Mittel umfassen zum Bestimmen der Differenz zwischen der ersten und der maximalen Erwartung und zum Vergrößern der ersten Erwartung infolge des Eingabesignals, der Differenz und einer ersten Anstiegskonstanten.14. The synaptic processor of claim 13, wherein the First Expectant Enhancing Funds include Determine the difference between the first and the maximum expectation and to increase the first expectation due to the input signal, the difference and a first Rise constants. 15. Synaptischer Prozessor nach Anspruch 8, wobei die die zweite Erwartung modifizierenden Mittel Mittel umfassen zum Vergrößern der zweiten Erwartung infolge der ersten Erwartung.15. The synaptic processor of claim 8, wherein the die second expectation modifying means include Increase the second expectation as a result of the first Expectation. 16. Synaptischer Prozessor nach Anspruch 13, wobei die die zweite Erwartung vergrößernden Mittel Mittel umfassen zum Bestimmen der Differenz zwischen den zweiten und ersten Er­ wartungen und zum Vergrößern der zweiten Erwartung infolge der Differenz und einer zweiten Anstiegskonstanten.16. The synaptic processor of claim 13, wherein the second expectation-increasing means include means for Determine the difference between the second and first er maintenance and to increase the second expectation as a result the difference and a second rise constant. 17. Synaptischer Prozessor nach Anspruch 8, wobei die die zweite Erwartung modifizierenden Mittel Mittel umfassen zum Verkleinern der zweiten Erwartung infolge der Gleichgewichtserwartung.17. The synaptic processor of claim 8, wherein the die second expectation modifying means include  Reducing the second expectation due to the Equilibrium expectation. 18. Synaptischer Prozessor nach Anspruch 8 mit Mitteln zum Modifizieren der Gleichgewichtserwartung, wobei die Nettomodifikation der Gleichgewichtserwartung einen Vergrößerungsterm und einen Verkleinerungsterm aufweist, wobei der Vergrößerungsterm eine Funktion der zweiten Erwartung und einer Anstiegs- oder Steigkonstanten ist und wobei der Verkleinerungsterm eine Funktion einer zweiten Verfallkonstanten ist.18. Synaptic processor according to claim 8 with means for Modify equilibrium expectation, where the Net modification of equilibrium expectation one Has enlargement term and a reduction term, where the magnification term is a function of the second Expectation and a rise or rise constant is and the reduction term being a function of a second Decay constant. 19. Synaptischer Prozessor zum Erzeugen eines Ergebnissignals infolge eines Eingabesignals, der folgendes aufweist:
Mittel zum Initialisieren einer ersten Erwartung und zumindest einer zweiten Erwartung, wobei die ersten und zweiten Erwartungen beschränkt sind durch eine Maximalerwartung und eine Gleichgewichtserwartung, wobei die Anzahl der zweiten Erwartungen durch L bezeichnet ist;
Mittel zum Empfang eines Eingabesignals und zum Modifizieren der ersten Erwartung infolge des Eingabesignals;
Mittel zum Modifizieren einer der zweiten Erwartungen, wobei die eine zweite Erwartung durch W1 bezeichnet ist und eine Funktion ist von: der ersten Erwartung, falls l=1, oder anderenfalls einer vorhergehenden zweiten Erwartung Wl-1; und
Mittel zum Erzeugen des Ergebnissignals infolge der ersten Erwartung.
19. Synaptic processor for generating a result signal as a result of an input signal, which comprises:
Means for initializing a first expectation and at least a second expectation, the first and second expectations being limited by a maximum expectation and an equilibrium expectation, the number of second expectations being denoted by L;
Means for receiving an input signal and modifying the first expectation due to the input signal;
Means for modifying one of the second expectations, the second expectation denoted by W 1 and being a function of: the first expectation if l = 1 or otherwise a previous second expectation W l-1 ; and
Means for generating the result signal as a result of the first expectation.
20. Synaptischer Prozessor nach Anspruch 19, mit Mitteln zum Empfang eines zweiten Eingabesignals und zum darauf ansprechenden Erzeugen eines Ermöglichungssignals, und wobei die eine zweite Erwartung eine Funktion des Ermöglichungssignals ist. 20. Synaptic processor according to claim 19, with means for Receipt of a second input signal and for it responsively generating an enable signal, and where the second expectation is a function of Enable signal is.   21. Synaptischer Prozessor zum Erzeugen eines Ergebnissignals infolge eines ersten Eingabesignals und eines zweiten Eingabesignals, welcher folgendes aufweist:
Mittel zum Initialisieren erster und zweiter Erwartungen, wobei die ersten und zweiten Erwartungen beschränkt sind durch eine maximale Erwartung und eine Gleichgewichtserwartung;
Mittel zum Erzeugen des ersten Eingangssignals und zum Modifizieren der ersten Erwartung infolge des ersten Eingabesignals und der zweiten Erwartung;
Mittel zum Empfang des zweiten Eingabesignals und zum darauf ansprechenden Erzeugen eines Ermöglichungssignals;
Mittel zum Modifizieren der zweiten Erwartung infolge der ersten Erwartung und des Ermöglichungssignals, und
Mittel zum Erzeugen des Ergebnissignals infolge des ersten Eingabesignals und des ersten Erwartungssignals.
21. Synaptic processor for generating a result signal as a result of a first input signal and a second input signal, which has the following:
Means for initializing first and second expectations, the first and second expectations being limited by a maximum expectation and an equilibrium expectation;
Means for generating the first input signal and modifying the first expectation due to the first input signal and the second expectation;
Means for receiving the second input signal and responsively generating an enable signal;
Means for modifying the second expectation due to the first expectation and the enable signal, and
Means for generating the result signal as a result of the first input signal and the first expectation signal.
22. Synaptischer Prozessor nach Anspruch 21, wobei die erste Erwartung eine Funktion der Größe des Eingabesignals ist.22. The synaptic processor of claim 21, wherein the first Expectation is a function of the size of the input signal. 23. Synaptischer Prozessor nach Anspruch 21, wobei die Ini­ tialisiermittel Mittel umfassen zum Initialisieren eines Tor- oder Tastsignals, und wobei das Ermöglichungssignal erzeugt wird infolge des zweiten Eingabesignals und des Tastsignals.23. The synaptic processor of claim 21, wherein the ini Initialization means comprise means for initializing a Gate or touch signal, and being the enable signal is generated as a result of the second input signal and Tactile signal. 24. Synaptischer Prozessor nach Anspruch 23, wobei die das Er­ möglichungssignal erzeugenden Mittel Mittel umfassen zum Bestimmen des Tastsignals und des zweiten Eingabessignals.24. The synaptic processor of claim 23, wherein the the Possibility signal generating means comprise means for Determine the key signal and the second input signal. 25. Synaptischer Prozessor nach Anspruch 24, wobei die das zweite Eingabesignal bestimmenden Mittel Mittel umfassen zum Empfang einer Vielzahl von Wechselwirkungssignalen und zum Addieren der Wechselwirkungsignale.25. The synaptic processor of claim 24, wherein the second input signal determining means comprise means for receiving a variety of interaction signals and for adding the interaction signals. 26. Synaptischer Prozessor nach Anspruch 23, wobei das Ermög­ lichungssignal in einem Erlaubniszustand ist, wenn das zweite Eingabesignal das Tastsignal überschreitet, und wobei es andernfalls in einem Verhinderungszustand ist.26. The synaptic processor of claim 23, wherein the enable clearing signal is in a permission state if that  second input signal exceeds the key signal, and otherwise it is in a prevention state. 27. Synaptischer Prozessor nach Anspruch 26, wobei die die zweite Erwartung modifizierenden Mittel Mittel umfassen zum Vergrößern der zweiten Erwartung infolge der ersten Erwartung, wenn das Ermöglichungssignal in dem Erlaubniszustand ist.27. The synaptic processor of claim 26, wherein the die second expectation modifying means include Increase the second expectation as a result of the first Expectation when the enabling signal in the Is state of permission. 28. Verarbeitungselement, das folgendes aufweist:
einen ersten synaptischen Prozessor zum Erzeugen eines ersten Ergebnissignals infolge eines ersten Eingabesignals, welcher folgendes aufweist:
Mittel zum Initialisieren einer Eingabeerwartung, wobei die erste Eingabeerwartung beschränkt ist durch eine erste maximale Erwartung und eine erste Gleichgewichtserwartung;
Mittel zum Empfang des ersten Eingabesignals und zum darauf ansprechenden Modifizieren der Eingabeerwartung, wobei die Nettomodifikation der Eingabeerwartung einen ersten Vergrößerungsterm und einen ersten Verkleinerungsterm aufweist, wobei der erste Vergrößerungsterm auf das erste Eingabesignal anspricht, und wobei der erste Verkleinerungsterm ein Funktion der ersten Gleichgewichtserwartung ist; und
Mittel zum Erzeugen des ersten Ergebnissignals infolge der Eingabeerwartung;
einen zweiten synaptischen Prozessor zum Erzeugen eines zweiten Ergebnissignals infolge des zweiten Eingabessignals, der folgendes umfaßt:
Mittel zum Initialisieren erster und zweiter Erwartungen, wobei die ersten und zweiten Erwartungen beschränkt sind durch eine zweite maximale Erwartung und eine zweite Gleichgewichtserwartung;
Mittel zum Empfang des zweiten Eingabesignals und zum Modifizieren der ersten Erwartung infolge des zweiten Eingabesignals und der zweiten Erwartung;
Mittel zum Empfang des ersten Ergebnissignals und zum darauf ansprechenden Erzeugen eines Ermöglichungssignals;
Mittel zum Modifizieren der zweiten Erwartung infolge der ersten Erwartung und des Ermöglichungssignals; und
Mittel zum Erzeugen des zweiten Ergebnissignals infolge des zweiten Eingabessignals und der ersten Erwartung.
28. Processing element comprising:
a first synaptic processor for generating a first result signal as a result of a first input signal, which has the following:
Means for initializing an input expectation, the first input expectation being limited by a first maximum expectation and a first equilibrium expectation;
Means for receiving the first input signal and responsively modifying the input expectation, the net modification of the input expectation having a first increase term and a first decrease term, the first increase term responsive to the first input signal, and wherein the first decrease term is a function of the first equilibrium expectation; and
Means for generating the first result signal based on the input expectation;
a second synaptic processor for generating a second result signal as a result of the second input signal, comprising:
Means for initializing first and second expectations, the first and second expectations being limited by a second maximum expectation and a second equilibrium expectation;
Means for receiving the second input signal and modifying the first expectation due to the second input signal and the second expectation;
Means for receiving the first result signal and responsively generating an enable signal;
Means for modifying the second expectation due to the first expectation and the enable signal; and
Means for generating the second result signal as a result of the second input signal and the first expectation.
29. Verarbeitungselement nach Anspruch 28, wobei der erste synaptische Prozessor Mittel umfaßt zum Modifizieren der ersten Gleichgewichtserwartung, wobei die Nettomodifikation der ersten Gleichgewichtserwartung einen zweiten Vergrößerungsterm und einen zweiten Verkleinerungsterm aufweist, wobei der zweite Vergrößerungsterm eine Funktion der Eingabeerwartung und einer zweiten Steigkonstanten ist und wobei der zweite Verkleinerungsterm eine Funktion einer zweiten Verfallkonstanten ist.29. The processing element of claim 28, wherein the first synaptic processor means for modifying the first equilibrium expectation, the net modification the first equilibrium expectation a second Enlargement term and a second reduction term , the second magnification term being a function the input expectation and a second climb constant and wherein the second reduction term is a function of a second decay constant. 30. Verarbeitungselement nach Anspruch 28, wobei die die erste Erwartung modifizierenden Mittel Mittel umfassen zum Bestimmen einer ersten Nettomodifikation und zum Addieren der ersten Nettomodifikation zu der ersten Erwartung, wobei die erste Nettomodifikation einen dritten Vergrößerungsterm und einen dritten Verkleinerungsterm aufweist, wobei der dritte Vergrößerungsterm eine Funktion der ersten Erwartung und einer dritten Steigkonstanten ist, und wobei der dritte Verkleinerungsterm eine Funktion der ersten Erwartung und einer dritten Verfallkonstanten ist, und wobei die die zweite Erwartung modifizierenden Mittel Mittel umfassen zum Bestimmen einer zweiten Nettomodifikation der zweiten Erwartung und zum Addieren der zweiten Nettomodifikation zu der zweiten Erwartung, wobei die zweite Nettomodifikation einen vierten Vergrößerungsterm und einen vierten Verkleinerungsterm aufweist, wobei der vierte Vergrößerungsterm eine Funktion der ersten Erwartung und einer vierten Steigkonstanten ist und wobei der vierte Verkleinerungsterm eine Funktion der ersten Erwartung und einer zweiten Verfallkonstanten ist.30. The processing element of claim 28, wherein the first Expectation modifying means include: Determine a first net modification and add it the first net modification to the first expectation, where the first net modification a third enlargement term and has a third reduction term, the third magnification term a function of the first expectation and a third climb constant, and wherein the third Reduction term a function of the first expectation and a third decay constant, and which is the second expectation modifying means include Determining a second net modification of the second Expectation and to add the second net modification to the second expectation, the second net modification a fourth magnification term and a fourth Has reduction term, the fourth Magnification term a function of the first expectation and is a fourth rise constant and the fourth  Reduction term a function of the first expectation and a second decay constant. 31. Verarbeitungselement nach Anspruch 28, mit Mitteln zum Modifizieren der zweiten Gleichgewichtserwartung, wobei die Nettomodifikation der zweiten Gleichgewichtserwartung einen fünften Vergrößerungsterm und einen fünften Verkleinerungsterm aufweist, wobei der fünfte Vergrößerungsterm eine Funktion der zweiten Erwartung und einer fünften Steigkonstanten ist und wobei der fünfte Verkleinerungsterm eine Funktion einer fünften Verfallkonstanten ist.31. Processing element according to claim 28, with means for Modify the second equilibrium expectation, where the Net modification of the second equilibrium expectation one fifth enlargement term and a fifth Has reduction term, the fifth Magnification term a function of second expectation and is a fifth climb constant and is the fifth Reduction term a function of a fifth Decay constant. 32. Verarbeitungselement, das folgendes aufweist:
Mittel zum Erzeugen eines Schwellensignals;
einen synaptischen Eingabeprozessor zum Erzeugen eines Ergebnissignals infolge eines Eingabesignals, wobei der synaptische Eingabeprozessor folgendes umfaßt:
Mittel zum Initialisieren einer Eingabeerwartung, wobei die Eingabeerwartung beschränkt ist durch eine Maximalerwartung und eine Gleichgewichtserwartung;
Mittel zum Empfang des Eingabesignals und zum Ermitteln der Größe des Eingabessignals;
Mittel zum Modifizieren der Eingabeerwartung, wobei die Nettomodifikation der Eingabeerwartung einen ersten Vergrößerungsterm und einen ersten Verkleinerungsterm aufweist, wobei der erste Vergrößerungsterm auf die Größe des Eingabesignals anspricht, und wobei der erste Verkleinerungsterm unabhängig ist von der Größe und eine Funktion ist einer Verfallkonstanten; und
Mittel zum Erzeugen des Ergebnisignals infolge der Eingabeerwartung; und
Mittel zum Empfang des Ergebnissignals und des Schwellensignals und zum darauf ansprechenden Erzeugen eines Ausgabesignals.
32. Processing element comprising:
Means for generating a threshold signal;
a synaptic input processor for generating a result signal based on an input signal, the synaptic input processor comprising:
Means for initializing an input expectation, the input expectation being limited by a maximum expectation and a balance expectation;
Means for receiving the input signal and for determining the magnitude of the input signal;
Means for modifying the input expectation, the net modification of the input expectation having a first increase term and a first decrease term, the first increase term responsive to the size of the input signal, and wherein the first decrease term is independent of size and a function is an expiration constant; and
Means for generating the result signal based on the input expectation; and
Means for receiving the result signal and the threshold signal and responsively generating an output signal.
33. Verarbeitungselement nach Anspruch 32, mit Mitteln zum Modifizieren der Gleichgewichtserwartung, wobei die Nettomodifikation der Gleichgewichtserwartung einen zweiten Vergrößerungsterm und einen zweiten Verkleinerungsterm aufweist, wobei der zweite Vergrößerungsterm eine Funktion der Eingabeerwartung und einer zweiten Steigkonstanten ist, und wobei der zweite Verkleinerungsterm eine Funktion einer zweiten Verfallkonstanten ist.33. Processing element according to claim 32, with means for Modify equilibrium expectation, where the Net modification of equilibrium expectation a second Enlargement term and a second reduction term , the second magnification term being a function the input expectation and a second climb constant, and wherein the second reduction term is a function of a second decay constant. 34. Verarbeitungselement nach Anspruch 32, wobei die schwellen­ erzeugenden Mittel Mittel umfassen zum Initialisieren einer Schwellenkonstanten, zum Empfang eines Schwellen- modifizierenden Signals, zum Multiplizieren des Schwellen- modifizierenden Signals mit einer Konstanten und zum Abziehen des Produkts von der Schwellenkonstanten.34. Processing element according to claim 32, wherein the thresholds generating means comprise means for initializing a Threshold constants, for receiving a threshold modifying signal, to multiply the threshold modifying signal with a constant and to Subtract the product from the threshold constant. 35. Verarbeitungselement nach Anspruch 32, wobei die Schwellen­ signal erzeugenden Mittel einen Ausgabeprozessor umfassen zum Empfang des Ausgabesignals und zum darauf ansprechenden Erzeugen eines Schwellen-modifizierenden Signals.35. Processing element according to claim 32, wherein the thresholds signal generating means comprise an output processor to receive the output signal and to respond to it Generate a threshold modifying signal. 36. Verarbeitungselement, das folgendes aufweist:
Mittel zum Erzeugen eines Schwellensignals;
zumindest zwei synaptische Eingabeprozessoren zum Erzeugen jeweiliger Ergebnissignale infolge entsprechender Eingabe­ signale, wobei jeder synaptische Eingabeprozessor folgendes aufweist:
Mittel zum Initialisieren einer Eingabeerwartung, wobei die Eingabeerwartung beschränkt ist durch eine Maximalerwartung und eine Gleichgewichtserwartung;
Mittel zum Empfang des Eingabesignals und zum Ermitteln der Größe des Eingabesignals;
Mittel zum Modifizieren der Eingabeerwartung, wobei die Nettomodifikation der Eingabeerwartung einen Vergrößerungsterm und einen Verkleinerungsterm aufweist, wobei der Vergrößerungsterm auf die Größe des Eingabesignals anspricht, und wobei der Verkleinerungsterm unabhängig ist von der Größe und eine Funktion einer Verfallkonstanten ist;
Mittel zum Erzeugen des Ergebnissignals infolge der Eingabeerwartung;
Mittel zum Empfangen der Ergebnissignale, zum Addieren der Ergebnissignale und zum darauf ansprechenden Erzeugen eines Sigma-Signals; und
Mittel zum Empfangen des Sigma-Signals und des Schwellensignals und zum darauf ansprechenden Erzeugen eines Ausgabesignals.
36. Processing element comprising:
Means for generating a threshold signal;
at least two synaptic input processors for generating respective result signals as a result of corresponding input signals, each synaptic input processor having the following:
Means for initializing an input expectation, the input expectation being limited by a maximum expectation and a balance expectation;
Means for receiving the input signal and for determining the size of the input signal;
Means for modifying the input expectation, the net modification of the input expectation having an increase term and a decrease term, the increase term being responsive to the size of the input signal, and the decrease term being independent of size and a function of an expiration constant;
Means for generating the result signal based on the input expectation;
Means for receiving the result signals, adding the result signals and responsively generating a sigma signal; and
Means for receiving the sigma signal and the threshold signal and responsively generating an output signal.
37. Verarbeitungselement nach Anspruch 36, wobei die Schwellen erzeugenden Mittel Mittel umfassen zum Initialisieren einer Schwellenkonstanten, zum Empfang eines Schwellen- modifizierenden Signals, zum Multiplizieren des Schwellen- modifizierenden Signals mit einer Konstanten und zum Abziehen des Produkts von der Schwellenkonstanten.37. Processing element according to claim 36, wherein the thresholds generating means comprise means for initializing a Threshold constants, for receiving a threshold modifying signal, to multiply the threshold modifying signal with a constant and to Subtract the product from the threshold constant. 38. Verarbeitungselement nach Anspruch 36, wobei die Ausgabesignal erzeugenden Mittel Mittel umfassen zum Vergleichen der Schwellen- und Sigma-Signale und wobei das Ausgabesignal einen ersten Zustand hat, in dem das Sigma- Signal größer ist als Schwellensignal, und wobei das Ausgabesignal anderenfalls einen zweiten Zustand hat.38. Processing element according to claim 36, wherein the Output signal generating means comprise means for Comparing the threshold and sigma signals and where that Output signal has a first state in which the sigma Signal is greater than the threshold signal, and being that Otherwise, the output signal has a second state. 39. Verarbeitungselement nach Anspruch 36, wobei die Schwellen­ signal-erzeugenden Mittel einen Ausgabeprozessor umfassen zum Empfang des Ausgabesignals und zum darauf ansprechenden Erzeugen eines Schwellen modifizierenden Signals.39. Processing element according to claim 36, wherein the thresholds signal-generating means comprise an output processor to receive the output signal and to respond to it Generate a threshold modifying signal. 40. Verarbeitungselement, das folgendes aufweist:
Mittel zum Erzeugen eines Schwellensignals;
einen synaptischen Eingabeprozessor zum Erzeugen eines Ergebnissignals infolge eines Eingabesignals, wobei der synaptische Eingabeprozessor folgendes aufweist:
Mittel zum Initialisieren erster und zweiter Erwartungen, wobei die ersten und zweiten Erwartungen beschränkt sind durch eine Maximalerwartung und eine Gleichgewichtserwartung;
Mittel zum Empfang des Eingabesignals und zum Modifizieren der ersten Erwartung infolge des Eingabesignals und der zweiten Erwartung;
Mittel zum Modifizieren der zweiten Erwartung infolge der ersten Erwartung; und
Mittel zum Erzeugen des Ergebnissignals infolge der zweiten Erwartung; und
Mittel zum Empfang des Schwellensignals und des Ergebnissignals und zum darauf ansprechenden Erzeugen eines Ausgabesignals.
40. Processing element comprising:
Means for generating a threshold signal;
a synaptic input processor for generating a result signal as a result of an input signal, the synaptic input processor comprising:
Means for initializing first and second expectations, the first and second expectations being limited by a maximum expectation and an equilibrium expectation;
Means for receiving the input signal and modifying the first expectation due to the input signal and the second expectation;
Means for modifying the second expectation as a result of the first expectation; and
Means for generating the result signal based on the second expectation; and
Means for receiving the threshold signal and the result signal and responsively generating an output signal.
41. Verarbeitungselement nach Anspruch 40, wobei die die erste Erwartung modifizierenden Mittel Mittel umfassen zum Bestimmen einer ersten Nettomodifikation und zum Addieren der ersten Nettomodifikation zu der ersten Erwartung, wobei die erste Nettomodifikation einen ersten Vergrößerungsterm und einen ersten Verkleinerungsterm aufweist, wobei der erste Vergrößerungsterm eine Funktion der ersten Erwartung und einer ersten Steigkonstanten ist und wobei der erste Verkleinerungsterm eine Funktion der ersten Erwartung und einer ersten Verfallkonstanten ist, und wobei die die zweite Erwartung modizierenden Mittel Mittel umfassen zum Bestimmen einer zweiten Nettomodifikation der zweiten Erwartung und zum Addieren der zweiten Nettomodi­ fikation zu der zweiten Erwartung, wobei die zweite Nettomodifikation einen zweiten Vergrößerungsterm und einen zweiten Verkleinerungsterm aufweist, wobei der zweite Vergrößerungsterm eine Funktion der zweiten Erwartung und einer zweiten Steigkonstanten ist und wobei der zweite Verkleinerungssterm eine Funktion der zweiten Erwartung und einer zweiten Verfallkonstanten ist.41. Processing element according to claim 40, wherein the the first Expectation modifying means include: Determine a first net modification and add it the first net modification to the first expectation, where the first net modification has a first increase term and has a first reduction term, the first magnification term a function of the first expectation and a first climb constant, and wherein the first Reduction term a function of the first expectation and a first decay constant, and the means modifying the second expectation means include to determine a second net modification of the second expectation and to add the second net modes to the second expectation, the second Net modification a second enlargement term and one has second reduction term, the second Magnification term a function of second expectation and is a second rise constant and the second Reduction term a function of second expectation and a second decay constant. 42. Verarbeitungselement nach Anspruch 40, mit Mitteln zum Modifizieren der Gleichgewichtserwartung, wobei die Netto­ modifikation der Gleichgewichtserwartung einen Vergrößerungsterm und einen Verkleinerungsterm aufweist, wobei der Vergrößerungsterm eine Funktion der zweiten Erwartung und einer Steigkonstanten ist, und wobei der Verkleinerungsterm eine Funktion einer zweiten Verfallkonstanten ist.42. Processing element according to claim 40, with means for Modify the equilibrium expectation, taking the net modification of the equilibrium expectation one Has enlargement term and a reduction term,  where the magnification term is a function of the second Expectation and a climb constant, and being the Reduction term a function of a second Decay constant. 43. Verarbeitungselement nach Anspruch 40 mit Mitteln zum Empfangen eines zweiten Eingabesignals und zum darauf an­ sprechenden Erzeugen eines Ermöglichungssignals, wobei die zweite Erwartung eine Funktion des Ermöglichungssignals ist.43. Processing element according to claim 40 with means for Receive a second input signal and respond to it speaking generating an enable signal, the second expectation a function of the enable signal is. 44. Verarbeitungselement nach Anspruch 40, wobei die Schwel­ lensignal-erzeugenden Mittel einen Ausgabprozessor umfassen zum Empfang des Ausgabesignals und zum darauf ansprechenden Erzeugen eines Schwellen-modifizierenden Signals.44. Processing element according to claim 40, wherein the smoldering Lens signal generating means comprise an output processor to receive the output signal and to respond to it Generate a threshold modifying signal. 45. Verarbeitungslement, das folgendes aufweist:
Mittel zum Erzeugen eines Schwellensignals;
mindestens zwei synaptische Eingabeprozessoren zum Erzeugen jeweiliger Ergebnissignale infolge jeweiliger Eingabessignale, wobei jeder der synaptischen Eingabeprozessoren folgendes aufweist:
Mittel zum Initialisieren erster und zweiter Erwartungen, wobei die ersten und zweiten Erwartungen beschränkt sind durch eine Maximalerwartung und eine Gleichgewichtserwartung;
Mittel zum Empfang des Eingabesignals und zum Modifizieren der ersten Erwartung infolge des Eingabesignals und der zweiten Erwartung;
Mittel zum Modifizieren der zweiten Erwartung infolge der ersten Erwartung; und
Mittel zum Erzeugen des Ergebnissignals infolge der ersten Erwartung; und
Mittel zum Empfangen der Ergebnissignale zum Addieren der Ergebnissignale und zum darauf ansprechenden Erzeugen eines Sigma-Signals; und
Mittel zum Empfangen des Sigma-Signals und des Schwellensignals und zum darauf ansprechenden Erzeugen eines Ausgabessignals.
45. Processing element comprising:
Means for generating a threshold signal;
at least two synaptic input processors for generating respective result signals as a result of respective input signals, each of the synaptic input processors having the following:
Means for initializing first and second expectations, the first and second expectations being limited by a maximum expectation and an equilibrium expectation;
Means for receiving the input signal and modifying the first expectation due to the input signal and the second expectation;
Means for modifying the second expectation as a result of the first expectation; and
Means for generating the result signal based on the first expectation; and
Means for receiving the result signals, adding the result signals and responsively generating a sigma signal; and
Means for receiving the sigma signal and the threshold signal and responsively generating an output signal.
46. Verarbeitungselement nach Anspruch 45, wobei die die erste Erwartung modifizierenden Mittel Mittel umfassen zum Bestimmen einer ersten Nettomodifikation und zum Addieren der ersten Nettomodifikation zu der ersten Erwartung, wobei die erste Nettomodifikation einen ersten Vergrößerungsterm und einen ersten Verkleinerungstem aufweist, wobei der erste Vergrößerungsterm eine Funktion der ersten Erwartung und einer ersten Steigkonstanten ist und wobei der erste Verkleinerungsterm eine Funktion der ersten Erwartung und einer ersten Verfallkonstanten ist, und wobei die die zweite Erwartung modifizierenden Mittel Mittel umfassen zum Bestimmen einer zweiten Nettomodifikation der zweiten Erwartung und zum Addieren der zweiten Nettomodifikation zu der zweiten Erwartung, wobei die zweite Nettomodifikation einen zweiten Vergrößerungterm und einen zweiten Verkleinerungsterm aufweist, wobei der zweite Vergrößerungsterm eine Funktion der zweiten Erwartung und einer zweiten Steigkonstanten ist und wobei der zweite Verkleinerungsterm eine Funktion der zweiten Erwartung und einer zweiten Verfallkonstanten ist.46. Processing element according to claim 45, wherein the first Expectation modifying means include: Determine a first net modification and add it the first net modification to the first expectation, where the first net modification has a first increase term and has a first reduction size, the first magnification term a function of the first expectation and a first climb constant, and wherein the first Reduction term a function of the first expectation and a first decay constant, and the means modifying the second expectation Comprise means for determining a second Net modification of the second expectation and for adding the second net modification to the second expectation, the second net modification being a second Enlargement term and a second reduction term , the second magnification term being a function the second expectation and a second climb constant and wherein the second reduction term is a function of the second expectation and a second decay constant. 47. Verarbeitungselement nach Anspruch 45, wobei die Schwellensignal-erzeugenden Mittel einen Ausgabeprozessor umfassen zum Empfang des Ausgabesignals und zum darauf ansprechenden Erzeugen eines Schwellen-modifizierenden Signals.47. Processing element according to claim 45, wherein the Threshold signal generating means an output processor include for receiving and receiving the output signal responsive generating a threshold modifier Signal.
DE4215179A 1991-05-08 1992-05-08 Synaptic processor for neural network - initialises input expectation limited by maximum and neutral expectations then modifies expectation using increase and reduction terms Ceased DE4215179A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US69714291A 1991-05-08 1991-05-08

Publications (1)

Publication Number Publication Date
DE4215179A1 true DE4215179A1 (en) 1992-11-12

Family

ID=24799975

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4215179A Ceased DE4215179A1 (en) 1991-05-08 1992-05-08 Synaptic processor for neural network - initialises input expectation limited by maximum and neutral expectations then modifies expectation using increase and reduction terms

Country Status (3)

Country Link
US (1) US5504839A (en)
JP (1) JP3369213B2 (en)
DE (1) DE4215179A1 (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6754644B1 (en) * 2000-03-06 2004-06-22 William R. Hutchison Adaptive autonomous agent with verbal learning
US7089218B1 (en) * 2004-01-06 2006-08-08 Neuric Technologies, Llc Method for inclusion of psychological temperament in an electronic emulation of the human brain
US7925492B2 (en) 2004-01-06 2011-04-12 Neuric Technologies, L.L.C. Method for determining relationships through use of an ordered list between processing nodes in an emulated human brain
US6282530B1 (en) * 1999-06-09 2001-08-28 Helios Semiconductor Inc. Digital neural node
GB9924310D0 (en) * 1999-10-15 1999-12-15 Univ Manchester Neural network component
US20040030663A1 (en) * 2000-09-29 2004-02-12 Caglayan Erdem Method and assembly for the computer-assisted mapping of a plurality of temporarly variable status descriptions and method for training such an assembly
US8473449B2 (en) * 2005-01-06 2013-06-25 Neuric Technologies, Llc Process of dialogue and discussion
US8290847B2 (en) * 2007-02-21 2012-10-16 General Electric Capital Corporation Methods, apparatus and computer program products for use in association with joint ventures and/or potential joint ventures
US10839302B2 (en) 2015-11-24 2020-11-17 The Research Foundation For The State University Of New York Approximate value iteration with complex returns by bounding
US10387298B2 (en) 2017-04-04 2019-08-20 Hailo Technologies Ltd Artificial neural network incorporating emphasis and focus techniques
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US12001945B2 (en) * 2018-04-26 2024-06-04 Aistorm Inc. Event driven mathematical engine and method
RU2724784C2 (en) * 2018-05-18 2020-06-25 Федеральное государственное бюджетное образовательное учреждение высшего образования "Московский авиационный институт (национальный исследовательский университет)" Control method of neuroprocessor response to input signals
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US12086567B1 (en) * 2021-03-14 2024-09-10 Jesse Forrest Fabian Computation system using a spherical arrangement of gates

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3103648A (en) * 1961-08-22 1963-09-10 Gen Electric Adaptive neuron having improved output
US3293609A (en) * 1961-08-28 1966-12-20 Rca Corp Information processing apparatus
US3097349A (en) * 1961-08-28 1963-07-09 Rca Corp Information processing apparatus
US3165644A (en) * 1961-12-26 1965-01-12 Ibm Electronic circuit for simulating brain neuron characteristics including memory means producing a self-sustaining output
US3218475A (en) * 1962-10-02 1965-11-16 Frederick F Hiltz Artificial neuron
US3310783A (en) * 1963-09-06 1967-03-21 Rca Corp Neuron information processing apparatus
US3310784A (en) * 1963-09-06 1967-03-21 Rca Corp Information processing apparatus
US3308441A (en) * 1963-09-06 1967-03-07 Rca Corp Information processing apparatus
US3351783A (en) * 1965-06-21 1967-11-07 Conductron Corp Means for simulating learning, forgetting and other like processes
US3413735A (en) * 1965-11-08 1968-12-03 Teaching Complements Inc Optical pattern recognition system
US4518866A (en) * 1982-09-28 1985-05-21 Psychologics, Inc. Method of and circuit for simulating neurons
US4802103A (en) * 1986-06-03 1989-01-31 Synaptics, Inc. Brain learning and recognition emulation circuitry and method of recognizing events
US5093899A (en) * 1988-09-17 1992-03-03 Sony Corporation Neural network with normalized learning constant for high-speed stable learning
US4912649A (en) * 1988-12-14 1990-03-27 Gte Government Systems Corporation Accelerating learning in neural networks
US5093900A (en) * 1991-02-13 1992-03-03 At&T Bell Laboratories Reconfigurable neural network

Also Published As

Publication number Publication date
JPH05265999A (en) 1993-10-15
JP3369213B2 (en) 2003-01-20
US5504839A (en) 1996-04-02

Similar Documents

Publication Publication Date Title
DE4215179A1 (en) Synaptic processor for neural network - initialises input expectation limited by maximum and neutral expectations then modifies expectation using increase and reduction terms
DE68925156T2 (en) Integrated semiconductor circuit for neural network
DE3855035T2 (en) Multi-layer neural network with dynamic programming
DE112018000272T5 (en) Resistive processing unit with hysteretic updates for training neural networks
DE112018004992B4 (en) TRANSFER OF SYNAPTIC WEIGHTS BETWEEN CONDUCTIVITY PAIRS WITH POLARITY REVERSAL TO REDUCE FIXED UNIT ASYMMETRIES
DE68927014T2 (en) Associative model conversion system and adjustment procedure therefor
DE112011101370T5 (en) Neural network with canonical pulsed neurons for a spatiotemporal associative memory
DE69227648T2 (en) Improved neural network user interface for application programs
DE102012009502A1 (en) Method for training an artificial neural network
DE112016003245T5 (en) Resistive processing unit
DE112015003992T5 (en) Neuromorphic synapses
DE102005046747B3 (en) Computer-aided learning of neural networks involves changing cross-links between first and second layers of neurons of neural network based on variable state of neural network which is determined using feature instances and categories
DE112020002186B4 (en) DNN TRAINING WITH ASYMMETRIC RPU UNITS
DE4143073A1 (en) MULTI-LAYER NEURONAL NETWORK
DE3938645C1 (en)
DE112019003326T5 (en) MEMORY-EXTENDED NEURAL NETWORK ARCHITECTURES OF AN ENCODER-DECODER
DE60125536T2 (en) ARRANGEMENT FOR GENERATING ELEMENT SEQUENCES
DE102022100920A1 (en) COMPUTE-IN-MEMORY ACCUMULATOR
DE69607166T2 (en) Electronic arrangement for performing convolutional operations
DE4230419A1 (en) Neural network with rule-base network configuration
DE69602662T2 (en) Method for accelerating the execution speed of neural networks for correlated signal processing
DE19537010C2 (en) Learning method and arrangement for emulating a dynamic process
DE112020005613T5 (en) Neuromorphic unit with crossbar array structure
WO2020178009A1 (en) Training neural networks for efficient implementation on hardware
EP3736749A1 (en) Method and device for controlling a device using a dataset

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8131 Rejection