DE4215179A1 - Prozessor und verarbeitendes element zum gebrauch in einem neural- oder nervennetzwerk - Google Patents

Prozessor und verarbeitendes element zum gebrauch in einem neural- oder nervennetzwerk

Info

Publication number
DE4215179A1
DE4215179A1 DE4215179A DE4215179A DE4215179A1 DE 4215179 A1 DE4215179 A1 DE 4215179A1 DE 4215179 A DE4215179 A DE 4215179A DE 4215179 A DE4215179 A DE 4215179A DE 4215179 A1 DE4215179 A1 DE 4215179A1
Authority
DE
Germany
Prior art keywords
expectation
signal
input
term
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE4215179A
Other languages
English (en)
Inventor
George E Mobus
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MOBUS GEORG E
Caterpillar Inc
Original Assignee
MOBUS GEORG E
Caterpillar Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MOBUS GEORG E, Caterpillar Inc filed Critical MOBUS GEORG E
Publication of DE4215179A1 publication Critical patent/DE4215179A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)
  • Image Processing (AREA)
  • Complex Calculations (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

Die Erfindung bezieht sich allgemein auf Nerven- oder Neural­ netzwerke und inbesondere auf einen Prozessor zum Aufbau künstlicher Neuronen. Das Interesse an den informations­ verarbeitenden Fähigkeiten des Gehirns besteht seit dem späten 19. Jahrhundert. Jedoch haben erst in letzer Zeit künstliche auf Neuronen basierende Netzwerke die Fähigkeiten erlangt, um wirklich nützlich zu sein. Beispielsweise finden künstliche Neuralnetzwerke Verwendungen in Sicht- und Spracherkennungs­ systemen, in der Signalverarbeitung und der Roboteranwendung.
Die Forschung und Entwicklung von Neuralnetzwerken hat sich aus Versuchen entwickelt, die Vorgänge und Funktionen des Gehirns nachzubilden. Daher hat vieles der Terminologie biologische Ursprünge.
Die Basiskomponente eines Neuralnetzwerkes ist ein Neuron. Ein Neuron kann als ein gewichteter Addierer angesehen werden. Ein Neuron hat eine Anzahl von Eingängen. Jede Eingangsgröße wird mit einem Gewichtungswert multipliziert und die Produkte werden addiert. Die Wichtungen können positiv (anregend) sein oder negativ (hemmend) sein. Die Ausgabe des Neurons ist eine Funk­ tion der Summe der Produkte.
Ein (einziges) neurales Netzwerk ist bekannt als das Einzelschicht- oder Einzelebenennetzwerk. Einzelschichtnetzwerke sind zweckmäßig zum Lösen linear trennbarer Probleme. Eine Anwendung eines Einzelschichtnetz­ werks ist die Mustererkennung.
Im einfachsten Fall ist jedes Neuron ausgestaltet zum Identi­ fizieren eines spezifischen Musters in den Eingangssignalen.
Jedes Neuron des Netzwerks hat die gleichen Eingaben. Die Ausgabe jedes Neurons ist entweder ein "Treffer" ("Hit") oder ein "verfehlt" ("miss"). Die Summe der Produkte für jedes Neuron wird mit einem Schwellenwert verglichen. Wenn die Summe eines Neurons größer ist als der Schwellenwert, dann hat es dieses Muster erkannt und signalisiert einen "Treffer". Die Anzahl der Ausgaben des Netzwerks ist gleich der Anzahl von Mustern, die erkannt werden sollen, und daher der Anzahl von Neuronen. Nur ein Neuron wird gleichzeitig einen "Treffer" signalisieren (wenn sein Muster in den Eingaben erscheint).
In einem komplexeren Fall ist die Ausgabe des Neurons nicht ein "Treffer" oder "verfehlt". Es ist vielmehr ein abgestufter Skalenwert, der anzeigt, wie nahe das Eingabemuster an dem Neuronenmuster ist.
Für schwierigere Probleme wird ein mehrschichtiges Netzwerk benötigt.
Die Wichtungen eines Neurons können entweder fest oder anpaßbar sein. Anpaßbare Wichtungen machen ein Neuralnetzwerk flexibler. Anpaßbare Wichtungen werden durch Lerngesetze oder -regeln modifiziert. Die meisten Lerngesetze basieren auf Assozia­ tivität. Ausgehend von einer Lernregel, die von Donald O. Hebb 1949 vorgeschlagen wurde (Hebb′s Regel), hat die Lerntheorie allgemein angenommen, daß die Essenz der Lernphänomene eine Assoziation zwischen zwei oder mehr Signalen einbezieht. In Hebb′s Regel beispielsweise wird die mit einer Eingabe asso­ zierte Wichtung vergrößert, wenn sowohl die Eingabeleitung wie die Ausgabeleitung gleichzeitig aktiv sind. Es gab viele Va­ riationen zu diesem Thema, aber so oder so leiten sich die meisten der neuralen Lernregeln von dieser Basis her.
In neuerer Zeit haben sich andere Lerngesetze mit assoziativen Regeln beschäftigt, die auf gleichzeitigen Eingangssignalen basieren. Bei dieser Betrachtungsweise wird die Wichtung eines Eingangs erhöht, wenn dieser Eingang und ein bestimmter Nach­ bareingang beide innerhalb eines beschränkten Zeitfensters aktiv sind.
Es ist nun allgemein anerkannt, daß es beispielsweise in der aktiven Mustererkennung und -klassifizierung die Korrelation zwischen mehrfachen Eingangssignalen bzw. Eingangssignalen und Ausgangssignalen ist, die den adaptiven Mapping-Mechanismus bildet. Jedes System, das "lernen" würde, ein Muster zu er­ kennen und/oder ein eine Kategorie einzuteilen, muß diese Korrelationen verschlüsseln oder kodieren. Daher wurde die meiste, wenn nicht gar alle Arbeit auf einen auf Assoziation basierenden Mechanismus gerichtet.
Jedoch hat sich jede dieser Lernregeln als begrenzend heraus­ gestellt. Jede Regel funktioniert gut für eine gegebene spezi­ fische Art oder Gruppe von Problemen, aber keine davon hat sich bisher als ausreichend allgemein oder anpassungsfähig (adaptiv) herausgestellt, um für das breite Spektrum von Problemen auf diesem Gebiet angewendet zu werden.
Das Wort adaptiv ist der Schlüssel. Adaptation oder adaptives Ansprechen (adaptive response AR) ist der Vorgang des Verän­ derns des Ansprechens des Netzwerks, um die Anforderungen der neuen Bedingungen zu erfüllen.
In einem biologischen System werden solche Veränderungen nicht auf die erste Erfahrung einer Veränderung hin durchgeführt. Vielmehr muß die Veränderung oft und/oder über einen langen Zeitrahmen hinweg auftreten, bevor der Organismus sich einer wesentlichen Veränderung unterzieht. Biologische Systeme neigen dazu, in dieser Beziehung sehr konservativ zu sein.
Die Entwicklung von Muskelgewebe in einen Athleten oder Sport­ ler liefert ein gutes Beispiel dieses Aspekts von adaptivem Ansprechen. Betrachten wir einen Möchtegern-Gewichtsheber, der gerade mit diesem Sport anfängt.
Nach einer Woche üben, kann er fähig sein, beträchtlich mehr Gewicht zu heben, als er am Anfang konnte. Man bemerke, daß die Art von Übung periodisch ist mit langen Intervallen (im Ver­ gleich zu der Zeit der Übung selbst) zwischen Episoden. Kurz­ fristig behält der Körper zwischen Episoden die Erinnerung der physischen Anforderung, die an die Muskeln gestellt wurde.
Diese Erinnerung verstärkt sich mit der Fortsetzung der Übung. Wenn der Gewichtheber eine Woche weitermacht, wird er bemerken, daß das Heben desselben Gewichts am Ende dieser Woche etwas leichter sein wird als am Beginn.
Wenn er mit dem Training einen Monat fortfährt, wird er finden, daß er noch mehr Gewicht heben kann mit der gleichen scheinba­ ren Anstrengung, die benötigt war für weniger Gewicht in den Anfangstagen.
Fortgesetztes regelmäßiges Training wird zu physischen Verän­ derungen in der Muskulatur führen. Muskelpakete werden anschwellen, wenn neues Gewebe aufgebaut wird, um die fortgesetzten Anforderungen erfüllen zu helfen. Eine Art Langzeitgedächtnis wird sich ergeben, wodurch dieses neue Gewebe für einige Zeit vorhanden bleiben wird, auch wenn das Training für eine Weile aufgegeben wurde.
Warum produziert der Körper dieses neue Gewebe nicht bei der ersten oder sogar der zweiten Anforderungepisode? Der Grund dafür ist, daß biologische Gewebe sich entwickelt haben, um der stochastischen Natur der Umwelt zu begegnen. Sie sind inhärent (von Natur aus) konservativ und halten nur die Menge von An­ sprechvermögen aufrecht, wie es "normalerweise" notwendig ist, um das tägliche Leben zu meistern. Nur nachdem der Körper wie­ derholt den neuem Anforderungsniveau ausgesetzt wurde, spricht er durch Erzeugen von neuer Muskelfaser an.
Was geschieht mit dem Atheleten, der mit dem Training nachläßt? Bis zu einem gewissen Punkt hängt dies davon ab, wielange er trainiert hat. Wenn er nach einer Woche aufhört, dann wird er ungefähr innerhalb einer weiteren Woche zu seiner Fähigkeit vor dem Training zurückgekehrt sein. Wenn er jedoch nach 6 Monaten Training aufhört, kann es viele Monate dauern, bis die neue Kapazität zurück auf das Niveau vor dem Training schwindet. Sollte der Athlet ein Trainingsprogramm innerhalb mehrerer Monate nach dem Aufhören wiederaufnehmen, ist es in der Tat wahr­ scheinlich, daß er seine Spitzenleistung in einer relativ kurzen Zeit verglichen mit dem Anfangsprozeß wiedergewinnt. Dies hat seinen Grund in der Langzeitgedächtniswirkung des adaptiven Ansprechens.
Tatsächlich zeigt das adaptive Ansprechen von biologischen Systemen, daß Lernen nicht streng genommen eine Korrelation zwischen zwei Signalen ist. Vielmehr ist eine allgemeinere Betrachtungsweise, daß Lernen auf dem Verschlüsseln von Information basiert, die in dem sich zeitlich verändernden Signal entlang eines einzelnen Eingangskanals innewohnt.
Die vorliegende Erfindung ist darauf gerichtet, einen Prozessor vorzusehen als einen Baustein eines Neuralnetzwerks, das auf diesem eher grundlegenden Lerngesetz basiert.
Gemäß einem Aspekt der vorliegenden Erfindung wird ein synap­ tischer Prozessor vorgesehen zum Erzeugen eines Ergebnissignals infolge eines Eingangssignals. Der synaptische Prozessor umfaßt erste und zweite Erwartungen (expectations). Der synaptische Prozessor modifiziert die erste Erwartung als eine Funktion des Eingangssignals und der zweiten Erwartung und modifiziert die zweite Erwartung als eine Funktion der ersten Erwartung. Das Ergebnissignal wird bestimmt infolge der ersten Erwartung.
Gemäß einem weiteren Aspekt der vorliegenden Erfindung ist ein Verarbeitungselement vorgesehen. Das Verarbeitungselement umfaßt einen synaptischen Eingabeprozessor zum Erzeugen eines Ergebnissignals infolge eines Eingangssignals. Der synaptische Eingangsprozessor umfaßt erste und zweite Erwartungen. Der synaptische Prozessor modifiziert die erste Erwartung als eine Funktion des Eingangssignals und der zweiten Erwartung und modifiziert die zweite Erwartung als eine Funktion der ersten Erwartung. Das Ergebnissignal wird bestimmt infolge der ersten Erwartung. Das Verarbeitungselement erzeugt ein Ausgabesignal infolge des Ergebnissignals und eines Schwellensignals.
Fig. 1 ist ein Blockdiagramm eines synaptischen Prozessors oder einer Adaptrode;
Fig. 2 ist eine schematische Darstellung der Eingabeerwar­ tungsmodifikationsmittel des synaptischen Prozessors in Fig. 1;
Fig. 3 ist eine schematische Darstellung der ergebnissignal­ erzeugenden Mittel des synaptischen Prozessors von Fig. 1;
Fig. 4 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit linearer Verstärkung auf ein Eingabesignal mit einer hohen Eingangserwartung zeigt;
Fig. 5 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit linearer Verstärkung auf ein Eingabesignal mit einer Adaptrode mit einer niedrigen Eingabeerwartung zeigt;
Fig. 6 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit nicht-linearer Verstärkung auf ein Eingabesignal mit hoher Intensität und von kurzer Dauer zeigt;
Fig. 7 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit nicht-linearer Verstärkung auf ein Eingabesignal mit hoher Intensität und von mittlerer Dauer zeigt;
Fig. 8 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit nicht-linearer Verstärkung auf ein Eingabesignal mit hoher Intensität und von langer Dauer zeigt;
Fig. 9 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit nicht-linearer Verstärkung auf ein sättigendes Eingabesignal zeigt;
Fig. 10 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit nicht linearer Verstärkung auf ein stochastisches Eingabesignal zeigt;
Fig. 11 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene und mit nicht-linearer Verstärkung auf ein sequentielles Eingabesignal zeigt;
Fig. 12 ist eine graphische Darstellung, die das Ansprechen der Eingaberwartung einer Adaptrode mit einer einzigen Ebene mit linearer Verstärkung auf ein Eingabesignal mit hoher Intensität und von kurzer Dauer zeigt;
Fig. 13 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene mit mit linearer Verstärkung auf ein Eingabesignal mit hoher Intenität und von mittlerer Dauer zeigt;
Fig. 14 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene mit linearer Verstärkung auf ein Eingabesignal mit hoher Intensität und von langer Dauer zeigt,
Fig. 15 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene mit linearer Verstärkung auf ein sättigendes Eingabesignal zeigt;
Fig. 16 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene mit linearer Verstärkung auf ein stochastisches Eingabesignal zeigt;
Fig. 17 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartung einer Adaptrode mit einer einzigen Ebene mit linearer Verstärkung auf ein sequentielles Eingabesignal zeigt;
Fig. 18 ist ein Blockdiagramm eines synaptischen Prozessors oder Adaptrode mit mehreren Ebenen;
Fig. 19 ist eine graphische Darstellung des synaptischen Pro­ zessors mit mehreren Ebenen von Fig. 18;
Fig. 20 ist eine graphische Darstellung eines synaptischen Pro­ zessors mit mehreren Ebenen, der eine Durchlaß- oder Torfunktion verwendet;
Fig. 21 ist eine schematische Darstellung der erwartungs­ modifizierenden Mittel eines synaptischen Prozessors mit drei Ebenen;
Fig. 22 ist eine schematische Darstellung der wirksammachungs­ signalerzeugenden Mittel von Fig. 18;
Fig. 23 ist eine schematische Darstellung der Hürdenzeichen­ quelle von Fig. 22;
Fig. 24 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-liearen Verstärkungen auf ein Eingabesignal von hoher Intensität und kurzer Dauer zeigt;
Fig. 25 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein Eingabesignal von hoher Intensität und mittlerer Dauer zeigt;
Fig. 26 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein Eingabesignal von hoher Intensität und langer Dauer zeigt;
Fig. 27 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein sättigendes Eingabesignal von hoher Intensität zeigt;
Fig. 28 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein stochastisches Eingabesignal zeigt;
Fig. 29 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein sequentielles Eingabesignal zeigt;
Fig. 30 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein Eingabesignal von hoher Intensität und kurzer Dauer zeigt, wobei die zweite Erwartung mit einem Tor oder Gate versehen ist;
Fig. 31 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und nicht­ linearen Verstärkungen auf ein Eingabesignal von hoher Intensität und mittlerer Dauer zeigt, wobei die zweite Erwartung mit einem Gate versehen ist;
Fig. 32 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein Eingabesignal von hoher Intensität und langer Dauer zeigt, wobei die zweite Erwartung mit einem Gate versehen ist;
Fig. 33 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein sättigendes Eingabesignal von hoher Intensität zeigt, wobei die zweite Erwartung mit einem Gate versehen ist;
Fig. 34 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linearen Verstärkungen auf ein stochastisches Eingabesignal zeigt, wobei die zweite Erwartung mit einem Gate versehen ist;
Fig. 35 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen und mit nicht-linaren Verstärkungen auf ein sequentielles Eingabesignal zeigt, wobei die zweite Erwartung mit einem Gate versehen ist;
Fig. 36 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein Eingabesignal von hoher Intensität und von kurzer Dauer zeigt, wobei die erste Erwartung eine lineare Verstärkung hat;
Fig. 37 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein Eingabesignal von hoher Intensität und mittlerer Dauer zeigt, wobei die erste Erwartung eine lineare Verstärkung hat;
Fig. 38 ist eine graphische Darstellung, die das Ansprechen der Eingabeerwartungen einer Adaptrode mit drei Ebenen auf ein Eingabesignal von hoher Intensität und langer Dauer zeigt, wobei die erste Erwartung eine lineare Verstärkung hat;
Fig. 39 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein sättigendes Eingabesignal von hoher Intensität zeigt, wobei die erste Erwartung eine lineare Verstärkung hat;
Fig. 40 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein stochastisches Eingabesignal zeigt, wobei die erste Erwartung eine lineare Verstärkung hat;
Fig. 41 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein sequentielles Eingabesignal zeigt, wobei die erste Erwartung eine lineare Verstärkung hat;
Fig. 42 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein Eingabesignal von hoher Intensität und kurzer Dauer zeigt, wobei die erste Erwartung eine lineare Verstärkung hat und wobei die zweite Erwartung mit einem Gate versehen ist;
Fig. 43 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein Eingabesignal von hoher Intensität und mittlere Dauer zeigt, wobei die erste Erwartung eine lineare Verstärkung hat und wobei die zweite Erwartung mit einem Gate versehen ist;
Fig. 44 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein Eingabesignal von hoher Intensität und langer Dauer zeigt, wobei die erste Erwartung eine lineare Verstärkung hat und wobei die zweite Erwartung mit einem Gate versehen ist;
Fig. 45 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein sättigendes Eingabesignal von hoher Intensität zeigt, wobei die erste Erwartung eine lineare Verstärkung hat und wobei die zweite Erwartung mit einem Gate versehen ist;
Fig. 46 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein stochastisches Eingabesignal zeigt, wobei die erste Erwartung eine lineare Verstärkung hat und wobei die zweite Erwartung mit einem Gate versehen ist;
Fig. 47 ist eine graphische Darstellung, die das Ansprechen der Erwartungen einer Adaptrode mit drei Ebenen auf ein sequentieles Eingabesignal zeigt, wobei die erste Erwartung eine lineare Verstärkung, und wobei die zweite Erwartung mit einem Gate versehen ist;
Fig. 48 ist ein Blockdiagramm eines Verarbeitungselements mit einer Eingabeadaptrodenanordnung, einen Addier- und Ausgabeprozessor und einem Schwellenprozessor;
Fig. 49 ist eine graphische Darstellung des Addier-und Ausgabeprozessors von Fig. 48;
Fig. 50 ist eine schematische Darstellung des Multiplika­ tionsgitters von Fig. 49;
Fig. 51 ist eine schematische Darstellung des Schwellen­ prozessors von Fig. 48;
Fig. 52 ist eine graphische Darstellung von zwei synaptischen Prozessoren, wobei die Ausgabe des einen verwendet wird als Gate für den anderen;
Fig. 53 ist eine Legende für Fig. 58-64;
Fig. 54 ist ein Blockdiagramm eines assoziativen Netzwerks mit zwei Neuristoren, das die Assoziation bei konditioniertem Ansprechen zeigt;
Fig. 55 ist ein Blockdiagramm des Netzwerks von Fig. 54, in dem ein bedingter Reiz oder Stimulus assoziert worden ist mit einem nicht-bedingten Stimulus/Ansprechen;
Fig. 56 ist ein Blockdiagramm des Netzwerks von Fig. 55 nach einer Periode ohne Stimulus;
Fig. 57 ist ein Blockdiagramm des Netzwerks, das die bedingte Stimulus/Ansprech-Assoziation von Fig. 56 zeigt;
Fig. 58 ist ein Blockdiagramm des Netzwerks von Fig. 57, das die Wirkung eines gegenteiligen, nicht bedingten Stimulus zeigt;
Fig. 59 ist ein Blockdiagramm des Netzwerks von Fig. 58, das die Wirkung einer nachfolgenden zeitweise bedingten Stimulus/Ansprech-Assoziation zeigt; und
Fig. 60 ist ein Blockdiagramm des Netzwerks von Fig. 63, das die Langzeitassoziation zwischen dem bedingten Ansprechen und dem ersten nicht-bedingten Stimulus zeigt.
Beste Art zum Ausführen der Erfindung
Bezüglich Fig. 1 ist ein Ausführungsbeispiel eines synaptischen Prozessors 102 oder eine Adaptrode mit einer einzigen Ebene zur Verwendung in einem Neuralnetzwerk gezeigt.
Es sei darauf hingewiesen, daß ein Teil dieser Anmeldung durch Urheberrecht (Copyright) geschütztes Material enthält.
Herkömmlicherweise wurden Neuralnetzwerke ausgeführt unter Verwendung eines weiten Bereichs von Technologien. Diese Tech­ nologien können analog oder digital sein. Die tatsächliche Um­ setzung verändert sich mit der Anwendung, basierend beispiels­ weise auf der Netzwerkkomplexität. Während Analogschaltungen eine kostengünstige, aber schnelle Anwendung vorsehen, werden größere Netzwerke beschwerlich und einige Genauigkeit geht verloren. Komplexere Netzwerke werden allgemein auf All­ zweckcomputern oder speziell entworfener Hardware ausgeführt. Aus diesem Grund ist es praktisch, die vorliegende Erfindung mathematisch zu beschreiben. Es sei jedoch bemerkt, daß die vorliegende Erfindung nicht auf eine solche mathematische Ausführung oder sogar auf eine anloge oder digitale Ausführung beschränkt ist.
Der synaptische Prozessor 102 empfängt ein Eingabesignal X und erzeugt ein Ergebnissignal r. Das Ergebnissignal ist eine Funktion einer Eingangserwartung W0, wie unten beschrieben.
In Teilen der folgenden Diskussion wird eine Unterscheidung gemacht zwischen einem kontinuierlichen System und einem dis­ kreten System. In einem kontinuierlichen System werden die Systemparameter kontinuierlich auf den neuesten Stand gebracht und werden als kontinuierlich variabel bezeichnet. In einem diskreten System werden die Systemparameter in diskreten Zeitintervallen, typischerweise als Δt bezeichnet, auf den neuesten Stand gebracht.
Ferner wird der Ausdruck Intensität wie in hoher Intensität oder mittlerer Intensität bei der Beschreibung des Eingabe­ signals verwendet. Beispielsweise besteht in einem diskreten System, in dem das Eingabesignal als eine Serie von Pulsen mit einer eingestellten Breite gebildet wird, ein Eingabesignal von hoher Intensität hauptsächlich aus Pulsen. Die Adaptrode 102 mit einer Ebene umfaßt Mittel 104 zur Anfangseinstellung (Initialisierung) der Eingabeerwartung. Die Eingabeerwartung W0 ist begrenzt durch eine Maximalerwartung WM und eine Gleichgewichtserwartung WE. In einem Ausführungsbeispiel ist der Eingabeerwartung W0 der Anfangswert gleich WE, typischerweise Null (0) gegeben.
Ein Mittel 106 empfängt das Eingabesignal und ermittelt eine Größe des Eingabesignals. Die Größe des Eingabesignals ist abhängig von der genauen Beschaffenheit des Signals. Beispielsweise kann das Eingabesignal in einem kontinuierlichen System eine sich ändernde Frequenz haben. Das Eingabesignal kann auch eine sich ändernde kontinuierliche Spannung oder Strom haben. Wenn das Neuralnetzwerk digital ausgeführt wird, ist das Eingabesignal ein logischer Pegel niedrig (0) oder ein logischer Pegel hoch (nicht-Null).
Mittel oder eine Prozeßeinheit 108 modifiziert die Einga­ beerwartung W0. Die Mittel 108 errechnen eine Nettomodifikation für die Eingabeerwartung. Die Nettomodifikation wird zu der vorherigen Eigabeerwartung addiert, um eine neue Eingabeer­ wartung zu bilden. Die Nettomodifikation hat einen Vergröße­ rungsterm und einen Verkleinerungsterm. Der Vergrößerungsterm neigt zum Vergrößern der Eingabeerwartung und der Verkleine­ rungsterm neigt zum Verkleinern der Eingabeerwartung. Der Nettoeffekt der beiden Terme hängt von ihrer relativen Größe ab.
Die Eingabeerwartung W0 stellt die gegenwärtige Erwartung der Adaptrode bezüglich der Intensität des Eingabesignals dar. Die Adaptrode adaptiert oder lernt von dem Eingabesignal. Das heißt, die Adaptrode behält eine Erinnerung über die Einga­ beerwartung seiner Vergangenheit. Seine Erwartung des zukünf­ tigen Eingabesignals basiert auf dieser Vergangenheit.
Der Vergrößerungsterm ist eine Funktion des Eingabesignals und neigt dazu, die Eingabeerwartung "hochzuziehen". Der Verklei­ nerungsterm ist keine Funktion des Eingabesignals und versieht die Adaptrode mit einer eingebauten Voreinstellung, und zwar zu erwarten, daß sie auf lange Sicht ein schwaches Signal empfangen wird.
In einem Ausführungsbeispiel ist der Vergrößerungsterm eine Funktion des Eingabesignals, und der Verkleinerungsterm ist unabhängig von dem Eingabesignal. In einem anderen Ausfüh­ rungsbeispiel ist der Vergrößerungsterm eine Funktion einer Steigkonstanten α0 und der Verkleinerungsterm ist eine Funktion einer Abfallkonstanten δ0. Ferner sind die Steig- und Ab­ fallkonstanten unabhängig. In einem weiteren Ausführungs­ beispiel ist der Vergrößerungsterm eine Funktion von nur einem Eingabesignal.
In einem ersten Ausführungsbeispiel wird die Eingabeerwartung folgendermaßen modifiziert:
W⁰ = W⁰p + X · α⁰ · [WM - W⁰p] - δ⁰ · [W⁰p - WE] (Gl. 1)
wobei
W⁰ = die neue Eingabeerwartung,
W⁰p = die vorherige Eingabeerwartung,
X = das Eingabesignal,
α⁰ = die Steigkonstante,
WM = die Maximalerwartung,
δ⁰ = eine Abfallkonstante, und
WE = die Gleichgewichtserwartung
ist.
Im ersten Ausführungsbeispiel ist der Vergrößerungsterm eine nicht-lineare Funktion. Daher sagt man, daß eine Adaptrode mit einer Ebene entsprechend dem ersten Ausführungsbeispiel eine nicht-lineare Verstärkung hat.
In einem zweiten Ausführungsbeispiel wird die Eingabeerwartung folgendermaßen modifiziert:
W⁰ = W⁰p + X · α⁰ - δ⁰ · [W⁰p - WE] (Gl. 2)
In dem zweiten Ausführungsbeispiel ist der Vergrößerungsterm eine lineare Funktion. Daher sagt man, daß die Adaptrode gemäß dem zweiten Ausführungsbeispiel eine lineare Verstärkung hat. Ferner ist die Eingabeerwartung W0 nicht ausdrücklich auf einen Maximalwert begrenzt. Jedoch hat eine Simulation gezeigt, daß Gleichung 2 einen maximalen Stetigzustandsgleichgewichtswert erreicht, wenn ein kontinuierliches Eingabesignal über eine geeignete Zeitperiode vorhanden ist. Der exakte Maximalwert ist eine Funktion der Gleichungsparameter, der Intensität des Ein­ gabesignals und der Größe des Eingabesignals.
Sowohl in linearen wie nicht-linearen Verstärkungsmodellen sind die Ratenkonstanten so eingestellt, daß die Abfallrate über einen längeren Zeitrahmen besteht als die Steigrate. Das heißt, α0 ist größer als δ0. Bezüglich Fig. 2 umfassen die eingabe- erwartungsmodifizierenden Mittel 108 Mittel 202 zum Bestim­ men des Vergrößerungsterms und Mittel 204 zum Bestimmen des Verkleinerungsterms.
Aus Gleichung 1 ist der Vergrößerungsterm:
X · α⁰ · [WM - W⁰p].
In dem bevorzugten Ausführungsbeispiel ist der Vergröße­ rungsterm positiv und wird zur Eingabeerwartung addiert. Die den Vergrößerungsterm bestimmenden Mittel 202 umfassen einen Verzögerungsblock 206 zum Erzeugen einer verzögerten oder vorherigen Eingabeerwartung W0 p. Die verzögerte Eingabeer­ wartung (W0 p) wird von der maximalen Erwartung WM durch einen ersten Addierer (Summierer) 208 abgezogen. Ein erster Multiplizierer 210 multipliziert die Ausgabe des ersten Addierers 208 mit der Steigkonstante α0.
In ähnlicher Weise ist der Verkleinerungsterm in Gleichung 1 definiert als:
δ⁰ · [W⁰p - WE].
In dem bevorzugten Ausführungsbeispiel ist der Verkleine­ rungsterm positiv und wird von der Eingabeerwartung abgezogen. Die den Verkleinerungsterm bestimmenden Mittel 204 umfassen einen zweiten Addierer 212 zum Abziehen der Gleichgewichts­ erwartung von der verzögerten Eingabeerwartung. Ein zweiter Multiplizierer 214 multipliziert die Ausgabe des zweiten Addierers 212 mit der Abfall- oder Verfallkonstanten δ0. Ein dritter Multiplizierer 216 multipliziert die Ausgabe des ersten Multiplizierers 210 mit dem Eingabesignal X. Ein dritter Addierer 218 addiert die Ausgabe des dritten Multiplizierers 216 und zieht die Ausgabe des zweiten Multiplizierers 214 von der verzögerten Eingabeerwartung ab, um die neue Eingabeerwartung W0 zu bilden.
Mit Bezug wieder auf Fig. 1 erzeugt ein Mittel 110 ein Er­ gebnissignal r als eine Funktion der Eingabeerwartung W0. In einem Ausführungsbeispiel ist das Ergebnissignal eine lineare Funktion der Eingabeerwartung.
In einem weiteren Ausführungsbeispiel ist das Ergebnissignal eine nicht-lineare Funktion der Eingabeerwartung. Zum Beispiel ist in einem kontinuierlichen System:
r = K · W⁰ e- λτ (Gl. 3A)
wobei
r = das Ergebnissignal,
k = eine erste Konstante,
W⁰ = die Eingabeerwartung,
λ = eine zweite Konstante, und
τ = ein vorbestimmtes Zeitdifferential
ist.
Das Zeitdifferential τ wird bestimmt als die laufende Zeit minus der Zeit, bei der die Größe des Eingabesignals nicht-Null geworden ist. In einem weiteren Beispiel ist für ein diskretes System:
r(t) = k · W⁰,
wenn X < 0, oder anderenfalls
r(t) = r(t-Δt) - λ · r(t-Δ t) (Gl. 3B)
wobei
r = das Ergebnissignal,
k = eine erste Konstante,
W⁰ = die Eingangserwartung, und
λ = eine zweite Konstante
ist.
Mit Bezug auf Fig. 3 sind die Ergebnissignal-erzeugenden Mittel 110 zum Umsetzen der Gleichung 3B gezeigt. Die Mittel 110 um­ fassen einen vierten Multiplizierer 302 zum Multiplizieren der Eingangserwartung W0 mit einer Konstanten k. Ein zweiter Ver­ zögerungsblock 303 gibt das Ergebnissignal an einen fünften Multiplizierer 304 und einen vierten Addierer 306 weiter. Der fünfte Multiplizierer 304 multipliziert das verzögerte Ergeb­ nissignal mit einer Konstanten. Der vierte Addierer 306 zieht die Ausgabe des fünften Multiplizierers 304 von dem verzögerten Ergebnissignal ab. Der Entscheidungsblock 308 vergleicht das Eingabesignal X mit einer Schwelle (zum Beispiel Null). Wenn das Eingabesignal größer ist die Schwelle, wird die Ausgabe des vierten Multiplizierers 302 durch den Steuerblock 310 weitergegeben. Anderenfalls wird die Ausgabe des vierten Addierers 306 weitergegeben.
Um gewisse Betriebszustände der Adaptrode 102 zu verdeutlichen, wird eine graphische Darstellung der Adaptrode 102 verwendet. Bezüglich der Fig. 4 und 5 wird ein Eingabesignal X an die Eingabeerwartung-modifizierenden Mittel 108 angelegt. Die Ver­ größerungs- und Verkleinerungsterme werden bestimmt und zum Bestimmen der neuen Eingabeerwartung verwendet. Die Ergebnis­ signal-erzeugenden Mittel 110 (Ansprecheinheit) bestimmen das Ergebnissignal als eine Funktion der Eingabeerwartung.
Die Adaptrode 102 von Fig. 4 hat eine hohe Eingabeerwartung, wie durch den Balken 402 verdeutlicht wird. Im Gegensatz dazu hat der Balken 502 der Adaptrode 102 von Fig. 5 eine relativ geringe Eingabeerwartung. Ähnliche Darstellungen werden in der gesamten folgenden Diskussion verwendet, um wichtige Merkmale der vorliegenden Erfindung zu verdeutlichen.
Mit Bezug auf die Fig. 6 bis 11 ist die Eingabeerwartung W0 einer Adaptrode 102 mit einer einzigen Ebene und nicht-linearer Verstärkung gezeigt für eine Anzahl von unterschiedlichen Ein­ gabesignalen. In jedem Beispiel sind die Steigkonstante α0 und die Verfallkonstante δ0 0,25 bzw. 0,125. Es sei bemerkt, daß diese Konstanten nur zu Zwecken der Darstellung gewählt wurden. Die maximale Erwartung WM ist auf eins gestellt, und die Gleichgewichtserwartung WE ist auf Null gestellt. Mit der Eingabeerwartung wird bei Null begonnen. Ferner hat das Ein­ gabesignal eine Größe von 1,0.
Die graphischen Darstellungen, die in der folgenden Diskussion verwendet werden, stellen das Ansprechen der Eingabeerwartungs- modifizierenden Mittel 108 für ein diskretes System dar. Das heißt, die Eingabeerwartung wird in diskreten Zeitintervallen von δt modifiziert. Für eine Adaptrode 102 mit einer einzigen Ebene und nicht-linearer Verstärkung wird die Eingabeerwartung bestimmt durch:
W⁰(t) = W⁰ (t-Δt) + X(t) · α⁰ · [WM-W⁰ (t-Δt)] - δ⁰ · [W⁰ (t-Δt) - WE]. (Gl. 4A)
Mit Bezug auf die Fig. 6-17 und 24-47 ist das Eingabesignal eine Reihe von Pulsen von konstanter Breite und Größe. Das Eingabesignal wird bei jeder Darstellung unten als ein Balken gezeigt. Der Balken zeigt an, daß das Eingabesignal nicht Null ist. Es sei bemerkt, daß, wähend die Darstellungen in Fig. 6-17 und 24-47 auf diskreten Daten basieren, die Daten durch ein Liniendiagramm dargestellt werden. Das Liniendiagramm ist be­ sonders zweckmäßig bei der Untersuchung der Ansprecheigen­ schaften der Adaptrode.
In Fig. 6 ist zur Zeit t=0 das Eingabesignal gleich Null und die Eingabeerwartung ist auch Null. Zur Zeit t=5 ist das Eingabesignal nicht-Null und hat eine Größe von 1,0. Die Ein­ gabe bleibt nicht-Null bis t=9.
Wie gezeigt ist, während die Eingabe nicht-Null ist, der Vergrößerungsterm größer als der Verkleinerungsterm, und die Eingabeerwartung steigt exponentiell an. Nachdem das Eingabesignal wieder Null wird, fällt die Eingabeerwartung ab zu der Gleichgewichtserwartung WE hin.
In Fig. 7 wird ein Eingabesignal von mittlerer Dauer an die Adaptrode angelegt. Wie gezeigt, wird ein Eingabesignal mit einer Größe von 1,0 zur Zeit t=5 angelegt und wird wieder Null bei t=14. Es sei bemerkt, daß die Nettomodifikation tatsächlich abnimmt, obwohl die Eingabeerwartung über die Zeitsperiode zunimmt, während der das Eingabesignal nicht Null ist. Dies wird der Tatsache zugeschrieben, daß der Vergröße­ rungsterm eine Funktion der Differenz zwischen der Maximaler­ wartung und der gegenwärtigen Erwartung ist und wegen den größer werdenden Wirkungen des Verkleinerungsterms.
Diese Wirkung wird weiter in Fig. 8 gezeigt, in der ein Eingabesignal von hoher Intensität und langer Dauer an die Adaptrode angelegt wird. Die Eingabeerwartung scheint sich einem bestimmten Wert anzunähern.
Wie in Fig. 9 gezeigt, erreicht die Eingabeerwartung in der Tat bei einem Eingabesignal von maximaler Intensität und konstanter Größe einen Sättigungspunkt oder Stetigzustands- oder Gleichgewichtswert. In dieser Situation gleichen der Vergrößerungsterm und der Verkleinerungsterm einander aus und die Nettomodifikation ist Null.
In Fig. 10 wurde, wie gezeigt, ein stochastisches oder Zu­ fallseingabesignal an die Adaptrode 102 angelegt. Wenn das Eingabesignal nicht-Null ist, läßt der Vergrößerungsterm die Nettomodifikation positiv werden, und wenn das Eingabesignal Null ist, läßt der Verkleinerungsterm die Nettomodifikation negativ werden.
In Fig. 11 wurde ein sequentielles Eingabesignal an die Adaptrode angelegt. Das heißt, daß das Eingabesignal nicht-Null ist für eine erste kurze Zeitperiode oder Zeitspanne (5 t 10), Null ist für eine zweite Zeitspanne (11 t 24) und dann nicht Null ist für eine dritte Zeitspanne (25 t 29). Die sich ergebende Eingabeerwartung zeigt die Lernfähigkeit der Einzelebenenadaptrode. Während der ersten und zweiten Zeitspanne steigt und fällt die Eingabeerwartung wie erwartet und oben beschrieben. Bei t=25 wird das Eingabesignal nicht- Null und die Eingabeerwartung beginnt wieder zu steigen. Jedoch steigt sie ausgehend von ihrem laufenden oder gegenwärtigen Wert.
Die Steig- und Verfallkonstanten werden die Art der Ver­ größerungs- und Verkleinerungsraten der Eingabeerwartung beeinflussen. Wenn beispielsweise die Steig- und Verfall­ konstanten eine ähnliche Größe haben, werden die Vergrößerungs- und Verkleinerungsraten der Eingabeerwartung ähnlich sein. Wenn andererseits die Verfallkonstante relativ gesehen viel kleiner ist als die Steigkonstante (δ0 « α0) wird die Adaptrode "schnell" lernen und langsam "vergessen".
Mit Bezug auf die Fig. 12-17 ist die Eingabeerwartung W0 einer Adaptrode 102 mit einer einzigen Ebene und mit linearer Ver­ stärkung gezeigt für eine Anzahl verschiedener Eingabesignale. In jedem Beispiel sind die Steigkonstante α0 und die Verfall­ konstante δ0 4,0 bzw. 0,125. Die Gleichgewichtserwartung WE ist auf Null gesetzt und die Eingabeerwartung beginnt bei Null.
Die Fig. 12-17 stellen das Ansprechen der die Eingabeerwartung modifizierenden Mittel für ein diskretes System dar. Daher wird die Eingabeerwartung für eine Adaptrode mit einer einzigen Ebene und mit linearer Verstärkung bestimmt durch:
W⁰(t) = W⁰ (t-Δt) + X(t) · α⁰ - δ⁰ · [W⁰ (t-Δt) - WE]. (Gl. 4B)
In Fig. 12 wird ein Eingabesignal von hoher Intensität und kurzer Dauer an die Einzelebenenadaptrode 102 angelegt. In Fig. 13 und 14 wird ein Eingabesignal von hoher Intensität und mittlerer bzw. langer Dauer an die Adaptrode 102 angelegt. Es sei jedoch bemerkt, daß obwohl der Vergrößerungsterm als eine lineare Funktion definiert ist, die Eingabeerwartung wegen des Verkleinerungsterms keine lineare Funktion ist.
In Fig. 15 wird ein Eingabesignal von maximaler Intensität und mit einer konstanten Größe (1,0) an die Einzelebenenadaptrode 102 angelegt. Wie bei der Adaptrode 102 mit einer einzigen Ebene und mit nicht-linearer Verstärkung erreicht auch die Eingabeerwartung der Adaptrode mit einer einzigen Ebene und linearer Verstärkung einen Gleichgewichtswert. Man bemerke jedoch, daß die Eingabeerwartung W0 durch Gleichung 4 nicht auf einen Maximalwert beschränkt ist. Vielmehr ist der Gleich­ gewichtswert eine Funktion der Adaptrodenparameter, der In­ tensität des Eingabesignals und der Größe des Eingabesignals. Für eine gegebene Adaptrode würde der Gleichgewichtswert eine Maximalerwartung erreichen, wenn ein Eingabesignal von maxi­ maler Intensität und maximaler Größe für eine geeignete Dauer angelegt wird.
In Fig. 16 wird ein stochastisches Eingabesignal an die Ein­ zelebenenadaptrode 102 angelegt. In Fig. 17 wird ein sequen­ tielles Eingabesignal an die Einzelebenenadaptrode angelegt. Beide Diagramme verdeutlichen, daß die Einzelebenenadaptrode mit einer linearen Verstärkung eine ähnliche Lernfähigkeit hat wie die Adaptrode mit nicht-linearer Verstärkung.
Diese Beispiele zeigen die "Lern" (Steig-)- und "Vergessens" (Verfall-)-Aspekte der Einzelebenenadaptrode. Ferner können, da die Steig- und Verfallkonstanten unabhängig sind, die "Lern"- und "Vergessens"-Aspekte jeder Adaptrode unabhängig eingestellt werden. Das heißt, beide können schnell sein, beide können langsam sein, oder jegliche Kombination gemäß der gewünschten Eigenschaften.
Die Adaptrode mit einer einzigen Ebene zeigt Erinnerungsfä­ higkeiten in einer Zeitdomäne oder -bereich. Durch Gestatten von Veränderungen der Gleichgewichtserwartung (für die Eingabeerwartung) besteht die von der Adaptrode gezeigte Erinnerungsfähigkeit in mehrfachen Zeitdomänen. Solch eine Adaptrode wird Adaptrode mit mehreren Ebenen oder Mehrebenenadaptrode genannt.
Mit Bezug auf Fig. 18 hat ein synaptischer Prozessor 1002 oder Mehrebenenadaptrode eine Vielzahl von Erwartungen. Die Erwar­ tungen werden allgemein durch Wl bezeichnet, wobei 0 l L ist.
Ein Mittel 1004 gibt den Erwartungen Wl Anfangswerte. Die Er­ wartungen werden durch eine Maximalerwartung WM und eine Gleichgewichtserwartung WE beschränkt. Allgemein haben die Er­ wartungen die Beziehungen:
WM W⁰ W¹ WL WE.
Ein Mittel oder Prozeßeinheit 1006(l) modifiziert die Erwartung Wl. Die modifizierenden Mittel 1006(l) bestimmen eine Nettomo­ difikation und addieren die Nettomodifikation zu der Erwartung Wl. Die Nettomodifikation hat einen Vergrößerungsterm und einen Verkleinerungsterm. Allgemein ist der Vergrößerungsterm eine Funktion der vorhergehenden Erwartung Wl-1, wenn l 0. Wenn l = 0 ist, dann ist der Vergrößerungsterm eine Funktion der Ma­ ximalerwartung WM. Der Verkleinerungsterm ist eine Funktion der folgenden Erwartung Wl+1, wenn l < L oder WE, wenn l = L.
In einem ersten Ausführungsbeispiel ist die erste Erwartung W0 eine Funktion der Größe des Eingabesignals.
In einem zweiten Ausführungsbeispiel hat die erste Erwartung W0 eine lineare Verstärkung (wie oben beschrieben).
In einem dritten Ausführungsbeispiel hat die erste Erwartung W0 eine nicht-lineare Verstärkung (wie oben beschrieben).
In einem vierten Ausführungsbeispiel ist der Vergrößerungsterm jeder Erwartung Wl eine Funktion einer Steigkonstanten αl und der Verkleinerungsterm ist eine Funktion einer Verfallkon­ stanten δl.
In einem fünften Ausführungsbeispiel ist der Vergrößerungsterm jeder weiteren Erwartung Wl (l < 0) eine Funktion der Differenz zwischen der vorhergehenden Erwartung Wl-1 und der gegen­ wärtigen Erwartung Wl.
In einem sechsten Ausführungsbeispiel ist der Verkleinerungs­ term jeder Erwartung Wl eine Funktion der Differenz zwischen der gegenwärtigen Erwartung Wl und der folgenden Erwartung Wl+1 oder eine Funktion der Differenz zwischen der gegenwärtigen Erwartung Wl und der Gleichgewichtserwartung WE, wenn l = L.
In einem siebten Ausführungsbeispiel wird die erste Erwartung modifiziert gemäß:
W⁰ = W⁰ + X · α⁰ · [WM-W⁰p] - δ⁰ · [W⁰p - W¹] (Gl. 5A)
wobei W0 p die vorhergehende erste Erwartung ist.
In einem achten Ausführungsbeispiel wird die erste Erwartung modifiziert gemäß:
W⁰ = W⁰p + X · α⁰ - δ⁰ · [W⁰p - W¹] (Gl. 5B).
Jede weitere Erwartung (Wl für l < 0) wird modifiziert gemäß:
Wl = Wl p + αl · [Wl-1 - Wl p] - δl · [W⁰p-Wl+1] (Gl. 6)
wobei Wl p die vorhergehende Erwartung ist, Wl+1 die Erwartung der nächsten Ebene ist, wenn l < L ist, oder die Gleichge­ wichtserwartung WE ist, wenn l = L ist, und wobei Wl-1 die vorhergehende Erwartung ist.
Wie in der Einzelebenenadaptrode werden die Ratenkonstanten für jede Ebene typischerweise so eingestellt, daß die Verfallrate über einen längeren Zeitrahmen geht als die Anstiegsrate. Das heißt αl < δl. Ferner wird in einer Mehrebenenadaptrode jede der Ratenkonstanten für jede Ebene (l) so eingestellt, daß die Anstiegs- und Verfallraten einer Ebene (l) über einen längeren Zeitrahmen gehen als die Anstiegs- und Verfallraten der vor­ hergehenden Ebene (l-1). Das heißt:
α⁰ α¹ αl αL und d⁰ δ¹ δl δL.
Mittel 1008 erzeugen das Ergebnissignal als eine Funktion der ersten Erwartung W0. Wie oben beschrieben, kann das Ergebnis­ signal eine lineare oder nicht-lineare Funktion der ersten Erwartung W0 sein.
Mit Bezug auf Fig. 19 ist die Mehrebenenadaptrode 1002 wie gezeigt graphisch dargestellt. Die graphische Darstellung zeigt mehrere wichtige Merkmale der Mehrebenenadaptrode 1002. Zum ersten ist die erste Erwartung W0 die einzige Erwartung, die direkt von dem Eingabesignal X beeinflußt wird. Zum zweiten ist das Ergebnissignal r nur eine Funktion der ersten Erwartung W0.
Auch ist die Größe der Balken 1102(l) ein Zeichen für die re­ lative Größe der entsprechenden Erwartung. Ferner zeigen die Pfeile an, daß jede Erwartung sowohl positiv (durch den Ver­ größerungsterm) als auch negativ (durch den Verkleinerungsterm) beeinflußt wird.
Mit Bezug wieder auf Fig. 18 umfaßt in einem weiteren Ausfüh­ rungsbeispiel die Mehrebenenadaptrode 1002 Mittel 1010 zum Empfang eines zweiten Eingabesignals Hl und zum entsprechenden Erzeugen eines Ermöglichungs- oder Potentationssignals Pl. Das Ermöglichungssignal wird mit einer der Erwartungen assoziiert für l < 0.
In einem ersten Ausführungsbeispiel geben die Initiiermittel 1004 einem Durchlaß- oder Torsignal gl einen Anfangswert. Die das Ermöglichungssignal erzeugenden Mittel 1010 vergleichen das zweite Eingabesignal Hl mit dem Durchlaßsignal und erzeugen ansprechend darauf das Ermöglichungssignl Pl. Zum Beispiel kann in einem diskreten System Pl bestimmt werden durch:
pl = 1, wenn Hl < gl, oder andernfalls pl = 0. (Gl. 7)
In einem durchgehenden System ist Pl eine Funktion der Differenz zwischen dem zweiten Eingabesignal Hl und dem Durchlaßsignal gl.
In einem zweiten Ausführungsbeispiel wird das zweite Eingabe­ signal Hl bestimmt als eine Funktion der Summe aus einer Viel­ zahl von Wechselwirkungssignalen hn, wobei N die Anzahl der Wechselwirkungssignale bezeichnet und wobei 0 n N ist. Die Wechselwirkungssignale werden weiter unten beschrieben.
In einem dritten Ausführungsbeispiel wird das Durchlaßsignal gl verändert als eine Funktion eines Parameters der Adaptrode 1002. Beispielsweise kann das Durchlaßssignal eine Funktion von W0 oder von dem Ergebnissignal r sein.
Mit Bezug auf Fig. 20 hat in dem bevorzugten Ausführungsbei­ spiel jede Erwartung (außer l = 0) ein zugehöriges Durch­ laßssignal gl. Wie gezeigt, beeinflußt die durch das Ermög­ lichungssignal Pl erreichte Ermöglichung nur den Vergröße­ rungsterm oder das "Lernen" der Erwartung. Der Verkleinerungs­ term oder das "Vergessen" wird nicht beeinflußt.
Daher wird Gleichung 6 für l < 0:
Wl = Wl p + pl · αl · [Wl-1 - Wl p] - δl · [W⁰p - Wl+1] (Gl. 8)
wobei Wl+1 die nächste Erwartung ist, wenn l < L, und die Gleichgewichtserwartung WE ist, wenn l = L.
Wenn in einem diskreten System P = 1 ist, sagt man, daß das Er­ möglichungssignal in einem "Erlaubnis"-Zustand ist, da Lernen gestattet ist. Wenn P = 0 ist, sagt man, daß das Ermöglichungs­ signal in einem "Verhinderungs"-Zustand ist, da Lernen nicht gestattet ist.
Mit Bezug auf Fig. 21 werden die erwartungsmodifizierenden Mittel 1006(0), 1006(1), 1006(2) für eine Mehrebenenadaptrode mit drei Erwartungen (L = 2) in weiterer Einzelheit gezeigt gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
Die ersten erwartungsmodifizierenden Mittel 1006(0) umfassen Mittel 1302(0) zum Bestimmen des Vergrößerungsterms und Mittel 1304(0) zum Bestimmen des Verkleinerungsterms der ersten Er­ wartung. Die Vergrößerungsterm-bestimmenden Mittel 1302(0) umfassen einen dritten Verzögerungsblock 1306, welcher eine verzögerte oder vorhergehende erste Erwartung W0 p erzeugt. Die verzögerte erste Erwartung (W0 p) wird von der maximalen Er­ wartung WM durch einen fünften Addierer 1308 abgezogen. Ein sechster Multiplizierer 1310 multipliziert die Ausgabe des fünften Summierers 1308 mit einer ersten Steigkonstante α0.
Die Vergrößerungsterm-bestimmenden Mittel 1304(0) umfassen einen sechsten Addierer 1312 zum Abziehen der zweiten Erwartung W1 von der verzögerten ersten Erwartung W0 p. Ein siebter Mul­ tiplizierer 1314 multipliziert die Ausgabe des sechsten Addie­ rers 1312 mit einer ersten Verfallkonstante δ0.
Ein achter Multiplizierer 1316 multipliziert die Ausgabe des sechsten Multipliziers 1310 mit dem Eingabesignal X. Ein sieb­ ter Addierer 1318 addiert die Ausgabe des achten Multiplizie­ rers 1316 und zieht die Ausgabe des siebten Multiplizieres 1314 von der verzögerten ersten Erwartung ab, um die neue erste Erwartung W0 zu bilden.
Die zweiten Erwartungs-modifizierenden Mittel 1006(1) umfassen Mittel 1302(1) zum Bestimmen des Vergrößerungsterms, sowie Mittel 1304(1) zum Bestimmen des Verkleinerungsterms der zwei­ ten Erwartung. Die Vergrößerungsterm-bestimmenden Mittel 1302(1) umfassen einen vierten Verzögerungsblock 1320, der eine zweite verzögerte Erwartung W1 p erzeugt. Die Ermöglichungs-er­ zeugenden Mittel 1010(1) für die zweite Erwartung empfangen die erste Erwartung W0, die verzögerte zweite Erwartung W1 p und die Wechselwirkungssignale (interaction signals hN1 (N bezieht sich auf die Anzahl von Signalen und 1 bezieht sich auf die Erwartungsebene) und erzeugt das Ermöglichungssignal P1. Die Ermöglichungs-erzeugenden Mittel 1010 werden weiter unten erklärt. Das Ermöglichungssignal p1 wird mit einer zweiten Steigkonstante α1 durch einen neunten Multiplizierer 1322 multipliziert.
Die Verkleinerungsterm-bestimmenden Mittel 1304(1) für die zweite Erwartung umfassen einen achten Addierer 1324 zum ab­ ziehen der dritten Erwartung W2 p von der zweiten Erwartung W1. Ein zehnter Multiplizierer 1326 multipliziert die Ausgabe des achten Addierers 1324 mit einer zweiten Verfallkonstante δ1.
Ein neunter Addierer 1328 addiert die Ausgabe des neunten Multiplizierers 1322 und zieht die Ausgabe des zehnten Multi­ plizierers 1326 von der verzögerten zweiten Erwartung W1 p ab, um die neue zweite Erwartung W1 zu bilden.
Die dritten Erwartungs-modifizierenden Mittel 1006(2) umfassen Mittel 1302(2) zum Bestimmen des Vergrößerungsterms, sowie Mittel 1304(2) zum Bestimmen des Verkleinerungsterms der drit­ ten Erwartung. Die Vergrößerungsterm-bestimmenden Mittel 1302(2) umfassen einen fünften Verzögerungsblock 1330, der eine verzögerte dritte Erwartung W2 p erzeugt. Die Ermöglichungs­ erzeugenden Mittel 1010(2) für die dritte Erwartung empfangen die zweite Erwartung W1, die verzögerte dritte Erwartung W2 p und die Wechselwirkungssignale hM2 (M bezieht sich auf die Anzahl von Signalen und 2 bezieht sich auf die Erwartungsebene) und erzeugen das Ermöglichungssignal P2. Das Ermöglichungssignal P2 wird mit einer dritten Steigkonstanten α2 durch einen elften Multiplizierer 1332 multipliziert.
Die Verkleinerungsterm-bestimmenden Mittel 1304(2) für die dritte Erwartung umfassen einen zehnten Addierer 1334 zum Abziehen der Gleichgewichtserwartung WE von der dritten Erwartung W2 p. Ein zwölfter Multiplizierer 1336 multipliziert die Ausgabe des zehnten Addierers 1334 mit einer dritten Ver­ fallkonstante δ2.
Ein elfter Addierer 1338 addiert die Ausgabe des elften Mul­ tiplizierers 1332 und zieht die Ausgabe des zehnten Multi­ plizierers 1336 von der verzögerten dritten Erwartung W2 p ab, um die neue dritte Erwartung W2 zu bilden.
Mit Bezug auf Fig. 22 werden die Ermöglichungssignal­ erzeugenden Mittel 1010 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung weiter beschrieben. Die Ermöglichungs­ signal-erzeugenden Mittel 1010 umfassen einen multiplizierenden Balken 1402 und eine Hürdensignalquelle 1404. Wie in Fig. 23 gezeigt, umfaßt die Hürdensignalquelle 1404 eine Vielzahl von Multiplizierern 1502(n). Der multiplizierende Balken empfängt die Wechselwirkungssignale h1..N und ein Signal (+1 oder -1) aus einem Register oder Tabelle 1504. In digitalen Darstel­ lungen kann die Multiplikation mit -1 durchgeführt werden unter Verwendung der Zweierkomplementdarstellung.
Zurückkehrend zu Fig. 22 werden die Ausgaben des Multiplizier­ balkens 1402 miteinander addiert durch einen zwölften Addierer 1406. Ein Addierer 1408 zieht das Torsignal gl von der Ausgabe des zwölften Addierers 1406 ab. Die Ausgabe des Addierers 1408 ist mit einem ersten Bedingungsblock 1410 verbunden. Ein erster Entscheidungsblock 1412 empfängt die vorhergehende Erwartung Wl-1. Ein zweiter Entscheidungsblock 1414 empfängt den vor­ hergehenden Wert der gegenwärtigen Erwartung Wl p. Ein Ent­ scheidungsblock wird die mit YES (JA) bezeichnete Eingabe weitergeben, wenn die Bedingung in den Bedingungsblock wahr ist. Wenn daher die Ausgabe des dreizehnten Multiplizierers 1408 größer als Null ist, werden die ersten unhd zweiten Bedingungsblöcke 1412, 1414 die vorhergehende Erwartung Wl-1 bzw. den vorigen Wert der gegenwärtigen Erwartung Wl p. Die ersten und zweiten Entscheidungsblocks 1412, 1414 werden eine Null bzw. eine Eins weitergeben, wenn die Ausgabe des Addierers 1408 nicht größer als Null ist. Ein dreizehnter Addierer 1416 zieht die Ausgabe des zweiten Entscheidungsblocks 1414 von der Ausgabe des ersten Entscheidungsblocks 1412 ab.
Mit Bezug auf die Fig. 24-47 sind die Erwartungen W0, W1, W2 einer Adaptrode mit drei Ebenen und nicht-linearen Verstärkungen gezeigt für eine Anzahl von verschiedenen Eingangssignalen. In jedem Beispiel sind die erste Steigkonstante α0 und δ0 auf 0,25 bzw. 0,125 gesetzt. Die zweite Steigkonstante und die zweite Verfallkonstante α1 und δ1 sind 0,0625 bzw. 0,0312. Die dritte Steigkonstante und die dritte Verfallkonstante α2 und δ2 sind 0,156 bzw. 0,0078. Die Maximalerwartung WM ist auf eins gesetzt und die Gleichgewichtserwartung WE ist auf Null gesetzt. Die ersten, zweiten und dritten Erwartungen W0, W1, W2 beginnen bei Null.
Für eine Adaptrode mit drei Ebenen und nicht-linearer Ver­ stärkung in einem diskreten System wird die erste Erwartung bestimmt durch:
W⁰(t) = W⁰ (t-Δt) + X(t) · α⁰ · [WM-W⁰ (t-Δt)] - δ⁰ · [W⁰ (t-Δt) - W¹ (t-Δt)] (Gl. 9A)
Die zweite Erwartung wird bestimmt durch:
W¹(t) = W¹ (t-Δt) + α¹ · [W⁰-W¹ (t-Δt)] - δ¹ · [W¹ (t-Δt) - W² (t-Δt)] (Gl. 9B)
Die dritte Erwartung wird bestimmt durch:
W²(t) = W² (t-Δt) + α² · [W¹-W² (t-Δt)] - δ² · [W² (t-Δt) - WE] (Gl. 9C)
In Fig. 24 wird ein Eingangssignal von hoher Intensität und kurzer Dauer an die Adaptrode mit drei Ebenen angelegt. Die erste Erwartung W0 steigt an, während das Eingabesignal nicht Null ist, und es fällt ab, wenn das Eingabesignal Null ist. Beginnend mit der Zeit t=5, wenn das Eingabesignal nicht Null wird, beginnt auch die zweite Erwartung W1 zu steigen. Jedoch ist der Vergrößerungsterm der zweiten Erwartung W1 eine Funk­ tion der ersten Erwartung W0. Daher steigt die zweite Erwartung W1 weiterhin an, nachdem das Eingabesignal Null wird wegen der ersten Erwartung W0. Tatsächlich wird, während die erste Er­ wartung größer ist als zweite Erwartung, der vergrößerte Term der zweiten Erwartung positiv sein. Es sei an dieser Stelle bemerkt, daß die Gleichgewichtserwartung der ersten Erwartung W0 für eine Mehrebenenadaptrode die folgende Erwartung, d. h. die zweite Erwartung W1 ist. Die erste Erwartung ist daher mit ihrem unteren Ende durch die zweite Erwartung beschränkt.
In ähnlicher Weise ist der Vergrößerungsterm der dritten Er­ wartung eine Funktion der zweiten Erwartung. Wie in Fig. 24 gezeigt, steigt daher die dritte Erwartung weiter, während die zweite Erwartung groß genug ist, um die dritte Erwartung hoch­ zuziehen.
In den Fig. 25 und 26 wird ein Eingabesignal von hoher Inten­ sität und mittlerer bzw. langer Dauer an die Adaptrode mit drei Ebenen angelegt. Beide Diagramme zeigen, daß die zweite Erwar­ tung W1 ansteigen wird, solange die erste Erwartung W0 groß genug ist, um den Vergrößerungsterm der zweiten Erwartung W1 größer zu machen als den Verkleinerungsterm.
Die Diagramme zeigen auch die längerfristigen Erinnerungsfä­ higkeiten einer Mehrebenenadaptrode. Daher sind die zweiten und dritten Erwartungen aus unterschiedlichen Zeitdomänen. Das heißt, daß jede zusätzliche Ebene oder Erwartung einer Mehr­ ebenenadaptrode eine langsamere Ansprechzeit hat. Obwohl die erste Erwartung sich relativ schnell ändert infolge eines Eingabesignals, ist es durch die nachfolgenden Erwartungen gebunden.
Obwohl die erste Erwartung W0 gesättigt wird infolge eines kontinuierlichen Eingabesignals, wird die darauffolgende Erwar­ tung tatsächlich mit einer viel langsameren Rate steigen. Wie in Fig. 27 gezeigt, werden die zweiten und dritten Er­ wartungen W1, W2 weiterhin ansteigen, jedoch mit einer viel geringeren Rate, während die erste Eingabeerwartung gesättigt ist. Wenn das Eingabesignal schließlich wieder Null wird, wird die erste Erwartung anfangen abzufallen mit einer Rate, die durch den Verkleinerungsterm bestimmt wird. Jedoch wird sie durch die zweite Erwartung begrenzt sein. Die zweite Erwartung fällt mit einer viel langsameren Rate ab, so daß sie die erste Erwartung oben halten wird abhängig davon, wie lang die Dauer des Eingabesignals nicht-Null war und daher, wie hoch die zweite Erwartung getrieben wurde. In ähnlicher Weise wird die dritte Erwartung die zweite Erwartung hochhalten oder deren Verfall verhindern.
Für eine gegebene Erwartung (W1) hat die darauffolgende Erwar­ tung (Wl-1) auch Auswirkungen auf die Verfallrate; dies wird durch Fig. 28 verdeutlicht, in der ein stochastisches Eingabe­ signal an eine Adaptrode mit drei Ebenen angelegt wird. Das Eingabesignal hat die Wirkung, das Niveau der ersten Erwartung W0 nach oben zu treiben. Die zweite Erwartung W1 wird durch die erste Erwartung getrieben, und die dritte Erwartung wird durch die zweite Erwartung getrieben. Wenn das Eingabesignal Null ist, ist der Verkleinerungsterm der ersten Erwartung größer als der Vergrößerungsterm und daher ist die Nettomodifikation der ersten Erwartung negativ. Jedoch ist der Verkleinerungsterm der ersten Erwartung eine Funktion der Differenz zwischen der er­ sten Erwartung und der zweiten Erwartung. Wie gezeigt, ist daher die zweite Erwartung um so höher je niedriger die Ver­ fallrate für die erste Erwartung ist.
Dies wird deutlicher in Fig. 29 gezeigt, in der ein sequen­ tielles Eingabesignal an eine Adaptrode mit drei Ebenen an­ gelegt wird. In einer ersten Zeitperiode wird das Eingabesignal nicht-Null (1,0). Während einer zweiten Zeitspanne nimmt die erste Erwartung ab, und zwar mit einer Rate, die durch die erste Verfallkonstante und den gegenwärigen Wert der zweiten Erwartung definiert wird. Während einer dritten Zeitspanne wird das Eingabesignal wieder nicht-Null und die erste Erwartung steigt. In einer vierten Zeitspanne wird das Eingabessignal wieder Null und die erste Erwartung nimmt ab. Jedoch ist die Verfallrate in der vierten Zeitspanne geringer als die Ver­ fallrate in der zweiten Zeitspanne, weil die zweite Erwartung durch die erste Erwartung auf ein höheres Niveau getrieben wurde.
In den Fig. 30-35 sind die Erwartungen W0, W1, W2 einer Adap­ trode mit drei Ebenen und nicht-linearen Verstärkungen gezeigt für eine Anzahl verschiedener Eingabesignale. Ferner ist die zweite Erwartung durch ein Ermöglichungssignal P gegated oder beschränkt.
Die erste Erwartung wird durch die Gleichung 9A bestimmt. Die zweite Erwartung wird bestimmt durch:
W¹(t) = W¹ (t-Δt) + P · α¹ · [W⁰-W¹ (t-Δt)] - δ¹ · [W¹ (t-Δt) - W² (t-Δt)] (Gl. 10A)
Die dritte Erwartung wird bestimmt durch:
W²(t) = W² (t-Δt) + α² · [W¹-W² (t-Δt)] - δ² · [W² (t-Δt) - WE] (Gl. 10B)
In diesen Beispielen ist das Ermöglichungssignal P einfach eine Null oder eine Eins. Jedoch kann das Ermöglichungssignal jeglichen Wert annehmen.
Die Eingabesignale, die in den Beispielen in den Fig. 30-35 verwendet werden, sind die gleichen wie die Eingabesignale für die entsprechenden Fig. 24-29. In jedem Beispiel ist das Er­ möglichungssignal anfangs Null und zu einer vorbestimmten Zeit wird das Ermöglichungssignal Eins. Es sei bemerkt, daß in jeder Figur die zweiten und dritten Erwartungen nicht "lernen" oder steigen, bis das Ermöglichungssignal eins ist. Es sei auch bemerkt, daß das Ermöglichungssignal nicht die Verfallrate der zweiten und dritten Erwartungen beeinflußt.
Mit Bezug auf die Fig. 36-47 sind die Erwartungen W0, W1, W2 einer Adaptrode mit drei Ebenen, deren erste Erwartung eine lineare Verstärkung hat, gezeigt, und zwar für eine Vielzahl verschiedener Eingabesignale. In jedem Beispiel ist die erste Steigkonstante α0 auf 4 gesetzt und die Verfallkonstante δ0 ist auf 0,125 gesetzt. Die zweiten Steig- und Verfallkonstanten α1, δ1 sind auf 0,0625 bzw. 0,0312 gesetzt. Die dritten Steig- und Verfallkonstanten α2, δ2 sind auf 0,0156 bzw. 0,0078 einge­ stellt.
In den Fig. 36-47 sind die Eingabesignale ähnlich den Eingabesignalen der Fig. 29-35. In den Fig. 2-47 sind die zweiten und dritten Erwartungen durch das Ermöglichungssignal P gegated oder beschränkt, wie in Fig. 30-35. Das Ermögli­ chungssignal jedoch ist entweder Null oder Eins (zu Zwecken der Darstellung ist das Ermöglichungssignal mit einer Skala bis 30 angegeben). Die Ergebnisse sind ähnlich der von den nicht- linearen Modellen gezeigten.
Mit Bezug auf Fig. 48 ist ein auf Adaptroden basierendes Neuron oder ein Neuristor 2002 gezeigt. Der Neuristor 2002 umfaßt eine Anordnung von Eingabeadaptroden. Die Eingabeadaptroden- Anordnung 2004 umfaßt eine Vielzahl von Adaptroden. Die Anzahl von Adaptroden ist allgemein durch J bezeichnet. Jede Eingabe­ adaptrode 2004(j) hat ein zugehöriges Eingabesignal Xj.
Das Ergebnissignal rj jeder Eingabeadaptrode 2004(j) kann angesehen werden als Ersatz für das Eingabesignal, multi­ pliziert mit dem Gewichtungssignal eines Standardneurons.
Der Neuristor 2002 umfaßt Mittel 2006 zum Initialisieren und Erzeugen eines Schwellensignals T.
In einem Ausführungsbeispiel umfassen die das Schwellensignal erzeugenden Mittel 2006 Mittel zum Initialisieren des Schwellensignals auf einem vorbestimmten Wert.
In einem zweiten Ausführungsbeispiel ist das Schwellensignal eine Konstante.
In einem dritten Ausführungsbeispiel umfassen die Schwel­ lensignal-erzeugenden Mittel 2006 eine Ausgabeadaptrode 2008 und einen Schwellenprozessor 2010. Das Schwellensignal ist eine Funktion eines Schwellen modifizierenden Signals. Das Schwellen- modifizierende Signal kann die erste Erwartung sein oder das Ergebnissignal der Ausgabeadaptrode. Die Schwellensignal- erzeugenden Mittel 2006 bewirken das Integrieren der Ausgabe des Neuristors über die Zeit. Die Ausgabeadaptrode kann durch das Ergebnissignal (oder Ergebnissignale) einer oder mehrerer anderer Adaptroden gegated oder getastet sein.
Der Neuristor 2002 umfaßt Mittel 2012 zum Empfang des Eingabe­ adaptroden-Ergebnissignals rj und des Schwellensignals T und zum Erzeugen ansprechend darauf eines Ausgabesignals 0.
Mit Bezug auf Fig. 49 umfassen die Ausgabesignal erzeugenden Mittel 2012 Mittel zum Addieren des Ergebnissignals und zum Erzeugen eines Sigma-Signals. Das Sigma-Signal wird mit dem Schwellensignal T verglichen. Die Ausgabesignal erzeugenden Mittel 2012 umfassen einen zweiten multiplizierenden Balken 2102 und ein Zeichenregister oder -tabelle 2104. Die Ausgabe des Zeichenregisters 2104 ist ein +1 oder ein -1.
Bezüglich der Fig. 50 umfaßt die Zeichenquelle 2014 ein Zei­ chenregister oder -tabelle 2202 und eine Vielzahl von Mul­ tiplizierern 2204(j). Die Eingabe einer Adaptrode mit einem assoziierten +1 im Zeichenregister 2204 wird als EXCITATORY (ERREGEND) und die Eingabe einer Adaptrode mit einem zugehörigen -1 im Zeichenregister 2204 wird als INHIBITORY (HEMMEND) bezeichnet.
Zurückkehrend zu Fig. 49 umfassen die Ausgabesignale erzeu­ genden Mittel 2012 einen Additions- und Ausgabeprozessor. Ein vierzehnter Addierer 2106 addiert die Ergebnissignale rj und zieht das Schwellensignal von den Ergebnissignalen ab. Ein dritter Bedingungsblock 2108 vergleicht die Ausgabe des vier­ zehnten Addierers 2106 mit einem vorbestimmten Wert (0). Ein dritter Entscheidungsblock 2110 erzeugt das Ausgabesignal X0. In einem bevorzugten Ausführungsbeispiel erzeugt der dritte Entscheidungsblock 2110 eine Eins, wenn die Bedingung in dem Bedingungsblock 2108 wahr ist, und eine Null, wenn die Bedin­ gung in dem Bedingungsblock 2108 falsch ist.
Zurückkehrend zu Fig. 48 wird die erste Erwartung (oder das Ergebnissignal) jeder Eingabeadaptrode (Aj) verwendet als ein Wechselwirkungssignal (h) in der nachfolgenden Adaptrode (Aj+1), wie durch die Pfeile gezeigt wird. Es sollte erkannt werden, daß das Tasten jeder Adaptrode durch die vorgehende Adaptrode nur aus Erklärungszwecken geschieht.
Allgemein werden Signale zwischen Eingabeadaptroden, die zum Tasten verwendet werden, als lokale oder örtliche Wechselwir­ kungssignale bezeichnet. Ferner steht das Ergebnissignal der Ausgabeadaptrode 2008 zum Tasten zu Verfügung, wie durch die Pfeile gezeigt wird.
Bezüglich der Fig. 51 ist ein Blockdigramm des Schwellenpro­ zessors 2010 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung gezeigt. Der Schwellenprozessor 2010 sieht drei Arten von Schwellensignalen vor. Das Schwellensignal ist durch T Type definiert. Wenn T Type eins ist, dann ist das Schwellensignal eine Konstante mit einer Größe von TC. Wenn T Type zwei ist, dann ist das Schwellensignal T die Differenz zwischen der Ein­ gabe des Schwellenprozessors 2010, multipliziert mit einer Konstanten und der Konstanten TM. In einem Ausführungsbeispiel ist die Eingabe in den Schwellenprozessor 2010 die erste Er­ wartung der Ausgabeadaptrode 2008 (W00). In einem zweiten Aus­ führungsbeispiel ist die Eingabe an den Schwellenprozessor 2010 das Ergebnissignal der Ausgabeadaptrode 2008. Wenn T Type drei ist, dann ist das Schwellensignal eine lineare Funktion von W00.
Der Schwellenprozessor 2010 umfaßt vierte, fünfte und sechste Entscheidungsblöcke 2302, 2306, 2310 und vierte, fünfte und sechste Steuerblöcke 2304, 2308, 2312. Ein vierzehnter Multi­ plizierer 2314 multipliziert die erste Erwartung der Ausgabe­ adaptrode 2308 mit einer Konstanten β. Ein fünfzehnter Addierer 2316 zieht die Ausgabe des vierzehnten Multiplizierers 2314 von der Konstanten TC ab.
Bezüglich Fig. 52 ist eine graphische Darstellung der ersten Eingabeadaptrode und der zweiten Eingabeadaptrode gezeigt, in die erste Adaptrode verwendet wird zum Takten der zweiten Er­ wartung der zweiten Adaptrode. Jede Erwartung ist allgemein mit Wab bezeichnet, wobei a sich auf die Erwartungsebene bezieht und b auf die Eingabeadaptrode.
Typischerweise können Neuralnetzwerke unter Verwendung einer Vielzahl von Technologien umgesetzt werden. Diese umfassen "Standard"-Technologien wie Integration in sehr großem Maßstab (very large scale integration VLSI), Software-Simulatoren und Entwicklungssysteme, sowie Sonderzweckhardwaresysteme und "neuere" Technologien wie optische Prozessoren.
Industrielle Anwendbarkeit. Mit Bezug auf die Zeichnungen und beim Betrieb sieht die vorliegende Erfindung eine mehr funda­ mentale Lernfähigkeit in Neuralnetzwerken vor. Die Lernfähig­ keiten der Adaptrode basieren nicht auf Assoziativität per se, sondern vielmehr auf dem Verschlüsseln von Information, die in dem sich zeitlich verändernden Signal entlang eines einzigen Eingabekanals inhärent ist. Der Verschlüsselungsprozeß ist zeitexplizit und arbeitet in der Tat in vielfachen Zeitmaß­ stäben, so daß Information für jede dieser Zeitdomänen aufgezeichnet wird. Solch eine Behandlung von Informationsver­ schlüsselung sieht eine Alternative vor zu Rücklaufschleifen beim Umsetzen von Kurz- und Langzeitgedächtnissen. Die Adap­ trode hängt nicht inhärent von der Zuordnung mit einem anderen Kanal ab, um eine Erinnerung (Speicher) zu bilden.
Assoziativität kann jedoch aus der Einführung der Tor- oder Gatterfunktion aufkommen, die ein Verschlüsseln verhindert, wenn nicht ein zweites Signal vorhanden ist. Assoziationen zwischen zwei oder mehr Eingabesignalen oder eine Kombination von Eingabe- und Ausgabesignalen können erreicht werden.
Mit Bezug auf Fig. 54-60 sind Adaptroden verwendet worden, um ein assoziatives Netzwerk 2802 zu konstruieren. Das Netzwerk 2802 umfaßt erste und zweite Neuristoren 2804, 2806 mit jeweils drei Eingabeadaptroden und einer Ausgabeadaptrode (A10, A11, A12, A13, A20, A21, A22, A23). Zur Bezugnahme ist eine Legende für die Fig. 54-60 in Fig. 53 gezeigt. Die Legende zeigt die Symbole für drei Arten von Eingaben: hemmend--5302, lernend erregend--5304 und nicht-lernend erregend--5306.
Das Ermöglichungstasten wird gesteuert über eine örtliche Wechselwirkung zwischen den Eingabeadaptroden A11 und A12 und zwischen A23 und A22. Die letzere Adaptrode, A12 und A22 ist in jedem Fall die lernende Adaptrode innerhalb des betref­ fenden Neuristors (wie durch die Doppelplattenanschlüsse ange­ deutet). Das heißt, die Steigkonstanten für die zweiten und dritten Erwartungen der Adaptroden A12 und A22 sind nicht Null und die zweiten und dritten Erwartungen der Adaptroden A11, A13, A21 und A23 sind Null.
Schwellen sind festgelegt worden und auf einen Wert eingestellt worden, der ausreichend ist, um die Ausgabe zu verzögern. Die Neuristoren 2804, 2806 hemmen einander gegenseitig, daß, sobald ein Neuristor einen Vorteil erhält, der dazu neigen wird, die einzig ansprechende Einheit zu werden. Dies wird durch A11 und A21 erreicht, welche hemmende Ansprechverhalten haben, wie durch die kreisförmige Eingabe angedeutet wird.
Die Eingaben UCS1 und UCS2 werden als zwei entgegengesetzte (jedoch nicht notwendigerweise einander ausschließende) Stimuli oder Reize von der externen Umgebung angenommen. UCR1 und UCR2 sind gegenseitig ausschließende Antworten. Die mit CS bezeich­ nete Eingabe steht beiden Neuristoren zur Verfügung, wie ge­ zeigt. Vor jeglichem Aussetzen hat weder A12 noch A22 irgend­ eine Erinnerungsspur verschlüsselt.
Zu Erklärungszwecken ist es hilfreich, das Netzwerk 2802 als eine einfache Robotersteuerung anzusehen. Hier ist das Ausgabeverhalten entweder, einen Stimulus zu suchen (UCR2) oder zu vermeiden (UCR1), wenn entweder eine Belohnung UCS2 zum Beispiel für die Verfügbarkeit von Leistung zum Wiederaufladen von Batterien oder eine Bestrafung UCR1, beispielsweise das Vorhandensein von hohen Temperaturen, mit dem entsprechenden Reiz assoziiert wird.
In diesem Fall wird der Stimulus (CS) als das Vorhandensein einer Lichtquelle angenommen. Das Ziel ist, den Roboter zu trainieren, Licht mit der Verfügbarkeit von Leistung zu asso­ ziieren, so daß er die Lichtquelle aus eigenem Antrieb suchen wird. Es sollte bemerkt werden, daß es genau so möglich gewesen wäre zu entscheiden, daß das Netzwerk trainiert wird, Licht und Wärme zu assoziieren.
Nach mehreren Versuchen (die benötigte Anzahl hängt von der Größe der Signale, ihrer Dauer und ihrer Phasenrelationen ab) von gemeinsamen Aussetzen, und zwar CS und UCS2, wird dies tatsächlich in 08355 00070 552 001000280000000200012000285910824400040 0002004215179 00004 08236Fig. 55 erreicht. Es sollte bemerkt werden, daß die Aussetzungen nicht exakt im gleichen Augenblick (d. h. genau in Phase) sein müssen. Wenn das CS Ausgesetztsein kurz vor den von UCS2 geschieht - wobei das Zeitfenster durch die αs und δs in den Adaptroden festgelegt ist - wird das Auftreten von UCS2 immer noch die Ermöglichung in A22 erzeugen.
Die dem Netzwerk 2802 angebotenen Signale sind stochastisch und rauschen (ungefähr 10% nicht-Gaus′sches Rauschen). Nach nur drei Versuchen gemeinsamer Präsentation bei UCS2 und CS im Mittelbereich, beginnt das Netzwerk zu erscheinen wie Fig. 55. Wie gesehen werden kann, ist einige Ermöglichung bei A22 aufgetreten als das Ergebnis örtlicher Wechselwirkung zwischen A21 und A22.
Das Netzwerk 2802 umfaßt eine hemmende Verbindung von einer Einheit zur anderen, um gegenseitiges Hemmen einzuführen. Dies ist notwendig, um die Regel des gegenseitigen Ausschließens der Antwort durchzusetzen. Es sollte jedoch bemerkt werden, daß die Regel eine verschwommene Regel ist, in der einiges Signal- "Lecken" von CS und UCS1 möglich ist, wenn UCS1 geringfügig aktiv ist, was auftreten kann. Allgemein wird die Ausgabe von UCS2 die Ausgabe von UCS1 dämpfen und umgekehrt, aber das gilt nicht ohne Einschränkung.
Die schattierten Gebiete in jeder Adaptrode stellen die Ebenen für jede Erwartung dar, wie in der Legende gezeigt wird. Es sei bemerkt, daß jede nachfolgende Erwartung die vorhergehende Erwartung überlappt. Auch sind die Beziehungen W0 W1 W2 immer wahr.
Dunkle Pfeile zeigen, daß diese Leitung "aktiv" ist. Daher zeigt der dunke Pfeil im zweiten Neuristor 2806 einen starken örtlichen Wechselwirkungseffekt von A23 auf das Lernverhalten von vom A22. Der Pfeil im ersten Neuristor 2804 von A11 nach A12 stellt eine schwache Wechselwirkung dar und somit kann A11 nicht als genügend eingestuftes Ansprechen beitragen, um zu gestatten, daß eine Ermöglichung in A12 stattfindet.
Fig. 56 verdeutlicht den Zustand des Netzwerks 2802, nachdem das Netzwerk 2802 über einige Zeit ohne Eingaben gealtert ist. Wie gesehen werden kann, zeigt die Adaptrode A22 etwas Rest­ erinnerung an die Assoziation, der sie ausgesetzt worden war. Als Folge dieses Restes hat das Netzwerk eine Beziehung zwi­ schen den assoziierten Signalen festgestellt, die wieder auf­ gerufen werden kann, wie in Fig. 57 gezeigt. In Fig. 57 wird ein Signal nur bei CS zugeführt. Dies entspricht der Situation, daß der Roboter nur Licht sieht. Als ein Ergebnis der Ermög­ lichung von A22 wird das Eingabesignal bei A22 die erste Er­ wartung W0 schneller auf einen höheren Wert treiben, als in der ersten Erwartung von A12 erreicht wurde. Im Gegenzug ist dies genug, ein Ausgabesignal bei UCR2 zu treiben, worauf sich ein hemmendes Signal ergibt, das den ersten Neuristor 2804 dämpft.
Auf diese Weise hat das Netzwerk 2802 gelernt, CS, für sich selbst ein bedeutungsloses Signal, als eine Ankündigung eines bedeutungsvollen Signals (in diesem Fall Leistungsverfügbar­ keit) auszunutzen. Das Ausmaß, mit dem diese zwei Signale in der Vergangenheit zusammen aufgetreten sind, wird einem gewissen Grad der Zuverlässigkeit der Voraussagefähigkeit der Assoziation ergeben. Der Roboter kann lernen, Lichter zu suchen, wenn er wenig Leistung hat, und wird zu einem gewissen Grad Vertrauen hineinsetzen, daß diese Assoziation stimmen wird.
Soweit arbeitet das Netzwerk 2802, wie man es von jeder asso­ zitiativen Lernregel erwarten könnte. Außer der etwas ein­ zigartigen Weise, in der Zeit explizit und der Lernprozeß durch Verstärkung dynamisch ist, erreicht das Netzwerk 2802 im wesentlichen, was jedes andere auf Assoziation basierende Neu­ ralnetzwerk erreichen würde.
Aber nun wird eine schwierigere Betrachtung angestellt. Ange­ nommen, für ein kurzes Zeitinvervall besteht eine gegenteilige Beziehung zwischen UCS1 und CS, wie es beispielsweise geschehen kann, wenn ein Feuer in der Umgebung des Roboters ausbricht. Erstens müßte man sich mit dem geeigneten Ansprechverhalten befassen; das heißt, der Roboter sollte das Feuer meiden.
Als zweites werden Mittel benötigt zum Bestimmen der Bedeutung dieser gegenteiligen Bedingung. Ist es nur Rauschen oder stellt es eine dauerhaftere Veränderung in der Natur der Umgebung dar?
Als drittes soll im Falle, daß diese neue Beziehung vorüber­ gehend ist, der Roboter sicherlich nicht die vorherige Asso­ ziation vergessen, da es ziemlich wahrscheinlich ist, daß die alte Beziehung in der Zukunft wieder die Norm sein wird.
In den Fig. 58-60 ist der Fortschritt des Verschlüsselns ge­ genteiliger Asssoziation gezeigt, die, da sie unterschiedliche Zeitdomänen darstellen, leicht in den Netzwerk ohne Interferenz gespeichert werden können. Man wird sehen, daß das Netzwerk 2802 richtig anspricht und den Bedeutungsgrad richtig bestimmt, der den neuen Bedingungen beigemessen werden muß.
In Fig. 58 wird das Netzwerk 2802 einem starken und etwas anhaltenden Reiz UCS1 ausgesetzt, was im Gegensatz steht zur bisherigen Erfahrung. Das System wird anfangs beginnen, den zweiten Neuristor 2806 auszulösen, als ob es auf die Verfüg­ barkeit von Leistung reagiert. Eine geringe Zeit wird benötigt, damit der erste Erwartungswert W0 von A11 sich aufbaut auf ein Niveau, das ausreichend ist, die Ausgabe des zweiten Neuristors 2806 über die hemmende Verbindung bei A21 zu übersteuern. Je­ doch wegen der stärkeren Betätigung des ersten Neuristors 2804 gewinnt er den Wettkampf, was zur richtigen Antwort (Vermeiden) bei UCR1 führt. Man bemerke, daß A22 die Ermöglichung W2 ist, wogegen A12 die Ermöglichung nur für W1 darstellt.
Wenn dem Netzwerk nun nur die CS-Eingabe präsentiert wird, wird es für eine kurze Zeit reagieren, wenn auch schwach, mit einer Ausgabe bei UCR1 wie in Fig. 59. Der Grund ist, daß die zweite Erwartung W1 von A12 auf ein Niveau gestiegen ist, das gerade geringfügig größer ist als das der zweiten Erwartung W1 von A22. Dies wird andauern, bis W1 von A12 abgefallen ist auf das gleichen Niveau wie W1 von A22. Zu dieser Zeit wird das An­ sprechen mehrdeutig sein. Die Mehrdeutigkeit wird nicht lange dauern. Da die Aussetzung der gegenteiligen Bedingung kurz war und W2 von A12 nicht gestiegen ist, wird W1 von A12 weiterhin abfallen, und zwar unterhalb des Niveaus von W1 von A22. Zu dieser Zeit wird das Netzwerk 2802 mit der ursprünglichen UCR2-Antwort reagieren, da die ältere Assoziation als dominant wieder zum Vorschein kommt, wie in Fig. 60 gezeigt.
Andere Aspekte, Ziele und Vorteile der vorliegenden Erfindung können aus dem Studium der Zeichnungen, der Offenbarung und der beigefügten Ansprüche ersehen werden.
Zusammenfassend sieht die Erfindung folgendes vor: Ein synaptischer Prozessor zur Verwendung in einem Neural­ netzwerk erzeugt ein Ergebnissignal infolge eines Eingabe­ signals. Der synaptische Prozessor initialisiert eine Ein­ gabeerwartung und empfängt ein Eingabesignal. Der synaptische Prozessor bestimmt eine Nettomodifikation der Eingabeerwartung. Die Nettomodifikation der Eingabeerwartung hat einen Vergröße­ rungsterm und einen Verkleinerungsterm. Der Vergrößerungsterm wird bestimmt als eine Funktion des Eingabesignals. Der Ver­ kleinerungsterm ist unabhängig von der Größe des Eingabesignals und ist eine Funktion einer Verfallkonstanten. Der synaptische Prozessor erzeugt ein Ergebnissignal infolge der Eingabeer­ wartung.

Claims (47)

1. Ein synaptischer Prozessor zum Erzeugen eines Ergebnis­ signals infolge eines Eingabesignals, der folgendes aufweist:
Mittel zum Initialisieren einer Eingaberwartung, wobei die Erwartung beschränkt ist durch eine Maximalerwartung und eine Gleichgewichtserwartung;
Mittel zum Empfangen des Eingabesignals und zum Modifizieren der Eingabeerwartung, wobei die Nettomodifikation der Eingabeerwartung einen Vergrößerungsterm und einen Verkleinerungsterm aufweist, wobei der Vergrößerungsterm eine Funktion des Eingabe­ signals und einer erste Anstiegskonstanten ist und wobei der Verkleinerungsterm eine Funktion einer ersten Abfallkonstanten ist, und wobei die ersten Anstiegs- und Abfallkonstanten unabhängig sind; und
Mittel zum Erzeugen des Ergebnissignals infolge der Eingangserwartung.
2. Synaptischer Prozessor nach Anspruch 1, wobei das Ergebnis­ signal eine lineare Funktion der Eingabeerwartung ist.
3. Synaptischer Prozessor nach Anspruch 1, wobei das Ergebnis­ signal eine nicht-lineare Funktion der Eingabeerwartung ist.
4. Synaptischer Prozessor nach Anspruch 1, wobei der Verklei­ nerungsterm proportional ist zu der Differenz zwischen der Eingabeerwartung und der Gleichgewichtserwartung.
5. Synaptischer Prozessor nach Anspruch 1, wobei der Ver­ größerungsterm proportional ist zu der Differenz zwischen der Eingabeerwartung und der Maximalerwartung.
6. Synaptischer Prozessor nach Anspruch 1, mit Mitteln zum Modifizieren der Gleichgewichtserwartung, wobei die Nettomodifikation der Gleichgewichtserwartung einen zweiten Vergrößerungsterm und einen zweiten Verkleinerungssterm aufweist, wobei der zweite Vergrößerungsterm eine Funktion der Eingabeerwartung und einer zweiten Anstiegskonstanten ist und wobei der Verkleinerungsterm eine Funktion einer zweiten Abfall- oder Verfallkonstanten ist.
7. Synaptischer Prozessor nach Anspruch 1, wobei die die Eingabeerwartung modifizierenden Mittel Mittel umfassen, um die Eingabeerwartung zu diskreten Zeitintervallen von t auf den neuesten Stand zu bringen.
8. Synaptischer Prozessor zum Erzeugen eines Ergebnissignals infolge eines Eingabessignals, der folgendes aufweist:
Mittel zum Initialisieren erster und zweiter Erwartungen, wobei die ersten und zweiten Erwartungen beschränkt sind durch eine maximale Erwartung und eine Gleichgewichtserwartung;
Mittel zum Empfang des Eingabesignals und zum Modifizieren der ersten Erwartung infolge des Eingabesignals und der zweiten Erwartung;
Mittel zum Modifizieren der zweiten Erwartung infolge der ersten Erwartung; und
Mittel zum Erzeugen des Ergebnissignals infolge der ersten Erwartung.
9. Synaptischer Prozessor nach Anspruch 8, wobei die Erwartungen die folgenden Beziehungen haben: WM W⁰ W¹ WE,wobei
WM = die maximale Erwartung,
W0 = die erste Erwartung,
W1 = die zweite Erwartung und
WE = die Gleichgewichtserwartung
ist.
10. Synaptischer Prozessor nach Anspruch 8, wobei die erste Erwartung eine Funktion der Größe des Eingabesignals ist.
11. Synaptischer Prozessor nach Anspruch 8, wobei die die erste Erwartung modifizierenden Mittel Mittel umfassen zum Verkleinern der ersten Erwartung infolge der zweiten Erwartung.
12. Synaptischer Prozessor nach Anspruch 11, wobei die die erste Erwartung verkleinernden Mittel Mittel umfassen zum Bestimmen der Differenz zwischen den ersten und zweiten Erwartungen und zum Verkleinern der ersten Erwartung infolge der Differenz und einer ersten Verfallkonstanten.
13. Synaptischer Prozessor nach Anspruch 8, wobei die die erste Erwartung modifizierenden Mittel Mittel umfassen zum Vergrößern der ersten Erwartung infolge der Größe des Eingabesignals und der maximalen Erwartung.
14. Synaptischer Prozessor nach Anspruch 13, wobei die die erste Erwartung vergrößernden Mittel Mittel umfassen zum Bestimmen der Differenz zwischen der ersten und der maximalen Erwartung und zum Vergrößern der ersten Erwartung infolge des Eingabesignals, der Differenz und einer ersten Anstiegskonstanten.
15. Synaptischer Prozessor nach Anspruch 8, wobei die die zweite Erwartung modifizierenden Mittel Mittel umfassen zum Vergrößern der zweiten Erwartung infolge der ersten Erwartung.
16. Synaptischer Prozessor nach Anspruch 13, wobei die die zweite Erwartung vergrößernden Mittel Mittel umfassen zum Bestimmen der Differenz zwischen den zweiten und ersten Er­ wartungen und zum Vergrößern der zweiten Erwartung infolge der Differenz und einer zweiten Anstiegskonstanten.
17. Synaptischer Prozessor nach Anspruch 8, wobei die die zweite Erwartung modifizierenden Mittel Mittel umfassen zum Verkleinern der zweiten Erwartung infolge der Gleichgewichtserwartung.
18. Synaptischer Prozessor nach Anspruch 8 mit Mitteln zum Modifizieren der Gleichgewichtserwartung, wobei die Nettomodifikation der Gleichgewichtserwartung einen Vergrößerungsterm und einen Verkleinerungsterm aufweist, wobei der Vergrößerungsterm eine Funktion der zweiten Erwartung und einer Anstiegs- oder Steigkonstanten ist und wobei der Verkleinerungsterm eine Funktion einer zweiten Verfallkonstanten ist.
19. Synaptischer Prozessor zum Erzeugen eines Ergebnissignals infolge eines Eingabesignals, der folgendes aufweist:
Mittel zum Initialisieren einer ersten Erwartung und zumindest einer zweiten Erwartung, wobei die ersten und zweiten Erwartungen beschränkt sind durch eine Maximalerwartung und eine Gleichgewichtserwartung, wobei die Anzahl der zweiten Erwartungen durch L bezeichnet ist;
Mittel zum Empfang eines Eingabesignals und zum Modifizieren der ersten Erwartung infolge des Eingabesignals;
Mittel zum Modifizieren einer der zweiten Erwartungen, wobei die eine zweite Erwartung durch W1 bezeichnet ist und eine Funktion ist von: der ersten Erwartung, falls l=1, oder anderenfalls einer vorhergehenden zweiten Erwartung Wl-1; und
Mittel zum Erzeugen des Ergebnissignals infolge der ersten Erwartung.
20. Synaptischer Prozessor nach Anspruch 19, mit Mitteln zum Empfang eines zweiten Eingabesignals und zum darauf ansprechenden Erzeugen eines Ermöglichungssignals, und wobei die eine zweite Erwartung eine Funktion des Ermöglichungssignals ist.
21. Synaptischer Prozessor zum Erzeugen eines Ergebnissignals infolge eines ersten Eingabesignals und eines zweiten Eingabesignals, welcher folgendes aufweist:
Mittel zum Initialisieren erster und zweiter Erwartungen, wobei die ersten und zweiten Erwartungen beschränkt sind durch eine maximale Erwartung und eine Gleichgewichtserwartung;
Mittel zum Erzeugen des ersten Eingangssignals und zum Modifizieren der ersten Erwartung infolge des ersten Eingabesignals und der zweiten Erwartung;
Mittel zum Empfang des zweiten Eingabesignals und zum darauf ansprechenden Erzeugen eines Ermöglichungssignals;
Mittel zum Modifizieren der zweiten Erwartung infolge der ersten Erwartung und des Ermöglichungssignals, und
Mittel zum Erzeugen des Ergebnissignals infolge des ersten Eingabesignals und des ersten Erwartungssignals.
22. Synaptischer Prozessor nach Anspruch 21, wobei die erste Erwartung eine Funktion der Größe des Eingabesignals ist.
23. Synaptischer Prozessor nach Anspruch 21, wobei die Ini­ tialisiermittel Mittel umfassen zum Initialisieren eines Tor- oder Tastsignals, und wobei das Ermöglichungssignal erzeugt wird infolge des zweiten Eingabesignals und des Tastsignals.
24. Synaptischer Prozessor nach Anspruch 23, wobei die das Er­ möglichungssignal erzeugenden Mittel Mittel umfassen zum Bestimmen des Tastsignals und des zweiten Eingabessignals.
25. Synaptischer Prozessor nach Anspruch 24, wobei die das zweite Eingabesignal bestimmenden Mittel Mittel umfassen zum Empfang einer Vielzahl von Wechselwirkungssignalen und zum Addieren der Wechselwirkungsignale.
26. Synaptischer Prozessor nach Anspruch 23, wobei das Ermög­ lichungssignal in einem Erlaubniszustand ist, wenn das zweite Eingabesignal das Tastsignal überschreitet, und wobei es andernfalls in einem Verhinderungszustand ist.
27. Synaptischer Prozessor nach Anspruch 26, wobei die die zweite Erwartung modifizierenden Mittel Mittel umfassen zum Vergrößern der zweiten Erwartung infolge der ersten Erwartung, wenn das Ermöglichungssignal in dem Erlaubniszustand ist.
28. Verarbeitungselement, das folgendes aufweist:
einen ersten synaptischen Prozessor zum Erzeugen eines ersten Ergebnissignals infolge eines ersten Eingabesignals, welcher folgendes aufweist:
Mittel zum Initialisieren einer Eingabeerwartung, wobei die erste Eingabeerwartung beschränkt ist durch eine erste maximale Erwartung und eine erste Gleichgewichtserwartung;
Mittel zum Empfang des ersten Eingabesignals und zum darauf ansprechenden Modifizieren der Eingabeerwartung, wobei die Nettomodifikation der Eingabeerwartung einen ersten Vergrößerungsterm und einen ersten Verkleinerungsterm aufweist, wobei der erste Vergrößerungsterm auf das erste Eingabesignal anspricht, und wobei der erste Verkleinerungsterm ein Funktion der ersten Gleichgewichtserwartung ist; und
Mittel zum Erzeugen des ersten Ergebnissignals infolge der Eingabeerwartung;
einen zweiten synaptischen Prozessor zum Erzeugen eines zweiten Ergebnissignals infolge des zweiten Eingabessignals, der folgendes umfaßt:
Mittel zum Initialisieren erster und zweiter Erwartungen, wobei die ersten und zweiten Erwartungen beschränkt sind durch eine zweite maximale Erwartung und eine zweite Gleichgewichtserwartung;
Mittel zum Empfang des zweiten Eingabesignals und zum Modifizieren der ersten Erwartung infolge des zweiten Eingabesignals und der zweiten Erwartung;
Mittel zum Empfang des ersten Ergebnissignals und zum darauf ansprechenden Erzeugen eines Ermöglichungssignals;
Mittel zum Modifizieren der zweiten Erwartung infolge der ersten Erwartung und des Ermöglichungssignals; und
Mittel zum Erzeugen des zweiten Ergebnissignals infolge des zweiten Eingabessignals und der ersten Erwartung.
29. Verarbeitungselement nach Anspruch 28, wobei der erste synaptische Prozessor Mittel umfaßt zum Modifizieren der ersten Gleichgewichtserwartung, wobei die Nettomodifikation der ersten Gleichgewichtserwartung einen zweiten Vergrößerungsterm und einen zweiten Verkleinerungsterm aufweist, wobei der zweite Vergrößerungsterm eine Funktion der Eingabeerwartung und einer zweiten Steigkonstanten ist und wobei der zweite Verkleinerungsterm eine Funktion einer zweiten Verfallkonstanten ist.
30. Verarbeitungselement nach Anspruch 28, wobei die die erste Erwartung modifizierenden Mittel Mittel umfassen zum Bestimmen einer ersten Nettomodifikation und zum Addieren der ersten Nettomodifikation zu der ersten Erwartung, wobei die erste Nettomodifikation einen dritten Vergrößerungsterm und einen dritten Verkleinerungsterm aufweist, wobei der dritte Vergrößerungsterm eine Funktion der ersten Erwartung und einer dritten Steigkonstanten ist, und wobei der dritte Verkleinerungsterm eine Funktion der ersten Erwartung und einer dritten Verfallkonstanten ist, und wobei die die zweite Erwartung modifizierenden Mittel Mittel umfassen zum Bestimmen einer zweiten Nettomodifikation der zweiten Erwartung und zum Addieren der zweiten Nettomodifikation zu der zweiten Erwartung, wobei die zweite Nettomodifikation einen vierten Vergrößerungsterm und einen vierten Verkleinerungsterm aufweist, wobei der vierte Vergrößerungsterm eine Funktion der ersten Erwartung und einer vierten Steigkonstanten ist und wobei der vierte Verkleinerungsterm eine Funktion der ersten Erwartung und einer zweiten Verfallkonstanten ist.
31. Verarbeitungselement nach Anspruch 28, mit Mitteln zum Modifizieren der zweiten Gleichgewichtserwartung, wobei die Nettomodifikation der zweiten Gleichgewichtserwartung einen fünften Vergrößerungsterm und einen fünften Verkleinerungsterm aufweist, wobei der fünfte Vergrößerungsterm eine Funktion der zweiten Erwartung und einer fünften Steigkonstanten ist und wobei der fünfte Verkleinerungsterm eine Funktion einer fünften Verfallkonstanten ist.
32. Verarbeitungselement, das folgendes aufweist:
Mittel zum Erzeugen eines Schwellensignals;
einen synaptischen Eingabeprozessor zum Erzeugen eines Ergebnissignals infolge eines Eingabesignals, wobei der synaptische Eingabeprozessor folgendes umfaßt:
Mittel zum Initialisieren einer Eingabeerwartung, wobei die Eingabeerwartung beschränkt ist durch eine Maximalerwartung und eine Gleichgewichtserwartung;
Mittel zum Empfang des Eingabesignals und zum Ermitteln der Größe des Eingabessignals;
Mittel zum Modifizieren der Eingabeerwartung, wobei die Nettomodifikation der Eingabeerwartung einen ersten Vergrößerungsterm und einen ersten Verkleinerungsterm aufweist, wobei der erste Vergrößerungsterm auf die Größe des Eingabesignals anspricht, und wobei der erste Verkleinerungsterm unabhängig ist von der Größe und eine Funktion ist einer Verfallkonstanten; und
Mittel zum Erzeugen des Ergebnisignals infolge der Eingabeerwartung; und
Mittel zum Empfang des Ergebnissignals und des Schwellensignals und zum darauf ansprechenden Erzeugen eines Ausgabesignals.
33. Verarbeitungselement nach Anspruch 32, mit Mitteln zum Modifizieren der Gleichgewichtserwartung, wobei die Nettomodifikation der Gleichgewichtserwartung einen zweiten Vergrößerungsterm und einen zweiten Verkleinerungsterm aufweist, wobei der zweite Vergrößerungsterm eine Funktion der Eingabeerwartung und einer zweiten Steigkonstanten ist, und wobei der zweite Verkleinerungsterm eine Funktion einer zweiten Verfallkonstanten ist.
34. Verarbeitungselement nach Anspruch 32, wobei die schwellen­ erzeugenden Mittel Mittel umfassen zum Initialisieren einer Schwellenkonstanten, zum Empfang eines Schwellen- modifizierenden Signals, zum Multiplizieren des Schwellen- modifizierenden Signals mit einer Konstanten und zum Abziehen des Produkts von der Schwellenkonstanten.
35. Verarbeitungselement nach Anspruch 32, wobei die Schwellen­ signal erzeugenden Mittel einen Ausgabeprozessor umfassen zum Empfang des Ausgabesignals und zum darauf ansprechenden Erzeugen eines Schwellen-modifizierenden Signals.
36. Verarbeitungselement, das folgendes aufweist:
Mittel zum Erzeugen eines Schwellensignals;
zumindest zwei synaptische Eingabeprozessoren zum Erzeugen jeweiliger Ergebnissignale infolge entsprechender Eingabe­ signale, wobei jeder synaptische Eingabeprozessor folgendes aufweist:
Mittel zum Initialisieren einer Eingabeerwartung, wobei die Eingabeerwartung beschränkt ist durch eine Maximalerwartung und eine Gleichgewichtserwartung;
Mittel zum Empfang des Eingabesignals und zum Ermitteln der Größe des Eingabesignals;
Mittel zum Modifizieren der Eingabeerwartung, wobei die Nettomodifikation der Eingabeerwartung einen Vergrößerungsterm und einen Verkleinerungsterm aufweist, wobei der Vergrößerungsterm auf die Größe des Eingabesignals anspricht, und wobei der Verkleinerungsterm unabhängig ist von der Größe und eine Funktion einer Verfallkonstanten ist;
Mittel zum Erzeugen des Ergebnissignals infolge der Eingabeerwartung;
Mittel zum Empfangen der Ergebnissignale, zum Addieren der Ergebnissignale und zum darauf ansprechenden Erzeugen eines Sigma-Signals; und
Mittel zum Empfangen des Sigma-Signals und des Schwellensignals und zum darauf ansprechenden Erzeugen eines Ausgabesignals.
37. Verarbeitungselement nach Anspruch 36, wobei die Schwellen erzeugenden Mittel Mittel umfassen zum Initialisieren einer Schwellenkonstanten, zum Empfang eines Schwellen- modifizierenden Signals, zum Multiplizieren des Schwellen- modifizierenden Signals mit einer Konstanten und zum Abziehen des Produkts von der Schwellenkonstanten.
38. Verarbeitungselement nach Anspruch 36, wobei die Ausgabesignal erzeugenden Mittel Mittel umfassen zum Vergleichen der Schwellen- und Sigma-Signale und wobei das Ausgabesignal einen ersten Zustand hat, in dem das Sigma- Signal größer ist als Schwellensignal, und wobei das Ausgabesignal anderenfalls einen zweiten Zustand hat.
39. Verarbeitungselement nach Anspruch 36, wobei die Schwellen­ signal-erzeugenden Mittel einen Ausgabeprozessor umfassen zum Empfang des Ausgabesignals und zum darauf ansprechenden Erzeugen eines Schwellen modifizierenden Signals.
40. Verarbeitungselement, das folgendes aufweist:
Mittel zum Erzeugen eines Schwellensignals;
einen synaptischen Eingabeprozessor zum Erzeugen eines Ergebnissignals infolge eines Eingabesignals, wobei der synaptische Eingabeprozessor folgendes aufweist:
Mittel zum Initialisieren erster und zweiter Erwartungen, wobei die ersten und zweiten Erwartungen beschränkt sind durch eine Maximalerwartung und eine Gleichgewichtserwartung;
Mittel zum Empfang des Eingabesignals und zum Modifizieren der ersten Erwartung infolge des Eingabesignals und der zweiten Erwartung;
Mittel zum Modifizieren der zweiten Erwartung infolge der ersten Erwartung; und
Mittel zum Erzeugen des Ergebnissignals infolge der zweiten Erwartung; und
Mittel zum Empfang des Schwellensignals und des Ergebnissignals und zum darauf ansprechenden Erzeugen eines Ausgabesignals.
41. Verarbeitungselement nach Anspruch 40, wobei die die erste Erwartung modifizierenden Mittel Mittel umfassen zum Bestimmen einer ersten Nettomodifikation und zum Addieren der ersten Nettomodifikation zu der ersten Erwartung, wobei die erste Nettomodifikation einen ersten Vergrößerungsterm und einen ersten Verkleinerungsterm aufweist, wobei der erste Vergrößerungsterm eine Funktion der ersten Erwartung und einer ersten Steigkonstanten ist und wobei der erste Verkleinerungsterm eine Funktion der ersten Erwartung und einer ersten Verfallkonstanten ist, und wobei die die zweite Erwartung modizierenden Mittel Mittel umfassen zum Bestimmen einer zweiten Nettomodifikation der zweiten Erwartung und zum Addieren der zweiten Nettomodi­ fikation zu der zweiten Erwartung, wobei die zweite Nettomodifikation einen zweiten Vergrößerungsterm und einen zweiten Verkleinerungsterm aufweist, wobei der zweite Vergrößerungsterm eine Funktion der zweiten Erwartung und einer zweiten Steigkonstanten ist und wobei der zweite Verkleinerungssterm eine Funktion der zweiten Erwartung und einer zweiten Verfallkonstanten ist.
42. Verarbeitungselement nach Anspruch 40, mit Mitteln zum Modifizieren der Gleichgewichtserwartung, wobei die Netto­ modifikation der Gleichgewichtserwartung einen Vergrößerungsterm und einen Verkleinerungsterm aufweist, wobei der Vergrößerungsterm eine Funktion der zweiten Erwartung und einer Steigkonstanten ist, und wobei der Verkleinerungsterm eine Funktion einer zweiten Verfallkonstanten ist.
43. Verarbeitungselement nach Anspruch 40 mit Mitteln zum Empfangen eines zweiten Eingabesignals und zum darauf an­ sprechenden Erzeugen eines Ermöglichungssignals, wobei die zweite Erwartung eine Funktion des Ermöglichungssignals ist.
44. Verarbeitungselement nach Anspruch 40, wobei die Schwel­ lensignal-erzeugenden Mittel einen Ausgabprozessor umfassen zum Empfang des Ausgabesignals und zum darauf ansprechenden Erzeugen eines Schwellen-modifizierenden Signals.
45. Verarbeitungslement, das folgendes aufweist:
Mittel zum Erzeugen eines Schwellensignals;
mindestens zwei synaptische Eingabeprozessoren zum Erzeugen jeweiliger Ergebnissignale infolge jeweiliger Eingabessignale, wobei jeder der synaptischen Eingabeprozessoren folgendes aufweist:
Mittel zum Initialisieren erster und zweiter Erwartungen, wobei die ersten und zweiten Erwartungen beschränkt sind durch eine Maximalerwartung und eine Gleichgewichtserwartung;
Mittel zum Empfang des Eingabesignals und zum Modifizieren der ersten Erwartung infolge des Eingabesignals und der zweiten Erwartung;
Mittel zum Modifizieren der zweiten Erwartung infolge der ersten Erwartung; und
Mittel zum Erzeugen des Ergebnissignals infolge der ersten Erwartung; und
Mittel zum Empfangen der Ergebnissignale zum Addieren der Ergebnissignale und zum darauf ansprechenden Erzeugen eines Sigma-Signals; und
Mittel zum Empfangen des Sigma-Signals und des Schwellensignals und zum darauf ansprechenden Erzeugen eines Ausgabessignals.
46. Verarbeitungselement nach Anspruch 45, wobei die die erste Erwartung modifizierenden Mittel Mittel umfassen zum Bestimmen einer ersten Nettomodifikation und zum Addieren der ersten Nettomodifikation zu der ersten Erwartung, wobei die erste Nettomodifikation einen ersten Vergrößerungsterm und einen ersten Verkleinerungstem aufweist, wobei der erste Vergrößerungsterm eine Funktion der ersten Erwartung und einer ersten Steigkonstanten ist und wobei der erste Verkleinerungsterm eine Funktion der ersten Erwartung und einer ersten Verfallkonstanten ist, und wobei die die zweite Erwartung modifizierenden Mittel Mittel umfassen zum Bestimmen einer zweiten Nettomodifikation der zweiten Erwartung und zum Addieren der zweiten Nettomodifikation zu der zweiten Erwartung, wobei die zweite Nettomodifikation einen zweiten Vergrößerungterm und einen zweiten Verkleinerungsterm aufweist, wobei der zweite Vergrößerungsterm eine Funktion der zweiten Erwartung und einer zweiten Steigkonstanten ist und wobei der zweite Verkleinerungsterm eine Funktion der zweiten Erwartung und einer zweiten Verfallkonstanten ist.
47. Verarbeitungselement nach Anspruch 45, wobei die Schwellensignal-erzeugenden Mittel einen Ausgabeprozessor umfassen zum Empfang des Ausgabesignals und zum darauf ansprechenden Erzeugen eines Schwellen-modifizierenden Signals.
DE4215179A 1991-05-08 1992-05-08 Prozessor und verarbeitendes element zum gebrauch in einem neural- oder nervennetzwerk Ceased DE4215179A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US69714291A 1991-05-08 1991-05-08

Publications (1)

Publication Number Publication Date
DE4215179A1 true DE4215179A1 (de) 1992-11-12

Family

ID=24799975

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4215179A Ceased DE4215179A1 (de) 1991-05-08 1992-05-08 Prozessor und verarbeitendes element zum gebrauch in einem neural- oder nervennetzwerk

Country Status (3)

Country Link
US (1) US5504839A (de)
JP (1) JP3369213B2 (de)
DE (1) DE4215179A1 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6754644B1 (en) * 2000-03-06 2004-06-22 William R. Hutchison Adaptive autonomous agent with verbal learning
US7089218B1 (en) * 2004-01-06 2006-08-08 Neuric Technologies, Llc Method for inclusion of psychological temperament in an electronic emulation of the human brain
US7925492B2 (en) 2004-01-06 2011-04-12 Neuric Technologies, L.L.C. Method for determining relationships through use of an ordered list between processing nodes in an emulated human brain
US6282530B1 (en) * 1999-06-09 2001-08-28 Helios Semiconductor Inc. Digital neural node
GB9924310D0 (en) * 1999-10-15 1999-12-15 Univ Manchester Neural network component
US20040030663A1 (en) * 2000-09-29 2004-02-12 Caglayan Erdem Method and assembly for the computer-assisted mapping of a plurality of temporarly variable status descriptions and method for training such an assembly
US8473449B2 (en) * 2005-01-06 2013-06-25 Neuric Technologies, Llc Process of dialogue and discussion
US8290847B2 (en) * 2007-02-21 2012-10-16 General Electric Capital Corporation Methods, apparatus and computer program products for use in association with joint ventures and/or potential joint ventures
US10839302B2 (en) 2015-11-24 2020-11-17 The Research Foundation For The State University Of New York Approximate value iteration with complex returns by bounding
US10387298B2 (en) 2017-04-04 2019-08-20 Hailo Technologies Ltd Artificial neural network incorporating emphasis and focus techniques
US11615297B2 (en) 2017-04-04 2023-03-28 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network compiler
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11551028B2 (en) 2017-04-04 2023-01-10 Hailo Technologies Ltd. Structured weight based sparsity in an artificial neural network
US11544545B2 (en) 2017-04-04 2023-01-03 Hailo Technologies Ltd. Structured activation based sparsity in an artificial neural network
US12001945B2 (en) * 2018-04-26 2024-06-04 Aistorm Inc. Event driven mathematical engine and method
RU2724784C2 (ru) * 2018-05-18 2020-06-25 Федеральное государственное бюджетное образовательное учреждение высшего образования "Московский авиационный институт (национальный исследовательский университет)" Способ управления реакцией нейропроцессора на входные сигналы
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US12086567B1 (en) * 2021-03-14 2024-09-10 Jesse Forrest Fabian Computation system using a spherical arrangement of gates

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3103648A (en) * 1961-08-22 1963-09-10 Gen Electric Adaptive neuron having improved output
US3293609A (en) * 1961-08-28 1966-12-20 Rca Corp Information processing apparatus
US3097349A (en) * 1961-08-28 1963-07-09 Rca Corp Information processing apparatus
US3165644A (en) * 1961-12-26 1965-01-12 Ibm Electronic circuit for simulating brain neuron characteristics including memory means producing a self-sustaining output
US3218475A (en) * 1962-10-02 1965-11-16 Frederick F Hiltz Artificial neuron
US3310783A (en) * 1963-09-06 1967-03-21 Rca Corp Neuron information processing apparatus
US3310784A (en) * 1963-09-06 1967-03-21 Rca Corp Information processing apparatus
US3308441A (en) * 1963-09-06 1967-03-07 Rca Corp Information processing apparatus
US3351783A (en) * 1965-06-21 1967-11-07 Conductron Corp Means for simulating learning, forgetting and other like processes
US3413735A (en) * 1965-11-08 1968-12-03 Teaching Complements Inc Optical pattern recognition system
US4518866A (en) * 1982-09-28 1985-05-21 Psychologics, Inc. Method of and circuit for simulating neurons
US4802103A (en) * 1986-06-03 1989-01-31 Synaptics, Inc. Brain learning and recognition emulation circuitry and method of recognizing events
US5093899A (en) * 1988-09-17 1992-03-03 Sony Corporation Neural network with normalized learning constant for high-speed stable learning
US4912649A (en) * 1988-12-14 1990-03-27 Gte Government Systems Corporation Accelerating learning in neural networks
US5093900A (en) * 1991-02-13 1992-03-03 At&T Bell Laboratories Reconfigurable neural network

Also Published As

Publication number Publication date
JPH05265999A (ja) 1993-10-15
JP3369213B2 (ja) 2003-01-20
US5504839A (en) 1996-04-02

Similar Documents

Publication Publication Date Title
DE4215179A1 (de) Prozessor und verarbeitendes element zum gebrauch in einem neural- oder nervennetzwerk
DE68925156T2 (de) Integrierte Halbleiterschaltung für neurales Netzwerk
DE3855035T2 (de) Mehrschichtiges Neuronalnetzwerk mit dynamischer Programmierung
DE112018000272T5 (de) Resistive Verarbeitungseinheit mit hysteretischen Aktualisierungen zum Trainieren neuronaler Netze
DE112018004992B4 (de) Übertragung synaptischer gewichte zwischen leitfähigkeitspaaren mitpolaritätsumkehr zum verringern fester einheitenasymmetrien
DE68927014T2 (de) Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür
DE112011101370T5 (de) Neuronales Netz mit kanonischen gepulsten Neuronen für einen raumzeitlichen Assoziativspeicher
DE69227648T2 (de) Verbesserte Neuronalnetzwerkbenutzeroberfläche für Anwendungsprogramme
DE102012009502A1 (de) Verfahren zum Trainieren eines künstlichen neuronalen Netzes
DE112016003245T5 (de) Resistive Verarbeitungseinheit
DE112015003992T5 (de) Neuromorphe Synapsen
DE102005046747B3 (de) Verfahren zum rechnergestützten Lernen eines neuronalen Netzes und neuronales Netz
DE112020002186B4 (de) Dnn-training mit asymmetrischen rpu-einheiten
DE4143073A1 (de) Mehrschichtiges neuronales netzwerk
DE3938645C1 (de)
DE112019003326T5 (de) Speichererweiterte neuronale netzwerkarchitekturen eines codierers-decodierers
DE60125536T2 (de) Anordnung zur generierung von elementensequenzen
DE102022100920A1 (de) Compute-in-memory-akkumulator
DE69607166T2 (de) Elektronische Anordnung zur Durchführung von Konvolutionsoperationen
DE4230419A1 (de) Strukturierung von neuronalen Netzen durch regelbasiertes Wissen
DE69602662T2 (de) Verfahren zur Beschleunigung der Ausführungsgeschwindigkeit von Neuronalnetzwerken für korrelierte Signalverarbeitung
DE19537010C2 (de) Lernverfahren und -anordnung zur Nachbildung eines dynamischen Prozesses
DE112020005613T5 (de) Neuromorphe Einheit mit Kreuzschienen-Array-Struktur
WO2020178009A1 (de) Training neuronaler netzwerke für effizientes implementieren auf hardware
EP3736749A1 (de) Verfahren und vorrichtung zur ansteuerung eines geräts mit einem datensatz

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8131 Rejection