DE68927014T2 - Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür - Google Patents
Assoziatives Musterkonversionssystem und Anpassungsverfahren dafürInfo
- Publication number
- DE68927014T2 DE68927014T2 DE68927014T DE68927014T DE68927014T2 DE 68927014 T2 DE68927014 T2 DE 68927014T2 DE 68927014 T DE68927014 T DE 68927014T DE 68927014 T DE68927014 T DE 68927014T DE 68927014 T2 DE68927014 T2 DE 68927014T2
- Authority
- DE
- Germany
- Prior art keywords
- data
- weight
- learning
- input
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 21
- 238000006243 chemical reaction Methods 0.000 title claims description 15
- 230000006870 function Effects 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 19
- 230000001419 dependent effect Effects 0.000 claims description 7
- 230000006978 adaptation Effects 0.000 claims description 4
- 230000007423 decrease Effects 0.000 claims 2
- 210000002569 neuron Anatomy 0.000 description 23
- 238000011156 evaluation Methods 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 9
- 210000000225 synapse Anatomy 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 238000010304 firing Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241000122235 Junco hyemalis Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000036982 action potential Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000001242 postsynaptic effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Neurology (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
- Image Processing (AREA)
Description
- Die vorliegende Erfindung betrifft ein Assoziativmusterumwandlungssystem sowie ein Adaptionsverfahren für ein Assoziativmusterumwandlungssystem.
- Herkömmlicherweise wurde eine Mustergleichheitsprüfung auf eine Zeichenerkennung oder eine akustische Erkennung angewendet. Auf eine solche Erkennung hin ist es unmöglich gewesen, ein Eingangssignal exakt zu bewerten, es sei denn, es besteht eine hohe Koinzidenz zwischen dem Eingangssignal und dem aufgezeichneten Muster.
- Andererseits sind verschiedene Modelle neuronaler Netzwerke basierend auf einem Neuronenmodell vorgeschlagen worden. Das in Fig. 1 gezeigte Neuronenmodell wurde von W. S. McCulloch und W. H. Pitts im Masachusetts Institute of Technology in den Vereinigten Staaten von Amerika 1943 bekanntgegeben. Es wurde dann gezeigt, daß Assoziativmustergleichheitsprüfung unter Verwendung des neuronalen Netzwerks von F. Rosenblatt möglich ist.
- Allerdings ist es unmöglich, ein neuronales Netzwerk in einer integrierten Schaltung zu realisieren: das heißt, es ist unmöglich, die Schaltung mit praktikabler Aussicht unter Verwendung der gesamten vorliegenden Halbleitertechnologie zu realisieren, weil eine enorme Anzahl an Ausgangsstiften erforderlich sind, um das assoziative Muster auszugeben.
- Wenn beispielsweise ein Zeichen als ein Binärmuster von 32 32 Punkten eingegegeben wird, sind 10&sup6; (= (32²)²) Neuronen erforderlich, um die Eingabe als orthogonale Daten zu verarbeiten und 10&sup6; Ausgangsstifte sind notwendig, um das Zündmuster all dieser Neuronen auszugeben.
- Es hat Versuche gegeben, Neuronenmodelle durch Software oder Hardware zu realisieren.
- Bei der Realisierung durch Software wird ein enormer Speicher verbraucht und die Prozeßgeschwindigkeit ist weit entfernt vom praktischen Einsatz.
- Bei der Realisierung durch Hardware ist das System aufgrund seines Mangels an Flexibilität nicht für leichte Modifikationen des Neuronenmodells einsetzbar. Das Neuronenmodell mußte üblicherweise vereinfacht werden, da es schwierig ist, daß das Neuronenmodell in strikten Sinn elektronisch wieder erscheint.
- Aus D.E. Rummelhart et al.: "Parallel Distributed Processing", Vol. 1: "Foundations", 1986, Seiten 319-362, MIT Press, Cambridge, USA, ist ein Lernverfahren für neuronale Netzwerke bekannt. Gemäß diesem Verfahren verwendet das Netzwerk zuerst einen Eingabevektor, um seinen eigenen Ausgabevektor zu erzeugen und vergleicht dann diesen mit dem erwünschten Ausgabe- oder Zielvektor. Falls keine Differenz vorhanden ist, findet kein Lernen statt. Anderenfalls werden die Gewichte geändert, um die Differenz zu verringern. Die Regel zur Änderung der Gewichte ist gegeben durch Δpwji = η(tpj - opj)ipi = ηδpjipj wobei tpj die Zieleingabe für die j-te Komponente des Ausgabemusters für das Muster p ist, opj das j-te Element des tatsächlichen Ausgabemusters ist, welches durch die Darstellung des Eingangsmusters p erzeugt wird, ipi der Wert des i-ten Elements des Eingabemusters ist, dpj = tpj - opj, und Δpwij ist die Änderung, die an dem Gewicht von der i-ten zur j-ten Einheit gemacht wird, wobei der Darstellung des Musters p gefolgt wird.
- Aus den AIP Conference Proceedings 151, "Neural Networks For Computing", 1986, Snowbird, UT, Seiten 265-270, A.H. Klopf "A drive-reinforcement model of single neuron function: an alternative to the Hebbian neuronal model", ist ein neuronaler Lernmechanismus bekannt, der das grundlegende Lernphänomen bei Tieren, das beobachtet worden ist, berücksichtigt. Das Dokument erwähnt weiterhin eine neuronale Eingabe-Ausgabe- Beziehung gemäß der folgenden Formel y(t) = wi(t)xi(t)-θ, wobei y(t) ein Maß der postsynaptischen Frequenz des Feuerns zur einer diskreten Zeit t ist; n die Anzahl von Synapsen ist, die auf das Neuron treffen; wi die Wirksamkeit der Synapse i ist; xi ein Maß der Frequenz des Aktionspotentials an der Synapse i ist; und θ der neuronale Schwellwert ist. Das Dokument behauptet weiterhin, daß der Hebb'sche Lernmechanismus wie folgt spezifiziert werden kann: Δwi(t) = cxi(t)y(t), wobei c eine Lernratenkonstante ist und die anderen Symbole wie oben definiert sind.
- Jacobs offenbart in "Increased Rates of Convergence Through Learning Rate Adaptation", Neural Networks 1 (1988), New York, das Ändern der momentanen (t+1) Wichtungsdaten durch Multiplizieren des Wichtungslernwerts, der gleich der Differenz zwischen den Referenzdaten d(t) ("erwünschte Antwort") und den Ausgabedaten y(t) multipliziert mit den Eingabedaten x(t) ist, mit einem wichtungssabhängigen Koeffizienten E(t+1) : E(t+1) wird durch δE in bezug auf E(t) in Abhängigkeit von Ableitungen des Fehlers J geändert. Der Fehler seinerseits hängt von dem derzeitigen Gewicht ab: J(t) = 1/2 kw² (t).
- Es ist Aufgabe der vorliegenden Erfindung, ein Assoziativmusterumwandlungssystem sowie ein Adaptionsverfahren für ein Assoziativmusterumwandlungssystem mit einem verbesserten Lernverhalten zu schaffen.
- Diese Aufgabe wird durch den Gegenstand des Anspruchs 1 und 5 gelöst. Im folgenden werden bevorzugte Ausführungsformen der vorliegenden Erfindung im Detail im Zusammenhang mit den beigefügten Zeichnungen beschrieben, welche zeigen:
- Fig. 1 eine bevorzugte Ausführungsform der vorliegenden Erfindung;
- Fig. 2 eine Musterumwandlungsschaltung für die Ausführungsform von Fig. 1;
- Fig. 3A-D Diagramme der Ausgabesignale;
- Fig. 4A-D Diagramme der Wichtungsvariablen;
- Fig. 5 einen Weitenmodifikationsabschnitt umfassend eine Tabelle;
- Fig. 6 ein Beispiel zusammengesetzter Daten;
- Fig. 7 ein Modell eines N-schichtigen neuronalen Netzwerks;
- Fig. 8A-D ein Diagramm, das die Charakteristika von Wichtungsfunktionen zeigt;
- Fig. 9 ein Diagramm eines neuronalen Netzwerks, das das erste Lernverfahren zeigt;
- Fig. 10 ein Diagramm eines Neurons, daß das erste Lernverfahren zeigt;
- Fig. 11 ein Diagramm eines Neurons, daß das zweite Lernverfahren zeigt;
- Fig. 12 ein Diagramm eines neuronalen Netzwerks, daß das dritte Lernverfahren zeigt; und
- Fig. 13 ein Diagramm eines Neurons, daß das dritte Lernverfahren zeigt.
- Eine bevorzugte Ausführungsform der Erfindung ist in den Figuren 1 bis 13 gezeigt.
- Das Assoziativmusterumwandlungssystem umfaßt eine Musterumwandlungsschaltung 41, die mit einer MPU 43 durch einen Systembus 42 verbunden ist. Die Musterumwandlungsschaltung 41 ist mit einem Speicher 45 durch einen lokalen Bus 44 verbunden (Fig. 1).
- Die Musterumwandlungsschaltung 41 ist im Detail in Fig. 2 gezeigt, in welcher die Verbindung zwischen der Schaltung 41 und dem Speicher 45 zum einfacheren Verständnis vereinfacht ist.
- Die Musterumwandlungsschaltung 41 ist mit einem Assoziativabschnitt 46 und einem Lernabschnitt 47 versehen, wobei gemeinsame Schaltungen dieser von beiden Abschnitten gemeinsam genutzt werden, so daß der gesamte Aufbau effizient und klein ist.
- Der Assoziativabschnitt 46 umfaßt einen Multiplikationsabschnitt 48, in den Daten von dem Speicher 45 eingegeben werden. Die Ausgabe des Multiplikationsabschnitts 48 wird in einen Addiererabschnitt 49 eingegeben, dessen Ausgabe einmal in einem Register 50 gehalten wird und dann in einen Eingang des Addiererabschnitts 49 zurückgeführt wird. Eingabemusterdaten DI und Daten als Parameter für die Assoziation werden in den Multiplikationsabschnitt 48, der die Daten mit anderen multipliziert, eingegeben. Die Parameter zur Assoziation sind z.B. ein Gewicht W einer Synapse.
- Der Addiererabschnitt 49 gibt den Wert DIxW an das Register 50 aus. Die Daten im Register 50 werden durch den Addiererabschnitt 49 zu dem nächsten Multiplikationsergebnis addiert, das Ergebnis der Addition wird in dem Register 50 gespeichert. Zum Schluß wird das folgende Rechnungsergebnis in dem Register 50 gespeichert
- Zur Beendigung der Berechnung für die Assoziation hin werden die in dem Register 50 gespeicherten Daten dem Schwellwertabschnitt 51 zugeführt. Der Schwellwertabschnitt 51 vergleicht das Berechnungsergebnis von
- mit einem Schwellwert θ, um so eine Ausgabe DO zu bestimmen.
- Die Ausgabe DO wird z.B. wie folgt berechnet: wobei Φ( ) eine Regularisierungsfunktion bezeichnet, die eine Darstellung haben kann, wie sie in den Figuren 3(a) oder (b) gezeigt ist. wobei S( ) eine Sigmoid-Funktion bezeichnet, die eine Darstellung haben kann, wie sie in den Figuren 3(c) oder (d) gezeigt ist.
- Um dem Schwellwertabschnitt 51 die obige Performance zu geben, ist der Schwellwertabschnitt 51 mit einer elektronischen Logik zur Berechnung oder mit einer Tabelle etc. versehen. Die Tabelle ist angesichts der Flexibilität des Schwellwertabschnitts vorteilhafter als die Logik. Die Performance des Schwellwertabschnitts 51 entspricht der Ausgabeperformance eines Neurons. Was den Multiplikationsabschnitt 48, den Addiererabschnitt 49, das Register 50 und den Schwellwertabschnitt 51 umfaßt, kann Ausgabedaten erzeugender Abschnitt genannt werden.
- Der Lernabschnitt 47 hat einen Wichtungsvariablen- Bestimmungsabschnitt 52, in den die Daten DI, DO und Referenzdaten DT eingegeben werden. Die Daten DT sind eine objektive Ausgabe, die von dem Assoziativabschnitt ausgegeben wird.
- Der Wichtungsvariablen-Bestimmungsabschnitt 52 führt eine Berechnung wie folgt durch:
- (b- i) Berechnung gemäß DI, DO und DT
- δ = DT - DO
- ΔWR = δ x DI
- δ: Abweichung von DO von DT;
- ΔWR: Referenzwert der Wichtungsvariable.
- Diese Berechnung ist für die Bewertung der Ausgabe DO effektiv, so daß eine positives Lernen (positive education) durchgeführt wird, wenn DO hinreichend richtig ist, oder eine negatives Lernen (negative education) durchgeführt wird, wenn DO nicht richtig ist.
- (b- ii) Berechnung gemäß DI und DT
- ΔWR = DT x DI
- Diese Berechnung ist effektiv für das Lernen der objektiven Ausgabe als Antwort auf die Eingabe.
- (b-iii) Berechnung gemäß DI und DO
- ΔWR = DO x DI
- Diese Berechnung ist effektiv zur Bewertung der Ausgabe im Makroblickpunkt, so daß eine positives Lernen durchgeführt wird, wenn DO im Makroblickpunkt korrekt ist oder eine negatives Lernen durchgeführt wird, wenn DO im Makroblickpunkt nicht korrekt ist.
- Die Ausgabe ΔWR von dem Wichtungsvariablen- Bestimmungsabschnitt 52 wird in einen Wichtungsänderungsabschnitt 53 eingegeben, in den ebenfalls das Gewicht W eingegeben wird.
- Der Wichtungsänderungsabschnitt 53 multipliziert ΔWR mit einer Effizienz C(W), addiert dann das Multiplikationsergebnis zu dem Gewicht W durch den Addiererabschnitt 49.
- W(T+1) = W(T) + C(W) x ΔWR
- In dieser Formel bedeutet W(T) das derzeitige Gewicht und W(T+1) bedeutet das geänderte Gewicht. Die Effizienz C(W) ist als eine Funktion des Gewichts W definiert. Die Funktion kann Charakteristika einer monoton abfallenden Funktion, wie in den Figuren 4(a) bis (d) gezeigt, haben. Durch Definieren der Funktion C(W) als monoton abfallende Funktion wird das anfängliche Lernen (initial education) stark progressiv und die Konvergenzgeschwindigkeit wird auch noch hoch.
- Der Addiererabschnitt 49 wird sowohl von dem Assoziativabschnitt 46 als auch dem Lernabschnitt 47 gemeinsam verwendet. Eine Auswahleinrichtung 54 ist mit dem Eingang des Addiererabschnitts 49 zum Auswählen der Ausgabe des Registers 50 oder des Wichtungssänderungsabschnitts 53 verbunden. Eine Auswahleinrichtung 55 ist mit dem anderen Eingang des Addiererabschnitts 49 verbunden, um die Ausgabe des Multiplikationsabschnitts 48 oder das Gewicht W auszuwählen. Die Ausgabe des Addiererabschnitts 49 ist mit einer Eingangsleitung zum Schwellwertabschnitt 51 sowie mit einer Leitung zu dem Speicher 45 zur Eingabe/Ausgabe von W verbunden. Die Leitung zu dem Speicher wird durch einen Bus-Puffer 58 gesteuert. Ausgabedaten DO werden durch den Schwellwertabschnitt 51 dem Speicher 45 zugeführt oder durch den Speicher 45 dem Wichtungsänderungsabschnitt 52 zugeführt. Für das Schalten dieser Leitung ist der Ausgang des Schwellwertabschnitts 51 durch einen Bus-Puffer 57 mit dem Eingang/Ausgangsanschluß von DO verbunden.
- Der Assoziativabschnitt 46 und der Lernabschnitt 47 können bemerkenswerterweise in ihrer Prozeßgeschwindigkeit dadurch verbessert werden, daß die Schaltung durch eine Hochgeschwindigkeits-LSI aufgebaut ist. In diesem Fall ist, da die Lese- und Schreibgeschwindigkeit des Speichers wesentlich niedriger als die Prozeßgeschwindigkeit des Assoziativabschnitts 46 und des Lernabschnitts 47 ist, ein Puffer 58 mit der Eingabe/Ausgabeleitung für W, DO, DT und DI verbunden. Beim Schreiben werden die Ausgabe von dem Assoziativabschnitt 46 oder dem Lernabschnitt 47 in dem Puffer mit hoher Geschwindigkeit gespeichert, dann werden die gespeicherten Daten in den Speicher 45 mit einer Geschwindigkeit, die für den Speicher 45 geeignet ist, geschrieben. Beim Lesen werden Daten zuerst von dem Speicher in den Puffer 58 übertragen; dann werden die Daten in den Abschnitt 46 oder 47 mit hoher Geschwindigkeit eingegeben. Eine Pipeline-Architektur kann für die Abschnitte 46 und 49 zur weiteren Verbesserung ihrer Prozeßgeschwindigkeit verwendet werden.
- Der Speicher 45 kann eine Mehrzahl von Speichern für jeden Datensatz oder einen Einzelspeicher haben, in dem jeder Datensatz einander verschiedenen Bereichen zugeteilt wird. Die MPU 43 kann direkt mit dem Datenbus des Speichers 45 verbunden sein. Es ist auch möglich, eine Grafikcontroller- Schaltung zum Steuern eines großen Speicherbereiches anzuwenden, wenn die Daten eine Menge an Speicherbereich besetzen.
- Der Wichtungsänderungsabschnitt 53 kann eine Berechnungsschaltung zum Berechnen von W' aus W und ΔWR sein. Es ist auch möglich, den Abschnitt 53 durch eine Tabelle 61, wie sie in Fig. 5 gezeigt ist, aufzubauen. Zusammengesetzte Daten (Fig. 6), die aus W und ΔWR bestehen, werden in die Tabelle 61 als Adreßbestimmungssignal eingegeben, um so das Berechnungsergebnis, das in der Tabelle 61 gespeichert ist, auszugeben. Die zusammengesetzten Daten können ein Bit-String sein, der W und ΔWR umfaßt. Wenn ein negatives Lernen durchgeführt wird, wird ΔWR von W substrahiert, in anderen Worten wird das Vorzeichen von ΔWR gemäß der Art und Weise des Lernens geändert. In diesem Fall wird ein Bit eines Lernsignals S zu dem Bit-String, wie in den Figuren 2 und 3 gezeigt, addiert. Das Bit S ändert die Adresse, die zu bezeichnen ist, wenn S geändert wird, so daß das Berechnungsergebnis des Wichtungsänderungsabschnitts geändert wird. Wenn der Wichtungsänderungsabschnitt eine Berechnungsschaltung ist, wird das Lernsignal S als ein Steuersignal für die Schaltung verwendet. Es ist auch möglich, das Lernsignal in den Bestimmungsabschnitt für die Wichtungsvariable 12 einzugeben, um so das Vorzeichen von ΔWR zu steuern.
- Im folgenden wird das Lernverfahren für das obige System im Detail erklärt.
- Das obige Musterumwandlungssystem kann so, wie in Fig. 7 gezeigt, modelliert werden. Das System hat N Schichten, von denen jede n Eingaben und n Ausgaben hat. Jede Schicht kann n Neuronen haben, jede Eingabe der Schicht wird in jedes Neuron in der Schicht eingegeben. Das Lernverfahren wird in Zusammehang mit den Berechnungen von (b-i) bis (b-iii) erklärt.
- Im folgenden werden zum einfachen Verständnis die Eingabedaten DI als Binärdaten von DI1 bis DIn angesehen, und DO werden als Binärdaten angesehen. Deshalb sind DT ebenfalls Binärdaten.
- Wenn DO=0, nichtsdestoweniger DT=1, zündet das Neuron, das zu zünden ist, nicht. Dann sollte eine Synapse, in die ein DIi von "1" eingegeben wird, in ihrem Gewicht erhöht werden, so daß das Neuron durch die Eingabe, die zu dieser Zeit eingegeben wird, leichter zünden kann. Während, wenn DO=1, nichtsdestotrotz DT=0, das Neuron, das nicht zu zünden ist, zündet. Dann sollte eine Synapse, in die ein DIi von "1" eingegeben wird, in ihrem Gewicht erniedrigt werden, so daß das Neuron durch die Eingabe, die zu der Zeit eingegeben wird, nicht zünden kann.
- Die obige Regel wird mathematisch unter Bezugnahme auf die k- te Synapse des j-ten Neurons in der i-ten Schicht wie folgt dargestellt:
- Wijk(T+1) = Wijk(T) + Cijk x V(DIijk) x M(DTij-DOij),
- Wijk(T): derzeitiges Gewicht zu dieser Zeit;
- Wijk(T+1): Wichtungsänderung durch Bewertung der derzeitigen Ausgabe;
- WIijk: derzeitige Eingabe in die Synapse;
- DOij: derzeitige Ausgabe von dem Neuron;
- DTij: objektive Ausgabe des Neurons;
- Cijk: Effizienz der Wichtungsvariable;
- V( ) : Bewertungsfunktion für die Eingabe;
- M( ): Bewertungsfunktion für die Ausgabe.
- Die Bewertungsfunktion kann eine Regularisierungsfunktion, eine Binarisierungsfunktion, eine lineare Funktion etc. sein.
- Die Regularisierungsfunktion kann untenstehende Charakteristika haben:
- Φ(x) = 1 : x > 0
- = 0 : x = 0
- = -1 : x < 0
- Die Binarisierungsfunktion kann untenstehende Charakteristika haben:
- B(x) = 1 : x > -θ
- = 0 : x < θ
- θ : Schwellwert
- Die lineare Funktion kann mathematisch wie folgt dargestellt werden:
- V(x) = x
- Die Bewertungsfunktion bewertet die Eingabe, ob sie signifikant ist oder nicht.
- Die Bewertungsfunktion für die Ausgabe umfaßt eine Bewertungsfunktion für die Differenz zwischen DTij und DOij. Die Bewertung der Entfernung ist eine Bewertung der Humming- Entfernung, der Entfernung nach Pythagoras, der Wurzel aus der Differenz oder eine andere. Die Art und Weise der Bewertung wird beispielsweise durch eine Regularisierungsfunktion oder eine Binarisierungsfunktion durchgeführt. Das Berechnungsergebnis von V( ) und M( ) sind ordinal duch Multiplikation verbunden. Diese Multiplikation wird mit der Effizienz Cij multipliziert.
- In dem herkömmlichen Lernverfahren ist Cij gewöhnlicherweise als konstant angenommen. Gemäß der vorliegenden Erfindung ist Cij eine Funktion des Gewichts W. Dann wird Cij wie folgt dargestellt:
- Cij (W)
- Die Konvergenz des Musterumwandlungssystem betrachtend ist es vorzuziehen, daß die Wichtungsvariable beim anfänglichen Lernen groß ist und beim letzten Lernen kleiner wird. Diese Charakteristika können durch verschiedene Parameter definiert werden. Die Anzahl der Zeitpunkte des Lernens oder der Zeitdauer des Lernens oder das Berechnungsergebnis von M( ) können solche Parameter sein. Allerdings ist vom Standpunkt des Lernfortschritts aus das Gewicht W am vorteilhaftesten für diesen Parameter. Das Gewicht W hat praktischerweise ein Maximum und ein Minimum und der Bereich des Gewichts sollte innerhalb des Minimumbereichs beschränkt werden, um die Schaltung so einfach wie möglich zu machen. Während des Lernens ändert sich das signifikante Gewicht in Richtung des Maximums, wenn der anfängliche Wert ein Minimum ist, oder ändert sich in Richtung des Minimums, wenn der anfängliche Wert ein Maximum ist. So reflektiert das Gewicht den Lernprozeß. In bezug auf den Lernprozeß einer Synapse reflektiert das Gewicht direkter und genauer den Fortschritt als andere Parameter, da sich das Gewicht monoton mit dem Lernfortschritt ändert und das Gewicht gesättigt ist, wenn es das Maximum oder das Minimum erreicht. Da andere Parameter eine indirekte Verbindung mit der Änderung des Gewichts haben, ist es schwierig, den Fortschritt der Sättigung des Lernens durch andere Parameter zu definieren.
- Cijk(Wijk) hat eine Charakteristik einer steilen Änderung beim anfänglichen Lernen und kaum Änderungen beim letzten Lernen. Es wird im wesentlichen wie folgt dargestellt:
- dCijk (Wijk) /dWijk< =0
- Deshalb ist Cijk(Wijk) eine monoton abfallende Funktion. Die Figuren 8(a) bis (d) sind Beispiele der Charakteristika von Cijk(Wijk).
- Das Lernverfahren wird, wie in Fig. 9 und 10 gezeigt, modelliert.
- Das Lernverfahren, das die Berechnung (b-iii) betrifft, wird mathematisch unter Verwendung derselben Parameter wie der in (b-i)' wie folgt dargestellt:
- Wijk(T+1) = Wijk(T) + Cijk(Wijk) x V(DIijk)
- Dieses Lernverfahren wird, wie in Fig. 9 und 11 gezeigt, modelliert.
- Das Lernverfahren, das die Berechnung (b-ii) betrifft, wird mathematisch unter Verwendung derselben Parameter wie in der von (b-i)' wie folgt dargestellt:
- Wijk(T+1) = Wijk(T) + S x Cijk(Wijk) x V(DIijk)
- Das Lernsignal wird gemäß der Ausgabe der letzten Schicht bezeichnet. Im einfachsten Modell ist S=1, wenn die Ausgabe als positiv bewertet wird, und S=0, wenn sie negativ ist. Oder S=0, wenn das Bewertungsergebnis neutral ist, S=-1, wenn die Bewertung negativ ist.
Claims (5)
1. Assoziativmusterumwandlungssystem mit:
einem Speicher (45) zum Speichern von zumindest Eingangsdaten,
Referenzdaten, Gewichtungsdaten und Ausgangsdaten;
einer Ausgangsdatenerzeugungseinrichtung (48-51) zum
Multiplizieren der Eingangsdaten mit den entsprechenden
Gewichtungsdaten, zum Summieren der entsprechenden Ergebnisse, um einen
entsprechenden Summationswert zu erhalten und zum Erzeugen von
Ausgangsdaten, basierend auf der Differenz zwischen dem
Summationswert und einem vorgegebenen Schwellwert;
einer Einrichtung (52) zum Berechnen eines
Gewichtungslernwertes (δW) durch Bestimmen der Differenz zwischen entsprechenden
Referenzdaten und Ausgangsdaten und durch Multiplizieren des
Ergebnisses mit den entsprechenden Eingangsdaten;
einer Gewichtungsveränderungseinrichtung (53) zum Verändern der
momentanen Gewichtungsdaten durch Multiplizieren des
Gewichtungslernwertes, wie er von der Berechnungseinheit (52) zur
Verfügung gestellt wird, mit einem gewichtungsabhängigen
Effizienzkoeffizienten und durch Addieren des Ergebnisses zu den
momentanen Gewichtungsdaten, dadurch gekennnzeichnet, daß der
gewichtungsabhängige Effizienzkoeffizient von einer
gewichtungsabhängigen Funktion erhalten wird, die für zunehmende
Gewichte monoton fällt.
2. System nach Anspruch 1, wobei die Effizienzfunktion von
einer Tabelle erhalten wird.
3. System nach Anspruch 2, wobei die Tabelle erneut beschrieben
werden kann.
4. System nach einem der Ansprüche 1 bis 3, wobei die Differenz
zwischen dem Summationswert und dem Schwellwert anhand der
Tabelle berechnet wird.
5. Adaptionsverfahren für ein Assoziativmusterumwandlungssystem
mit folgenden Schritten:
Multiplizieren jeder Eingangsdaten mit Gewichtungsdaten;
Summieren der Multiplikationsergebnisse;
Vergleichen des Summationsergebnisses mit einem Schwellwert;
Erzeugen von Ausgangsdaten gemäß dem Vergleichsergebnis;
Berechnen eines Gewichtungslernwertes durch Bestimmen der
Differenz zwischen entsprechenden Referenzdaten und Ausgangsdaten
und durch Multiplizieren des Ergebnisses mit entsprechenden
Eingangsdaten;
Verändern der momentanen Gewichtungssdaten durch Multiplizieren
des Gewichtungslernwertes mit einem gewichtungsabhängigen
Effizienzkoeffizienten und durch Addieren des Ergebnisses mit den
momentanen Gewichtungsdaten, dadurch gekennzeichnet daß der
gewichtungsabhängige Effizienzkoeffizient von einer
gewichtungsabhängigen Funktion erhalten wird, die für zunehmende Gewichte
monoton fällt.
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63003584A JP2744983B2 (ja) | 1988-01-11 | 1988-01-11 | パターン判定装置 |
JP3484488A JPH01209582A (ja) | 1988-02-17 | 1988-02-17 | 画像認識システム |
JP12547788A JPH01295381A (ja) | 1988-05-23 | 1988-05-23 | パターン変換回路 |
JP63164235A JPH0214593A (ja) | 1988-07-01 | 1988-07-01 | パターン変換回路 |
JP63278946A JPH02125376A (ja) | 1988-11-04 | 1988-11-04 | パターン判定装置 |
JP88297541A JPH02143384A (ja) | 1988-11-25 | 1988-11-25 | パターン判定系の修正方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE68927014D1 DE68927014D1 (de) | 1996-10-02 |
DE68927014T2 true DE68927014T2 (de) | 1997-01-23 |
Family
ID=27547777
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE198989100421T Pending DE327817T1 (de) | 1988-01-11 | 1989-01-11 | Assoziatives musterkonversionssystem und anpassungsverfahren dafuer. |
DE68927014T Expired - Fee Related DE68927014T2 (de) | 1988-01-11 | 1989-01-11 | Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE198989100421T Pending DE327817T1 (de) | 1988-01-11 | 1989-01-11 | Assoziatives musterkonversionssystem und anpassungsverfahren dafuer. |
Country Status (4)
Country | Link |
---|---|
US (3) | US5040230A (de) |
EP (1) | EP0327817B1 (de) |
DE (2) | DE327817T1 (de) |
GR (1) | GR890300174T1 (de) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0327817B1 (de) * | 1988-01-11 | 1996-08-28 | Yozan Inc. | Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür |
DE69023034T2 (de) * | 1989-04-05 | 1996-03-21 | Sharp Kk | Datenverarbeitungssystem. |
US5553196A (en) * | 1989-04-05 | 1996-09-03 | Yozan, Inc. | Method for processing data using a neural network having a number of layers equal to an abstraction degree of the pattern to be processed |
US5822742A (en) * | 1989-05-17 | 1998-10-13 | The United States Of America As Represented By The Secretary Of Health & Human Services | Dynamically stable associative learning neural network system |
KR0166970B1 (ko) * | 1989-06-02 | 1999-01-15 | 쓰지 하레오 | 데이터처리장치 및 그 적정화 방법 |
GB8915085D0 (en) * | 1989-06-30 | 1989-09-20 | British Telecomm | Pattern recognition |
JP2810170B2 (ja) * | 1989-12-15 | 1998-10-15 | 株式会社日立製作所 | 多層型ネットワークの学習装置 |
GB8929146D0 (en) * | 1989-12-22 | 1990-02-28 | British Telecomm | Neural networks |
JPH04116779A (ja) * | 1990-09-07 | 1992-04-17 | Takayama:Kk | データ処理装置 |
JPH04223567A (ja) * | 1990-12-26 | 1992-08-13 | Mitsubishi Electric Corp | 情報検索装置 |
JPH0695192A (ja) * | 1991-05-01 | 1994-04-08 | Matsushita Electric Ind Co Ltd | 画像認識装置及び画像入力方法 |
JP2520331B2 (ja) * | 1991-03-25 | 1996-07-31 | 株式会社エイ・ティ・アール自動翻訳電話研究所 | ニュ―ラルネットワ―クの学習方法 |
US5105468A (en) * | 1991-04-03 | 1992-04-14 | At&T Bell Laboratories | Time delay neural network for printed and cursive handwritten character recognition |
CA2040903C (en) * | 1991-04-22 | 2003-10-07 | John G. Sutherland | Neural networks |
JPH04345396A (ja) * | 1991-05-23 | 1992-12-01 | Takayama:Kk | 移動物体追跡方法 |
US5500905A (en) * | 1991-06-12 | 1996-03-19 | Microelectronics And Computer Technology Corporation | Pattern recognition neural network with saccade-like operation |
EP0533099A3 (en) * | 1991-09-17 | 1993-04-28 | Matsushita Electric Industrial Co., Ltd. | Recognition unit and recognition apparatus |
EP0566015A3 (en) * | 1992-04-14 | 1994-07-06 | Eastman Kodak Co | Neural network optical character recognition system and method for classifying characters in amoving web |
US5329610A (en) * | 1992-05-19 | 1994-07-12 | Intel Corporation | Neural network employing absolute value calculating synapse |
US5487133A (en) * | 1993-07-01 | 1996-01-23 | Intel Corporation | Distance calculating neural network classifier chip and system |
US5621862A (en) * | 1993-07-29 | 1997-04-15 | Matsushita Electric Industrial Co., Ltd. | Information processing apparatus for implementing neural network |
US5548683A (en) * | 1994-05-05 | 1996-08-20 | Grumman Aerospace Corporation | Data fusion neural network |
US6480621B1 (en) * | 1995-08-08 | 2002-11-12 | Apple Computer, Inc. | Statistical classifier with reduced weight memory requirements |
US6505182B1 (en) * | 1998-10-09 | 2003-01-07 | Van Den Heuvel Raymond C. | Recognition engine with time referenced neurons |
AR027842A1 (es) | 1999-08-23 | 2003-04-16 | Kimberly Clark Co | Un articulo absorbente el cual mantiene o mejora la salud de la piel |
US10744019B2 (en) | 2016-08-11 | 2020-08-18 | Ossur Iceland Ehf | Orthopedic device for treating drop foot and method for using the same |
EP4372620A3 (de) * | 2017-04-06 | 2024-07-17 | Shanghai Cambricon Information Technology Co., Ltd | Prozessor für neuronales netzwerk und berechnungsverfahren für neuronales netzwerk |
US11694072B2 (en) | 2017-05-19 | 2023-07-04 | Nvidia Corporation | Machine learning technique for automatic modeling of multiple-valued outputs |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3218475A (en) * | 1962-10-02 | 1965-11-16 | Frederick F Hiltz | Artificial neuron |
US3209328A (en) * | 1963-02-28 | 1965-09-28 | Ibm | Adaptive recognition system for recognizing similar patterns |
US3310783A (en) * | 1963-09-06 | 1967-03-21 | Rca Corp | Neuron information processing apparatus |
US3310784A (en) * | 1963-09-06 | 1967-03-21 | Rca Corp | Information processing apparatus |
US3325787A (en) * | 1964-10-19 | 1967-06-13 | Fairchild Camera Instr Co | Trainable system |
US3408627A (en) * | 1964-12-28 | 1968-10-29 | Texas Instruments Inc | Training adjusted decision system using spatial storage with energy beam scanned read-out |
US3435422A (en) * | 1966-06-27 | 1969-03-25 | Bell Aerospace Corp | Self-organizing system |
US3602888A (en) * | 1967-12-14 | 1971-08-31 | Matsushita Electric Ind Co Ltd | Learning device |
US3601811A (en) * | 1967-12-18 | 1971-08-24 | Matsushita Electric Ind Co Ltd | Learning machine |
FR2051725B1 (de) * | 1969-07-14 | 1973-04-27 | Matsushita Electric Ind Co Ltd | |
US3950733A (en) * | 1974-06-06 | 1976-04-13 | Nestor Associates | Information processing system |
US4095122A (en) * | 1977-08-04 | 1978-06-13 | Bell Telephone Laboratories, Incorporated | Tunable infrared and far-infrared source by four-photon mixing |
US4326259A (en) * | 1980-03-27 | 1982-04-20 | Nestor Associates | Self organizing general pattern class separator and identifier |
US4660166A (en) * | 1985-01-22 | 1987-04-21 | Bell Telephone Laboratories, Incorporated | Electronic network for collective decision based on large number of connections between signals |
US4760604A (en) * | 1985-02-15 | 1988-07-26 | Nestor, Inc. | Parallel, multi-unit, adaptive, nonlinear pattern class separator and identifier |
NL8502802A (nl) * | 1985-10-14 | 1987-05-04 | Philips Nv | Inrichting voor het uitlezen en/of inschrijven van een optische spoorvormige informatiestruktuur. |
US4803736A (en) * | 1985-11-27 | 1989-02-07 | The Trustees Of Boston University | Neural networks for machine vision |
JP2745125B2 (ja) * | 1986-09-11 | 1998-04-28 | 富士写真フイルム株式会社 | 電荷蓄積デバイス |
US4805225A (en) * | 1986-11-06 | 1989-02-14 | The Research Foundation Of The State University Of New York | Pattern recognition method and apparatus |
US4809193A (en) * | 1987-03-16 | 1989-02-28 | Jourjine Alexander N | Microprocessor assemblies forming adaptive neural networks |
US4783830A (en) * | 1987-03-24 | 1988-11-08 | American Electronics, Inc. | Pattern recognizing content addressable memory system |
US4887306A (en) * | 1987-11-04 | 1989-12-12 | Advanced Technology Laboratories, Inc. | Adaptive temporal filter for ultrasound imaging system |
EP0327817B1 (de) * | 1988-01-11 | 1996-08-28 | Yozan Inc. | Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür |
-
1989
- 1989-01-11 EP EP89100421A patent/EP0327817B1/de not_active Expired - Lifetime
- 1989-01-11 DE DE198989100421T patent/DE327817T1/de active Pending
- 1989-01-11 DE DE68927014T patent/DE68927014T2/de not_active Expired - Fee Related
- 1989-01-11 US US07/295,763 patent/US5040230A/en not_active Expired - Fee Related
-
1990
- 1990-05-11 GR GR89300174T patent/GR890300174T1/el unknown
-
1993
- 1993-03-18 US US08/033,465 patent/US5416850A/en not_active Expired - Fee Related
-
1994
- 1994-09-16 US US08/307,072 patent/US5506915A/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
GR890300174T1 (en) | 1990-05-11 |
US5416850A (en) | 1995-05-16 |
US5506915A (en) | 1996-04-09 |
DE327817T1 (de) | 1990-04-12 |
EP0327817B1 (de) | 1996-08-28 |
EP0327817A2 (de) | 1989-08-16 |
EP0327817A3 (de) | 1993-04-07 |
US5040230A (en) | 1991-08-13 |
DE68927014D1 (de) | 1996-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE68927014T2 (de) | Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür | |
DE69130840T2 (de) | Neuronales Netzwerk zum Verarbeiten einer Vielzahl von Informationen und Lernverfahren | |
DE68929102T2 (de) | Lernverarbeitungssystem | |
EP2112568B1 (de) | Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems | |
DE68928612T2 (de) | Verfahren zur bestimmung der inferenzregel sowie inferenzmotor | |
DE19581638C2 (de) | Rechenvorrichtung mit einem Mikroprozessor, einem neuralen Netz-Koprozessor und einer DMA-Steuervorrichtung | |
EP2106576A1 (de) | Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems | |
DE68922624T2 (de) | Verteiltes parallelverarbeitungsnetzwerk, worin die verbindungsgewichte mit hilfe von starren differentialgleichungen erzeugt werden. | |
DE69130656T2 (de) | Neuronale Netzwerke | |
DE19531967C2 (de) | Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems | |
WO2013170843A1 (de) | Verfahren zum trainieren eines künstlichen neuronalen netzes | |
DE10296704T5 (de) | Fuzzy-Inferenznetzwerk zur Klassifizierung von hochdimensionalen Daten | |
DE69719058T2 (de) | Verbessertes neuronales netzwerk | |
DE69314293T2 (de) | Neuronalanlage und -Bauverfahren | |
DE69127495T2 (de) | Erkennungseinheit und Gerät zur Erkennung und Beurteilung in dem die Einheit verwendet ist | |
DE60125536T2 (de) | Anordnung zur generierung von elementensequenzen | |
DE10201018B4 (de) | Neuronales Netz, Opimierungsverfahren zur Einstellung der Verbindungsgewichte eines neuronalen Netzes sowie Analyseverfahren zur Überwachung eines Optimierungsverfahrens | |
DE4409169C2 (de) | Verfahren und Anordnung zur Fuzzy-Regelung | |
DE69315250T2 (de) | Neuronaler Prozessor mit Datennormalisierungsanlage | |
DE10139682B4 (de) | Verfahren zum Generieren von neuronalen Netzen | |
DE4121453C2 (de) | Näherungsschlußfolgerungsvorrichtung | |
DE4240789C2 (de) | Verfahren zur Identifizierung von Objekten | |
DE4417932B4 (de) | Verfahren und ein System zum Erhalten von Zieleinstellbeträgen für Ausführungsparameter durch Lernen einer Mehrzahl von Sätzen von Muster-Eingabedaten und Muster-Ausgabedaten | |
DE69230422T2 (de) | Neuronales Netzwerk und Lernverfahren | |
DE19703964C1 (de) | Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |