DE68927014T2 - Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür - Google Patents

Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür

Info

Publication number
DE68927014T2
DE68927014T2 DE68927014T DE68927014T DE68927014T2 DE 68927014 T2 DE68927014 T2 DE 68927014T2 DE 68927014 T DE68927014 T DE 68927014T DE 68927014 T DE68927014 T DE 68927014T DE 68927014 T2 DE68927014 T2 DE 68927014T2
Authority
DE
Germany
Prior art keywords
data
weight
learning
input
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE68927014T
Other languages
English (en)
Other versions
DE68927014D1 (de
Inventor
Ryohei C O Ezel Kumagai
Sunao C O Ezel Takatori
Makoto C O Ezel Yamamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yozan Inc
Sharp Corp
Original Assignee
Yozan Inc
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP63003584A external-priority patent/JP2744983B2/ja
Priority claimed from JP3484488A external-priority patent/JPH01209582A/ja
Priority claimed from JP12547788A external-priority patent/JPH01295381A/ja
Priority claimed from JP63164235A external-priority patent/JPH0214593A/ja
Priority claimed from JP63278946A external-priority patent/JPH02125376A/ja
Priority claimed from JP88297541A external-priority patent/JPH02143384A/ja
Application filed by Yozan Inc, Sharp Corp filed Critical Yozan Inc
Publication of DE68927014D1 publication Critical patent/DE68927014D1/de
Application granted granted Critical
Publication of DE68927014T2 publication Critical patent/DE68927014T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Neurology (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)
  • Image Processing (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Assoziativmusterumwandlungssystem sowie ein Adaptionsverfahren für ein Assoziativmusterumwandlungssystem.
  • Herkömmlicherweise wurde eine Mustergleichheitsprüfung auf eine Zeichenerkennung oder eine akustische Erkennung angewendet. Auf eine solche Erkennung hin ist es unmöglich gewesen, ein Eingangssignal exakt zu bewerten, es sei denn, es besteht eine hohe Koinzidenz zwischen dem Eingangssignal und dem aufgezeichneten Muster.
  • Andererseits sind verschiedene Modelle neuronaler Netzwerke basierend auf einem Neuronenmodell vorgeschlagen worden. Das in Fig. 1 gezeigte Neuronenmodell wurde von W. S. McCulloch und W. H. Pitts im Masachusetts Institute of Technology in den Vereinigten Staaten von Amerika 1943 bekanntgegeben. Es wurde dann gezeigt, daß Assoziativmustergleichheitsprüfung unter Verwendung des neuronalen Netzwerks von F. Rosenblatt möglich ist.
  • Allerdings ist es unmöglich, ein neuronales Netzwerk in einer integrierten Schaltung zu realisieren: das heißt, es ist unmöglich, die Schaltung mit praktikabler Aussicht unter Verwendung der gesamten vorliegenden Halbleitertechnologie zu realisieren, weil eine enorme Anzahl an Ausgangsstiften erforderlich sind, um das assoziative Muster auszugeben.
  • Wenn beispielsweise ein Zeichen als ein Binärmuster von 32 32 Punkten eingegegeben wird, sind 10&sup6; (= (32²)²) Neuronen erforderlich, um die Eingabe als orthogonale Daten zu verarbeiten und 10&sup6; Ausgangsstifte sind notwendig, um das Zündmuster all dieser Neuronen auszugeben.
  • Es hat Versuche gegeben, Neuronenmodelle durch Software oder Hardware zu realisieren.
  • Bei der Realisierung durch Software wird ein enormer Speicher verbraucht und die Prozeßgeschwindigkeit ist weit entfernt vom praktischen Einsatz.
  • Bei der Realisierung durch Hardware ist das System aufgrund seines Mangels an Flexibilität nicht für leichte Modifikationen des Neuronenmodells einsetzbar. Das Neuronenmodell mußte üblicherweise vereinfacht werden, da es schwierig ist, daß das Neuronenmodell in strikten Sinn elektronisch wieder erscheint.
  • Aus D.E. Rummelhart et al.: "Parallel Distributed Processing", Vol. 1: "Foundations", 1986, Seiten 319-362, MIT Press, Cambridge, USA, ist ein Lernverfahren für neuronale Netzwerke bekannt. Gemäß diesem Verfahren verwendet das Netzwerk zuerst einen Eingabevektor, um seinen eigenen Ausgabevektor zu erzeugen und vergleicht dann diesen mit dem erwünschten Ausgabe- oder Zielvektor. Falls keine Differenz vorhanden ist, findet kein Lernen statt. Anderenfalls werden die Gewichte geändert, um die Differenz zu verringern. Die Regel zur Änderung der Gewichte ist gegeben durch Δpwji = η(tpj - opj)ipi = ηδpjipj wobei tpj die Zieleingabe für die j-te Komponente des Ausgabemusters für das Muster p ist, opj das j-te Element des tatsächlichen Ausgabemusters ist, welches durch die Darstellung des Eingangsmusters p erzeugt wird, ipi der Wert des i-ten Elements des Eingabemusters ist, dpj = tpj - opj, und Δpwij ist die Änderung, die an dem Gewicht von der i-ten zur j-ten Einheit gemacht wird, wobei der Darstellung des Musters p gefolgt wird.
  • Aus den AIP Conference Proceedings 151, "Neural Networks For Computing", 1986, Snowbird, UT, Seiten 265-270, A.H. Klopf "A drive-reinforcement model of single neuron function: an alternative to the Hebbian neuronal model", ist ein neuronaler Lernmechanismus bekannt, der das grundlegende Lernphänomen bei Tieren, das beobachtet worden ist, berücksichtigt. Das Dokument erwähnt weiterhin eine neuronale Eingabe-Ausgabe- Beziehung gemäß der folgenden Formel y(t) = wi(t)xi(t)-θ, wobei y(t) ein Maß der postsynaptischen Frequenz des Feuerns zur einer diskreten Zeit t ist; n die Anzahl von Synapsen ist, die auf das Neuron treffen; wi die Wirksamkeit der Synapse i ist; xi ein Maß der Frequenz des Aktionspotentials an der Synapse i ist; und θ der neuronale Schwellwert ist. Das Dokument behauptet weiterhin, daß der Hebb'sche Lernmechanismus wie folgt spezifiziert werden kann: Δwi(t) = cxi(t)y(t), wobei c eine Lernratenkonstante ist und die anderen Symbole wie oben definiert sind.
  • Jacobs offenbart in "Increased Rates of Convergence Through Learning Rate Adaptation", Neural Networks 1 (1988), New York, das Ändern der momentanen (t+1) Wichtungsdaten durch Multiplizieren des Wichtungslernwerts, der gleich der Differenz zwischen den Referenzdaten d(t) ("erwünschte Antwort") und den Ausgabedaten y(t) multipliziert mit den Eingabedaten x(t) ist, mit einem wichtungssabhängigen Koeffizienten E(t+1) : E(t+1) wird durch δE in bezug auf E(t) in Abhängigkeit von Ableitungen des Fehlers J geändert. Der Fehler seinerseits hängt von dem derzeitigen Gewicht ab: J(t) = 1/2 kw² (t).
  • Es ist Aufgabe der vorliegenden Erfindung, ein Assoziativmusterumwandlungssystem sowie ein Adaptionsverfahren für ein Assoziativmusterumwandlungssystem mit einem verbesserten Lernverhalten zu schaffen.
  • Diese Aufgabe wird durch den Gegenstand des Anspruchs 1 und 5 gelöst. Im folgenden werden bevorzugte Ausführungsformen der vorliegenden Erfindung im Detail im Zusammenhang mit den beigefügten Zeichnungen beschrieben, welche zeigen:
  • Fig. 1 eine bevorzugte Ausführungsform der vorliegenden Erfindung;
  • Fig. 2 eine Musterumwandlungsschaltung für die Ausführungsform von Fig. 1;
  • Fig. 3A-D Diagramme der Ausgabesignale;
  • Fig. 4A-D Diagramme der Wichtungsvariablen;
  • Fig. 5 einen Weitenmodifikationsabschnitt umfassend eine Tabelle;
  • Fig. 6 ein Beispiel zusammengesetzter Daten;
  • Fig. 7 ein Modell eines N-schichtigen neuronalen Netzwerks;
  • Fig. 8A-D ein Diagramm, das die Charakteristika von Wichtungsfunktionen zeigt;
  • Fig. 9 ein Diagramm eines neuronalen Netzwerks, das das erste Lernverfahren zeigt;
  • Fig. 10 ein Diagramm eines Neurons, daß das erste Lernverfahren zeigt;
  • Fig. 11 ein Diagramm eines Neurons, daß das zweite Lernverfahren zeigt;
  • Fig. 12 ein Diagramm eines neuronalen Netzwerks, daß das dritte Lernverfahren zeigt; und
  • Fig. 13 ein Diagramm eines Neurons, daß das dritte Lernverfahren zeigt.
  • Eine bevorzugte Ausführungsform der Erfindung ist in den Figuren 1 bis 13 gezeigt.
  • Das Assoziativmusterumwandlungssystem umfaßt eine Musterumwandlungsschaltung 41, die mit einer MPU 43 durch einen Systembus 42 verbunden ist. Die Musterumwandlungsschaltung 41 ist mit einem Speicher 45 durch einen lokalen Bus 44 verbunden (Fig. 1).
  • Die Musterumwandlungsschaltung 41 ist im Detail in Fig. 2 gezeigt, in welcher die Verbindung zwischen der Schaltung 41 und dem Speicher 45 zum einfacheren Verständnis vereinfacht ist.
  • Die Musterumwandlungsschaltung 41 ist mit einem Assoziativabschnitt 46 und einem Lernabschnitt 47 versehen, wobei gemeinsame Schaltungen dieser von beiden Abschnitten gemeinsam genutzt werden, so daß der gesamte Aufbau effizient und klein ist.
  • Der Assoziativabschnitt 46 umfaßt einen Multiplikationsabschnitt 48, in den Daten von dem Speicher 45 eingegeben werden. Die Ausgabe des Multiplikationsabschnitts 48 wird in einen Addiererabschnitt 49 eingegeben, dessen Ausgabe einmal in einem Register 50 gehalten wird und dann in einen Eingang des Addiererabschnitts 49 zurückgeführt wird. Eingabemusterdaten DI und Daten als Parameter für die Assoziation werden in den Multiplikationsabschnitt 48, der die Daten mit anderen multipliziert, eingegeben. Die Parameter zur Assoziation sind z.B. ein Gewicht W einer Synapse.
  • Der Addiererabschnitt 49 gibt den Wert DIxW an das Register 50 aus. Die Daten im Register 50 werden durch den Addiererabschnitt 49 zu dem nächsten Multiplikationsergebnis addiert, das Ergebnis der Addition wird in dem Register 50 gespeichert. Zum Schluß wird das folgende Rechnungsergebnis in dem Register 50 gespeichert
  • Zur Beendigung der Berechnung für die Assoziation hin werden die in dem Register 50 gespeicherten Daten dem Schwellwertabschnitt 51 zugeführt. Der Schwellwertabschnitt 51 vergleicht das Berechnungsergebnis von
  • mit einem Schwellwert θ, um so eine Ausgabe DO zu bestimmen.
  • Die Ausgabe DO wird z.B. wie folgt berechnet: wobei Φ( ) eine Regularisierungsfunktion bezeichnet, die eine Darstellung haben kann, wie sie in den Figuren 3(a) oder (b) gezeigt ist. wobei S( ) eine Sigmoid-Funktion bezeichnet, die eine Darstellung haben kann, wie sie in den Figuren 3(c) oder (d) gezeigt ist.
  • Um dem Schwellwertabschnitt 51 die obige Performance zu geben, ist der Schwellwertabschnitt 51 mit einer elektronischen Logik zur Berechnung oder mit einer Tabelle etc. versehen. Die Tabelle ist angesichts der Flexibilität des Schwellwertabschnitts vorteilhafter als die Logik. Die Performance des Schwellwertabschnitts 51 entspricht der Ausgabeperformance eines Neurons. Was den Multiplikationsabschnitt 48, den Addiererabschnitt 49, das Register 50 und den Schwellwertabschnitt 51 umfaßt, kann Ausgabedaten erzeugender Abschnitt genannt werden.
  • Der Lernabschnitt 47 hat einen Wichtungsvariablen- Bestimmungsabschnitt 52, in den die Daten DI, DO und Referenzdaten DT eingegeben werden. Die Daten DT sind eine objektive Ausgabe, die von dem Assoziativabschnitt ausgegeben wird.
  • Der Wichtungsvariablen-Bestimmungsabschnitt 52 führt eine Berechnung wie folgt durch:
  • (b- i) Berechnung gemäß DI, DO und DT
  • δ = DT - DO
  • ΔWR = δ x DI
  • δ: Abweichung von DO von DT;
  • ΔWR: Referenzwert der Wichtungsvariable.
  • Diese Berechnung ist für die Bewertung der Ausgabe DO effektiv, so daß eine positives Lernen (positive education) durchgeführt wird, wenn DO hinreichend richtig ist, oder eine negatives Lernen (negative education) durchgeführt wird, wenn DO nicht richtig ist.
  • (b- ii) Berechnung gemäß DI und DT
  • ΔWR = DT x DI
  • Diese Berechnung ist effektiv für das Lernen der objektiven Ausgabe als Antwort auf die Eingabe.
  • (b-iii) Berechnung gemäß DI und DO
  • ΔWR = DO x DI
  • Diese Berechnung ist effektiv zur Bewertung der Ausgabe im Makroblickpunkt, so daß eine positives Lernen durchgeführt wird, wenn DO im Makroblickpunkt korrekt ist oder eine negatives Lernen durchgeführt wird, wenn DO im Makroblickpunkt nicht korrekt ist.
  • Die Ausgabe ΔWR von dem Wichtungsvariablen- Bestimmungsabschnitt 52 wird in einen Wichtungsänderungsabschnitt 53 eingegeben, in den ebenfalls das Gewicht W eingegeben wird.
  • Der Wichtungsänderungsabschnitt 53 multipliziert ΔWR mit einer Effizienz C(W), addiert dann das Multiplikationsergebnis zu dem Gewicht W durch den Addiererabschnitt 49.
  • W(T+1) = W(T) + C(W) x ΔWR
  • In dieser Formel bedeutet W(T) das derzeitige Gewicht und W(T+1) bedeutet das geänderte Gewicht. Die Effizienz C(W) ist als eine Funktion des Gewichts W definiert. Die Funktion kann Charakteristika einer monoton abfallenden Funktion, wie in den Figuren 4(a) bis (d) gezeigt, haben. Durch Definieren der Funktion C(W) als monoton abfallende Funktion wird das anfängliche Lernen (initial education) stark progressiv und die Konvergenzgeschwindigkeit wird auch noch hoch.
  • Der Addiererabschnitt 49 wird sowohl von dem Assoziativabschnitt 46 als auch dem Lernabschnitt 47 gemeinsam verwendet. Eine Auswahleinrichtung 54 ist mit dem Eingang des Addiererabschnitts 49 zum Auswählen der Ausgabe des Registers 50 oder des Wichtungssänderungsabschnitts 53 verbunden. Eine Auswahleinrichtung 55 ist mit dem anderen Eingang des Addiererabschnitts 49 verbunden, um die Ausgabe des Multiplikationsabschnitts 48 oder das Gewicht W auszuwählen. Die Ausgabe des Addiererabschnitts 49 ist mit einer Eingangsleitung zum Schwellwertabschnitt 51 sowie mit einer Leitung zu dem Speicher 45 zur Eingabe/Ausgabe von W verbunden. Die Leitung zu dem Speicher wird durch einen Bus-Puffer 58 gesteuert. Ausgabedaten DO werden durch den Schwellwertabschnitt 51 dem Speicher 45 zugeführt oder durch den Speicher 45 dem Wichtungsänderungsabschnitt 52 zugeführt. Für das Schalten dieser Leitung ist der Ausgang des Schwellwertabschnitts 51 durch einen Bus-Puffer 57 mit dem Eingang/Ausgangsanschluß von DO verbunden.
  • Der Assoziativabschnitt 46 und der Lernabschnitt 47 können bemerkenswerterweise in ihrer Prozeßgeschwindigkeit dadurch verbessert werden, daß die Schaltung durch eine Hochgeschwindigkeits-LSI aufgebaut ist. In diesem Fall ist, da die Lese- und Schreibgeschwindigkeit des Speichers wesentlich niedriger als die Prozeßgeschwindigkeit des Assoziativabschnitts 46 und des Lernabschnitts 47 ist, ein Puffer 58 mit der Eingabe/Ausgabeleitung für W, DO, DT und DI verbunden. Beim Schreiben werden die Ausgabe von dem Assoziativabschnitt 46 oder dem Lernabschnitt 47 in dem Puffer mit hoher Geschwindigkeit gespeichert, dann werden die gespeicherten Daten in den Speicher 45 mit einer Geschwindigkeit, die für den Speicher 45 geeignet ist, geschrieben. Beim Lesen werden Daten zuerst von dem Speicher in den Puffer 58 übertragen; dann werden die Daten in den Abschnitt 46 oder 47 mit hoher Geschwindigkeit eingegeben. Eine Pipeline-Architektur kann für die Abschnitte 46 und 49 zur weiteren Verbesserung ihrer Prozeßgeschwindigkeit verwendet werden.
  • Der Speicher 45 kann eine Mehrzahl von Speichern für jeden Datensatz oder einen Einzelspeicher haben, in dem jeder Datensatz einander verschiedenen Bereichen zugeteilt wird. Die MPU 43 kann direkt mit dem Datenbus des Speichers 45 verbunden sein. Es ist auch möglich, eine Grafikcontroller- Schaltung zum Steuern eines großen Speicherbereiches anzuwenden, wenn die Daten eine Menge an Speicherbereich besetzen.
  • Der Wichtungsänderungsabschnitt 53 kann eine Berechnungsschaltung zum Berechnen von W' aus W und ΔWR sein. Es ist auch möglich, den Abschnitt 53 durch eine Tabelle 61, wie sie in Fig. 5 gezeigt ist, aufzubauen. Zusammengesetzte Daten (Fig. 6), die aus W und ΔWR bestehen, werden in die Tabelle 61 als Adreßbestimmungssignal eingegeben, um so das Berechnungsergebnis, das in der Tabelle 61 gespeichert ist, auszugeben. Die zusammengesetzten Daten können ein Bit-String sein, der W und ΔWR umfaßt. Wenn ein negatives Lernen durchgeführt wird, wird ΔWR von W substrahiert, in anderen Worten wird das Vorzeichen von ΔWR gemäß der Art und Weise des Lernens geändert. In diesem Fall wird ein Bit eines Lernsignals S zu dem Bit-String, wie in den Figuren 2 und 3 gezeigt, addiert. Das Bit S ändert die Adresse, die zu bezeichnen ist, wenn S geändert wird, so daß das Berechnungsergebnis des Wichtungsänderungsabschnitts geändert wird. Wenn der Wichtungsänderungsabschnitt eine Berechnungsschaltung ist, wird das Lernsignal S als ein Steuersignal für die Schaltung verwendet. Es ist auch möglich, das Lernsignal in den Bestimmungsabschnitt für die Wichtungsvariable 12 einzugeben, um so das Vorzeichen von ΔWR zu steuern.
  • Im folgenden wird das Lernverfahren für das obige System im Detail erklärt.
  • Das obige Musterumwandlungssystem kann so, wie in Fig. 7 gezeigt, modelliert werden. Das System hat N Schichten, von denen jede n Eingaben und n Ausgaben hat. Jede Schicht kann n Neuronen haben, jede Eingabe der Schicht wird in jedes Neuron in der Schicht eingegeben. Das Lernverfahren wird in Zusammehang mit den Berechnungen von (b-i) bis (b-iii) erklärt.
  • (b-1)'
  • Im folgenden werden zum einfachen Verständnis die Eingabedaten DI als Binärdaten von DI1 bis DIn angesehen, und DO werden als Binärdaten angesehen. Deshalb sind DT ebenfalls Binärdaten.
  • Wenn DO=0, nichtsdestoweniger DT=1, zündet das Neuron, das zu zünden ist, nicht. Dann sollte eine Synapse, in die ein DIi von "1" eingegeben wird, in ihrem Gewicht erhöht werden, so daß das Neuron durch die Eingabe, die zu dieser Zeit eingegeben wird, leichter zünden kann. Während, wenn DO=1, nichtsdestotrotz DT=0, das Neuron, das nicht zu zünden ist, zündet. Dann sollte eine Synapse, in die ein DIi von "1" eingegeben wird, in ihrem Gewicht erniedrigt werden, so daß das Neuron durch die Eingabe, die zu der Zeit eingegeben wird, nicht zünden kann.
  • Die obige Regel wird mathematisch unter Bezugnahme auf die k- te Synapse des j-ten Neurons in der i-ten Schicht wie folgt dargestellt:
  • Wijk(T+1) = Wijk(T) + Cijk x V(DIijk) x M(DTij-DOij),
  • Wijk(T): derzeitiges Gewicht zu dieser Zeit;
  • Wijk(T+1): Wichtungsänderung durch Bewertung der derzeitigen Ausgabe;
  • WIijk: derzeitige Eingabe in die Synapse;
  • DOij: derzeitige Ausgabe von dem Neuron;
  • DTij: objektive Ausgabe des Neurons;
  • Cijk: Effizienz der Wichtungsvariable;
  • V( ) : Bewertungsfunktion für die Eingabe;
  • M( ): Bewertungsfunktion für die Ausgabe.
  • Die Bewertungsfunktion kann eine Regularisierungsfunktion, eine Binarisierungsfunktion, eine lineare Funktion etc. sein.
  • Die Regularisierungsfunktion kann untenstehende Charakteristika haben:
  • Φ(x) = 1 : x > 0
  • = 0 : x = 0
  • = -1 : x < 0
  • Die Binarisierungsfunktion kann untenstehende Charakteristika haben:
  • B(x) = 1 : x > -&theta;
  • = 0 : x < &theta;
  • &theta; : Schwellwert
  • Die lineare Funktion kann mathematisch wie folgt dargestellt werden:
  • V(x) = x
  • Die Bewertungsfunktion bewertet die Eingabe, ob sie signifikant ist oder nicht.
  • Die Bewertungsfunktion für die Ausgabe umfaßt eine Bewertungsfunktion für die Differenz zwischen DTij und DOij. Die Bewertung der Entfernung ist eine Bewertung der Humming- Entfernung, der Entfernung nach Pythagoras, der Wurzel aus der Differenz oder eine andere. Die Art und Weise der Bewertung wird beispielsweise durch eine Regularisierungsfunktion oder eine Binarisierungsfunktion durchgeführt. Das Berechnungsergebnis von V( ) und M( ) sind ordinal duch Multiplikation verbunden. Diese Multiplikation wird mit der Effizienz Cij multipliziert.
  • In dem herkömmlichen Lernverfahren ist Cij gewöhnlicherweise als konstant angenommen. Gemäß der vorliegenden Erfindung ist Cij eine Funktion des Gewichts W. Dann wird Cij wie folgt dargestellt:
  • Cij (W)
  • Die Konvergenz des Musterumwandlungssystem betrachtend ist es vorzuziehen, daß die Wichtungsvariable beim anfänglichen Lernen groß ist und beim letzten Lernen kleiner wird. Diese Charakteristika können durch verschiedene Parameter definiert werden. Die Anzahl der Zeitpunkte des Lernens oder der Zeitdauer des Lernens oder das Berechnungsergebnis von M( ) können solche Parameter sein. Allerdings ist vom Standpunkt des Lernfortschritts aus das Gewicht W am vorteilhaftesten für diesen Parameter. Das Gewicht W hat praktischerweise ein Maximum und ein Minimum und der Bereich des Gewichts sollte innerhalb des Minimumbereichs beschränkt werden, um die Schaltung so einfach wie möglich zu machen. Während des Lernens ändert sich das signifikante Gewicht in Richtung des Maximums, wenn der anfängliche Wert ein Minimum ist, oder ändert sich in Richtung des Minimums, wenn der anfängliche Wert ein Maximum ist. So reflektiert das Gewicht den Lernprozeß. In bezug auf den Lernprozeß einer Synapse reflektiert das Gewicht direkter und genauer den Fortschritt als andere Parameter, da sich das Gewicht monoton mit dem Lernfortschritt ändert und das Gewicht gesättigt ist, wenn es das Maximum oder das Minimum erreicht. Da andere Parameter eine indirekte Verbindung mit der Änderung des Gewichts haben, ist es schwierig, den Fortschritt der Sättigung des Lernens durch andere Parameter zu definieren.
  • Cijk(Wijk) hat eine Charakteristik einer steilen Änderung beim anfänglichen Lernen und kaum Änderungen beim letzten Lernen. Es wird im wesentlichen wie folgt dargestellt:
  • dCijk (Wijk) /dWijk< =0
  • Deshalb ist Cijk(Wijk) eine monoton abfallende Funktion. Die Figuren 8(a) bis (d) sind Beispiele der Charakteristika von Cijk(Wijk).
  • Das Lernverfahren wird, wie in Fig. 9 und 10 gezeigt, modelliert.
  • (b-ii)'
  • Das Lernverfahren, das die Berechnung (b-iii) betrifft, wird mathematisch unter Verwendung derselben Parameter wie der in (b-i)' wie folgt dargestellt:
  • Wijk(T+1) = Wijk(T) + Cijk(Wijk) x V(DIijk)
  • Dieses Lernverfahren wird, wie in Fig. 9 und 11 gezeigt, modelliert.
  • (b-iii)'
  • Das Lernverfahren, das die Berechnung (b-ii) betrifft, wird mathematisch unter Verwendung derselben Parameter wie in der von (b-i)' wie folgt dargestellt:
  • Wijk(T+1) = Wijk(T) + S x Cijk(Wijk) x V(DIijk)
  • S: Lernsignal
  • Das Lernsignal wird gemäß der Ausgabe der letzten Schicht bezeichnet. Im einfachsten Modell ist S=1, wenn die Ausgabe als positiv bewertet wird, und S=0, wenn sie negativ ist. Oder S=0, wenn das Bewertungsergebnis neutral ist, S=-1, wenn die Bewertung negativ ist.

Claims (5)

1. Assoziativmusterumwandlungssystem mit:
einem Speicher (45) zum Speichern von zumindest Eingangsdaten, Referenzdaten, Gewichtungsdaten und Ausgangsdaten;
einer Ausgangsdatenerzeugungseinrichtung (48-51) zum Multiplizieren der Eingangsdaten mit den entsprechenden Gewichtungsdaten, zum Summieren der entsprechenden Ergebnisse, um einen entsprechenden Summationswert zu erhalten und zum Erzeugen von Ausgangsdaten, basierend auf der Differenz zwischen dem Summationswert und einem vorgegebenen Schwellwert;
einer Einrichtung (52) zum Berechnen eines Gewichtungslernwertes (&delta;W) durch Bestimmen der Differenz zwischen entsprechenden Referenzdaten und Ausgangsdaten und durch Multiplizieren des Ergebnisses mit den entsprechenden Eingangsdaten;
einer Gewichtungsveränderungseinrichtung (53) zum Verändern der momentanen Gewichtungsdaten durch Multiplizieren des Gewichtungslernwertes, wie er von der Berechnungseinheit (52) zur Verfügung gestellt wird, mit einem gewichtungsabhängigen Effizienzkoeffizienten und durch Addieren des Ergebnisses zu den momentanen Gewichtungsdaten, dadurch gekennnzeichnet, daß der gewichtungsabhängige Effizienzkoeffizient von einer gewichtungsabhängigen Funktion erhalten wird, die für zunehmende Gewichte monoton fällt.
2. System nach Anspruch 1, wobei die Effizienzfunktion von einer Tabelle erhalten wird.
3. System nach Anspruch 2, wobei die Tabelle erneut beschrieben werden kann.
4. System nach einem der Ansprüche 1 bis 3, wobei die Differenz zwischen dem Summationswert und dem Schwellwert anhand der Tabelle berechnet wird.
5. Adaptionsverfahren für ein Assoziativmusterumwandlungssystem mit folgenden Schritten:
Multiplizieren jeder Eingangsdaten mit Gewichtungsdaten;
Summieren der Multiplikationsergebnisse;
Vergleichen des Summationsergebnisses mit einem Schwellwert;
Erzeugen von Ausgangsdaten gemäß dem Vergleichsergebnis;
Berechnen eines Gewichtungslernwertes durch Bestimmen der Differenz zwischen entsprechenden Referenzdaten und Ausgangsdaten und durch Multiplizieren des Ergebnisses mit entsprechenden Eingangsdaten;
Verändern der momentanen Gewichtungssdaten durch Multiplizieren des Gewichtungslernwertes mit einem gewichtungsabhängigen Effizienzkoeffizienten und durch Addieren des Ergebnisses mit den momentanen Gewichtungsdaten, dadurch gekennzeichnet daß der gewichtungsabhängige Effizienzkoeffizient von einer gewichtungsabhängigen Funktion erhalten wird, die für zunehmende Gewichte monoton fällt.
DE68927014T 1988-01-11 1989-01-11 Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür Expired - Fee Related DE68927014T2 (de)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP63003584A JP2744983B2 (ja) 1988-01-11 1988-01-11 パターン判定装置
JP3484488A JPH01209582A (ja) 1988-02-17 1988-02-17 画像認識システム
JP12547788A JPH01295381A (ja) 1988-05-23 1988-05-23 パターン変換回路
JP63164235A JPH0214593A (ja) 1988-07-01 1988-07-01 パターン変換回路
JP63278946A JPH02125376A (ja) 1988-11-04 1988-11-04 パターン判定装置
JP88297541A JPH02143384A (ja) 1988-11-25 1988-11-25 パターン判定系の修正方法

Publications (2)

Publication Number Publication Date
DE68927014D1 DE68927014D1 (de) 1996-10-02
DE68927014T2 true DE68927014T2 (de) 1997-01-23

Family

ID=27547777

Family Applications (2)

Application Number Title Priority Date Filing Date
DE198989100421T Pending DE327817T1 (de) 1988-01-11 1989-01-11 Assoziatives musterkonversionssystem und anpassungsverfahren dafuer.
DE68927014T Expired - Fee Related DE68927014T2 (de) 1988-01-11 1989-01-11 Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE198989100421T Pending DE327817T1 (de) 1988-01-11 1989-01-11 Assoziatives musterkonversionssystem und anpassungsverfahren dafuer.

Country Status (4)

Country Link
US (3) US5040230A (de)
EP (1) EP0327817B1 (de)
DE (2) DE327817T1 (de)
GR (1) GR890300174T1 (de)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0327817B1 (de) * 1988-01-11 1996-08-28 Yozan Inc. Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür
DE69023034T2 (de) * 1989-04-05 1996-03-21 Sharp Kk Datenverarbeitungssystem.
US5553196A (en) * 1989-04-05 1996-09-03 Yozan, Inc. Method for processing data using a neural network having a number of layers equal to an abstraction degree of the pattern to be processed
US5822742A (en) * 1989-05-17 1998-10-13 The United States Of America As Represented By The Secretary Of Health & Human Services Dynamically stable associative learning neural network system
KR0166970B1 (ko) * 1989-06-02 1999-01-15 쓰지 하레오 데이터처리장치 및 그 적정화 방법
GB8915085D0 (en) * 1989-06-30 1989-09-20 British Telecomm Pattern recognition
JP2810170B2 (ja) * 1989-12-15 1998-10-15 株式会社日立製作所 多層型ネットワークの学習装置
GB8929146D0 (en) * 1989-12-22 1990-02-28 British Telecomm Neural networks
JPH04116779A (ja) * 1990-09-07 1992-04-17 Takayama:Kk データ処理装置
JPH04223567A (ja) * 1990-12-26 1992-08-13 Mitsubishi Electric Corp 情報検索装置
JPH0695192A (ja) * 1991-05-01 1994-04-08 Matsushita Electric Ind Co Ltd 画像認識装置及び画像入力方法
JP2520331B2 (ja) * 1991-03-25 1996-07-31 株式会社エイ・ティ・アール自動翻訳電話研究所 ニュ―ラルネットワ―クの学習方法
US5105468A (en) * 1991-04-03 1992-04-14 At&T Bell Laboratories Time delay neural network for printed and cursive handwritten character recognition
CA2040903C (en) * 1991-04-22 2003-10-07 John G. Sutherland Neural networks
JPH04345396A (ja) * 1991-05-23 1992-12-01 Takayama:Kk 移動物体追跡方法
US5500905A (en) * 1991-06-12 1996-03-19 Microelectronics And Computer Technology Corporation Pattern recognition neural network with saccade-like operation
EP0533099A3 (en) * 1991-09-17 1993-04-28 Matsushita Electric Industrial Co., Ltd. Recognition unit and recognition apparatus
EP0566015A3 (en) * 1992-04-14 1994-07-06 Eastman Kodak Co Neural network optical character recognition system and method for classifying characters in amoving web
US5329610A (en) * 1992-05-19 1994-07-12 Intel Corporation Neural network employing absolute value calculating synapse
US5487133A (en) * 1993-07-01 1996-01-23 Intel Corporation Distance calculating neural network classifier chip and system
US5621862A (en) * 1993-07-29 1997-04-15 Matsushita Electric Industrial Co., Ltd. Information processing apparatus for implementing neural network
US5548683A (en) * 1994-05-05 1996-08-20 Grumman Aerospace Corporation Data fusion neural network
US6480621B1 (en) * 1995-08-08 2002-11-12 Apple Computer, Inc. Statistical classifier with reduced weight memory requirements
US6505182B1 (en) * 1998-10-09 2003-01-07 Van Den Heuvel Raymond C. Recognition engine with time referenced neurons
AR027842A1 (es) 1999-08-23 2003-04-16 Kimberly Clark Co Un articulo absorbente el cual mantiene o mejora la salud de la piel
US10744019B2 (en) 2016-08-11 2020-08-18 Ossur Iceland Ehf Orthopedic device for treating drop foot and method for using the same
EP4372620A3 (de) * 2017-04-06 2024-07-17 Shanghai Cambricon Information Technology Co., Ltd Prozessor für neuronales netzwerk und berechnungsverfahren für neuronales netzwerk
US11694072B2 (en) 2017-05-19 2023-07-04 Nvidia Corporation Machine learning technique for automatic modeling of multiple-valued outputs

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3218475A (en) * 1962-10-02 1965-11-16 Frederick F Hiltz Artificial neuron
US3209328A (en) * 1963-02-28 1965-09-28 Ibm Adaptive recognition system for recognizing similar patterns
US3310783A (en) * 1963-09-06 1967-03-21 Rca Corp Neuron information processing apparatus
US3310784A (en) * 1963-09-06 1967-03-21 Rca Corp Information processing apparatus
US3325787A (en) * 1964-10-19 1967-06-13 Fairchild Camera Instr Co Trainable system
US3408627A (en) * 1964-12-28 1968-10-29 Texas Instruments Inc Training adjusted decision system using spatial storage with energy beam scanned read-out
US3435422A (en) * 1966-06-27 1969-03-25 Bell Aerospace Corp Self-organizing system
US3602888A (en) * 1967-12-14 1971-08-31 Matsushita Electric Ind Co Ltd Learning device
US3601811A (en) * 1967-12-18 1971-08-24 Matsushita Electric Ind Co Ltd Learning machine
FR2051725B1 (de) * 1969-07-14 1973-04-27 Matsushita Electric Ind Co Ltd
US3950733A (en) * 1974-06-06 1976-04-13 Nestor Associates Information processing system
US4095122A (en) * 1977-08-04 1978-06-13 Bell Telephone Laboratories, Incorporated Tunable infrared and far-infrared source by four-photon mixing
US4326259A (en) * 1980-03-27 1982-04-20 Nestor Associates Self organizing general pattern class separator and identifier
US4660166A (en) * 1985-01-22 1987-04-21 Bell Telephone Laboratories, Incorporated Electronic network for collective decision based on large number of connections between signals
US4760604A (en) * 1985-02-15 1988-07-26 Nestor, Inc. Parallel, multi-unit, adaptive, nonlinear pattern class separator and identifier
NL8502802A (nl) * 1985-10-14 1987-05-04 Philips Nv Inrichting voor het uitlezen en/of inschrijven van een optische spoorvormige informatiestruktuur.
US4803736A (en) * 1985-11-27 1989-02-07 The Trustees Of Boston University Neural networks for machine vision
JP2745125B2 (ja) * 1986-09-11 1998-04-28 富士写真フイルム株式会社 電荷蓄積デバイス
US4805225A (en) * 1986-11-06 1989-02-14 The Research Foundation Of The State University Of New York Pattern recognition method and apparatus
US4809193A (en) * 1987-03-16 1989-02-28 Jourjine Alexander N Microprocessor assemblies forming adaptive neural networks
US4783830A (en) * 1987-03-24 1988-11-08 American Electronics, Inc. Pattern recognizing content addressable memory system
US4887306A (en) * 1987-11-04 1989-12-12 Advanced Technology Laboratories, Inc. Adaptive temporal filter for ultrasound imaging system
EP0327817B1 (de) * 1988-01-11 1996-08-28 Yozan Inc. Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür

Also Published As

Publication number Publication date
GR890300174T1 (en) 1990-05-11
US5416850A (en) 1995-05-16
US5506915A (en) 1996-04-09
DE327817T1 (de) 1990-04-12
EP0327817B1 (de) 1996-08-28
EP0327817A2 (de) 1989-08-16
EP0327817A3 (de) 1993-04-07
US5040230A (en) 1991-08-13
DE68927014D1 (de) 1996-10-02

Similar Documents

Publication Publication Date Title
DE68927014T2 (de) Assoziatives Musterkonversionssystem und Anpassungsverfahren dafür
DE69130840T2 (de) Neuronales Netzwerk zum Verarbeiten einer Vielzahl von Informationen und Lernverfahren
DE68929102T2 (de) Lernverarbeitungssystem
EP2112568B1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE68928612T2 (de) Verfahren zur bestimmung der inferenzregel sowie inferenzmotor
DE19581638C2 (de) Rechenvorrichtung mit einem Mikroprozessor, einem neuralen Netz-Koprozessor und einer DMA-Steuervorrichtung
EP2106576A1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems
DE68922624T2 (de) Verteiltes parallelverarbeitungsnetzwerk, worin die verbindungsgewichte mit hilfe von starren differentialgleichungen erzeugt werden.
DE69130656T2 (de) Neuronale Netzwerke
DE19531967C2 (de) Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems
WO2013170843A1 (de) Verfahren zum trainieren eines künstlichen neuronalen netzes
DE10296704T5 (de) Fuzzy-Inferenznetzwerk zur Klassifizierung von hochdimensionalen Daten
DE69719058T2 (de) Verbessertes neuronales netzwerk
DE69314293T2 (de) Neuronalanlage und -Bauverfahren
DE69127495T2 (de) Erkennungseinheit und Gerät zur Erkennung und Beurteilung in dem die Einheit verwendet ist
DE60125536T2 (de) Anordnung zur generierung von elementensequenzen
DE10201018B4 (de) Neuronales Netz, Opimierungsverfahren zur Einstellung der Verbindungsgewichte eines neuronalen Netzes sowie Analyseverfahren zur Überwachung eines Optimierungsverfahrens
DE4409169C2 (de) Verfahren und Anordnung zur Fuzzy-Regelung
DE69315250T2 (de) Neuronaler Prozessor mit Datennormalisierungsanlage
DE10139682B4 (de) Verfahren zum Generieren von neuronalen Netzen
DE4121453C2 (de) Näherungsschlußfolgerungsvorrichtung
DE4240789C2 (de) Verfahren zur Identifizierung von Objekten
DE4417932B4 (de) Verfahren und ein System zum Erhalten von Zieleinstellbeträgen für Ausführungsparameter durch Lernen einer Mehrzahl von Sätzen von Muster-Eingabedaten und Muster-Ausgabedaten
DE69230422T2 (de) Neuronales Netzwerk und Lernverfahren
DE19703964C1 (de) Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee