DE4400261C1 - Künstliches neuronales Netzwerk - Google Patents

Künstliches neuronales Netzwerk

Info

Publication number
DE4400261C1
DE4400261C1 DE4400261A DE4400261A DE4400261C1 DE 4400261 C1 DE4400261 C1 DE 4400261C1 DE 4400261 A DE4400261 A DE 4400261A DE 4400261 A DE4400261 A DE 4400261A DE 4400261 C1 DE4400261 C1 DE 4400261C1
Authority
DE
Germany
Prior art keywords
nodes
type
node
neural network
artificial neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE4400261A
Other languages
English (en)
Inventor
Wolfgang Prof Dr Ing Hilberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE4400261A priority Critical patent/DE4400261C1/de
Application granted granted Critical
Publication of DE4400261C1 publication Critical patent/DE4400261C1/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Description

Die Erfindung betrifft ein künstliches neuronales Netzwerk nach dem Oberbegriff des Anspruchs 1.
Es soll dazu dienen, komplexe Aufgaben, die von Computern nicht befriedigend gelöst werden können (wie z. B. die Erfassung und das Verstehen von Texten in größeren Zusammenhängen und/oder die Erzeugung von Texten ebenfalls in größeren Zusammenhängen), und die bisher alleine der Intelligenz des Menschen vorbehalten waren, in einer Weise zu lösen, die dem Vorbild des menschlichen Gehirns möglichst ähnlich ist.
Es ist bekannt, daß es schon seit vielen Jahren neuronale Netzwerke verschiedener Art gibt, wie sie z. B. von McCulloch und Pitts 1943, von Rosenblatt 1958, von Steinbuch 1961, von Hopfield 1982 und von vielen anderen in vielerlei Varianten beschrieben worden sind (siehe z. B. das zusammenfassende Buch von R. Rojas "Theorie der neuronalen Netze" Springer Verlag 1993, das die historische Entwicklung im angelsächsischen Sprachraum bis in die Gegenwart beschreibt). Es ist außerdem eine deutsche Patentschrift DE 34 11 168 C2 bekannt, welche schon eine Anordnung beschreibt, mit der man eine günstige Speicherung und Wiedergabe langer Texte mit Hilfe einer Hierarchie von assoziativen digitalen Speichersystemen zuwege bringen kann. Weitere Veröffentlichungen über neuronale Netze findet man in dem Buch von N. Hoffmann "Kleines Handbuch Neuronale Netze" Vieweg Verlag 1993 sowie in den Patentanmeldungen WO 93/10 500 A1, DE 42 27 707 A1 und DE 39 09 153 A1.
Zu diesem Stand der Technik ist zunächst kritisch anzumerken, daß man mit den klassischen neuronalen Netzwerken (die z. B. sehr ausführlich von R. Rojas beschrieben werden) nur Aufgaben einer mittleren Komplexität lösen kann. Solch ein Problem ist z. B. die Erkennung gefährlicher Objekte in Bildern (siehe die Dissertation von S. Vey "Objekterkennung in Grauwertbildern" Darmstädter Dissertation, THD 1993). Das Problem der Aufnahme und Erzeugung von langen Texten beliebigen Inhalts ist aber offenbar eine menschliche Intelligenzleistung auf einem höheren Abstraktionsniveau (viele Tiere können sehen und erkennen, eine Sprache hat jedoch nur der Mensch), für welche die bekannten klassischen neuronalen Netzwerke nicht leistungsfähig genug sind. In der erwähnten Patentschrift DE 34 11 168 C2 sind dagegen schon die Grundgedanken eines Verfahrens enthalten, welches auf hierarchisch aufeinander folgenden assoziativen Speichern unter Benutzung von Pointern und einer bedingten Assoziation basiert. Assoziative Speicher der beschriebenen Art haben jedoch ihre Beschränkungen. Sie sind nicht flexibel genug, um sich der Vielfalt möglicher Texte einer natürlichen Sprache genügend gut anzupassen und die Besetzung jeder Ebene der Hierarchie mit einem üblichen assoziativen Speicher sehr großer Kapazität mit z. B. mehreren Millionen Wörtern ist sehr aufwendig. Aus der Druckschrift DE 42 27 707 A1 sind weiterhin Knoten eines klassischen neuronalen Netzes bekannt, die Daten in digitaler Form aufnehmen, abgeben und speichern können. Da es sich jedoch um ein übliches neuronales Netzwerk mit gewichteten Eingängen handelt, welches auch in der üblichen Weise betrieben wird, erreicht es längst nicht die Leistungsfähigkeit der erfindungsgemäßen Anordnung, insbesondere für die Verarbeitung von gesprochenem oder geschriebenem Text.
Aus dem angegebenen Buch von N. Hoffmann ist auch ein klassisches neuronales Netzwerk bekannt (bidirektionaler Assoziativspeicher, siehe Kapitel 5.1), welches aus zwei Gruppen von Knoten besteht, wobei eine Gruppe nur Verbindungen mit dem Eingang und die andere Gruppe nur Verbindungen mit dem Ausgang hat. Diese bekannte Anordnung besteht jedoch wiederum aus Knoten mit gewichteten Eingängen und einer jeweils nachgeschalteten Sigmoidfunktion. Die erfindungsgemäßen Knoten sind davon deutlich unterschieden. Sie sind keine vereinfachten Nachbildungen biologischer Neuronen mit Synapsengewichten und einer nichtlinear veränderten Summe von gewichteten Eingangssignalen. Man kann sie vielmehr als Äquivalent zu einer größeren Gruppe von einfachen künstlichen Neuronen auffassen. in dieser Sicht sind die Knoten dann Elemente von neuronalen Netzwerken auf einer höheren Abstraktionsebene. Unter weiterer Berücksichtigung von unterschiedlichen deterministischen Lernmethoden und Betriebsweisen (Codieren und Decodieren) folgt daraus eine ungleich höhere Leistungsfähigkeit der erfindungsgemäßen Anordnung gegenüber der bekannten klassischen Anordnung. Bidirektionale assoziative Speicher klassischer Art sind, wie man weiß, nicht für eine komplexe Verarbeitung von gesprochener oder geschriebener Sprache geeignet.
Der Erfindung liegt die Aufgabe zugrunde, ein leicht zu realisierendes, hierarchisch organisiertes System für die Verarbeitung von gesprochenem und geschriebenem Text zu schaffen, das flexibel genug für alle Möglichkeiten der Texte einer natürlichen Sprache ist (Sprachverstehen und Spracherzeugung beliebiger Texte), und dessen konnektionistische Arbeitsweise vergleichbar mit der konnektionistischen Arbeitsweise der bekannten klassischen neuronalen Netzwerke ist. Es soll nach dem Vorbild des Gehirns eine rein konnektionistische Struktur sein, ohne sich aber allzu eng an die biologischen Feinstrukturen und die Charakteristiken der biologischen Neuronen anzulehnen.
Diese Aufgabe wird durch ein künstliches neuronales Netzwerk mit den Merkmalen gemäß Anspruch 1 gelöst. In der weiteren Ausgestaltung der Erfindung wird zuerst eine Realisierung des gesamten Systems mit Hilfe üblicher digitaler Schaltungen beschrieben, wobei in den Knoten eines jeden Netzwerks Daten in symbolischer Form gespeichert sind. Solche Daten werden auch bei Bedarf über die Verbindungen zwischen den Knoten benachbarter hierarchischer Ebenen transferiert, in die Knoten eingegeben und aus den Knoten ausgegeben. In einer anderen Ausgestaltung der Erfindung werden in den höheren Ebenen der Hierarchie keine Daten mehr in symbolischer Form gespeichert. Es wird dort eine äquivalente, rein konnektionistisch ausgebildete Struktur angegeben, die mit Hilfe von Sammel- und Verteilerschienen zwischen den Hierarchieebenen arbeitet, und deren Knoten nur noch einfache neuronale Elemente mit Mehrheitslogik und Signalschwelle sind.
Die mit der Erfindung erzielten Vorteile bestehen insbesondere darin, daß durch die einheitliche neuronale Struktur keine zusätzliche Software zur Durchführung der Systemfunktionen benötigt wird, weil sich eine Operation an die nächste in völlig regelmäßiger und automatischer Weise anschließt. Es ist in beiden Varianten ein leicht handhabbares und leicht an schwierige Aufgaben zu adaptierendes System, das in dieser (und nur in dieser) Hinsicht mit so einfachen Systemen wie dem mehrschichtigen Perceptron zu vergleichen ist. Der technische Aufwand bleibt in beherrschbarer Größenordnung. Bei der Variante mit der rein konnektionistischen Struktur ohne Speicherung digitaler Codes in den höheren Ebenen der Hierarchie ist dort ein besonders geringer Realisierungsaufwand vorhanden.
Die konnektionistische Struktur, die durch Lernvorgänge nicht verändert sondern nur ergänzt werden muß (solange kein Vergessensmechanismus eingebaut ist) hat weitere Vorteile hinsichtlich der Prüfung auf Fehler und der gründsätzlich besseren Zuverlässigkeit.
Es folgt in den folgenden Abschnitten 1 bis 8 eine ausführliche Erläuterung der Erfindung anhand von Zeichnungen in den Fig. 1 bis 12.
1. Klassische neuronale Netze
Das heute am häufigsten verwendete neuronale Netz ist das Perceptron [Rosenblatt, R. "Principles of Neurodynamics" Spartan Books, Washington, 1959], bei dem sich die Neuronen in aufeinander folgenden Schichten befinden, siehe Bild 1. Jedes einzelne Neuron, siehe Bild 2, bekommt dabei von der Vorgängerschicht mehrere Eingangssignale e (die mit Gewichten w bewertet werden) und gibt an die Nachfolgerschicht (über eine Sigmoidfunktion) ein Ausgangssignal a ab. In der Regel haben die Neuronen einer Schicht untereinander keine Verbindung. Allerdings ist der Vorschlag, auch Verbindungen innerhalb einer solchen Schicht zuzulassen, grundsätzlich nicht neu, siehe Bild 3. Kohonen hat z. B. solch eine Schicht bei seinen "Feature Maps" vorgeschlagen [Kohonen, T. Mälisara, K. u. a. "Artifical Neural Networks" Proc. ICANN-91, North-Holland, Amsterdam]. Es fehlte bisher aber an einer Strategie, Systeme aus lateralen und rekurrenten Schichtnetzwerken wesentlich effizienter als die klassischen Netzwerke zu machen. Im folgenden soll ein Vorschlag gemacht werden, wie diese Situation zu ändern ist. Voraussetzung dafür ist zunächst die Einführung von Knoten mit ungewichteten Eingängen, welche Datensätze in digitaler Form aufnehmen, abgeben und speichern können, sowie die Einführung von Knoten unterschiedlicher Funktion in solchen geschichteten Netzen. Sodann die Realisierung einer vollständigen inhaltlichen Entkopplung zwischen den Eingangs- und Ausgangssignalen der Schichten. Dadurch wird die Anordnung weit flexibler als bei bisher bekannten neuronalen Netzen, bei denen in jedem Neuron die Summe der gewichteten Eingangssignale lediglich nichtlinear verändert zum Ausgang hin übertragen wird.
2. Grundgedanken
Bei dem erfindungsgemäßen neuartigen neuronalen Netzwerk gehen wir aus von Netzwerk-Schichten, die lateral voll vermascht sind, siehe die prinzipielle Darstellung mit schraffierten Schichten in Bild 4. In jeder der Schichten werden statt gleichartiger Knoten wie in der Vergangenheit zwei verschiedene Arten von Knoten eingeführt: Die Knoten der ersten Art seien mit I (Inhaltsknoten) bezeichnet und die Knoten der zweiten Art mit V (Verbindungsknoten). Sie können im Unterschied zu bisherigen Neuronenmodellen digitale Codes CI und Cv speichern. Die Knoten I, siehe Bild 5a, können Signale mit den jeweils darunter liegenden Netzschichten austauschen, welche vorzugsweise aus den Codes bestehen (im einfachsten Fall mit der direkt benachbarten Schicht) und die Knoten V, siehe Bild 5b, können nur Signale mit den jeweils darüber liegenden Netzschichten austauschen (auch hier wieder im einfachsten Fall mit der direkt benachbarten Schicht). Diese Signale sind vorzugsweise digitale Codes. Innerhalb eines jeden Schicht-Netzwerkes und von Schicht-Netzwerk zu Schicht- Netzwerk sind nur (analoge oder digitale) Kommunikationen zwischen unterschiedlichen Knoten erlaubt. Die Verbindungen zwischen den Knoten innerhalb der Netzwerke und auch die Verbindungen zwischen den Netzwerkschichten haben eine Signalflußrichtung, die im Unterschied zu dem bekannten Neuronenmodell von dem Betriebsmodus abhängig ist. Im folgenden seien zwei verschiedene Betriebsmoden betrachtet: Ein erster Betriebsmodus "Codieren", bei dem die Signale zwischen den Netzwerkschichten nur von unten nach oben übertragen werden, siehe Bild 6, und ein zweiter Betriebsmodus "Decodieren", bei dem die Signale zwischen den Netzwerkschichten umgekehrt von oben nach unten übertragen werden, siehe Bild 7. Hier sind aus Gründen der Übersichtlichkeit die lateralen Verbindungen (innerhalb der Netzschichten) nicht gezeichnet.
Der Zweck der Einführung der zwei unterschiedlichen Knoten zusammen mit den Vorschriften für ihre Verbindung besteht darin, in jeder Netzwerkschicht die Eingangssignale von den Ausgangssignalen inhaltlich vollständig voneinander zu entkoppeln. Oder, im Hinblick auf einen speziellen Anwendungsfall, die Trennung "inhaltlicher" Aspekte in den Knoten von denen der gegenseitigen "Beziehungen" zwischen den Knoten zu bewirken.
Welcher Art die Signalverarbeitung in den unterschiedlichen Knotenarten ist, richtet sich nach den Anforderungen. So kann es prinzipiell eine analoge Verarbeitung sein, es kann aber auch ein assoziativer Such- und Vergleichsvorgang sein, der in vorteilhafter Weise digital durchgeführt wird, und bei dem in der Regel auch eine digitale Speicherung beteiligt ist. (Der Unterschied zwischen der klassischen analogen Verarbeitung mit Gewichten und der digitalen assoziativen Verarbeitung in den beschriebenen neuartigen neuronalen Netzwerken ist im wesentlichen darin zu sehen, daß bei der ersteren stets eine ganze Reihe von Knoten mehr oder weniger über die Schwelle der Sigmoid-Funktionen hinaus ausgesteuert wird, während bei der zweiten mit einer vollständigen Assoziation nur ein einziger Knoten, und zwar der am besten passende Knoten aktiviert wird. Mit einer unvollständigen Assoziation lassen sich aber auch unterschiedlich große Gruppen von Knoten assoziativ ansprechen und zu gewünschter Aktivität anregen.)
3. Das Schichtnetzwerk
In den Bildern 6 und 7 ist der Übersichtlichkeit wegen auf die Darstellung der internen Verbindungen zwischen den Knoten eines jeden Schichtnetzwerkes verzichtet worden. Denkt man sich eine solche Schicht aber in die Zeichenebene geklappt, kann dieses Netzwerk für sich auch wieder übersichtlich dargestellt werden, wie es in Bild 8 in einem Ausschnitt prinzipiell gezeigt ist. Ersichtlich sind nur unterschiedliche Knoten miteinander verbunden. Ebenfalls zu sehen ist, daß die Knoten I Ausgänge zu mehreren Knoten V haben können, daß dagegen die Knoten V nur jeweils eine Verbindung zu einem nachfolgenden Knoten I haben. Bei dieser Darstellung sind umgekehrt die aus der Schicht herausführenden externen Verbindungen der Knoten weggelassen worden, so daß die gesamte Struktur des Systems sich durch Kombination der Bilder 6 bis 8 ergibt. (Bei der späteren Erörterung einer speziellen Code- Übertragung zwischen den Ebenen, siehe Bild 10, in dem die Verhältnisse besonders einfach liegen, sind sowohl interne als auch externe Verbindungen der Knoten skizziert).
4. Codieren
Betrachten wir für den Betriebsmodus "Codieren" die Datenübertragung von einer Schicht zur nächsten im Schichtensystem von Bild 6 etwas näher. Schon nach dem Durchlaufen der ersten Schicht, der sog. Basis-Schicht, verbleiben die inhaltlichen Daten CI der zugeführten zu codierenden digitalen Merkmalsätze e in den Knoten der ersten Art I, sie werden weder durch lineare noch durch nichtlineare Funktionen wie z. B. Sigmoidfunktionen an die folgende Schicht, die sog. 1. Meta-Schicht weitergegeben, d. h. sie sind zunächst einmal wie "weggefiltert". Übrig bleibt ein einfaches Aktivitätssignal, das innerhalb des Schichtnetzwerkes an eine Mehrzahl von Knoten V weitergegeben wird. An das nach oben benachbarte Schichtnetzwerk werden nur Daten eines Knotens V weitergegeben. Das heißt, die Ausgangssignale des Schichtnetzwerkes enthalten nur Aussagen (Daten) über die Beziehungen Cv zwischen je zwei Inhalten CI. Die Eingabe in die 1. Mega-Schicht kann dabei z. B. nach Bild 9 erfolgen. Beginnen wir mit der Basisschicht, in der durch sequentiell aufeinanderfolgende Merkmalsätze (Worte des Wortschatzes) entsprechende Knoten I assoziativ ausgewählt und aktiviert worden sind. Sobald ein Knoten V zwei benachbarte aktive Knoten I hatte, war er ebenfalls ausgewählt worden. Das ergibt sich bei jedem neuen zugeführten Merkmalsatz (Wort). Einige zeitlich oder örtlich benachbarte ausgewählte Knoten V (mit jeweils dazwischen liegenden Knoten I) bieten nun nacheinander ihre Codes Cv allen Knoten I der 1. Meta-Schicht in einem assoziativen Suchvorgang an. Nur einer der Knoten dieser Schicht hat übereinstimmende Daten gespeichert, ist also assoziationsfähig, so daß er zusammengehörige Folgen von Codes Cv auch aufnehmen und anschließend seine Knotenausgänge im internen Netz dieser zweiten Schicht aktivieren kann. Danach haben die Codes Cv in den Knoten I des 1. Meta-Netzwerks ihre Aufgabe erfüllt, sie sind für die weitere Verarbeitung in diesem Meta-Netzwerk (wiederum wie im Basis-Netzwerk) wie "weggefiltert". Es werden im 1. Meta-Netzwerk nämlich genauso wie im Basis-Netzwerk nur diejenigen Codes Cv der Beziehungsknoten V an die 2. Meta-Schicht weitergegeben, welche die Bedeutung von Beziehungen zwischen den Beziehungen in der Basis-Schicht haben, usw. Auf diese Weise läßt sich eine gegenüber den klassischen neuronalen Netzen völlig neuartige Datenverarbeitung im Schichtensystem realisieren, die nur noch im Ziel mit der des mehrschichtigen Perceptrons übereinstimmt. Letzten Endes sollen nämlich auch in dem hier vorgestellten System aus im allgemeinen vielgestaltigen Merkmalsätzen [e], die der Basis-Schicht zugeführt werden, eindeutig entscheidbare Ausgangssignale [d] der obersten Schicht entstehen. Solch eine Transformation ist besonders günstig, wenn, wie bekannt, jede Klasse möglicher Merkmalsätze nur zu einem einzigen elementaren Ausgangssignal führt, z. B. zu einem aktivierten Knoten der letzten Schicht.
Man kann solche Prozesse als Abstraktionsprozesse auffassen. In der ersten Ebene abstrahiert man von den Inhalten, in der zweiten Ebene von den direkten Beziehungen zwischen den Inhalten, in der dritten Ebene von den Beziehungen zwischen den Beziehungen usw. Diese Abstraktionsprozesse werden noch verstärkt durch die Datenkomprimierung nach Bild 9, bei der nicht nur von jeweils einem Verbindungsknoten V Daten Cv in einen Knoten I der nächsten Schichtebene übertragen werden, sondern unmittelbar hintereinander von einer begrenzten Anzahl zeitlich nacheinander aufgerufener Knoten V. Dazu ist die Aufgabe einer geeigneten Segmentierung benachbarter Knoten bzw. deren Daten zu lösen (d. h. es ist jeweils individuell zu klären, welcher Grad der Nachbarschaft berücksichtigt werden soll). Auf diese Weise kann schrittweise und sehr schnell, von Ebene zu Ebene fortschreitend, von den jeweils engeren Beziehungen abstrahiert werden. Es bleiben dann in den höheren Schichten Informationen über die weiträumigeren Beziehungen übrig.
Die einfachste Funktion in dem Knoten V besteht in der Speicherung einer Kennzahl, welche die Verbindung zwischen je zwei Knoten I bezeichnet. (Man beachte jedoch, daß die Knoten V auch aus der Schicht herausführende Verbindungen haben. Nur deshalb müssen sie überhaupt als Knoten definiert werden, und nicht als Zweige.)
5. Decodieren
Bei den zunächst praktisch bearbeiteten Anwendungen (anspruchsvolle Textverarbeitung) war es wichtig, daß man die Signalflußrichtung zwischen den Netzwerkschichten auch umkehren kann. Das heißt, daß dabei eine bisherige Nachfolger-Netzwerkschicht zu einem Vorgänger-Netzwerkschicht wird, wie dies in Bild 7 veranschaulicht wurde. Dann müssen jetzt von oben jeder Schicht entsprechende Daten CI bzw. [Cv] zugeführt werden, welche die entsprechenden Verbindungsknoten und die darauf folgenden Inhaltsknoten aktivieren. Deren Inhalte CI werden ausgelesen, als Verbindungscodes [Cv] interpretiert und sukzessive dem nächsten, nach unten benachbarten Schichtnetzwerk zugeführt.
6. Operationen zur Textverdichtung
Bei der redundanzarmen Codierung von konkreten Texten, die Folgen bestimmter Wörter darstellen, wird in jedem Schichtnetzwerk ein entsprechender Pfad durchlaufen, der z. B. in der Basis-Schicht so viele Inhaltsknoten enthält wie der Text verschiedene Wörter. Es hat sich dabei zur Überprüfung der prinzipiellen Durchführbarkeit zunächst als günstig erwiesen, in diesem Pfad jeweils die Codes Cv zweier aufeinander folgender Verbindungsknoten V zusammenzufassen (was sicher keine optimale Segmentierung ist) und dem nächsten Schichtnetzwerk als eine Einheit zuzuführen, siehe die Skizze in Bild 10, in der nur wenige durchgeführte Transfers zwischen den Schichten skizziert sind. Solch ein Paar von Verbindungscodes Cv kann in dem jeweils nächsten Netzwerk einen Inhaltsknoten I assoziieren. Im Grunde genommen werden dort in den Inhaltsknoten also die Beziehungen zwischen Inhaltsknoten-Paaren festgestellt. Auf diese Weise verdichtet sich das Codierungsergebnis im Gesamtsystem schrittweise von Schicht zu Schicht um den Faktor 2. Da man wegen der Umkehrbarkeit des Datenflusses aus den kurzen Codedarstellungen der höchsten Schicht (zuzüglich der Anfangsbedingungen) alle Texte wieder rekonstruieren kann, siehe DE 34 11 168 C2, kann man solche Codes als eine besonders redundanzarme Transformation von Texten einer natürlichen Sprache betrachten. Die Werte liegen trotz der Unvollkommenheit der Segmentierungen auch tatsächlich in dem Bereich, der sich aus der Shannonschen Theorie ergibt [Hilberg, W. "Der bekannte Grenzwert der redundanzfreien Information in Texten - eine Fehlinterpretation der Shannonschen Experimente?", Frequenz 44 (1990), 9-10, S. 243-248] und weit unter den bisher als erreichbar angesehenen Werten.
Bei dem Systementwurf zur redundanzarmen Textcodierung zeigen sich auch grundsätzliche Vorteile gegenüber dem Entwurf eines Perceptrons. Anstelle eines großen Satzes von Gewichten, die bekanntlich mit dem Backpropagation-Algorithmus, also einem ganzheitlichen Verfahren, bestimmt werden [siehe Rojas], tritt jetzt eine Vielzahl von Verbindungsknoten-Codes Cv. Diese werden aber beim Lernen von Texten konstruktiv, d. h. Verbindung nach Verbindung, gefunden und eingespeichert. Das heißt, jeder einzelne Verbindungsknoten mit seinem Code Cv hat seine Existenzberechtigung für sich, die im einzelnen überprüft werden kann (wie jede logische Schaltung eines digitalen Rechners). Muß man mehr Möglichkeiten sprachlicher Konnektionen von Wörtern in Texten lernen, braucht man lediglich einige neue Verbindungen und Verbindungsknoten hinzuzufügen. Anders als bei den bisher bekannten neuronalen Netzen, die mit Hilfe des Backpropagation-Algorithmus entworfen wurden, kann man mit den hier beschriebenen Strukturen im Prinzip jede einzelne Verbindung und jeden einzelnen Knoten verifizieren und dementsprechende Garantien für realisierte Systeme abgeben.
7. Verallgemeinerungen des digitalen Verfahrens
Die Verallgemeinerungen der beschriebenen Verfahren liegen auf der Hand. Als Merkmalsätze waren zunächst aufeinander folgende Worte eines gedruckten Textes betrachtet worden, wobei jedes Wort einem Netzwerkknoten zugeordnet wurde. Genausogut kann man auch aufeinander folgende Phoneme der gesprochenen Sprache betrachten oder aufeinander folgende Bilder eines Filmes usw. Hierbei wird im allgemeinen eine geeignete Vorverarbeitung der Daten zum Zwecke einer guten Merkmalsbildung zweckmäßig sein, wie dies auch sonst in den Anwendungen neuronaler Netze übliche ist. Wenn dann die Merkmalsätze nicht mehr so vielgestaltig wie die Wörter einer Sprache sind, kann es sogar in der Basisebene günstig sein, mehrere Merkmalsätze in einem Knoten zu speichern und vermittels seiner Assoziationen solche Knoten zu aktivieren. Das gilt dann auch für die Metaebenen, bei denen ohnehin schon beschrieben wurde, wie zu zwei konsekutiven Steuerwörtern Cvi und Cvj die Assoziationen in einem entsprechenden Metawort aktiviert werden. Das Lernen und Einspeichern von Häufigkeiten, z. B. als dritte Koordinate in einer Assoziationsmatrix, ist eine weitere Verallgemeinerung, mit der man die Eigenschaften der natürlichen Sprache noch besser nachbilden kann. Die Verbindungscodes lassen sich schließlich nicht nur unter dem Gesichtspunkt der effizienten Codierung festlegen, sondern auch bezüglich ihrer Wichtigkeit oder Häufigkeit. Ein "digitales Gewicht" ließe sich z. B. problemlos als Teil des Verbindungscodes realisieren. Die Assoziationsfunktion selbst muß man grundsätzlich nicht nur so wie beschrieben ausführen, daß nämlich nur ein einziger Knoten aktiviert wird. Man kann sich vorstellen, daß auch Assoziationen zu mehreren verschiedenen Knoten angelegt werden und daß, insbesondere bei der Sprachgenerierung, erst bei Betrachtung verschiedener möglicher begrenzter Wortfolgen entschieden wird, welche dieser Wortfolgen ausgewählt werden soll.
8. Konnektionistische Realisierung
Bis hierher wurde dargelegt, wie man ein Netzwerksystem zur Sprachcodierung und Sprachcodierung aufbauen kann, in dem in den Netzwerksknoten auf übliche digitale Weise (symbolisch) Informationen gespeichert sind. Diese Informationen können über Leitungsverbindungen von einem Knoten zu einem anderen transferiert werden. Assoziationen zwischen einem gespeicherten Wort und dem (Teil-)Speicherinhalt anderer Knoten werden dabei schaltungstechnisch wie in einem klassischen digitalen assoziativen Speicher durchgeführt. Für einen Digitaltechniker, der mit assoziativen Schaltungsstrukturen vertraut ist, läßt sich so die Funktion eines komplexen Systems am leichtesten verstehen, zumal es mit gewohnten technischen Mitteln genauso auch aufgebaut werden kann.
Zu denken gibt jedoch, daß die natürliche "Sprachmaschine" im menschlichen Gehirn, die zweifellos Vorbild für alle technischen Entwicklungen ist, keine symbolische Speicherung kennt und vermutlich auch keinen Datentransfer, wie wir ihn in den Computern realisieren. Vielmehr sind alle Gehirnzellen relativ einfache Gebilde (Neuronen) mit Eingängen (Dendriten), Ausgängen (Axonen), Gewichten (Synapsen) und einem Neuronenkörper, der im wesentlichen eine Summenfunktion mit Schwellwert enthält. Es erscheint daher sinnvoll, nach Wegen zu suchen, wie das Grundprinzip der beschriebenen Sprachmaschine ohne symbolische Speicherung und ohne einen Transfer symbolischer Daten auf rein konnektionistische Weise realisiert werden kann.
Man kann mit der Überlegung beginnen, daß es sich bei den assoziativen Vorgängen in den Schichtnetzwerken um bedingte Assoziationen handelt. Das heißt, ein Knoten I in einem Schichtnetzwerk wird beim Codieren nur dann einen assoziativen Treffer melden, wenn ihm von einem anderen Knoten I dieses Netzwerks über einen Verbindungsknoten V ein Aktivitätssignal zugeführt wird (welches digital codiert sein kann) und wenn ihm zugleich ein oder mehrere passende Codeworte aus Knoten V des hierarchisch vorangehenden Schichtnetzwerkes zugeführt werden. Nur bei einer vollständigen Assoziation wird der betreffende Knoten I "feuern" und ein Aktivitätssignal an nachfolgende Knoten weitergeben.
Solch eine bedingte Assoziation läßt sich erfindungsgemäß wie folgt auch vollständig konnektionistisch realisieren, siehe Bild 11. Hier ist in der vereinfachten Darstellung ein Schichtnetzwerk mit zwei Arten von Knoten skizziert. Zwischen diesem Schichtnetzwerk und seinen beiden nach oben und unten benachbarten Schichtnetzwerken sind jeweils sog. Sammel- und Verteilerschienen angebracht (der Kürze wegen werden sie auch einfach nur Verteilerschienen genannt). Es sind Leitungen, die voneinander isoliert sind, und die die Aufgabe haben, beim Codieren gleichartige Verbindungscodes Cv aufzunehmen und nur an spezielle Knoten I des hierarchisch nachfolgenden Schichtnetzwerkes weiterzugeben, an solche Knoten nämlich, die von den Codes Cv auch wirklich betroffen sind. Angesichts der großen Vielfalt von verschiedenen Verbindungscodes sind entsprechend viele Verteilerschienen notwendig (geometrisch gesehen muß eine Schiene nicht unbedingt eine einfache gerade Leitung sein, sie kann vielmehr netzwerkartig verzweigt sein). Jede Verbindung von und zu den Knoten der benachbarten Schichtnetzwerke kann aber ein für allemal fest "verdrahtet" werden. Dadurch entfällt natürlich die Notwendigkeit der Speicherung symbolischer Daten in den Knoten, wodurch sie, wie bei den bekannten einfachen neuronalen Netzen (z. B. Perceptron, Hopfield-Netz, usw.) wieder sehr einfach werden und im wesentlichen nur konnektionistische Aufgaben zu erfüllen haben. Betrachten wir zunächst den Knoten V. Er hat beim Codieren nur noch die Aufgabe, bei Vorliegen eines Aktivitätssignals sowohl vom vorangehenden Knoten Ii als auch von dem im selben Schichtnetzwerk folgenden Knoten Ii+1 ein Ausgangssignal zu erzeugen und seiner zugeordneten Verteilerschiene zuzuführen. Damit reduziert er sich auf eine reine Konjunktion. Der aufnehmende Knoten I im nächsten Schichtnetzwerk wiederum muß überprüfen, ob er ein Aktivitätssignal aus seinem eigenen Schichtnetzwerk bekommt und ob er zusätzlich noch eine genügende Menge von Aktivitätssignalen aus den hierarchisch vorangehenden Sammel- und Verteilerschienen bekommt. Dies geschieht sequentiell, weshalb eine entsprechende Zeit abgewartet werden muß. Sobald eine entsprechend eingestellte Schwelle überschritten ist, wird der ausgewählte Knoten I "feuern", d. h. ein Aktivitätssignal abgeben. Die Knoten sind daher in üblicher Weise mit Mehrheitslogik oder Boole'scher Logik oder Fuzzy-Logik usw. als rein konnektionistische Elemente realisierbar.
Beim Decodieren kehren sich einige Signallaufrichtungen um. Der aktivierte Knoten I gibt jetzt nach wie vor ein Aktivitätssignal an nachgeordnete Knoten V ab. Dazu liefert er noch sequentiell Aktivitätssignale nach außen an die zugeordneten Verteilerschienen außerhalb seines Schichtnetzwerkes, wozu keine Schwellfunktionen benötigt werden. Von den Verteilerschienen kommen die Aktivitätssignale zu den Knoten V des darunter liegenden Schichtnetzwerkes. Sie können aber von dort nur dann zu dem nächsten Knoten I derselben Schicht weitergegeben werden, wenn der Knoten V auch ein Aktivitätssignal von einem vorhergehenden Knoten I in seinem Netzwerk bekommen hat. Wiederum muß eine Konjunktion wirksam werden. Solche Konjunktionen können bekanntlich mit einem einfachen Transistor realisiert werden, siehe Bild 2. Das Umstellen von der Betriebsweise Codieren zu der Betriebsweise Decodieren muß daher mit einem geeigneten Signal nur bei den Knoten I geschehen. Dabei kann nach Bild 2 die Stromrichtung beibehalten werden. Nicht aktivierte Knoten I müßten z. B. hochohmige Ausgänge bekommen oder ein niedrigeres Potential abgeben usw., was mit entsprechenden Umstellsignalen veranlaßt werden kann.
Angesichts des jetzt weitgehend konnektionistisch gewordenen Aufbaus des Gesamtsystems erhebt sich die Frage, ob auch eine Gewichtung der Knoteneingänge Vorteile bringen würde. Nun, solch eine Gewichtung ist prinzipiell nicht nötig, was die Knoten in dieser Hinsicht mit den McCulloch-Pitts-Zellen vergleichbar macht. Lediglich für die Fälle, in denen man beim Lernen und Vergessen oder bei der Textgenerierung noch Häufigkeitsaspekte berücksichtigen will, wird eine zusätzliche Gewichtung möglich und nützlich sein.
Betrachten wir zum Schluß noch den Aufwand, der einerseits bei einem System mit symbolischer Speicherung und andererseits bei einem System mit konnektionistischer Struktur getrieben werden muß. Angesichts der sehr großen Zahl verschiedener Wörter einer natürlichen Sprache (Größenordnung einige Millionen) wird man bei der ersten Methode in allen Metaebenen einen entsprechend großen Speicheraufwand treiben müssen. Bei der zweiten Methode sind die Knoten in allen Ebenen extrem einfach, aber man muß sehr viele Sammel- und Verteilerschienen vorsehen. Das muß im Einzelfall gegeneinander abgewogen werden. Für die Simulation eines Systems dürfte die erste Methode günstiger sein, für die Realisierung jedoch die zweite.
Geht es uns jedoch um die Aufklärung des menschlichen Sprachprozesses, bei dem die Wörter der Sprache immer im Zusammenhang gesehen werden müssen (z. B. Aufnahme, Verstehen und Erzeugung langer zusammenhängender Texte), so dürfte die beschriebene, rein konnektionistische Lösung ein erster Fingerzeig darauf sein, wie die Natur mit einfachsten Mitteln derart leistungsfähige und komplexe Systeme zuwege bringen kann.
Bildunterschriften
Bild 1: Prinzip des Perceptrons mit mehreren versteckten Schichten.
Bild 2: Das künstliche "Neuron" als Netzwerksknoten a) mit gewichteten Eingängen und b) einer nichtlinearen Ausgangsfunktion (Sigmoid).
Bild 3: Veranschaulichung der Möglichkeit, auch innerhalb der Schichten Verbindungen zuzulassen (laterale Verbindungen), nach [1].
Bild 4: Schema von Schichten aus Netzwerken, in denen es zwei unterschiedliche Knoten bzw. Knotenfunktionen gibt (I = Inhaltsknoten, V = Beziehungs- oder Verbindungsknoten).
Bild 5: Veranschaulichung der Knotenkommunikationsmöglichkeiten a) der Knoten I kommuniziert intern sowie mit der jeweils benachbarten unteren Schicht, b) der Knoten V kommuniziert intern sowie mit der jeweils benachbarten oberen Schicht.
Bild 6: Betriebsweise "Codieren". Darstellung der Datenübertragung zwischen den Knoten benachbarter Schichten. Die Daten werden von einem beliebigen ausgewählten V-Knoten einer Schicht allen I-Knoten der nach oben direkt benachbarten Schicht angeboten und von dem Knoten mit den stärksten Assoziationen akzeptiert.
Bild 7: Betriebsweise "Decodieren". Darstellung der Datenübertragung zwischen den Knoten benachbarter Schichten. Die Daten werden von einem beliebigen ausgewählten I-Knoten einer Schicht allen V-Knoten der nach unten benachbarten Schicht angeboten und von dem Knoten mit den stärksten Assoziationen akzeptiert.
Bild 8: Prinzip eines "lateralen" vermaschten Netzes in einer Schicht, in dem eine Kommunikation nur zwischen jeweils unterschiedlichen Knotenarten (I und V) stattfinden kann.
Bild 9: Darstellung der Möglichkeit, jeweils mehrere zeitlich oder örtlich aufeinander folgende Knoten-Codes Cv in einem Knoten I der nach oben benachbarten Schicht abzuspeichern (Betriebsweise Codieren). Umgekehrt wird beim Decodieren der Inhalt CI eines Knotens I dazu benutzt, aufeinander folgende Knoten V der nach unten benachbarten Schicht in Verbindung mit deren interen aktivierten Knoten I auszuwählen.
Bild 10: Veranschaulichung der resultierenden Datenübertragungen von Netzwerkschicht zu Netzwerkschicht für den Fall, daß je zwei aufeinander folgende Knoten-Codes Cv einem Knoteninhalt CI der nach oben benachbarten Schicht entsprechen (Codieren und Decodieren).
Bild 11: Sammel- und Verteilerschienen zwischen den Schichtnetzwerken.
Bild 12: Konnektionistische Realisierung eines Knotens V.

Claims (14)

1. Künstliches neuronales Netzwerk mit einer Vielzahl von Netzwerkknoten in hierarchisch aufeinanderfolgenden, stark vermaschten Schichten, insbesondere für die Verarbeitung von gesprochenem oder geschriebenem Text, dadurch gekennzeichnet, daß die Knoten Datensätze in digitaler Form aufnehmen, abgeben und dauerhaft speichern können, wobei die Knoteneingänge ungewichtet sind, daß in jedem Schichtnetzwerk wenigstens zwei verschiedene Arten von Knoten vorhanden sind (I und V), wobei sich die Knotenart (I oder V) durch die Bedeutung der gespeicherten Datensätze ergibt ("inhaltlicher Code CI" oder "Verbindungs-Code Cv"), und daß die Knoten erster Art (I) Verbindungen mit dem hierarchisch vorangehenden Schichtnetzwerk haben und die Knoten zweiter Art (V) Verbindungen mit dem hierarchisch nachfolgenden Schichtnetzwerk.
2. Künstliches neuronales Netzwerk nach Anspruch 1, dadurch gekennzeichnet, daß in den Schichtnetzwerken und von Schichtnetzwerk zu Schichtnetzwerk die Knoten der ersten Art (I) nur Verbindungen mit den Knoten der zweiten Art (V) haben und umgekehrt, so daß ein Datenaustausch nur zwischen Knoten unterschiedlicher Art zustande kommt.
3. Künstliches neuronales Netzwerk nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß zwischen den Schichtnetzwerken jeweils ein Satz von elektrischen Schienen zum Sammeln und Verteilen von Daten oder Signalen angebracht ist.
4. Künstliches neuronales Netzwerk nach Anspruch 3, dadurch gekennzeichnet, daß die einzelnen Sammel- und Verteilerschienen eines jeden Satzes voneinander isoliert sind.
5. Künstliches neuronales Netzwerk nach Anspruch 3 oder 4, dadurch gekennzeichnet, daß die Knoten erster Art (I) in den Schichtnetzwerken externe Verbindungen nur mit den hierarchisch vorangehenden Verteilerschienen haben und die Knoten zweiter Art (V) nur Verbindungen mit den hierarchisch nachfolgenden Verteilerschienen und daß erst über die Schienen die Verbindungen zu den alternativen Knoten des benachbarten Schichtnetzwerkes verlaufen.
6. Künstliches neuronales Netzwerk nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, daß an jede Verteilerschiene nur Knoten mit gleicher Codierung oder Teilcodierung (hierarchisch nachfolgende Schiene: Cv; hierarchisch vorangehende Schiene: CI1, CI2) angeschlossen sind.
7. Künstliches neuronales Netzwerk nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet, daß die Knoten zweiter Art (V) jeweils aus einer logischen Verknüpfungsschaltung bestehen, welche bei der Aufnahme von Informationen ("Codieren") ein von einem Knoten Ii kommendes Aktivitätssignal mit dem von dem nachfolgenden Knoten Ii+1 kommenden Aktivitätssignal konjunktiv verknüpft und bei der Erzeugung von Informationen ("Decodieren") das von einem Knoten Ii kommende Aktivitätssignal mit dem von der Sammel- und Verteilerschiene kommenden Aktivitätssignal konjunktiv verknüpft.
8. Künstliches neuronales Netzwerk nach einem der Ansprüche 3 bis 7, dadurch gekennzeichnet, daß die Anzahl der Verbindungen jeder Schiene mit den Knoten zweiter Art (V) (oder entsprechenden Verzweigerstellen) größer als die Anzahl der Verbindungen mit den Knoten erster Art (I) gewählt wird, um eine Informationsverdichtung in Richtung nachfolgender Schichtnetzwerke zu erreichen.
9. Künstliches neuronales Netzwerk nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß bei der Verarbeitung von Texten in den Knoten erster Art (I) des hierarchisch untersten Schichtnetzwerkes umfangreiche Codes in symbolischer Form (Wörter der Sprache) gespeichert sind, während in den Knoten erster Art (I) der hierarchisch höheren Schichtnetzwerke nur noch eine Sequenz von mehreren binären Aktivitätssignalen gespeichert ist, die bei einer Aktivierung jeweils sequentiell ein- oder ausgegeben werden.
10. Künstliches neuronales Netzwerk nach einem der Ansprüche 3 bis 9, dadurch gekennzeichnet, daß die Funktion der Verteilerschienen mit digitalen Mitteln nachgebildet wird, wobei im Betriebsfall "Codieren" die Knoten zweiter Art (V) symbolische Codes Cv direkt an die Knoten erster Art (I) des hierarchisch nachfolgenden Schichtnetzwerkes liefern, und im Betriebsfall "Decodieren" die Knoten erster Art (I) symbolische Teilcodes (CI1, CI2) sequentiell an die Knoten zweiter Art (V) des hierarchisch vorangehenden Schichtnetzwerkes abgeben.
11. Künstliches neuronales Netzwerk nach Anspruch 10, dadurch gekennzeichnet, daß die Datenübertragung eines Codes Cv von einem Knoten zweiter Art (V) zu einem Knoten erster Art (I) des hierarchisch nachfolgenden Schichtnetzwerkes mit Hilfe eines assoziativen Auswahlvorganges durchgeführt wird und daß die Datenübertragung eines Teilcodes CI1, CI2 von einem Knoten erster Art (I) zu einem Knoten zweiter Art (V) des hierarchisch vorangehenden Schichtnetzwerkes in gleicher Weise assoziativ durchgeführt wird.
12. Künstliches neuronales Netzwerk nach einem der Ansprüche 7 bis 11, dadurch gekennzeichnet, daß mit einem Signal an alle Schichtnetzwerke von der Betriebsweise "Codieren" (Datenverarbeitung in Richtung wachsender Abstraktion) auf die Betriebsweise "Decodieren" (Datenverarbeitung in Richtung zunehmender Konkretion bzw. abnehmender Abstraktion) umgestellt wird, oder von "Decodieren" auf "Codieren".
13. Künstlich neuronales Netzwerk nach Anspruch 10, dadurch gekennzeichnet, daß das Umstellsignal nur den Knoten erster Art (I) aller Schichtnetzwerke zugeführt wird.
14. Künstliches neuronales Netzwerk nach den Ansprüchen 1 oder 2, dadurch gekennzeichnet, daß jedem Knoten zweiter Art (V) nur ein Knoten erster Art (I) nachfolgt.
DE4400261A 1994-01-07 1994-01-07 Künstliches neuronales Netzwerk Expired - Fee Related DE4400261C1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE4400261A DE4400261C1 (de) 1994-01-07 1994-01-07 Künstliches neuronales Netzwerk

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4400261A DE4400261C1 (de) 1994-01-07 1994-01-07 Künstliches neuronales Netzwerk

Publications (1)

Publication Number Publication Date
DE4400261C1 true DE4400261C1 (de) 1995-05-24

Family

ID=6507533

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4400261A Expired - Fee Related DE4400261C1 (de) 1994-01-07 1994-01-07 Künstliches neuronales Netzwerk

Country Status (1)

Country Link
DE (1) DE4400261C1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19841820A1 (de) * 1998-09-12 2000-03-23 Thomas Kromer Neuronale Netze auf der Grundlage fraktaler Abbildungsfunktionen

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3411168C2 (de) * 1983-04-14 1988-08-11 Wolfgang Dr.-Ing. 6101 Gross-Bieberau De Hilberg
DE3909153A1 (de) * 1989-03-21 1990-09-27 Bodenseewerk Geraetetech Parallelrechnerstruktur zum modellieren und trainieren kuenstlicher neuronaler netze
DE4227707A1 (de) * 1992-08-21 1993-03-18 Axel Dipl Ing Zimmermann Mikroelektronische schaltung zum aufbau selbstorganisierender karten aus digitalen neuronen
WO1993010500A1 (en) * 1991-11-13 1993-05-27 Iowa State University Research Foundation, Inc. Improved memory capacity neural network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3411168C2 (de) * 1983-04-14 1988-08-11 Wolfgang Dr.-Ing. 6101 Gross-Bieberau De Hilberg
DE3909153A1 (de) * 1989-03-21 1990-09-27 Bodenseewerk Geraetetech Parallelrechnerstruktur zum modellieren und trainieren kuenstlicher neuronaler netze
WO1993010500A1 (en) * 1991-11-13 1993-05-27 Iowa State University Research Foundation, Inc. Improved memory capacity neural network
DE4227707A1 (de) * 1992-08-21 1993-03-18 Axel Dipl Ing Zimmermann Mikroelektronische schaltung zum aufbau selbstorganisierender karten aus digitalen neuronen

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DE-Buch: HOFFMANN, Norbert: Kleines Handbuch Neuronale Netze, Vieweg 1993, Kapitel 5.1: Bidirektionale Assoziativspeicher, S. 98-102 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19841820A1 (de) * 1998-09-12 2000-03-23 Thomas Kromer Neuronale Netze auf der Grundlage fraktaler Abbildungsfunktionen

Similar Documents

Publication Publication Date Title
Tesauro Simple neural models of classical conditioning
DE102020005646A1 (de) Slot-Filling mit kontextbezogenen Informationen
DE60125536T2 (de) Anordnung zur generierung von elementensequenzen
DE3938645C1 (de)
DE112017004156T5 (de) Speicherzellenstruktur
DE4129561C2 (de) Informationsverarbeitungssystem
WO1997044743A1 (de) Verfahren zur optimierung eines fuzzy-regelsatzes durch einen rechner
Hebb 44. MULTILEVEL ASSEMBLY NEURAL ARCHITECTURE AND PROCESSING OF SEQUENCES
DE4400261C1 (de) Künstliches neuronales Netzwerk
DE112020005613T5 (de) Neuromorphe Einheit mit Kreuzschienen-Array-Struktur
EP0890153B1 (de) Verfahren zur ermittlung von zur entfernung geeigneten gewichten eines neuronalen netzes mit hilfe eines rechners
DE2838185C2 (de) Korrelationseinrichtung in einem Radargerät zum Erfassen eines Radarsignals aus dem Rauschen
DE202023103073U1 (de) Ein System zur Segmentierung synthetischer Bilder unter Verwendung einer Glühwürmchen-Technik auf Basis des Absorptionskoeffizienten
DE202023102984U1 (de) Aufforderung von maschinengelernten Modellen mit Hilfe von Gedankenketten
DE60022398T2 (de) Sequenzgenerator
DE3607241C2 (de)
DE3609925A1 (de) Einrichtung zur simulation von neuronensystemen
DE19734735C2 (de) Klassifizierungsverfahren mit einem neuronalen Netz
Aizawa Connectionism and artificial intelligence: History and philosophical interpretation
DE102005018147B4 (de) Assoziative Verkopplung von Netzwerken
DE3411168A1 (de) Das assoziative feld
WO2006005665A2 (de) Verfahren zur reaktion auf kontextänderungen mit einem neuronalen netz und neuronales netz zur reaktion auf kontextänderungen
DE19641286C1 (de) Lernverfahren für selbstorganisierende neuronale Netzwerke und Vorrichtung zur Durchführung des Verfahrens
DE102018009004A1 (de) Verfahren zum Einsatz neuronaler Netzwerke im Matching von Verfahrensanforderungen
Claus et al. If I say the word out loud, it will be more real

Legal Events

Date Code Title Description
8100 Publication of the examined application without publication of unexamined application
D1 Grant (no unexamined application published) patent law 81
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee