DE4133965A1 - Abstraktor - Google Patents

Abstraktor

Info

Publication number
DE4133965A1
DE4133965A1 DE4133965A DE4133965A DE4133965A1 DE 4133965 A1 DE4133965 A1 DE 4133965A1 DE 4133965 A DE4133965 A DE 4133965A DE 4133965 A DE4133965 A DE 4133965A DE 4133965 A1 DE4133965 A1 DE 4133965A1
Authority
DE
Germany
Prior art keywords
input
output
abstractor
comparison unit
bit wide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE4133965A
Other languages
English (en)
Inventor
Peter Dr Jaenecke
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alcatel Lucent Deutschland AG
Original Assignee
Standard Elektrik Lorenz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Standard Elektrik Lorenz AG filed Critical Standard Elektrik Lorenz AG
Priority to DE4133965A priority Critical patent/DE4133965A1/de
Priority to US07/958,901 priority patent/US5384897A/en
Publication of DE4133965A1 publication Critical patent/DE4133965A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Description

Die Erfindung betrifft einen 1 Bit breiten Abstraktor, einen N Bit breiten Abstraktor, eine Verwendung eines N Bit breiten Abstraktors und ein neuronales Netzwerk mit einem N Bit breiten Abstraktor.
Sowohl in technischen als auch in biologischen Systemen ist eine Nachrichtenübertragung Störungen ausgesetzt. Eine Möglichkeit, die korrekte Übertragung von Nachrichten trotz Störungen zu gewährleisten, besteht darin, auf der Senderseite die zu übertragende Nachricht (im folgenden als Struktural bezeichnet) mehrfach zu wiederholen, z. B. die Nachricht
1111 1111 1111 . . .,
und auf der Empfängerseite diese Nachricht aus den dort eintreffenden mehr oder weniger gestörten ( im folgenden als Singurale bezeichneten) Wiederholungen, z. B.
0111 1101 1001 . . .,
durch Ausnutzung der Redundanz zu rekonstruieren. Diese Rekonstruktion wird von einem Abstraktor geleistet; sie ist Gegenstand der Erfindung.
Paradigma für die Anwendung eines Abstraktors ist die Simulation der visuellen Wahrnehmung. Die Augen sind entweder fixiert oder in Bewegung; solange sie fixiert sind, nehmen sie eine Folge von ähnlichen Bildern auf; während der Bewegung herrscht eine "Dunkelphase", in der nichts wahrgenommen wird. Das Auge liefert somit Folgen von gehaltvollen ähnlichen Bildern; zwischen zwei solcher Folgen liegt jeweils eine Folge von inhaltsleeren während der Augenbewegung aufgenommenen Rauschbildern. Wann der Wechsel auf eine neue Bildfolge erfolgt, ist nicht bekannt; ihn festzustellen, gehört vielmehr mit zur Rekonstruktionsaufgabe.
Die Singurale sind untereinander ähnlich; sie ähneln aber auch dem Struktural, aus dem sie durch die Überlagerung von Störungen hervorgegangen sind. Ähnlichkeit bedeutet: Es gibt "Merkmale", in denen sich die Singurale untereinander und von ihrem Struktural unterscheiden und solche, die ihnen allen gemeinsam sind. Der Abstraktionsvorgang besteht darin, von den "Merkmalen", in denen sich die Singurale unterscheiden, zu abstrahieren; das sind gerade diejenigen Stellen, die durch die Übertragungsstörung verfälscht wurden. Faßt man daher das Struktural als exemplarisches Muster einer Musterklasse und dessen zugehörige Singurale als Realisierungen dieser Musterklasse auf, so läßt sich der Abstraktionsvorgang als Generierung dieses exemplarischen Musters aus einer gewissen Anzahl von Beispielen verstehen.
Die Generierung von exemplarischen Mustern aus Beispielen ist u. a. mit neuronalen Netzen versucht worden, z. B. mit einem CARPENTER-GROSSBERG-Klassifizierer. Die bisher bekannten neuronalen Netze beruhen auf dem Prinzip der gewichteten Aktivitätsausbreitung. Sie unterscheiden sich aufgrund ihrer Netztopologie, ihrer Trainingsregeln und den Eigenschaften ihrer Knoten (künstliche Neuronen).
Neuronale Netze, die als Klassifizierer verwendet werden, ordnen iterativ ein unbekanntes Muster eines von ihren eintrainierten exemplarischen Mustern zu: Voraussetzung hierfür ist allerdings die Konvergenz des Iterationsvorgangs. Sie können unterschieden werden in solche, bei denen die exemplarischen Muster im voraus bekannt sein müssen (wie etwa beim HOPFIELD- oder HAMMING-Netz) - das Training entspricht hier einem überwachten Lernen, und in solche, bei denen gleichzeitig mit dem Training die exemplarischen Muster gebildet werden (wie z. B. bei einem CARPENTER-GROSSBERG-Netz); in diesem Fall handelt es sich um unüberwachtes Lernen ("An Introduction to Computing with Neural Nets", by R.P. Lippmann, IEEE ASSP Magazine, April 1987, p4-22, "Self-organization of stable category recognition codes for analog input patterns , by G. Carpenter, S. Grossberg, d Applied Optics, 1 December 1987, Vol. 26, No. 23, p 4919-4930).
Nur neuronale Netze letzteren Typs sind mit einem Abstraktor vergleichbar. Sie haben jedoch erhebliche Nachteile, die sie für eine Anwendung ungeeignet erscheinen lassen: Sie sind anfällig gegen Störungen; bei einer gegebenen Fehlerrate kann die Konvergenz der bekannten Verfahren nicht gesichert werden; sie sind sehr rechenintensiv; ihr Einsatz ist auf eine begrenzte Zahl von exemplarischen Mustern beschränkt.
Der Erfindung liegt die Aufgabe zugrunde, einen digitalen 1 Bit breiten Abstraktor sowie einen digitalen N Bit breiten Abstraktor zu realisieren, der ohne Angabe darüber, wann in der Eingangsinformation ein Wechsel zu einer neuen Information und ohne Kenntnis über die zu erwartende Information exemplarische Muster aus der Eingangsinformation erzeugen kann.
Eine weitere Aufgabe gemäß der Erfindung besteht darin, ein neuronales Netz mit einem solchen Abstraktor anzugeben.
Diese Aufgaben werden erfindungsgemäß durch die Lehren der Patentansprüche 1 und 4 gelöst.
Eine erfindungsgemäße Verwendung des Abstraktors nach Anspruch 4 ist der Lehre des Patentanspruches 5 zu entnehmen. Ein erfindungsgemäß mit dem Abstraktor aufgebautes neuronales Netzwerk ist durch die Lehre des Patentanspruches 6 realisierbar.
Erfindungsgemäß wird durch den Abstraktor immer diejenige Eingangsinformation als exemplarisches Muster ausgezeichnet, die innerhalb einer gewissen, durch einen minimalen und maximalen Einstellwert Fmin, Fmax vorgebbaren, in die Vergangenheit zurückreichenden Zeitraums am häufigsten vorgekommen ist. Durch Vorgabe der Einstellwerte kann ein altes exemplarisches Muster schnell vergessen und das neue Muster generiert werden, da die Zahlengerade in zwei Richtungen durchlaufen werden kann (bis zum unteren Grenzwert Fmin oder zum oberen Grenzwert Fmax).
Gemäß einer weiteren Ausgestaltung der Erfindung kann mittels eines Sensitivitätswertes s die Konvergenzgeschwindigkeit (Abbau altes Muster, Aufbau neues Muster) des Abstraktors beschleunigt werden, in dem mit den vorgebbaren Einstellwerten smin, smax das Durchlaufen der Zahlengeraden beschleunigt wird (Multiplikation mit dem Faktor s).
Besonders vorteilhaft ist der Aufbau eines neuronalen Netzes aus einer Vielzahl von Schichten, wobei einer Eingangsschicht ein n Bit breiter Abstraktor vorgeschaltet wird, um vorab eine Groberkennung durchzuführen.
Weitere vorteilhafte Ausgestaltungen des Gegenstandes der Erfindung sind den Unteransprüchen zu entnehmen.
Im folgenden werden die erfindungsgemäßen Lehren anhand eines Ausführungsbeispieles in Verbindung mit den Figuren erläutert.
Es zeigt
Fig. 1 ein erstes Blockdiagramm eines erfindungsgemäßen 1 Bit breiten Abstraktors,
Fig. 2 ein zweites Blockdiagramm eines erfindungsgemäßen 1 Bit breiten Abstraktors und
Fig. 3 ein detailliertes Schaltbild eines 1 Bit breiten Abstraktors.
Ein digitaler 1 Bit breiter Abstraktor, wie in Fig. 1 gezeigt, besteht aus einem Bewerter B, an dessen Eingang eine digitale Eingangsinformation E anliegt. Der Bewerter B realisiert eine Übertragungsfunktion p
so daß am Ausgang des Bewerters ein positiver Wert ausgegeben wird, wenn die Eingangsinformation E gleich 1 ist und ein negativer Wert ausgegeben wird, wenn die Eingangsinformation E gleich 0 ist.
Der Ausgang des Bewerters B ist mit einem ersten Eingang E11 eines ersten Entscheiders E10 verbunden. An einem zweiten Eingang E12 des ersten Entscheiders E10 ist die Eingangsinformation E angelegt. An einem dritten und einem vierten Eingang E13, E14 des ersten Entscheiders E10 liegen ein erster vorgebbarer Einstellwert Fmax bzw. ein zweiter vorgebbarer Einstellwert Fmin an, um einen oberen und einen unteren Grenzwert beim Durchlaufen der Zahlengeraden vorzugeben.
Der Entscheider E10 realisiert einen Aktivierungszustand z das Abstraktors gemäß einer Aktivierungsfunktion F,
Dabei ist z = F (zalt, p(n)) der neue und zalt der alte Zustand des Abstraktors. Aus dem jeweils aktuellen Abstraktorzustand zalt ermittelt der Entscheider E10 eine Ausgangsinformation gemäß einer Ausgabefunktion f,
Die Ausgangsinformation ist somit diejenige Information (Muster), die in der jüngsten Vergangenheit am häufigsten vorgekommen ist. Bei Gleichhäufigkeit (z=0) wird die Eingangsinformation ausgegeben.
Um einen schnelleren Abbau eines alten Musters und Aufbau eines neuen Musters infolge eines Wechsels der Eingangsinformation zu erhalten, wird ein Sensitivitätswert s, vgl. Fig. 2, eingeführt.
Dazu enthält der erfindungsgemäße 1 Bit breite Abstraktor einen zweiten Entscheider E20, dessen erster Eingang E21 mit dem Ausgang des ersten Entscheiders E10 (d. h. f(z)) verbunden ist. An einem zweiten und einem dritten Eingang E22, E23 des zweiten Entscheiders E20 sind ein dritter vorgebbarer Einstellwert smax bzw. ein vierter vorgebbarer Einstellwert smin anlegbar.
Ein Ausgang des zweiten Entscheiders E20 ist auf einem weiteren Eingang des Bewerters B zurückgekoppelt. Dadurch wird die Eingangsinformation E in Abhängigkeit von der Ausgabeinformation gemäß
mit einer um den Faktor s multiplizierten Übertragungsfunktion p(n, s) behandelt. Der Faktor s bewirkt im Falle einer Änderung der Ausgabeinformation, d. h. f(z) neu ungleich f(z)alt einen schnelleren Durchlauf der Zahlengeraden in Richtung Fmin oder Fmax und somit einen schnelleren Aufbau des neuen Musters.
Als ein Beispiel für einen schnellen Abbau und darauffolgenden Aufbau eines Musters durch den erfindungsgemäßen 1 Bit breiten Abstraktor wird auf die Tabelle 1 verwiesen. Für smin=1 und smax=3 ist ein Verlauf der Rekonstruktion in drei deutlich voneinander abgrenzbaren Phasen zu sehen. Eine erste Phase (Schritt 2-9) in der die Nachricht "1" rekonstruiert wird, eine zweite, sehr kurze Phase (Schritt 10-11), in der das erste Muster "1" abgebaut und das neue Muster aufgebaut wird. In dieser Phase sind die Rekonstruktionsergebnisse unsicher. 1n einer dritten Phase (Schritt 12-16) wurde die Nachricht "0" rekonstruiert.
Dem Ergebnis nach Tabelle 1 ist auch zu entnehmen, daß eine zwischen zwei sinnvollen Nachrichtenfolgen eingeschobene Rauschperiode das Abstraktorergebnis wenig beeinflußt, da sich Rauschen durch im Mittel gleich häufiges Auftreten von Nachrichten auszeichnet.
Zur Verdeutlichung der Arbeitsweise des Abstraktors wird nun ein detailliertes Schaltbild des 1 Bit breiten Abstraktors gemäß Fig. 3 erläutert.
Der erste Entscheider E10 enthält eine Addiereinheit ADD, ein erstes Register REG1, ein zweites Register REG2 und ein drittes Register REG3, sowie eine erste Vergleichseinheit V1max, eine zweite Vergleichseinheit V2min und eine dritte Vergleichseinheit V3.
Ein erster Eingang der Addiereinheit ADD ist mit dem Ausgang des Bewerters B verbunden, so daß an der Addiereinheit ADD eine mit der Übertragungsfunktion p(n)
verarbeitete Eingangsinformation anliegt. Ein zweiter Eingang der Addiereinheit ADD ist mit einem ersten Register REG1 verbunden, in dem immer der vorhergehende Wert zalt des Abstraktors abgespeichert wird.
Ein Ausgang der Addiereinheit ADD (d. h. p(n) + zalt) ist mit einem ersten Eingang der ersten Vergleichseinheit V1max verbunden. Ein zweiter Eingang der ersten Vergleichseinheit V1max ist mit dem zweiten Register REG2 verbunden, wobei in dem zweiten Register der zweite Einstellwert Fmin ablegbar ist.
Die erste Vergleichseinheit V1max gibt immer den größeren der beiden an den Eingängen anliegenden Werte (zalt+p(n); Fmin) an einen ersten Eingang der zweiten Vergleichseinheit V2min ab. Ein zweiter Eingang der zweiten Vergleichseinheit V2min ist mit dem dritten Register REG3 verbunden, wobei in dem dritten Register der erste Einstellwert Fmax ablegbar ist.
An einem Ausgang der zweiten Vergleichseinheit V2min wird immer der kleinere der beiden an den Eingängen anliegenden Werte ausgegeben. Dieser ausgegebene Wert bildet den Aktivierungszustand z des Abstraktors.
Der Ausgang der zweiten Vergleichseinheit V1min ist mit dem ersten Register REG1 zum jeweiligen Ablegen des Wertes zalt und mit einem ersten Eingang der dritten Vergleichseinheit V3 verbunden.
An einem zweiten Eingang der dritten Vergleichseinheit V3 liegt die Eingangsinformation E an und an einem Ausgang der dritten Vergleichseinheit V3 ist die Ausgabeinformation gemäß der Ausgabefunktion f,
erhältlich. Dabei wird für den Fall, daß z=0 ist, d. h. Gleichhäufigkeit von "1" und "0" die Eingangsinformation E abgegeben.
Erfindungsgemäß kann nun in einfacher Weise durch eine Parallelschaltung von N einzelnen 1 Bit breiten Abstraktoren ein N Bit breiter Abstraktor realisiert werden, um N Bit breite Eingangsinformationen verarbeiten zu können.
Ein solcher N Bit breiter Abstraktor kann erfindungsgemäß als eine N Bit breite Speichereinheit zum Abspeichern von N Bit breiten digitalen Informationen verwendet werden.
Die so gebildete Speichereinheit dient insbesondere als temporäre Speichereinheit, wobei ein alter Speicherwert (Muster) durch einen neuen Speicherwert (Muster) überschrieben werden kann.
Erfindungsgemäß läßt sich auch ein neuronales Netzwerk mit einer Vielzahl von Schichten, einschließlich einer Eingangsschicht und einer Ausgangsschicht mit einem der Eingangsschicht vorgeschalteten N Bit breiten Abstraktor realisieren. Der N Bit breite Abstraktor dient dann als Groberkenner für die Trainingsphase des neuronalen Netzes.
Es ist dabei zweckdienlich, dem Abstraktor noch eine Entscheidungseinheit nachzuschalten, die immer dann ein Muster an die Eingangsschicht freigibt, wenn ein durch den Abstraktor erzeugter Wert (Muster) sich über eine vorgebbare Anzahl von Schritten nicht mehr geändert hat.

Claims (6)

1. Digitaler 1 Bit breiter Abstraktor zur Erzeugung eines exemplarischen Musters aus einer digitalen Eingangsinformation E, bestehend aus einem eine Ubertragungsfunktion p ausführenden Bewerters (B), an dessen Eingang die digitale Eingangsinformation E anliegt, wobei die Übertragungsfunktion p gegeben ist durch und bestehend aus einem ersten Entscheider (E1), mit einem ersten Eingang (E11), der mit einem Ausgang des Bewerters (B) verbunden ist, mit einem zweiten Eingang (E12), an dem die Eingangsinformation E anliegt und mit einem dritten und einem vierten Eingang (E13, E14), an denen ein erster vorgebbarer Einstellwert Fmax bzw. ein zweiter vorgebbarer Einstellwert Fmin anliegen, wobei der erste Entscheider (E10) einen Aktivierungszustand z gemäß einer Aktivierungsfunktion F realisiert, und F (zalt, p(n)) der neue und zalt der alte Zustand des Abstraktors ist, und wobei der erste Entscheider (E10) an einem Ausgang (A) eine Ausgangsinformation gemäß einer Ausgabefunktion f abgibt,
2. Digitaler 1 Bit breiter Abstraktor nach Anspruch 1, bestehend aus einem zweiten Entscheider (E20), mit einem ersten Eingang (E21), der mit dem Ausgang (A) des ersten Entscheiders (E10) verbunden ist, mit einem zweiten und einem dritten Eingang (E22, E23), an denen ein dritter vorgebbarer Einstellwert smax bzw. ein vierter vorgebbarer Einstellwert smin anliegen und mit einem Ausgang, der mit einem weiteren Eingang des Bewerters (B) verbunden ist, wobei s ein Sensitivitätswert für die Eingangsinformation E in Abhängigkeit von der Ausgabeinformation ist, mit
3. Digitaler 1 Bit breiter Abstraktor nach Anspruch 1 oder 2, wobei der erste Entscheider (E1) eine Addiereinheit (ADD) enthält, dessen erster Eingang mit dem Ausgang des Bewerters (B), dessen zweiter Eingang mit einem ersten Register (REG1) und dessen Ausgang mit einem ersten Eingang einer ersten Vergleichseinheit (V1max) verbunden sind, wobei ein zweiter Eingang der ersten Vergleichseinheit (V1max) mit einem zweiten Register (REG2) verbunden ist, in dem der zweite Einstellwert Fmin abgelegt ist, wobei an einem Ausgang der ersten Vergleichseinheit (V1max) immer der größere der beiden an den Eingängen anliegenden Werte an einem ersten Eingang einer zweiten Vergleichseinheit (V2min) abgegeben wird, wobei ein zweiter Eingang der zweiten Vergleichseinheit (V2min) mit einem dritten Register (REG3) verbunden ist, in dem der erste Einstellwert Fmax abgelegt ist, wobei an einem Ausgang der zweiten Vergleichseinheit (V2min) immer der kleinere der beiden an den Eingängen anliegenden den Aktivierungszustand z bildenden Werte abgegeben wird, wobei der Ausgang der zweiten Vergleichseinheit (V2min) mit dem ersten Register (REG1) und mit einem ersten Eingang einer dritten Vergleichseinheit (V3) verbunden ist, wobei an einem zweiten Eingang der dritten Vergleichseinheit (V3) die Eingangsinformation E anliegt und wobei an einem Ausgang des dritten Vergleichers die Ausgabeinformation gemäß der Ausgabefunktion f abgegeben wird.
4. N Bit breiter Abstraktor, bestehend aus N parallel geschalteten 1 Bit breiten Abstraktoren gemäß einem der Ansprüche 1 bis 3.
5. Verwendung eines N Bit breiten Abstraktors nach Anspruch 4 als Speichereinheit für N Bit breite digitale Informationen.
6. Neuronales Netzwerk mit einer Vielzahl von Schichten, einschließlich einer Eingangsschicht und einer Ausgangsschicht und mit einem N Bit breiten Abstraktor gemäß Anspruch 4, wobei der Abstraktor der Eingangsschicht vorgeschaltet ist.
DE4133965A 1991-10-14 1991-10-14 Abstraktor Ceased DE4133965A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE4133965A DE4133965A1 (de) 1991-10-14 1991-10-14 Abstraktor
US07/958,901 US5384897A (en) 1991-10-14 1992-10-09 Abstractor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4133965A DE4133965A1 (de) 1991-10-14 1991-10-14 Abstraktor

Publications (1)

Publication Number Publication Date
DE4133965A1 true DE4133965A1 (de) 1993-04-15

Family

ID=6442645

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4133965A Ceased DE4133965A1 (de) 1991-10-14 1991-10-14 Abstraktor

Country Status (2)

Country Link
US (1) US5384897A (de)
DE (1) DE4133965A1 (de)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3700820A (en) * 1966-04-15 1972-10-24 Ibm Adaptive digital communication system
US3638182A (en) * 1970-01-02 1972-01-25 Bell Telephone Labor Inc Random and burst error-correcting arrangement with guard space error correction
US4326259A (en) * 1980-03-27 1982-04-20 Nestor Associates Self organizing general pattern class separator and identifier
DE3336747C2 (de) * 1983-10-08 1985-11-28 Deutsche Thomson-Brandt Gmbh, 7730 Villingen-Schwenningen Verfahren zur Auswertung eines aus mehreren Codeelementen bestehenden Steuercodewortes
US4885757A (en) * 1987-06-01 1989-12-05 Texas Instruments Incorporated Digital adaptive receiver employing maximum-likelihood sequence estimation with neural networks
US5073954A (en) * 1989-02-28 1991-12-17 Electrocom Automation, Inc. Bar code location and recognition processing system

Also Published As

Publication number Publication date
US5384897A (en) 1995-01-24

Similar Documents

Publication Publication Date Title
DE112018002166T5 (de) Zyklisches gegnerisches Erzeugungsnetz für die unüberwachte domänen-übergreifende Bilderzeugung
DE10296704T5 (de) Fuzzy-Inferenznetzwerk zur Klassifizierung von hochdimensionalen Daten
DE2524734A1 (de) Informationsverarbeitungssystem mit mindestens einer informationsverarbeitenden baugruppe
DE4328752B4 (de) Spracherkennungssystem
DE4430977C2 (de) Künstliche Neuronen-Schaltungsvorrichtung
EP0901658A1 (de) Verfahren zur optimierung eines fuzzy-regelsatzes durch einen rechner
DE19504664C2 (de) Chaotisches rekurrentes neuronales Netz und Lernverfahren dafür
EP0925541B1 (de) Verfahren und vorrichtung zur rechnergestützten generierung mindestens eines künstlichen trainingsdatenvektors für ein neuronales netz
DE19503147A1 (de) Abbildungsschaltung und Chaos-Neuronen-Schaltung und ein diese verwendendes Netzwerk
EP1519301A2 (de) Vorrichtung zur klassifikation physiologischer Ereignisse
DE4133965A1 (de) Abstraktor
EP0349819A1 (de) In integrierter Schaltungstechnik ausgeführtes digitales neuronales Netz
DE19703964C1 (de) Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz
DE19728756B4 (de) Verfahren zum Auslegen eines festgewichteten neuronalen Netzwerks zur analogen Signalverarbeitung
EP0978052A1 (de) Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz
EP0643353A1 (de) Vorrichtung und Verfahren zur Datenverarbeitung
DE10048308B4 (de) Verfahren und Vorrichtung zum Klassifizieren von Objekten aus als Pixelmuster vorliegenden eingangsseitigen Bilddaten
DE112021000178T5 (de) Erzeugen von synchronisierten tönen aus videos
DE102021201833A1 (de) Vorrichtung zur Verarbeitung von mindestens einem Eingangsdatensatz unter Verwendung eines neuronalen Netzes sowie Verfahren
EP0591259B1 (de) Verfahren zur verarbeitung von unsicherheiten von eingangsdaten in neuronalen netzwerken
DE102020200998A1 (de) Verarbeiten von Sensordaten
DE112019003167T5 (de) Wahrscheinlichkeitsweitergabe über faktordiagramme
WO1992004687A1 (de) Verfahren und anordnung zur boole'schen realisierung neuronaler netze vom adaline-typ
EP1114398B1 (de) Verfahren zum trainieren eines neuronalen netzes, verfahren zur klassifikation einer folge von eingangsgrössen unter verwendung eines neuronalen netzes, neuronales netz und anordnung zum trainieren eines neuronalen netzes
WO1993018473A1 (de) Verfahren zur vorklassifikation von hochdimensionalen merkmalsvektoren für zwecke der signalverarbeitung

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8131 Rejection