DE69414636T2 - Neuronales Netzwerk für Signalverarbeitung - Google Patents
Neuronales Netzwerk für SignalverarbeitungInfo
- Publication number
- DE69414636T2 DE69414636T2 DE69414636T DE69414636T DE69414636T2 DE 69414636 T2 DE69414636 T2 DE 69414636T2 DE 69414636 T DE69414636 T DE 69414636T DE 69414636 T DE69414636 T DE 69414636T DE 69414636 T2 DE69414636 T2 DE 69414636T2
- Authority
- DE
- Germany
- Prior art keywords
- operators
- input
- activity
- level
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 22
- 238000013528 artificial neural network Methods 0.000 title description 3
- 230000000694 effects Effects 0.000 claims description 76
- 239000013598 vector Substances 0.000 claims description 55
- 238000012549 training Methods 0.000 claims description 36
- 230000006870 function Effects 0.000 claims description 22
- 238000004458 analytical method Methods 0.000 claims description 16
- 230000015572 biosynthetic process Effects 0.000 claims description 15
- 238000003786 synthesis reaction Methods 0.000 claims description 15
- 238000004891 communication Methods 0.000 claims description 12
- 238000012937 correction Methods 0.000 claims description 7
- 230000001537 neural effect Effects 0.000 claims description 7
- 238000000034 method Methods 0.000 claims description 5
- 230000000295 complement effect Effects 0.000 claims description 3
- 230000001174 ascending effect Effects 0.000 claims description 2
- 230000003247 decreasing effect Effects 0.000 claims 1
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 230000007246 mechanism Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 230000008520 organization Effects 0.000 description 4
- 101100191136 Arabidopsis thaliana PCMP-A2 gene Proteins 0.000 description 3
- 101100422768 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) SUL2 gene Proteins 0.000 description 3
- 101100048260 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) UBX2 gene Proteins 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 101150101590 hop-1 gene Proteins 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 240000002627 Cordeauxia edulis Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001054 cortical effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036403 neuro physiology Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
Description
- Die Erfindung betrifft ein Signalverarbeitungssystem, das auf einem Netz neuronaler Operatoren beruht.
- Derartige Systeme finden mehr und mehr Anwendung bei der Verarbeitung von Informationen. Sie sind insbesondere geeignet, um Probleme zu lösen, bei denen die klassische Informatik versagt. Als Anwendungsgebiet kann man z. B. die Robotertechnik, Autopiloten, die molekulare Forschung, die automatische Digitalisierung von Objekten, die Sprachanalyse und -synthese nennen.
- Eine besonders vielversprechende Anwendung für dieses System ist die Bildverarbeitung: die Analyse von Bildern zur Wiedererkennung von Formen oder Objekten, Codierung und Decodierung von Bildern, um eine Bildkompression z. B. für ein Fernsehsystem bereitzustellen.
- Nach zahlreichen mathematischen Modellen entstanden einige verdrahtete Realisierungen von neuronalen Netzen für mehrere Anwendungen. Man kann das "Perceptron" nennen, das aus einer Gruppe von Verarbeitungseinheiten besteht, die neuronale Operatoren genannt werden und in mehrere miteinander verbundene Schichten unterteilt sind. Die verarbeitenden Daten werden an den Eingang der ersten Schicht angelegt, und die Verarbeitung erfolgt sukzessive über die Schichten, wobei das Resultat am Ausgang der Operatoren der letzten Schicht ausgegeben wird.
- Die Funktion, die durch ein solches Netz realisiert wird, wird durch die Gewichte der Verbindungen bestimmt, durch die die Ausgänge von neuronalen Operatoren einer Schicht mit den Eingängen derer der folgenden Schicht verbunden sind. Diese Gewichte, die "synoptische Gewichte" genannt werden in Analogie zu der Biologie, sind modifizierbar über einen Trainingsmechanismus, der durch einen Algorithmus definiert wird. Dieser Algorithmus folgt z. B. der HEBB genannten Regel, wobei das Trainieren überwacht werden kann oder nicht. Als weitere Trainingsregel sei die "back propagation" oder "back propagation des Gradienten" genannt.
- Die neuronalen Operatoren können vom analogen oder digitalen Typ sein und relativ einfache Operationen durchführen. So sind analoge oder digitale Operatoren vorgesehen, um multilineare Funktionen zu berechnen, d. h. Summen von Produkten und eventuell Schwellenoperationen. Bei binären Operatoren gehen die Funktionen auf einfache logische Operationen zurück. Bei Betrachtung der Gruppe von Eingangssignalen eines Operators und der Gruppe dessen synoptischer Gewichte als eines Eingangsaktivitätenvektors und eines Koeffizientenvektors geht die Basisoperation z. B. auf ein Skalarprodukt von diesen zwei Vektoren zurück. Das Ausgangssignal von dem Operator definiert seine Aktivität, die interpretiert werden kann als ein Maß für die Konformität von empfangenen Signalen mit einem Referenzzustand, der vor dem Training durch den Koeffizientenvektor definiert wird.
- Im Rahmen einer materiellen Realisierung mit elektronischen Komponenten ist es selbstverständlich, daß die Zahl der Eingangsverbindungen eines Operators notwendigerweise beschränkt ist. Daraus resultiert eine Begrenzung der Zahl von Operatoren, die einen gegebenen anderen Operator beeinflussen können. Mit anderen Worten, in den bisher bekannten Netzen sind die möglichen Verbindungen zwischen den Operatoren in Abhängigkeit von der betrachteten Anwendung vordefiniert. Daraus ergibt sich ein Verlust an Flexibilität in der Konfiguration des Netzes sowie bei der Initialisierung und im Verlauf seiner Funktion.
- Die Erfindung hat zum Ziel, diesen obengenannten Nachteil zu überwinden und schlägt dazu ein System vor, das eine dynamische Rekonfigurierung von Verbindungen zwischen Operatoren des Netzes zuläßt.
- Genauer gesagt hat die Erfindung ein System zur Verarbeitung von Signalen zum Ziel, wie es in Anspruch 1 beschrieben ist.
- Dank des erwähnten Adressierungsmechanismus ist es ebenso einfach möglich, (über Software) die Verbindungen zwischen Operatoren bei der Initialisierung des Systems, um dieses an die unterschiedlichen Anwendungen anzupassen, als auch im Verlauf der Verarbeitung zu modifizieren, um die Konfiguration des Systems dynamisch zu modifizieren. Diese Modifikation kann z. B. in einer einfachen Änderung von Werten von Aktivitätsadressen bestehen.
- Um die Adressierungsoperationen zu vereinfachen und Paralleloperationen zuzulassen, wird erfindungsgemäß als weitere Eigenschaft vorgesehen, daß das Netz in mehrere Ebenen unterteilt ist, wobei jede Ebene eine Gruppe von Operatoren, wenigstens ein Speichermodul, das Speicherräumen der Operatoren der Gruppe zugewiesen ist, und wenigstens einen ersten Kommunikationsbus umfaßt, der die Operatoren mit dem Speichermodul verbindet, wobei das Netz Verbindungen umfaßt, die die Kommunikation zwischen der Steuereinheit und jedem der ersten Kommunikationsbusse zuläßt.
- Um ferner die Parallelität zu verbessern, umfaßt als weiterer Aspekt der Erfindung jede Ebene Adressierungsmittel, die sich zum Adressieren der Aktivitäten der Operatoren der anderen Ebenen nach Lesen von Aktivitätsadressen in dem Speichermodul der Ebene eignen.
- Gemäß einer besonderen Ausführungsform ist die multilineare Funktion das Skalarprodukt des Eingangsvektors entweder mit einem Koeffizientenvektor, der zu dem Operator gehört, oder mit einem anderen Eingangsvektor.
- Eine wichtige Eigenschaft von neuronalen Netzen ist es, daß sie unterschiedliche Verarbeitungen mit den gleichen Eingangssignalen durchführen können und Korrelationen zwischen diesen unterschiedlichen Verarbeitungen einrichten können. Um von dieser Möglichkeit zu profitieren, sieht die Erfindung außerdem vor, daß die Operatoren der Teilgruppe, die zur selben Ebene gehören, miteinander verbunden sind. Andererseits umfaßt jeder der Operatoren, die zum Bilden des Skalarproduktes eines Eingangsvektors mit einem Koeffizientenvektor dienen, Trainingsmittel zum Korrigieren des Koeffizientenvektors in Abhängigkeit von seinem Eingangsvektor und von Aktivitäten von anderen Operatoren der gleichen Ebene.
- Weitere Merkmale und Einzelheiten bei der Ausführung des Systems gemäß der Erfindung ergeben sich aus der folgenden Beschreibung.
- Das System, das oben definiert wurde, kann vielerlei Anwendungen finden, insbesondere, um Bildverarbeitung durchzuführen. Außerdem betrifft die Erfindung daneben ein System zur Analyse von Bildern, was auf dieses System zurückgeht.
- Gemäß dieser Anwendung sind die Eingangssignale des Systems repräsentative Signale eines Bildes, die am Eingang der Operatoren der ersten Ebene anliegen, wobei die Operatoren der zweiten Ebene verbunden sind mit Speicherräumen, die die Aktivitätsadressen von Operatoren der ersten Ebene enthalten. Andererseits aktiviert die Steuereinheit die unter schiedlichen Ebenen nacheinander in steigender Reihenfolge der Ebenen, wobei die Trainingsmittel aktiviert werden im Verlauf eines Trainingsverfahrens, das einer Analyse vorangeht, deren Ergebnis darstellbar ist durch die Koeffizientenwerte von Operatoren einer der Ebenen oberhalb der ersten.
- Wie im Detail später deutlich werden wird, erlaubt die relative Adressierung von Aktivitäten des Eingangs eines Operators im Zusammenhang mit der Unterteilung in mehrere Ebenen des Netzes die Analyse von bewegten Bildern, um homogene Formen und dann Objekte unabhängig von ihren Positionen und ihren relativen Bewegungen zu erkennen.
- Dieses Bildanalysesystem wird vorzugsweise während einer Trainingsphase verwendet, um ein System der Bildsynthese zu realisieren. Das gleiche System kann ebenso ein Analysesystem und Synthesesystem für mit den Bildern verbundene Klänge beinhalten.
- Die interessanten Aspekte der Anwendung des Systems in bezug auf die Bildverarbeitung werden genauer in der folgenden Beschreibung erläutert, wobei auf die beigefügten Figuren Bezug genommen wird.
- Fig. 1 ist eine Darstellung einer Gruppe einer speziellen Realisierung des erfindungsgemäßen Systems.
- Fig. 2 ist eine schematische Darstellung der Organisation der Operatoren im Netz gemäß der Erfindung.
- Fig. 3 stellt eine Ausführungsform einer Ebene des Netzes gemäß der Erfindung dar.
- Fig. 4 ist ein Schema, das den Mechanismus der Adressierung gemäß der Erfindung erläutert.
- Fig. 5 ist eine funktionelle Darstellung eines Operators im Netz.
- Fig. 6 und 7 zeigen Ausführungsformen von Eingangs- und Ausgangsprozessoren, die einen Netzoperator bilden.
- Das als Beispiel dargestellte System in Fig. 1 ist aufgebaut aus einem Netz von neuronalen Operatoren H1 bis H4, die mit einer Steuereinheit 1 zusammenwirken, die die Rolle eines Überwachers spielt. Diese Einheit 1 wie auch die erste Ebene H1 des Netzes kommunizieren mit einem Speicher MMU, in welchem die zu verarbeitenden Signale abgelegt sind, z. B. Pixel eines Bildes. Jede Ebene H1 bis H4 ist um einen Bus B1 bis B4 herum angeordnet und umfaßt eine Gruppe von Operatoren HOP1 bis HOP4, ein Speichermodul MU1 bis MU4 und einen Steuerschaltkreis CU1 bis CU4, jeweils verbunden mit dem Bus B1 bis B4 der entsprechenden Ebene.
- Die Busse B1 bis B4 können miteinander und mit der Steuereinheit 1 über die Verbindungen BL1 bis BL4 und Bussteuerungen BC1 bis BC4 kommunizieren.
- Diese Organisation realisiert daher eine Verteilung des Speichers für die Verarbeitung je nach Ebene, wodurch eine Delokalisierung gewisser Operationen möglich ist, was den Speicherzugriff für jede betroffene Ebene ermöglicht.
- Wenn man die Struktur berücksichtigt, die gewählt wurde, so wird das Netz derart gesteuert, daß sukzessive die Operatoren unterschiedlicher Ebenen mit steigender Reihenfolge der Ebenen aktiviert werden und bei einer aktiven Ebene sukzes sive in einer gegebenen Reihenfolge unterschiedliche Operatoren dieser Ebene aktiviert werden.
- Selbstverständlich kann die Erfindung mit anderen Strukturen ausgeführt werden, die andere physikalische Verbindungssysteme zwischen den Operatoren verwenden, insbesondere solche, die eine asynchrone und parallele Funktion wenigstens eines Teils der Netzoperatoren ermöglichen.
- Genauere Erläuterungen bezüglich der Funktion des Systems werden speziell mit Bezug auf die Fig. 3 und 4 gegeben. Es reicht im Moment, die Notationskonvention anzugeben, die im folgenden verwendet wird. Dazu beziehen wir uns auf Fig. 2, die schematisch die Organisation von Netzoperatoren darstellt.
- Gemäß dieser Konvention wird jede Ebene mit einem Index v bezeichnet, eine speziell betrachtete Ebene wird mit dem Index vc bezeichnet. Analog werden die unterschiedlichen Operatoren ein und derselben Ebene mit einer Schichtbezugsziffer r bezeichnet, wobei die Schicht eines speziellen Operators bezeichnet wird mit der Bezugsziffer rc. So wird ein Operator, der zu der Ebene v und der Schicht r gehört, mit OPvr bezeichnet, ein speziell betrachteter Operator mit OPvcrc bezeichnet und irgendein Operator einer speziellen Ebene vc mit OPvcr bezeichnet.
- Fig. 3 zeigt ein Ausführungsbeispiel von elementaren Bauteilen einer der Ebenen Hv des Netzes. Man erkennt den Bus Bv mit Datenleitungen DT, Adreßleitungen AD und Steuerleitungen CD für die Kommunikation zwischen den Einheiten dieser Ebene mit denen von anderen Ebenen und mit der Steuereinheit 1. Die Operatoren OPvrc, ..., OPVr sind jeweils mit den Datenleitungen DT verbunden. Sie sind andererseits untereinander verbunden über eine zweite Verbindung b, die ebenso ein Kommunikationsbus sein kann. Der Steuerschaltkreis CUv setzt sich im wesentlichen aus einem Speichercontroller MCU und einem Sequenzierer MS zusammen, vorzugsweise mikroprogrammierbar. Der Sequenzierer MS empfängt Initialisierungs- und Steuersignale wie Taktsignale über Steuerleitungen CD und gibt seinerseits Signale aus, die den Speichercontroller MCU und die Operatoren OPvr ansteuern. Der Speichercontroller MCU ist über seinen Eingang mit den Datenleitungen DT und über seinen Ausgang mit den Adreßleitungen AD verbunden. Er ist ebenso verbunden mit den Steuerleitungen CD, um Steuersignale zum Lesen oder Schreiben und zum Austauschen von Anfrage- und Bestätigungssignalen mit dem Buscontroller BCv bei Adressierungsoperationen auszutauschen.
- Dank dieser Anordnung ist der Speichercontroller in der Lage, ein Speichermodul derselben Ebene oder einer anderen Ebene zu adressieren. Er kann andererseits eine Adresse in dem Speichermodul, das mit MUv zusammenhängt, lesen und sie auf den Adreßleitungen AD ausgeben, um auf Daten zuzugreifen, die in Speichermodulen anderer Ebenen enthalten sind.
- Diese Realisierung erlaubt das Umsetzen eines vorzugsrichtungsfreien Mechanismus, was essentiell für die Erfindung ist. Dieser Mechanismus wird schematisch in Fig. 4 erläutert. In dieser Figur betrachten wir den Operator OPvcr der Ebene vc und der Schicht r. Dieser Operator ist mit einem Speicherraum des Moduls MUvc verbunden, der insbesondere einen Koeffizientenvektor [Gvr], wenigstens eine Adresse Ivr sowie den letzten berechneten Wert der Aktivität Fvcr des Operators enthält. Eine Adresse Ivr definiert einen Speicherort eines Speichermoduls einer anderen Ebene, z. B. v, worin sich eine Komponente eines Aktivitätsvektors [F(Ivr)] befindet, die ein Aktivitätswert des Operators der Ebene v und der Schicht r ist.
- So läuft erfindungsgemäß die Berechnung der Aktivität am Ausgang des Operators OPvcr zunächst über eine Adressierung des Moduls MUvc ab, um die Adressen Ivr zu suchen. Diese Adressen erlauben es, auf den Aktivitätsvektor [F(Ivr)] zuzugreifen, was in der Durchführung der Berechnungen durch Operatoren der Ebene v resultiert. Dieser Aktivitätsvektor wie auch der Koeffizientenvektor [Gvr] werden danach an die Eingänge des Operators OPvcr angelegt. Der Operator berechnet dann das Skalarprodukt von diesen zwei Vektoren, und das so erhaltene Ergebnis Fvcr wird schließlich in dem Modul MUvc abgelegt.
- Man kann verifizieren, daß diese Operationen dank der Mittel ausgeführt werden können, die in Fig. 3 beschrieben wurden, indem man selbstverständlich eine geeignete Reihenfolge der Befehle einhält.
- Fig. 5 ist eine funktionelle Darstellung eines Operators, der mit Trainingsmitteln versehen ist und geeignet ist, über den Bus b mit anderen Operatoren derselben Ebene zu kommunizieren. Um die Erklärungen zu vereinfachen sei angenommen, daß es sich um den Operator OPvcrc der Ebene vc und der Schicht rc handelt. Der Operator besteht aus einem Eingangsprozessor PE und einem Ausgangsprozessor PS. Der Eingangsprozessor PE ist zusammengesetzt aus zwei funktionellen Modulen, genannt Eingangsoperator OE und Eingangstrainingsoperator AE, jeweils den Berechnungen der Aktivität und der Trainingsfunktion über Modifizierung von Koeffizienten zugeordnet. Gleichermaßen besteht der Ausgansprozessor PS aus entsprechenden Funktionsmodulen: einem Ausgangsoperator OS und einem Ausgangstrainungsmodul AS.
- Der Eingangsoperator OE ist über den Eingang mit Datenlinien DT derart verbunden, daß er den Koeffizientenvektor [Gvrc] in dem Modul MUvc wie auch dem Aktivitätsvektor [F(Ivrc)] gemäß den Adressen Ivrc in dem Modul MUvc ablegen kann. Der Eingangsoperator OE berechnet danach die Aktivität fvcrc, und diese Aktivität wird übertragen an die Datenleitungen DT für ein Ablegen in dem Modul MUvc. Sie wird andererseits an den Bus b für das Trainingsmodul AE und andere Operatoren derselben Ebene vc übertragen.
- Der Ausgangsoperator OS des Ausgangsprozessors PS ist über den Eingang mit den Datenlinien DT derart verbunden, daß sein Koeffizientenvektor [gvcr] abgelegt werden kann. Ein weiterer seiner Eingänge ist mit dem Bus b derart verbunden, daß ein zweiter Aktivitätsvektor [fvcr] empfangen werden kann, der gebildet ist aus der Gruppe von Aktivitäten von Eingangsoperatoren OE derselben Ebene vc. Die Aktivität Fvcrc, wie sie berechnet wurde durch den Ausgangsoperator OS, wird an die Datenleitungen DT für das Ablegen in dem Modul MUvc wie auch das dazugehörige Trainingsmodul AS übertragen.
- Das Trainingsmodul AE des Eingangsprozessors PE ist über den Eingang mit dem Bus b verbunden, um den zweiten Aktivitätsvektor [fvcr] zu empfangen. Es empfängt andererseits den Aktivitätsvektor [F(Ivrc)]. In Abhängigkeit von diesen zwei Eingangsvektoren berechnet das Modul AE die Korrektur [dGvrc] des Koeffizientenvektors [Gvrc].
- Das Ausgangstrainingsmodul AS empfängt den Koeffizientenvektor [gvcr] des Ausgangsoperators OS wie auch den zweiten Aktivitätsvektor [fvcr] und gibt die Korrektur [dgvcr] des Koeffizientenvektors [gvcr] aus.
- Es sollte beachtet werden, daß diese Darstellung lediglich funktionell ist und der Schnitt von Eingangs- und Ausgangsprozessoren in Trainingsoperatoren und -module nicht unbe dingt dem physikalischen Schnitt im Schaltkreis einer praktischen Realisierung entsprechen muß. Nichtsdestotrotz erlaubt es diese Darstellung, die detaillierte Funktion des Operators einfacher zu erläutern.
- Erinnern wir uns zunächst, daß die Aktivierung einer gegebenen Ebene vc darin besteht, sukzessive in vorgegebener Reihenfolge jeden von den Operatoren OPvcr der Ebene zu aktivieren. Wenn der Operator OPvcrc aktiviert ist, plaziert der Speichercontroller MCU am Eingang des aktiven Eingangsoperators OE den ersten Aktivitätsvektor [F(Ivrc)]. Der Koeffizientenvektor [Gvrc] sei vorher abgelegt. Der Operator OE berechnet die Aktivität fvcrc, die die entsprechende Zusammensetzung des zweiten Aktivitätsvektors [fvc] ist, und überträgt sie an den Bus b. Die Ausgangsoperatoren und die Trainingsmodule jedes der Operatoren der Ebene legen diesen Wert ab. Wenn alle diese Eingangsoperatoren der Ebene so sukzessive aktiviert worden sind, ist der zweite Aktivitätsvektor [fvcr] vollständig definiert, und die Ausgangsoperatoren der Operatoren der Ebene vc berechnen die Aktivitäten Fvcr, dann berechnen die Trainingsmodule AS die Korrekturwerte [dgvcr] der Koeffizientenvektoren der dazugehörigen Ausgangsoperatoren.
- Zur Illustration können zwei Beispiele für jeweils auf Eingangs- und Ausgangsprozessoren anwendbare Trainingsregeln angegeben werden. Für den Eingangsprozessor PE besteht das Training darin, eine Korrektur des Koeffizientenvektors [Gvrc] bei der Aktivität Fvcr wenigstens eines Ausgangsprozessors PS der gleichen Ebene beim Überschreiten einer vorgegebenen Schwelle auszulösen. Die Korrektur ist danach proportional zum Aktivitätsvektor [F(Ivrc)]. Das Training des Ausgangsprozessors besteht darin, bei jeder Aktivitätskomponente fvcr des zweiten Aktivitätsvektors [rvcr] eine Komponente des Koeffizientenvektors wie die bedingte Wahr scheinlichkeit zu definieren, bei der die Aktivitätskomponente fvcr und die Aktivität Fvcrc des Ausgangsprozessors gleichzeitig jeweils eine vorgegebene Schwelle überschreiten. Selbstverständlich können andere Trainingsregeln je nach Anwendung gewählt werden, insbesondere, um den gewünschten Korrelationstyp zwischen den Operatoren ein und derselben Ebene anzupassen.
- Fig. 6 und 7 stellen jeweils die Eingangs- und Ausgangsprozessoren dar, die mittels mikroprogrammierbarer Schaltkreise realisiert sind, die die Funktionen zur Berechnung der Aktivität und zum Training beinhalten. Diese Schaltkreise werden jeweils durch spezielle Mikroprogrammodule gesteuert, die durch den Mikrosequenzierer MS ausführbar sind.
- Der Schaltkreis nach Fig. 6 zeigt speziell den Datenpfad eines Eingangsprozessors PE. Ein erster bidirektionaler Filter SEL1 ist mit den Datenleitungen DT verbunden. Die Ausgänge des Filters SEL1 sind jeweils mit zwei Registerbänken RA und RB verbunden, deren Ausgänge mit einem zweiten Filter SEL2 verbunden sind. Die zwei Ausgänge des zweiten Filters SEL2 liegen am Eingang einer Arithmetik- und Logikeinheit ALU, deren Ausgang über ein Register mit einem dritten Filter SEL3 verbunden ist. Das Filter SEL3 hat einen ersten Ausgang, der mit dem Bus b verbunden ist, und einen zweiten Ausgang, der mit einem zweiten Eingang des ersten Filters SEL1 verbunden ist. Ein dritter Eingang des zweiten Filters SEL2 ist mit dem Bus b verbunden.
- Die Arithmetik- und Logikeinheit ALU ist versehen mit den klassischen Operatoren für Addition, Multiplikation, Verschieben und Vergleichen, um die Berechnungen für die Aktivitäten und Änderungen von Koeffizienten durchzuführen. Man kann leicht verifizieren, daß die dargestellte Struktur es dem Schaltkreis erlaubt, die Rechenoperationen für die Ak tivitäten und die Aktualisierung von Koeffizienten durch eine einfache geeignete Sequenzierung von Befehlen, die an den Filtern, den Registerbänken und an der Arithmetik- und Logikeinheit anliegen, durchzuführen. Um die Verifizierung zu vereinfachen, sind die unterschiedlichen Signale, die durch den Eingangsprozessor betroffen sind, dargestellt in Relation mit den Verbindungen, auf denen diese Signale auftreten.
- Der Ausgangsprozessor nach Fig. 7 besteht aus den gleichen Elementen. Die einzigen Unterschiede in bezug auf den Eingangsprozessor sind das Fehlen einer Verbindung zwischen dem dritten Filter SEL3 und dem Bus b und die damit zusammenhängenden Signale. Wie vorher erlaubt eine geeignete Aufeinanderfolge von Bestandteilen des Prozessors die Realisierung von Funktionen zur Berechnung der Aktivitäten und Koeffizienten.
- Im folgenden wird im Detail erläutert, wie das System, das oben beschrieben wurde, verwendet werden kann und eventuell angepaßt werden kann an die Bildverarbeitung. Die erste zu betrachtende Bearbeitung ist offensichtlich die der Bildanalyse, bestimmt zur Ausgabe von synthetischen Informationen, sogar abstrakten Informationen in Abhängigkeit von Pixeln, die das zu analysierende Bild darstellen. Eine andere Verarbeitung ist das Komplementäre zu dem obigen, d. h. die Synthese eines Bildes aus synthetischen Informationen der gleichen Natur, wie sie bei der Analyse erarbeitet wurden. Schließlich ist es ausgehend von einem Analysesystem und einem Synthesesystem möglich, ein System zur Kodierung und Dekodierung von Bildern zu realisieren, das vorteilhaft auf ein Übertragungssystem mit hohem Kompressionsgrad angewendet werden kann.
- Wiederum in Fig. 1 wird der Hauptspeicher MMU verwendet, um die Gruppe von Pixeln des Bildes gemäß einem geeigneten Schnitt abzulegen. Die Operatoren HOP1 der ersten Ebene H1 sind also dazu vorgesehen, um die ersten Verarbeitungen von Bildsignalen durchzuführen. In dem Fall, wo das System eine Kodierung im Hinblick auf eine Wiederherstellung des Bildes in den Ausgangszustand für das menschliche Auge durchführen muß, ist es rechtens, als Operatoren der ersten Ebene vordefinierte und für die menschliche Sicht geeignete Filter zu wählen. Vorteilhaft werden die Filter gewählt, um biologische Filter des menschlichen visuellen Systems zu simulieren, die Objekte zahlreicher Studien und Veröffentlichungen sind.
- So wird in dem Artikel "The Laplacian Pyramid as a Compact Image Code", Peter J. Burt et al. (IEEE Transactions on Communications, Bd. Com-31, Nr. 4, April 1983, S. 532-540) die Verwendung von Gauß- und Laplace-Funktionen bei einer mehrstufigen Organisation beschrieben, womit die Kodierung eines Bildes durch Verstärkung von lichtstarken Zonen und Konturen ermöglicht wird. Der Artikel "Representation issues and local filter models of two-dimensional spatial visual encoding" von J. G. Daugman (Models of the Visual Cortex, D. Rose and V. G. Dobson, 1985 John Wiley & Sons Ltd, S. 96-107) beschreibt die Verwendung von Gabor-Filtern, die auf zwei Dimensionen verallgemeinert wurden und die das Verstärken von Bildzonen in privilegierten Richtungen erlauben. Schließlich werden in dem Artikel "Spatiotemporal Mechanisms in Receptive Fields of Visual Cortical Simple Cells: A Model" von Florentin Wörgötter und Gary Holt (Journal of Neurophysiology, Bd. 65, Nr. 3, März 1991, S. 1 bis 16) räumlich-zeitliche Filter beschrieben, die das Verstärken von Teilen des Bildes erlauben, die starke Schwankungen in der Zeit zeigen und auf die das menschliche Auge besonders sensibel reagiert.
- Die Analyse der ersten Ebene kann selbstverständlich vervollständigt werden durch andere Familien von Filtern, wie denen, die farbempfindlich sind, strukturempfindlich sind, krümmungsempfindlich sind, etc.
- Ohne auf die Einzelheiten einzugehen, die in den obengenannten Schriften dargestellt sind, kann man zusammenfassen, daß die mehrstufigen Filter zunächst räumliche und eventuell zeitliche Faltungen einer Generatorfunktion des Filters (Gauß-, Laplace-) durch die Pixel bilden, die zu einer Untergruppe im Bild gehören. Diese Faltung wird parallel auf die Gesamtheit von Teilgruppen angewendet, die das Bild bilden. Die erzielten Ergebnisse bilden das, was man "Hyperpixel" nennen kann, die eine kondensierte Darstellung des ursprünglichen Bildes bilden. Diese Darstellung kann interpretiert werden als ein Bild mit reduzierter Abstufung. Diese Hyperpixel, die so erhalten wurden, werden erneut in Untergruppen gruppiert, wobei jede Untergruppe eine neue Faltung durch die Generatorfunktion derart durchläuft, daß eine neue Gruppe von Hyperpixeln definiert wird, die einer neuen Darstellung des Bildes entsprechen, reduziert um eine zweite Stufe. Diese Operationen können so oft wiederholt werden, wie es notwendig ist, damit die Zahl von Hyperpixeln bei der letzten Stufe geeignet reduziert ist, um eine Bearbeitung durch die zweite Ebene zuzulassen. Indem dieses Verfahren für jede der Generatorfunktionen unterschiedlicher Filtertypen durchgeführt wird, erhält man mehrere kondensierte und komplementäre Darstellungen des Ausgangsbildes, und es sind diese unterschiedlichen Darstellungen, die die unterschiedlichen Schichten von Operatoren der ersten Ebene definieren werden.
- Somit realisiert jede Schicht eine Zerlegung des ursprünglichen Bildes gemäß einer funktionellen Basis, wodurch eine Wiederherstellung durch eine Aufeinanderfolge von Häufungen derart möglich wird, wie sie in dem ersten zitierten Artikel beschrieben ist.
- Wenn das System eine Analyse eines Bildes durchführt, gibt jede Schicht am Ausgang eine Gruppe von Aktivitäten aus, deren Dimension von der Anzahl von Pixeln des Bildes und dem Verhältnis und der verwendeten Zahl von Stufen in den Filtern der ersten Ebene abhängt. Im Hinblick auf die Ausführung der Regruppierung des Bildes durch eine homogene Zone führt die Steuereinheit periodisch Regruppierungen nach Klassen durch, die benachbarten Bereichen für Aktivitätswerte entsprechen. Jede Klasse hängt mit einem Wert zusammen, der Aktivitäten darstellt, die zu der Klasse gehören, z. B. indem der Mittelwert von Aktivitäten der Klasse gebildet wird. Diese repräsentativen Werte werden dann in abfallender Reihenfolge ihrer Werte geordnet, dann in dem Speicherraum abgespeichert, der mit dem Operator zusammenhängt, und zwar unter einer Adresse, die die eindeutige Adresse der Aktivität am Eingang des Operators der zweiten Ebene derselben Schicht ist. Dieselbe Operation wird für jede der Schichten der ersten Ebene durchgeführt.
- Es sei davon ausgegangen, daß jeder Operator der zweiten Ebene immer seine Eingangsaktivitäten in Abhängigkeit von der vorher definierten Aktivitätsadresse empfängt, wobei die Funktion der zweiten Ebene praktisch stabil in bezug auf Verschiebungen von homogenen Zonen des Bildes ist. Selbstverständlich wird diese Stabilität konserviert, während die gleichen Zonen sich in den aufeinanderfolgenden Bildern, die am Eingang des Systems anliegen, wiederfinden.
- Unter der Annahme, daß die obengenannte Bedingung beachtet wird, werden sich die Koeffizientenwerte der Operatoren der zweiten Ebene stabilisieren. Diese Koeffizienten werden je weils eine entsprechende homogene Zone darstellen. Ein solcher Mechanismus wird bei Trainingsphasen vor Syntheseoperationen verwendet werden müssen.
- Es ist festzustellen, daß das Training von Koeffizienten verbessert wird dank der Korrelation zwischen den Aktivitäten unterschiedlicher Schichten, d. h. dank der Verwendung von Eingangs- und Ausgangsoperatoren, die diese Korrelation ermöglichen.
- Die Anwendung des Systems, um Wiedererkennungen von Formen durchzuführen, wird daher darin bestehen, am Eingang des Systems Bilder anzulegen, die Formen enthalten, die man wiederzuerkennen wünscht, und in der Steuereinheit die unterschiedlichen Profile von Koeffizientenvektoren von Operatoren abzulegen, die diesen unterschiedlichen Formen entsprechen. In der Steuereinheit wird jedes Profil daher verbunden werden können mit Codes, die es dem Nutzer ermöglichen, die durch das System wiedererkannten Formen zu identifizieren und zu erkennen.
- Die Verwendung des Systems in einem Synthetisierer von Bildern besteht darin, als Wert, der eine Klasse von Aktivitäten darstellt, spezielle Werte zu nehmen, die den Werten entsprechen, die die Koeffizienten annehmen, wenn die zu synthetisierenden Zonen enthalten sind in den Bildern, die als Training dienen.
- Das System kann ebenso verwendet werden, um eine Kodierung von Bildern durchzuführen, indem die Analyse- und Synthesefunktionen, die durch das System möglich sind, verbunden werden. Diese Verbindung wird es erlauben, tatsächlich auf jeder Ebene der Analyse die Konformität der Synthese zu verifizieren und daher festzulegen, bis zu welcher Ebene dieses befriedigend ist.
- Das System der Kodierung von oben erlaubt es daher, ein Übertragungssystem mit hoher Kompressionsrate zu realisieren, indem auf der Ebene des Senders ein Analyse- und Synthesesystem und auf der Ebene des Empfängers ein Synthesesystem vorgesehen wird. Die Trainingsphase des Analysesystems hat zur Folge, daß die Koeffizientenwerte der Operatoren fixiert werden und diese Werte übertragen werden an das Synthesesystem. Bei normaler Funktion arbeitet der Sender als Analysator und überträgt an den Empfänger die Aktivitätswerte entsprechend den analysierten Bildern. Die Aktivitätswerte, die übertragen wurden, sind von der Priorität her diejenigen von Operatoren der höchsten Ebene, dann in Abhängigkeit von der gewünschten Qualität, diejenigen von niedrigeren Ebenen. Auf der Ebene des Empfängers macht es die empfangene Aktivität eines Operators einer gegebenen Schicht möglich, die Aktivitäten von Operatoren von niedrigeren Ebenen wieder herzustellen, indem als Aktivität die Werte von Koeffizienten von Operatoren genommen werden, deren dazugehörige empfangene Aktivität stark ist.
- Aus Gründen der Vereinfachung betreffen die obigen Erläuterungen nur zwei erste Ebenen, aber man kann das Funktionsprinzip leicht auf höhere Ebene verallgemeinern. So macht es die dritte Ebene möglich, Objekte zu kodieren, und die vierte Ebene macht es möglich, Prototypen von Objekten zu kodieren.
- In der Perspektive einer Anwendung in einem Fernsehsystem, was gleichzeitig Analyse, Übertragung und Synthese von Bildern und Klängen beinhaltet, kann das gleiche System verwendet werden, indem spezialisierte Operatorschichten bei der Analyse und der Synthese von Klängen verwendet werden.
Claims (14)
1. System zur Verarbeitung von Signalen mit einem Netz
neuronaler Operatoren (OPvr), gesteuert durch eine
Steuereinheit (1), wobei jeder neuronale Operator
(OPvcr) dazu gedacht ist, eine multilineare Funktion
auf wenigstens einem Eingangsvektor ([F(Ivr)]) aus
mehreren Eingangsvariablen zu bearbeiten, wobei die
Funktion eine Aktivität (Fvcr) des Operators (OPvcr)
definiert, die Eingangsvariablen Eingangssignale des
Systems oder Aktivitäten anderer Operatoren des Netzes
darstellen, wobei das System Vorrichtungen zum
Abspeichern (MU1, ... MU4), die adressierbar sind durch die
Steuereinheit (1) und organisiert sind als mehrere
Speicherräume, die jeweils mit den Operatoren (OPvr)
zusammenhängen, umfaßt, wobei das System dadurch
gekennzeichnet ist, daß jeder Speicherraum an einer
gegebenen Adresse, genannt Aktivitätsadresse (Ivr) einen
Wert, der die Aktivität (Fvrc) des dazugehörigen
Operators (OPvrc) darstellt, enthält, und dadurch, daß für
eine Untergruppe wenigstens anderer Operatoren des
Netzes die dazugehörigen Speicherräume gleichermaßen die
Adressen (Ivr) von Aktivitäten enthalten, die die
Eingangsvektoren ([R(Ivr)]) der Operatoren (OPvrc) der
Untergruppe bilden.
2. System nach Anspruch 1, dadurch gekennzeichnet, daß das
Netz aufgeteilt ist in mehrere Ebenen (H1, ... H4),
wobei jede Ebene (Hv) eine Gruppe (HOPv) von Operatoren
(OPvr), wenigstens ein Speichermodul (MUv), das den
Speicherräumen der Operatoren der Gruppe zugeordnet
ist, und wenigstens einen ersten Kommunikationsbus (Bv)
umfaßt, der die Operatoren (OPvr) mit dem Speichermodul
verbindet, und dadurch, daß das Netz Verbindungen (BL1,
... BL4) umfaßt, die die Kommunikation zwischen
Steuereinheit (1) und jedem der ersten Kommunikationsbusse
(B1, ... B4) ermöglicht.
3. System nach Anspruch 2, dadurch gekennzeichnet, daß
jede Ebene (Hv) Adressierungsmittel (BCv, CUv) umfaßt,
die sich zum Adressieren der Aktivitäten ([F(Ivr)]) von
Operatoren (OPvr) anderer Ebenen nach dem Lesen von
Aktivitätsadressen (Ivr) in dem Speichermodul (MUv) der
Ebene eignen.
4. System nach einem der Ansprüche 2 oder 3, dadurch
gekennzeichnet, daß die multilineare Funktion das
Skalarprodukt des Eingangsvektors ([F(Ivr)]) entweder mit
einem Koeffizientenvektor ([Gvrc]), der zu dem Operator
(OPvrc) gehört, oder mit einem anderen Eingangsvektor
ist.
5. System nach Anspruch 4, dadurch gekennzeichnet, daß die
Operatoren (OPvr) der Untergruppe, die auch zu
derselben Ebene (Hv) gehören, miteinander verbunden sind, daß
jeder der Operatoren (OPvcrc) zur Bildung des
Skalarproduktes eines Eingangsvektors mit einem
Koeffizientenvektor Trainingsmittel (AE, AS) zum Korrigieren des
Koeffizientenvektors ([Gvrc]) in Abhängigkeit von
seinem Eingangsvektor ([F(Ivrc)]) und von Aktivitäten
([fvcr]) anderer Operatoren (OPvcr) der gleichen Ebene
umfaßt.
6. System nach Anspruch 5, dadurch gekennzeichnet, daß die
Operatoren der Untergruppe aus einem Eingangsprozessor
(PE) und einem Ausgangsprozessor (PS) bestehen, daß der
Eingangsprozessor (PE) zum Berechnen seiner Aktivität,
die definiert ist als das Skalarprodukt (fvcrc) eines
Koeffizientenvektors ([Gvrc]) mit einem ersten
Aktivitätsvektor ([F(Ivrc)]), der gebildet ist aus
Aktivitäten von Ausgangsoperatoren anderer Ebenen, und zum
Übertragen dieses Skalarproduktes an einen zweiten
Kommunikationsbus (b) über den Eingang mit dem ersten
Kommunikationsbus verbunden ist, und dadurch, daß der
Ausgangsprozessor (PS) zum Berechnen seiner Aktivität, die
definiert ist als das Skalarprodukt (Fvcrc) eines
Koeffizientenvektors ([gvrc]) mit einem zweiten
Aktivitätsvektor ([fvcr]), der gebildet ist aus Aktivitäten
anderer Eingangsprozessoren (PE) der gleichen Ebene, und
zum Übertragen dieser Summe an den ersten Bus über
seinen Eingang mit dem zweiten Kommunikationsbus (b)
verbunden ist.
7. System nach Anspruch 6, dadurch gekennzeichnet, daß das
Training eines Eingangsprozessors (PE) darin besteht,
eine Korrektur ([dGvrc]) seines Koeffizientenvektors
([Gvrc]) auszulösen, wenn die Aktivität (Fvcr)
wenigstens eines Ausgangsprozessors (PS) der gleichen Ebene
eine vorgegebene Schwelle überschreitet, wobei die
Korrektur proportional zu dem ersten Aktivitätsvektor
([F(Ivrc)]) ist.
8. System nach Anspruch 7, dadurch gekennzeichnet, daß das
Training eines Ausgangsprozessors (PS) darin besteht,
bei jeder Aktivitätskomponente (fvcr) des zweiten
Aktivitätsvektors ([fvcr]) eine Komponente des
Koeffizientenvektors als bedingte Wahrscheinlichkeit zu
definieren, damit die Aktivitätskomponente (fvcr) und die
Aktivität (Fvcrc) des Ausgangsprozessors gleichzeitig
zusammen eine vorgegebene Schwelle überschreiten.
9. System nach Anspruch 8, dadurch gekennzeichnet, daß die
Trainingsmittel Trainingsmikroprogramme sind, die die
Funktion der Eingangs- und Ausgangsprozessoren steuern.
10. System zur Analyse von Bildern, das das System zur
Verarbeitung nach einem der Ansprüche 5 bis 9 verwendet,
dadurch gekennzeichnet, daß die Eingangssignale des
Systems Signale sind, die ein Bild darstellen, das am
Eingang von Operatoren der ersten Ebene (H1) angelegt
wird, daß die Operatoren der zweiten Ebene (H2) mit
Speicherräumen zusammenhängen, die die
Aktivitätsadressen von Operatoren der ersten Ebene (H1) enthalten,
und dadurch, daß die Steuereinheit (1) die
unterschiedlichen Ebenen nacheinander in steigender Ordnung der
Ebenen aktiviert,
wobei die Trainingsmittel im Verlauf eines
Trainingsprozesses vor einer Analyse aktiviert werden, deren
Resultat darstellbar ist durch Werte von Koeffizienten
von Operatoren von irgendeiner der Ebenen oberhalb von
eins.
11. System nach Anspruch 10, dadurch gekennzeichnet, daß
jede Ebene (Hv) in mehrere Schichten unterteilt ist,
wobei jede Schicht durch einen dazugehörigen Operator
dargestellt wird,
dadurch gekennzeichnet, daß der Operator (OP1r) der
ersten Ebene (H1) einer Schicht aus einer Gruppe von
Filtern vom gleichen Typ gebildet wird, die die Gruppe von
Bildsignalen verarbeiten, wobei jeder Filter eine
Verarbeitung von Bildsignalen durchführt, die eine
Untergruppe von dem Bild darstellen,
und dadurch, daß für jede Gruppe von Filtern einer
gleichen Schicht die Steuereinheit vorgesehen ist, um
periodisch neue Gruppierungen in Klassen von Filtern
durchzuführen, wobei die Klassen nebeneinanderliegenden
Wertebereichen am Ausgang von Filtern entsprechen,
wobei jede Klasse zu einem Wert gehört, der die
Ausgangswerte darstellt, wobei die darstellenden Werte in der
abfallenden Folge ihrer Werte geordnet sind, dann
abgespeichert werden in dem Speicherraum an einer Adresse,
die die Adresse der Aktivität des Operators der zweiten
Ebene derselben Schicht ist.
12. System nach Anspruch 11, dadurch gekennzeichnet, daß
die Filter unterschiedlicher Schichten von
unterschiedlichem Typ sind, um vordefinierte komplementäre
Verarbeitungen durchzuführen.
13. System nach Anspruch 12, dadurch gekennzeichnet, daß
die unterschiedlichen Filtertypen den biologischen
Filtern des menschlichen Sehbereichs entsprechen.
14. System zur Synthese von Bildern, dadurch
gekennzeichnet, daß es ein Analysesystem nach einem der Ansprüche
10 bis 13 umfaßt, das verwendet wird während einer
Trainingsphase vor einer Synthese, wobei die Synthese
darin besteht, nachfolgend einen Neuaufbau von Bildern
in Abhängigkeit von Werten von Koeffizienten (Gvrc)
ausgewählter Operatoren durchzuführen.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR9305266A FR2704669B1 (fr) | 1993-04-29 | 1993-04-29 | Systeme a reseau neuronal pour le traitement de signaux, notamment pour l'analyse et la synthese d'images. |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69414636D1 DE69414636D1 (de) | 1998-12-24 |
DE69414636T2 true DE69414636T2 (de) | 1999-05-06 |
Family
ID=9446705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69414636T Expired - Fee Related DE69414636T2 (de) | 1993-04-29 | 1994-04-28 | Neuronales Netzwerk für Signalverarbeitung |
Country Status (4)
Country | Link |
---|---|
US (1) | US5533169A (de) |
EP (1) | EP0622749B1 (de) |
DE (1) | DE69414636T2 (de) |
FR (1) | FR2704669B1 (de) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5742741A (en) * | 1996-07-18 | 1998-04-21 | Industrial Technology Research Institute | Reconfigurable neural network |
US5751913A (en) * | 1996-07-29 | 1998-05-12 | Industrial Technology Research Institute | Reconfigurable neural network and difference-square neuron |
JP3403614B2 (ja) * | 1997-06-13 | 2003-05-06 | 富士通株式会社 | 動的な資源利用機能を備えたデータ処理システム |
US7555469B2 (en) * | 2006-11-16 | 2009-06-30 | L-3 Communications Integrated Systems L.P. | Reconfigurable neural network systems and methods utilizing FPGAs having packet routers |
US8081816B1 (en) * | 2008-06-06 | 2011-12-20 | Kevin Maurice Irick | Apparatus and method for hardware implementation of object recognition from an image stream using artificial neural network |
US8165386B1 (en) * | 2009-08-18 | 2012-04-24 | Hankyu Moon | Apparatus and method for measuring audience data from image stream using dynamically-configurable hardware architecture |
US8447954B2 (en) * | 2009-09-04 | 2013-05-21 | International Business Machines Corporation | Parallel pipelined vector reduction in a data processing system |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4858177A (en) * | 1987-03-27 | 1989-08-15 | Smith Harry F | Minimal connectivity parallel data processing system |
US5155802A (en) * | 1987-12-03 | 1992-10-13 | Trustees Of The Univ. Of Penna. | General purpose neural computer |
US5093899A (en) * | 1988-09-17 | 1992-03-03 | Sony Corporation | Neural network with normalized learning constant for high-speed stable learning |
US4974169A (en) * | 1989-01-18 | 1990-11-27 | Grumman Aerospace Corporation | Neural network with memory cycling |
JPH0738186B2 (ja) * | 1989-03-13 | 1995-04-26 | シャープ株式会社 | 自己拡張形ニユーラル・ネットワーク |
US5204938A (en) * | 1989-05-30 | 1993-04-20 | Loral Aerospace Corp. | Method of implementing a neural network on a digital computer |
DE69029390T2 (de) * | 1990-09-15 | 1997-06-12 | Ibm | Programmierbare Schaltung für eine neurale Logik |
US5093900A (en) * | 1991-02-13 | 1992-03-03 | At&T Bell Laboratories | Reconfigurable neural network |
US5371834A (en) * | 1992-08-28 | 1994-12-06 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Adaptive neuron model--an architecture for the rapid learning of nonlinear topological transformations |
-
1993
- 1993-04-29 FR FR9305266A patent/FR2704669B1/fr not_active Expired - Fee Related
-
1994
- 1994-04-28 EP EP94460012A patent/EP0622749B1/de not_active Expired - Lifetime
- 1994-04-28 DE DE69414636T patent/DE69414636T2/de not_active Expired - Fee Related
- 1994-04-29 US US08/235,302 patent/US5533169A/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP0622749B1 (de) | 1998-11-18 |
US5533169A (en) | 1996-07-02 |
FR2704669B1 (fr) | 1995-06-30 |
FR2704669A1 (fr) | 1994-11-04 |
EP0622749A1 (de) | 1994-11-02 |
DE69414636D1 (de) | 1998-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69217047T2 (de) | Verbesserungen in neuronalnetzen | |
DE69300041T2 (de) | Mehrfachprozessor-Datenverarbeitungssystem. | |
DE3883192T2 (de) | Neuronale Netzwerkschaltung und -struktur. | |
DE69423228T2 (de) | Unüberwachtes klassifizierungsverfahren mit neuronalem netzwerk mit back propagation | |
DE19581638C2 (de) | Rechenvorrichtung mit einem Mikroprozessor, einem neuralen Netz-Koprozessor und einer DMA-Steuervorrichtung | |
DE112018004693T5 (de) | Verbessern der effizienz eines neuronalen netzes | |
DE102017218889A1 (de) | Unscharf parametriertes KI-Modul sowie Verfahren zum Betreiben | |
DE10035043A1 (de) | Mehrdimensionale Indexierungsstruktur zur Verwendung mit linearen Optimierungsanfragen | |
DE69124231T2 (de) | Künstliche neuronale anlage | |
EP3590078B1 (de) | Neuronalnetzsystem | |
DE112019000676T5 (de) | Zentraler scheduler und anweisungszuteiler für einen neuronalen inferenzprozessor | |
DE69127495T2 (de) | Erkennungseinheit und Gerät zur Erkennung und Beurteilung in dem die Einheit verwendet ist | |
EP0875808A2 (de) | Verfahren und System zur Generierung eines Prozessmodells eines technischen Prozesses | |
DE69815390T2 (de) | Neuronale netzwerke | |
DE69414636T2 (de) | Neuronales Netzwerk für Signalverarbeitung | |
DE60125536T2 (de) | Anordnung zur generierung von elementensequenzen | |
EP1021793A2 (de) | Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente | |
DE69315250T2 (de) | Neuronaler Prozessor mit Datennormalisierungsanlage | |
DE69517249T2 (de) | Anordnung zur segmentierung eines diskreten datensatzes | |
DE69802372T2 (de) | Klassifizierungssystem und -verfahren mit N-Tuple- oder RAM-basiertem neuronalem Netzwerk | |
DE4121453C2 (de) | Näherungsschlußfolgerungsvorrichtung | |
DE102018129871A1 (de) | Trainieren eins tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Sensordaten zur Anwendung in einem Fahrunterstützungssystem | |
DE4417932A1 (de) | Paralleldatenverarbeitungssystem | |
EP0548127B1 (de) | Neuronales Netzwerk und Schaltungsanordnung zur Bool'schen Realisierung neuronaler Netze vom ADALINE-Typ | |
DE10048308B4 (de) | Verfahren und Vorrichtung zum Klassifizieren von Objekten aus als Pixelmuster vorliegenden eingangsseitigen Bilddaten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |