WO1993000652A1 - Verfahren zur verarbeitung von unsicherheiten von eingangsdaten in neuronalen netzwerken - Google Patents

Verfahren zur verarbeitung von unsicherheiten von eingangsdaten in neuronalen netzwerken Download PDF

Info

Publication number
WO1993000652A1
WO1993000652A1 PCT/DE1992/000494 DE9200494W WO9300652A1 WO 1993000652 A1 WO1993000652 A1 WO 1993000652A1 DE 9200494 W DE9200494 W DE 9200494W WO 9300652 A1 WO9300652 A1 WO 9300652A1
Authority
WO
WIPO (PCT)
Prior art keywords
input signals
vector
neutral
neuron
training data
Prior art date
Application number
PCT/DE1992/000494
Other languages
English (en)
French (fr)
Inventor
Bernhard KÄMMERER
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to JP4510691A priority Critical patent/JPH06508948A/ja
Priority to EP92911631A priority patent/EP0591259B1/de
Priority to DE59203485T priority patent/DE59203485D1/de
Publication of WO1993000652A1 publication Critical patent/WO1993000652A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]

Definitions

  • the invention is based on the object of specifying a method with which known uncertainties of input data of neural networks can be taken into account in order to improve the behavior of a neural network in the test phase. This object is achieved by a method for processing uncertainties of input data in neural networks with features according to claim 1.
  • 1 shows the space of the possible input signals of a neuron with two inputs, in which two classes of training data, which are separated by a one-dimensional hyperplane (straight line), are shown.
  • FIG. 2 shows the same situation as FIG. 1 with test data, the variance of which exceeds that of the training data.
  • FIG. 3 shows the same situation as FIG. 2 with a second hyperplane (straight line) which appropriately separates the two classes of test data.
  • Neural networks are generally constructed from a multiplicity of neurons which calculate a weighted sum from a multiplicity of inputs using weight factors and subject this weighted sum to a threshold value decision using a preferably sigmoid transfer function.
  • connection weights weight factors
  • the connection weights (weight factors) between the inputs and the neuron are set or learned in a training phase by adapting the weight factors to a set of training data.
  • a possible training method (Rumelhart, 1986) realizes a gradient descent over an error surface. The best possible separability of the two classes is achieved by using a sigmoidal transfer function.
  • This neuron can differentiate between two classes, the initial activity of the neuron being "0" for one class and "1" for the other. It is further assumed that in this example the classes can be separated by a linear plane and that only one input line contributes the necessary information for this distinction. The second input line should only carry redundant information here.
  • Fig. 1 shows two classes K1 and K2 of training data, which can be separated by a linear hyperplane H1 (straight line).
  • FIG. 2 shows the same situation as in FIG. 1, but using a larger amount of data - the test data, which also include the training data.
  • the two classes K11 and K21 of test data can no longer be separated by a horizontally running hyperplane, but only by a vertically running hyperplane.
  • the diagonally running hyperplane H1 visible in FIGS. 1 and 2 is capable of correctly dividing the training data into two classes, but not the test data.
  • test data have a greater variance - mainly in the input signal I2 - than the training data. It is therefore input I1 that carries the information for the appropriate separation of test data classes K11 and K21. If, as in many applications, it is known from the outset that one of the inputs or, in general, several inputs is subject to an uncertainty and therefore does not allow reliable separation of the test data, it is desirable to use a method which, when using the training data from FIG 1 leads to the hyperplane H2, which is shown in FIG. The hyperplane H2 separates the training data and the test data into two classes K11 and K21. Such a method must make use of the knowledge about the uncertainty of the information of the input 12. The situation shown in FIGS.
  • 1, 2 and 3 is a great simplification of the in many applications, such as. B. in the image and speech processing situation in which high-dimensional input vectors occur, the individual components of which have considerable redundancy.
  • the general solution according to the invention to the described problem consists in not multiplying and adding up the input values of one or more neurons of the neural network directly by the weighting factors, but instead first calculating modified input signals from the input signals of the neurons, which appropriately take into account the different uncertainties of different input signals .
  • a neuron calculates an output value a according to the formula from its input values i k
  • n k the kth value of a neutral vector N.
  • each neuron in addition to its output value (neuron activity), has an average security of its input signals according to the following relationship
  • neural network can thus be used in the most general meaning of this word, with particular reference to neural networks which are implemented by appropriate computer programs on suitable computer systems.
  • the method can also be used in the context of neural networks implemented in terms of circuitry.
  • the neutral vector N can be calculated as the intersection of the hyperplane set by the training method with those hyperplanes which result when an input signal of a neuron is not taken into account in each case.
  • K different hyperplanes for One neuron each with K inputs a hyperplane that divides the K-dimensional space, and K - 1 other hyperplanes that subdivide the K - 1-dimensional subspaces.
  • Such a multiple training process can be carried out simultaneously, whereby approximately K times the amount of computing time and storage space is necessary.
  • K linear equations can be solved to determine the intersection of all hyperplanes.
  • Step 1 ensures that all modifications of N occur in the parting plane H.
  • Step 2 iteratively calculates the focus of all projections.
  • N new N old + ⁇ ⁇ (I '- N old ), where N old is the previous value of the neutral vector, N new is the corrected value of the neutral vector, and ⁇ is a factor between 0 and 1, which is the speed of the Correction of the neutral vector is determined, ⁇ can be chosen to be constant if there are approximately the same number of examples for each class. If this is not the case, ⁇ must be selected in proportion to the number of examples in this class in accordance with the class belonging to the current training pattern.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)

Abstract

Die Eingangssignale in neuronalen Netzwerken sind bei vielen Anwendungen mit erheblichen Unsicherheiten behaftet. Aus diesem Grunde sind die Trainingsdaten vielfach für die Daten der Testphase nicht genügend repräsentativ. Zur Lösung dieses Problems wird ein Verfahren zur Verarbeitung von Unsicherheiten in neuronalen Netzen vorgeschlagen. Aus den Eingangssignalen von Neuronen werden modifizierte Eingangssignale berechnet, indem die Eingangssignale mit neutralen Werten linear kombiniert werden. Die Koeffizienten dieser Lienarkombination sind Maße für die Sicherheit der Eingangssignale.

Description

Verfahren zur Verarbeitung von Unsicherheiten von Eingangsdaten in Neuronalen Netzwerken.
Die aus der Literatur bekannten Arten von künstlichen neuronalen Netzen weisen die Eigenschaft auf, daß die Eingangsdaten direkt mit einem Knoten eines Netzes verbunden sind. Aus diesem Grunde ist es nicht möglich, unsichere Daten auch bei bekannten Unsicherheitsfaktoren von einem Knoten zu entkoppeln. Stattdessen nimmt man an, daß während eines Trainings mit einem statistisch signifikanten Satz von Trainingsdaten automatisch Gewichtsfaktoren mit Werten nahe bei 0 für diejenigen Eingangsleitungen eingestellt werden, die mit großen Unsicherheiten behaftet sind. Im Erkennungsmodus bewirken diese kleinen Gewichtswerte dann eine Maskierung der entsprechenden Daten. Diese Vorgehensweise hat den Nachteil, daß zum einen diese Einstellungen statisch sind, d. h. daß einmal als unsicher eingestufte Eingangsverbindungen immer mit kleinen Werten ihrer Gewichtsfaktoren behaftet und damit nur von geringem Einfluß auf das Verhalten des Netzwerkes sind, und daß es zum anderen für viele Anwendungen nahezu unmöglich ist, einen wirklich signifikanten Satz von Trainingsdaten im Voraus zu bestimmen. Da in vielen Anwendungsgebieten der neuronalen Netze, wie z. B. in der Bild- und Sprachverarbeitung nur ein sehr eingeschränktes Wissen vorhanden ist, bedeutet die Forderung nach signifikanten Trainingsdaten die Aufnahme und Speicherung einer extrem großen Stichprobe und damit auch extrem lange Trainingszeiten für ein neuronales Netzwerk. Die geschilderten Umstände führen meist dazu, daß mit einer den Möglichkeiten angepaßten stark eingeschränkten Trainingsstichprobe gearbeitet werden muß, wodurch die resultierenden Netzwerke nur für sehr spezielle Situationen repräsentativ sein können. In diesen Fällen führen dann Daten, die nicht mit denen der Trainingsphase kohärent sind, zu Problemen in der Erkennungsphase. Falls das Verhalten der Daten systematische Gründe hat, kann nichts anderes getan werden, als das Netzwerk mit einem besser angepaßten Satz von Trainingsdaten erneut zu trainieren. Ist aber andererseits das widersprüchliche Datum durch eine erkennbare Störung bedingt bzw. kann ein Bewertungskriterium für die Verläßlichkeit eines Datums anggegeben werden, ist es wünschenswert, dieses Wissen in der Berechnung durch das Netzwerk zu berücksichtigen.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren anzugeben, mit dem bekannte Unsicherheiten von Eingangsdaten neuronaler Netzwerke berücksichtigt werden können, um das Verhalten eines neuronalen Netzwerkes in der Testphase zu verbessern. Diese Aufgabe wird durch ein Verfahren zur Verarbeitung von Unsicherheiten von Eingangsdaten in neuronalen Netzwerken mit Merkmalen nach Anspruch 1 gelöst.
Vorteilhafte Weiterbildungen des Verfahrens ergeben sich aus den Unteransprüchen.
Fig. 1 zeigt den Raum der möglichen Eingangssignale eines Neurons mit zwei Eingängen, in denen zwei Klassen von Trainingsdaten, welche durch eine eindimensionale Hyperebene (Gerade) getrennt sind, eingezeichnet sind.
Fig. 2 zeigt die gleiche Situation wie Fig. 1 mit Testdaten, deren Varianz die der Trainingsdaten übersteigt.
Fig. 3 zeigt die gleiche Situation wie Fig. 2 mit einer zweiten Hyperebene (Gerade), welche die beiden Klassen von Testdaten zutreffend separiert.
Im folgenden wird die Erfindung anhand eines bevorzugten Ausführungsbeispiels sowie anhand der Figuren näher erläutert. Die in dieser Patentanmeldung verwendeten Fachbegriffe sind allgemein üblich und sind in dem Buch von D.E. Rumelhart, J.L. Mac Clelland (Herausgeber): "Parallel Distributed Processing, Vol. 1: Foundations", MIT Press, Cambridge MA (1986), speziell in dem Artikel "Learning Internal Representations by Error Back Propagation" von D.E. Rumelhart, G.E. Hinton, R.J. Williams erläutert. Neuronale Netze sind im allgemeinen aus einer Vielzahl von Neuronen aufgebaut, welche aus einer Vielzahl von Eingängen unter Verwendung von Gewichtsfaktoren eine gewichtete Summe berechnen und diese gewichtete Summe unter Verwendung einer vorzugsweise sigmoidalen Transferfunktion einer Schwellwertentscheidung unterwerfen. Hierdurch kann jedes Neuron zwei Klassen seiner Eingangsdaten unterscheiden, wobei es für die eine Klasse die Ausgangsaktivität "0", für die andere Klasse die Ausgangsaktivität "1" verwendet. Die Verbindungsgewichte (Gewichtsfaktoren) zwischen den Eingängen und dem Neuron werden in einer Trainingsphase durch Anpassung der Gewichtsfaktoren an einen Satz von Trainingsdaten eingestellt bzw. erlernt. Ein mögliches Trainingsverfahren (Rumelhart, 1986) realisiert einen Gradientenabstieg über einer Fehleroberfläche. Durch Verwendung einer sigmoidalen Transferfunktion wird die bestmögliche Trennbarkeit der beiden Klassen erreicht.
Zum besseren Verständnis wird das Verfahren zunächst - ohne die Allgemeingültigkeit zu beschränken - am Beispiel eines einzelnen Neurons des Perceptron-Modells mit K = 2 Eingangsleitungen abgeleitet. Dieses Neuron kann zwei Klassen unterscheiden, wobei für die eine Klasse die Ausgangsaktivität des Neurons "0", für die andere "1" ist. Es sei ferner angenommen, daß in diesem Beispiel die Klassen durch eine lineare Ebene getrennt werden können und daß nur eine Eingangsleitung die notwendige Information für diese Unterscheidung beiträgt. Die zweite Eingangsleitung soll hier nur redundante Informationen führen. Fig. 1 zeigt zwei Klassen K1 bzw. K2 von Trainingsdaten, die durch eine lineare Hyperebene H1 (Gerade) getrennt werden können. Da die beiden Klassen von Trainingsdaten sowohl durch eine horizontal als auch durch eine vertikal verlaufende Hyperebene getrennt werden könnten, steht nicht von vornherein fest, welcher der beiden Eingänge I1 bzw. I2 die zur Trennung der beiden Klassen maßgebende Information trägt. Fig. 2 zeigt die gleiche Situation wie in Fig. 1, wobei allerdings eine größere Datenmenge - die Testdaten, welche die Trainingsdaten ebenfalls umfassen - verwendet wurde. Die beiden Klassen K11 bzw. K21 von Testdaten sind nun nicht mehr durch eine horizontal verlaufende Hyperebene zu trennen, sondern lediglich durch eine vertikal verlaufende Hyperebene. Die in Fig. 1 und Fig. 2 sichtbare diagonal verlaufende Hyperebene H1 ist zwar in der Lage, die Trainingsdaten zutreffend in zwei Klassen einzuteilen, nicht aber die Testdaten. Dies hängt damit zusammen, daß die Testdaten eine größere Varianz - hauptsächlich in dem Eingangssignal I2 - aufweisen als die Trainingsdaten. Es ist also der Eingang I1, welcher die Information zur zutreffenden Trennung der Testdatenklassen K11 bzw. K21 trägt. Ist nun - wie in vielen Anwendungsfällen - von vornherein bekannt, daß einer der Eingänge oder im allgemeinen mehrere Eingänge mit einer Unsicherheit behaftet sind und daher keine zuverlässige Trennung der Testdaten erlauben, ist es wünschenswert, ein Verfahren anzuwenden, welches bei Verwendung der Trainingsdaten von Fig. 1 auf die Hyperebene H2, welche in Fig. 3 dargestellt ist, führt. Die Hyperebene H2 trennt nämlich sowohl die Trainingsdaten als auch die Testdaten zutreffend in zwei Klassen K11 bzw. K21. Ein solches Verfahren muß von dem Wissen über die Unsicherheit der Information des Eingangs 12 Gebrauch machen. Die in den Fig. 1, 2 und 3 dargestellte Situation ist eine starke Vereinfachung der bei vielen Anwendungen, wie z . B. in der Bild- und Sprachverarbeitung auftretenden Situation, bei denen hochdimensionale Eingangsvektoren vorkommen, deren einzelnen Komponenten eine erhebliche Redundanz aufweisen. Die allgemeine erfindungsgemäße Lösung des beschriebenen Problems besteht darin, die Eingangswerte eines Neurons oder mehrerer Neuronen des neuronalen Netzes nicht direkt mit den Gewichtsfaktoren zu multiplizieren und aufzusummieren, sondern aus den Eingangssignalen der Neuronen zunächst modifizierte Eingangssignale zu berechnen, welche die unterschiedlichen Unsicherheiten verschiedener Eingangssignale zutreffend berücksichtigen.
Im allgemeinen berechnet ein Neuron nämlich aus seinen Eingangswerten ik einen Ausgangswert a nach der Formel
(1) a = f ( ∑k=1...k wk·ik + θ ), wobei a der Ausgangswert (Aktivität des Neurons), wk der k-te Gewichtswert (Gewichtsfaktor), ik der k-te Eingangswert (Eingangssignal) und θ ein Schwellwert ist. Sind für jeden Eingangsvektor 1= (ik, ..., ik) die Sicherheitswerte sk mit Werten zwischen 0 und 1 gegeben, so können modifizierte Eingangswerte jk nach folgender Formel berechnet werden:
(2) jk = sk·ik + (1-sk)·nk, Hierbei ist nk der k-te Wert eines Neutralvektors N. Die Komponenten nk des Neutralvektors geben also diejeniger. Werte der modifizierten Eingangssignale an, welche diese bei maximaler Unsicherheit (minimale Sicherheit, sk = 0 annehmen. Vorteilhafte Werte für die Komponenten des Neutralvektors werden später angegeben.
Mit diesen modifizierten Eingangssignalen kann nun die Neuronenaktivität wie folgt berechnet werden: (3) a = f ( ∑k=1...k wk·jk + θ ),
Hierdurch ist die der Erfindung zugrundeliegende Aufgabe gelöst, welche darin besteht, bekannte Unsicherheiten von Eingangssignalen in neuronalen Netzwerken zur Verbesserung des Netzwerkverhaltens zu verwenden. Es ist aber weiterhin vorteilhaft, wenn jedes Neuron zusätzlich zu seinem Ausgangswert (Neuronenaktivität) eine durchschnittliche Sicherheit seiner Eingangssignale nach folgender Beziehung
Figure imgf000008_0001
aus den Sicherheitswerten sk seiner Eingangssignale berechnet. Dieser durchschnittliche Sicherheitswert kann dann an Neuronen nachfolgender Stufen des neuronalen Netzwerks weitergegeben werden, wodurch auch Neuronen in nachfolgenden Stufen Sicherheitswerte nach dem gleichen Verfahren auswerten können. Insbesondere können die Neuronen der letzten Stufe eines neuronalen Netzwerks somit die Sicherheit ihrer Ausgangswerte berechnen, was zur Beurteilung der Netzwerkleistung, d. h. der Qualität der Klassifikation verwendet werden kann. Das hier beschriebene Verfahren kann ohne weiteres auch in rückgekoppelten neuronalen Netzen Verwendung finden. Hierbei sind dann einige der Sicherheitswerte nicht vom Anwender vorgegeben, sondern von anderen Neuronen im neuronalen Netz berechnet . Der Begriff Neuronales Netz kann also in der allgemeinsten Bedeutung dieses Wortes verwendet werden, wobei insbesondere an neuronale Netze zu denken ist, welche durch entsprechende Computerprogramme auf hierfür geeigneten Rechenanlagen realisiert werden. Auf der anderen Seite kann das Verfahren auch im Rahmen von schaltungstechnisch realisierten neuronalen Netzen verwendet werden.
Der Neutralvektor N kann als Schnittpunkt der durch das Trainingsverfahren eingestellten Hyperebene mit denjenigen Hyperebenen berechnet werden, welche sich ergeben, wenn jeweils ein Eingangssignal eines Neurons unberücksichtigt bleibt. Hierbei erhält man K verschiedene Hyperebener- für je ein Neuron mit K Eingängen: Eine Hyperebene, die den K-dimensionalen Raum unterteilt, sowie K - 1 weitere Hyperebenen, die die K - 1-dimensionalen Unterräume unterteilen. Ein solches mehrfaches Trainingsverfahren kann simultan durchgeführt werden, wobei etwa der K-fache Aufwand an Rechenzeit und Speicherplatz notwendig wird. Am Ende eines solchen Mehrfachtrainingsverfahrens müssen kann K lineare Gleichungen zur Bestimmung des Schnittpunktes aller Hyperebenen gelöst werden.
Da dieser Ansatz sehr aufwendig ist und zur Trainingsphase eine weitere Phase mit der Lösung des linearen Gleichungssystems erfordert, wird ein weiteres spezielles Verfahren zur iterativen Bestimmung des Neutralvektors vorgeschlagen. Dieses Verfahren kommt ohne zusätzliche Berechnungsschritte aus und ist insgesamt weniger aufwendig. Dieses weitere Verfahren sieht vor, anstelle des Schnittpunktes von K Hyperebenen den Schwerpunkt der im Training beobachteten, auf die durch die momentanen Gewichtsfaktoren definierte Trennebene H projizierten Eingangswerte des Neurons zu ersetzen. Hierzu müssen lediglich K zusätzliche Parameter zur Charakterisierung des Neutralvektors gespeichert und nach jeder Präsentation neuer Trainingsdaten I angepaßt werden. Nach einer geeigneten Initialisierung des Neutralvektors mit dem Wert N0 umfaßt das Verfahren zur iterativen Berechnung des Neutralvektors damit für jede Präsentation neuer Trainingsdaten I im wesentlichen 2 Schritte: 1) Bestimmung der Projektion I' von I auf H und
2) Korrektur von Nalt in Nneu mit Hilfe von I'
Schritt 1 stellt sicher, daß alle Modifikationen von N in der Trennebene H erfolgen. Schritt 2 berechnet iterativ den Schwerpunkt aller Projektionen.
Die Projektion I' von I auf H ist bestimmt durch
Figure imgf000010_0001
wobei W den Spaltenvektor der Verbindungsgewichte wk =
(w1,...wk), welcher die Trennebene H definiert, WT den transponierten Vektor W und θ den Offset der Trennebene H bezeichnet. Die Korrektur (Anpassung) von N erfolgt dann nach der Vorschrift
(6) Nneu = Nalt + γ · (I' - Nalt), wobei Nalt der vorherige Wert des Neutralvektors, Nneu der korrigierte Wert des Neutralvektors, und γ ein Faktor zwischen 0 und 1 ist, welcher die Geschwindigkeit der Korrektur des Neutralvektors bestimmt, γ kann konstant gewählt werden, falls für jede Klasse etwa gleich viele Beispiele verfügbar sind. Ist dies nicht der Fall, muß γ entsprechend der Klassenzugehörigkeit des aktuellen Trainingsmusters umgekehrt proportional zur Anzahl der Beispiele dieser Klasse gewählt werden.
Falls der Vektor W, der die Trennebene H definiert, während des Adaptionsprozesses von N konstant bleibt (d. h. wenn die Trennebene in einer vorangegangenen Lernphase eingestellt wurde) und falls die Initialisierung N0 so gewählt wurde, daß die Gleichung für H erfüllt ist, gilt dies auch nach der Adaption von N. Auf der anderen Seite können beide Prozesse (das Training der Trennebene H und die Adaption des Neutralvektors N) parallel durchgeführt werden. Dabei wird N0 mit kleinen Zufallszahlen vorbelegt. Auch in diesem Fall, in dem N der sich stetig verändernden Trennebene H folgt, stellt sich nach genügend langer Adaption der gewünschte Vektor N ein.

Claims

Patentansprüche
1. Verfahren zur Verarbeitung von Unsicherheiten von Einganssignalen in Neuronalen Netzwerken, bei dem aus Eingangssignalen von Neuronen modifizierte Eingangssignale in Form einer Linearkombination der Eingangssignale mit neutralen Werten, deren Koeffizienten Maße für die Sicherheit der Eingangssignale sind, berechnet werden.
2. Verfahren nach Anspruch 1, bei dem Neuronen zusätzlich zu ihrer Aktivität einen weiteren Ausgangswert ermitteln, welcher die durchschnittliche Sicherheit ihrer Eingangssignale charakterisiert.
3. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die neutralen Werte wenigstens eines Neurons die Komponenten eines Neutralvektors bilden, welcher ein Punkt auf derjenigen Hyperebene ist, die einen Satz von Trainingsdaten in zwei Klassen unterteilt.
4. Verfahren nach Anspruch 3, bei dem der Neutralvektor ein gemeinsamer Punkt aller derjenigen Hyperebenen ist, welche die Trainingsdaten in zwei Klassen unterteilen, wenn man jeweils ein Eingangssignal unberücksichtigt läßt.
5. Verfahren nach Anspruch 3, bei dem der Neutralvektor N mit Hilfe der Beziehungen
Figure imgf000011_0001
sowie
(6) Nneu = Nalt + γ · (I' - Nalt) iterativ aus den Eingangssignalen I eines Satzes von Trainingsdaten berechnet wird, wobei W der Vektor der Gewichte eines Neurons, WT der transponierte Vektor dieser Gewichte, θ die Schwelle dieses Neurons,
Nneu e in neuer Wert des Neutralvektors, Nalt e in alter Wert des Neutralvektors und γ eine Konstante zwischen 0 und 1 ist.
PCT/DE1992/000494 1991-06-24 1992-06-16 Verfahren zur verarbeitung von unsicherheiten von eingangsdaten in neuronalen netzwerken WO1993000652A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP4510691A JPH06508948A (ja) 1991-06-24 1992-06-16 ニューラルネットワークにおける入力データの不確定性状態の処理方法
EP92911631A EP0591259B1 (de) 1991-06-24 1992-06-16 Verfahren zur verarbeitung von unsicherheiten von eingangsdaten in neuronalen netzwerken
DE59203485T DE59203485D1 (de) 1991-06-24 1992-06-16 Verfahren zur verarbeitung von unsicherheiten von eingangsdaten in neuronalen netzwerken.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DEP4120828.5 1991-06-24
DE4120828A DE4120828A1 (de) 1991-06-24 1991-06-24 Verfahren zur verarbeitung von unsicherheiten von eingangsdaten in neuronalen netzwerken

Publications (1)

Publication Number Publication Date
WO1993000652A1 true WO1993000652A1 (de) 1993-01-07

Family

ID=6434630

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE1992/000494 WO1993000652A1 (de) 1991-06-24 1992-06-16 Verfahren zur verarbeitung von unsicherheiten von eingangsdaten in neuronalen netzwerken

Country Status (4)

Country Link
EP (1) EP0591259B1 (de)
JP (1) JPH06508948A (de)
DE (2) DE4120828A1 (de)
WO (1) WO1993000652A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0892956A1 (de) * 1996-02-09 1999-01-27 Sarnoff Corporation Verfahren und apparat zum trainieren eines neuralen netzwerks um objekte mit unsicheren trainingsdaten zu erkennen und zu klassifizieren
WO2004090807A2 (de) * 2003-04-10 2004-10-21 Bayer Technology Services Gmbh Verfahren zum trainieren von neuronalen netzen

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4340977C1 (de) * 1993-12-01 1995-03-16 Deutsche Aerospace Adaptives Signalauswerte-System

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4876731A (en) * 1988-02-19 1989-10-24 Nynex Corporation Neural network model in pattern recognition using probabilistic contextual information
EP0378689A1 (de) * 1988-05-20 1990-07-25 Matsushita Electric Industrial Co., Ltd. Verfahren zur bestimmung der inferenzregel sowie inferenzmotor

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5077677A (en) * 1989-06-12 1991-12-31 Westinghouse Electric Corp. Probabilistic inference gate
DE4018779A1 (de) * 1989-10-03 1991-04-11 Westinghouse Electric Corp Neurale netzwerke und lernfaehiges schlussfolgerungssystem

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4876731A (en) * 1988-02-19 1989-10-24 Nynex Corporation Neural network model in pattern recognition using probabilistic contextual information
EP0378689A1 (de) * 1988-05-20 1990-07-25 Matsushita Electric Industrial Co., Ltd. Verfahren zur bestimmung der inferenzregel sowie inferenzmotor

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
IEEE FIRST INTERNATIONAL CONFERENCE ON NEURAL NETWORKS Bd. 3, 21. Juni 1987, SAN DIEGO,USA Seiten 51 - 58 GAINES 'Uncertainty as a foundation of computational power in neural networks' *
INTERNATIONAL NEURAL NETWORK CONFERENCE INNC 90 PARIS Bd. 2, 9. Juli 1990, PARIS, FRANCE Seiten 809 - 812 MARSHALL 'Representation of uncertainty in self-organizing neural networks' *
INTERNATIONAL NEURAL NETWORK CONFERENCE INNC 90 PARIS Bd. 2, 9. Juli 1990, PARIS,FRANCE Seiten 902 - 907 SUN 'The discrete neuronal model and the probabilistic discrete neuronal model' *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0892956A1 (de) * 1996-02-09 1999-01-27 Sarnoff Corporation Verfahren und apparat zum trainieren eines neuralen netzwerks um objekte mit unsicheren trainingsdaten zu erkennen und zu klassifizieren
EP0892956A4 (de) * 1996-02-09 2002-07-24 Sarnoff Corp Verfahren und apparat zum trainieren eines neuralen netzwerks um objekte mit unsicheren trainingsdaten zu erkennen und zu klassifizieren
WO2004090807A2 (de) * 2003-04-10 2004-10-21 Bayer Technology Services Gmbh Verfahren zum trainieren von neuronalen netzen
WO2004090807A3 (de) * 2003-04-10 2005-12-22 Bayer Technology Services Gmbh Verfahren zum trainieren von neuronalen netzen
US7406451B2 (en) 2003-04-10 2008-07-29 Bayer Technology Services Gmbh Method for training neural networks

Also Published As

Publication number Publication date
DE4120828A1 (de) 1993-01-07
EP0591259A1 (de) 1994-04-13
JPH06508948A (ja) 1994-10-06
DE59203485D1 (de) 1995-10-05
EP0591259B1 (de) 1995-08-30

Similar Documents

Publication Publication Date Title
DE69333664T2 (de) Verfahren und Gerät zur Einstellung eines Neurons
DE68928612T2 (de) Verfahren zur bestimmung der inferenzregel sowie inferenzmotor
DE212020000731U1 (de) Kontrastives Vortraining für Sprachaufgaben
DE69414752T2 (de) Sprecherunabhängiges Erkennungssystem für isolierte Wörter unter Verwendung eines neuronalen Netzes
EP2165296B1 (de) Verfahren und vorrichtung zur rechnergestützten vorhersage von intendierten bewegungen
DE2524804A1 (de) Verfahren und vorrichtung zur automatischen spracherkennung
DE69719058T2 (de) Verbessertes neuronales netzwerk
DE3938645C1 (de)
DE69223447T2 (de) Lernverfahren für neuronales Netzwerk und Klassifizieranlage zum Anwenden dieses Verfahrens
EP0901658B1 (de) Verfahren zur optimierung eines fuzzy-regelsatzes durch einen rechner
DE69314293T2 (de) Neuronalanlage und -Bauverfahren
WO2019081241A1 (de) Verfahren, vorrichtung und computerprogramm zur erstellung eines tiefen neuronalen netzes
EP0925541B1 (de) Verfahren und vorrichtung zur rechnergestützten generierung mindestens eines künstlichen trainingsdatenvektors für ein neuronales netz
DE69333247T2 (de) Trainingsverfahren und Gerät zur Erzeugung eines neues Neurons
DE19504664C2 (de) Chaotisches rekurrentes neuronales Netz und Lernverfahren dafür
EP0750764B1 (de) Verfahren und anordnung zur fuzzy-regelung
DE10047718A1 (de) Verfahren zur Spracherkennung
EP0591259B1 (de) Verfahren zur verarbeitung von unsicherheiten von eingangsdaten in neuronalen netzwerken
DE4121453C2 (de) Näherungsschlußfolgerungsvorrichtung
DE69802372T4 (de) Klassifizierungssystem und -verfahren mit N-Tuple- oder RAM-basiertem neuronalem Netzwerk
DE69030812T2 (de) Verfahren und gerät um einen prozess zu steuern mit hilfe eines trainierten parallel verteilten verarbeitungsnetzwerkes
DE19703964C1 (de) Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz
DE69809402T2 (de) Assoziativneuron in einem künstlichen neuralen netzwerk
DE4209746A1 (de) Verfahren zur Optimierung eines technischen Neuro-Fuzzy-Systems
WO1998007100A1 (de) Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FR GB GR IT LU MC NL SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 1992911631

Country of ref document: EP

ENP Entry into the national phase

Ref country code: US

Ref document number: 1993 162192

Date of ref document: 19931215

Kind code of ref document: A

Format of ref document f/p: F

WWP Wipo information: published in national office

Ref document number: 1992911631

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1992911631

Country of ref document: EP

ENP Entry into the national phase

Ref country code: US

Ref document number: 1995 565047

Date of ref document: 19951130

Kind code of ref document: A

Format of ref document f/p: F