WO1993020530A1 - Strukturierung von neuronalen netzen durch regelbasiertes wissen - Google Patents

Strukturierung von neuronalen netzen durch regelbasiertes wissen Download PDF

Info

Publication number
WO1993020530A1
WO1993020530A1 PCT/DE1993/000245 DE9300245W WO9320530A1 WO 1993020530 A1 WO1993020530 A1 WO 1993020530A1 DE 9300245 W DE9300245 W DE 9300245W WO 9320530 A1 WO9320530 A1 WO 9320530A1
Authority
WO
WIPO (PCT)
Prior art keywords
network
rule
neural network
parameters
functions
Prior art date
Application number
PCT/DE1993/000245
Other languages
English (en)
French (fr)
Inventor
Jürgen HOLLATZ
Volker Tresp
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE4230419A external-priority patent/DE4230419A1/de
Priority claimed from DE4232479A external-priority patent/DE4232479A1/de
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Publication of WO1993020530A1 publication Critical patent/WO1993020530A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks

Definitions

  • Neural networks are easy to train using (statistical) data; however, the utilization of knowledge in the form of rules is not easily possible with neural networks.
  • the neural network according to the invention has a rule-based network structure in which each output value is a standardized linear combination of basic functions with weight coefficients.
  • the basic functions are non-negative, localized functions, for example from the multivariate Gauss-yp.
  • the basis functions have a meaning comparable to the membership functions of the fuzzy logic, in that their values vary between 0 and 1, these values being a measure of the affiliation of their argument to the generally unsharp fulfillment set of a rule or a set of Rules are.
  • a neural network according to the invention can therefore be structured using rule-based knowledge, in that the basic functions of such a network are selected according to the type of membership function, joning unsharp compliance quantities of a corresponding control system. This method enables the network to process knowledge in the form of rules with the conclusion method defined by the node equations even before learning. The network is then further adapted on the basis of training data in order to optimize the possibly incorrect and / or incomplete rule set.
  • An arbitrary choice of the number of parameters of a neural network (often referred to as the number of hidden units of a network) can result in an over- or under-presentation of a problem by a neural network.
  • An overrepresentation is disadvantageous because an excessive number of parameters learns the statistical noise in the training data and so there is no generalization of the training data.
  • underrepresentation on the other hand, the parameters are not sufficient to fully learn the data material.
  • the (pre-) structuring of a neural network according to the invention on the basis of already existing rules reduces the risk of over- or under-representation.
  • Another advantage of the invention lies in the possibility of modifying to be able to extract the specified rules after the training and have them interpreted by an expert.
  • FIG. 1 shows a schematic representation of the network topology according to the invention.
  • neural networks are considered which assign a real number to a real n-dimensional vector. Domain-specific knowledge about such an assignment is considered under a rule in this context. Such rules are expressed in simple terms:
  • the premise makes a statement about the entrance and the conclusion about the exit space.
  • ⁇ op> AND or OR.
  • XI to Xk denote the components of the input vector and Y the output variable.
  • the AI can be interpreted as fuzzy sets, which is defined by a membership function ⁇ Al (xl). This function on defines with a value between 0 and 1, to what extent the component XI lies in the fuzzy set AI, or corresponds to a linguistic variable associated with the set.
  • ⁇ Al xl
  • This function on defines with a value between 0 and 1, to what extent the component XI lies in the fuzzy set AI, or corresponds to a linguistic variable associated with the set.
  • Bi denotes the output value for the variable Y, which rule (i) proposes.
  • ⁇ Rule (i): i: 1, ..., M ⁇ is a set of rules.
  • a basic function bi (X) is introduced for each rule, which is equal to 1, where the whole rule applies and otherwise has the value 0. It not only describes - how ⁇ Al (xl) - to what extent a variable is valid, but also considers all input variables and thus the rule. Alternatively, a value between 0 and 1 can be defined which indicates the validity of a specific rule for a given input vector X.
  • Such a basic function can __. B. can be described with a multi-variable Gaussian function:
  • the individual components of this multivariate Gaussian function correspond to the membership functions of the variables of the input vector X.
  • the rangeij sij parameter roughly specifies the range in which rule (i) is valid in the jth input dimension.
  • the output of the network is defined as follows:
  • the output is equal to wi. In areas where more than one rule is significantly valid, the equation calculates a weighted average of the expenditure of the individual rules.
  • the topology of the neural network according to the invention is shown in FIG. 1.
  • the operations of the nodes are given by equations (1) and (2).
  • a node in the middle layer of the network corresponds to each rule.
  • the network is changed by training data.
  • the parameters (centers cij, widths ⁇ i, weights wi) are modified by error-back propagation.
  • the gradients for modifying the parameters wi, cij, ⁇ ij and ki are:
  • Rule 1 Without restricting generality, a two-dimensional entrance space is assumed.
  • Rule 2 The three different rule types are designated Rule 1, Rule 2 and Rule 3.
  • Rule 1 The three different rule types are designated Rule 1, Rule 2 and Rule 3.
  • the network according to the invention can be used with particular advantage if there is insufficient or no training data at the beginning of an online control or regulation process. Then the network according to this invention draws on the rule knowledge already available at the beginning and can thus work - even if it may be suboptimal.
  • the neural network according to the invention can also be used in cases in which the value to which the output variable y is to be assigned according to a rule is not constant but depends on x. This case can be described formally in that the quantities B in the rules are functions of x.
  • a penalty term EP can be introduced into the function ED, which prevents the network from forgetting the parameter values specified by the (initial) rules too quickly (by adapting to the training data).
  • On such a ter can, for example, measure the deviation of the instantaneous parameter values from the initial parameter values and evaluate them accordingly with costs.
  • a possible choice for this penalty term is an additive cost term in the target function that is proportional to the sum of the quadratic deviations of the current network parameters from the initial network parameters:
  • the sum can optionally extend over a regular grid of reference points in the entrance space of the network or over a randomly or otherwise selected set of such reference points.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)

Abstract

Es wird eine neuronale Netzwerkstruktur angegeben, welche mit Hilfe von regelbasiertem Wissen vorstrukturiert werden kann. Ferner wird ein Verfahren zur Repräsentation von regelbasiertem Wissen im Hinblick auf diese Netzwerkstruktur und ein Verfahren zur Adaptation der Netzwerkparameter angegeben.

Description

Strukturierung von neuronalen Netzen durch regelbasiertes
* Wissen
* Informationsverarbeitende Systeme sollten in der Lage sein, 5 aus Erfahrungen zu lernen und dabei gleichzeitig auch re¬ gelbasiertes Wissen zu berücksichtigen. Die klassischen Sy¬ stemtypen der künstlichen Intelligenz, wiεsensbasierte Sy¬ steme genannt, haben den Nachteil, daß einfache und bewähr¬ te numerische bzw. statistische Lernverfahren mit ihnen nur
10 schwer oder gar nicht verwendet werden können. Neuronale Netze hingegen sind leicht mit Hilfe von (statistischen) Daten zu trainieren; die Verwertung von Wissen in Form von Regeln ist aber mit neuronalen Netzen nicht ohne weiteres möglich.
15
Der Erfindung liegt daher die Aufgabe zugrunde, ein infor¬ mationsverarbeitendes System anzugeben, welches durch Er¬ fahrungen gewonnene Kenntnisse verarbeiten kann, und wel¬ ches gleichzeitig mit Hilfe von regelbasiertem Wissen
20 strukturiert werden kann. Diese Aufgabe wird durch ein Neu¬ ronales Netzwerk mit Merkmalen nach Anspruch 1 gelöst.
Das erfindungsgemäße neuronale Netzwerk weist eine regelba¬ sierte Netzwerkstruktur auf, bei der jeder Ausgangswert ei- 25 ne normierte Linearkombination von Basisfunktionen mit Ge¬ wichtskoeffizienten ist. Die Basisfunktionen sind dabei nicht-negative, lokalisierte Funktionen, beispielsweise vom multivariaten Gauß- yp. Die Basisfunktionen haben eine den Zugehörigkeitsfunktionen der Fuzzy-Logik vergleichbare Be- -» 30 deutung, indem ihre Werte zwischen 0 und 1 variieren, wobei diese Werte ein Maß für die Zugehörigkeit ihres Arguments zu der i.a. unscharfen Erfüllungsmenge einer Regel oder ei¬ nes Satzes von Regeln sind. Ein erfindungsgemäßes neuronales Netzwerk kann daher durch regelbasiertes Wissen strukturiert werden, indem die Basis¬ funktionen eines solchen Netzes nach Art der Zugehörig¬ keitsfunkt Jonen unscharfer Erfüllungsmengen eines entspre- chenden RegelSystems gewählt werden. Durch dieses Verfahren ist das Netz bereits vor dem Lernen in der Lage, Wissen in Form von Regeln mit der durch die Knotengleichungen festge¬ legten Schlußfolgerungsmethode zu verarbeiten. Anschließend wird das Netz anhand von Trainingsdaten weiter adaptiert, um den eventuell fehlerhaften und/oder unvollständigen Re¬ gelsatz zu optimieren.
Falls nur wenige Trainingsdaten verfügbar sind, erreicht das Netz mit diesem Verfahren trotzdem gute Resultate, da Bereiche des Eingangsraums, für die keine Trainingsbeispie¬ le vorhanden sind, durch regelbasiertes Wissen abgedeckt werden. Ohne zusätzliches Wissen könnte das Netz das Pro¬ blem ansonsten nicht genügend repräsentieren.
Durch eine willkürliche Wahl der Zahl der Parameter eines neuronalen Netzes (oft als Zahl der verborgenen Einheiten eines Netzwerks bezeichnet) , kann eine Über- bzw. Unterre¬ präsentation eines Problems durch ein neuronales Netz auf¬ treten. Eine Oberrepräsentation wirkt sich deshalb nachtei- lig aus, weil hierbei eine zu große Zahl von Parametern das statistische Rauschen in den Trainingsdaten mitlernt und so eine Generalisierung der Trainingsdaten unterbleibt. Bei einer Unterrepräsentation reichen dagegen die Parameter zum vollständigen Erlernen des Datenmaterials nicht aus.
Die erfindungsgemäße (Vor-)Strukturierung eines neuronalen Netzes anhand von bereits existierenden Regeln vermindert die Gefahr der Ober- bzw. Unterrepräsentation. Ein weiterer Vorteil der Erfindung liegt in der Möglichkeit, modifi- zierte Regeln nach dem Training wieder extrahieren zu kön¬ nen und durch einen Experten interpretieren zu lassen.
Vorteilhafte Weiterbildungen der Erfindung ergeben sich aus den Unteransprüchen.
Figur 1 zeigt eine schematische Darstellung der erfindungs¬ gemäßen Netzwerktopologie.
Im folgenden wird die Erfindung anhand eines bevorzugten Ausführungsbeispiels beschrieben.
Im Rahmen dieser Patentanmeldung werden neuronale Netze be¬ trachtet, die einem reellen n-dimensionalen Vektor eine re- eile Zahl zuordnen. Unter einer Regel wird in diesem Zusam¬ menhang ein domänenspezifisches Wissen über eine derartige Zuordnung betrachtet. Solche Regeln werden in einfachen Ausdrücken formulier :
Wenn (Prämisse) dann (Folgerung) .
Die Prämisse macht hierbei eine Aussage über den Eingangs- und die Folgerung über den Ausgangsraum.
Die hierbei benutzen Regeln weisen folgende allgemeine — Struktur auf:
Regel(i) : if xl is Ail <op> ... <op> xk is Aik then y is Bi
wobei <op> = AND bzw. OR ist. XI bis Xk bezeichnen die Kom¬ ponenten des Eingangsvektors und Y die Ausgangsvariable. Ähnlich der Verwendung in der Fuzzy Theorie können die AI als unscharfe Mengen interpretiert werden, die durch eine Zugehörigkeitsfunktion μAl(xl) definiert ist. Diese Funkti- on legt durch einen Wert zwischen 0 und 1 fest, inwieweit die Komponente XI in der unscharfen Mengen AI liegt, oder einer mit der Menge assoziierten linguistischen Variablen entspricht. Im folgenden behandeln wir AI daher wie eine charakteristische Zugehörigkeitsfunktion, die durch Funkti¬ onsparameter charakterisiert ist. Bi bezeichnet den Ausga¬ bewert für die Variable Y, den die Regel(i) vorschlägt.
{Regel(i) : i:l,...,M} ist eine Menge von Regeln. Für jede Regel wird eine Basisfunktion bi(X) eingeführt, die gleich 1 ist, wo die ganze Regel zutrifft und sonst den Wert 0 hat. Sie beschreibt nicht nur - wie μAl(xl) - in wiefern eine Variable gültig ist, sondern betrachtet alle Eingangs¬ variablen und somit die Regel. Alternativ kann ein Wert zwischen 0 und 1 definiert werden, der die Gültigkeit einer bestimmten Regel für einen gegebenen Eingangsvektor X an¬ gibt. Eine solche Basisfunktion kann __ . B. mit einer multi¬ variaten Gaußfunktion beschrieben werden:
Figure imgf000006_0001
wobei wir davon ausgehen, daß die Matrix ∑i diagonal mit dem j-ten Diagonalelement σ~ij ist. —
Die einzelnen Komponenten dieser multivariaten Gaußfunktion entsprechen den Zugehörigkeitsfunktionen der Variablen des Eingangsvektors X. Der Parameter Aij = cij legt die Positi¬ on der j-ten Dimension des Eingangsraums fest, bei der die Regel(i) ihre größte Gültigkeit hat. Der Parameter rangeij = sij gibt ungefähr den Bereich an, in dem Regel(i) in der j-ten Eingangsdimension gültig ist. Wie schon erwähnt ent¬ sprechen solche Baεisfunktionen ungefähr Zugehörigkeits- funktionen in der Fuzzy Logik. Jeder Basisfunktion wird ein Parameter Bi = wi zugewiesen, der gleich dem (erwarteten) Wert von Y ist bei gegebener gültiger Regel i. Dieser Para¬ meter entspricht in dem Netz dem Ausgangsgewicht. Die Aus¬ gabe des Netzes wird wie folgt definiert:
X W (2) yN _= NN[x] = -\
∑bi(x)
In Bereichen in denen nur eine Regel signifikant gültig ist, ist die Ausgabe gleich wi. In den Bereichen, in denen mehr als eine Regel signifikant gültig ist, berechnet die Gleichung einen gewichteten Durchschnitt der Ausgaben der einzelnen Regeln.
Die Topologie des neuronalen Netzes gemäß der Erfindung ist in Fig. 1 dargestellt. Die Operationen der Knoten sind durch die Gleichungen (1) und (2) gegeben. Jeder Regel ent¬ spricht ein Knoten in der mittleren Schicht des Netzes.
Durch Trainingsdaten wird das Netzwerk geändert. Die Para¬ meter (Zentren cij , Weiten σi , Gewichte wi) werden durch Error-Backpropagation modifiziert. Die Gradienten zum Modi¬ fizieren der Parameter wi, cij, σij und ki lauten:
Figure imgf000007_0001
J dE kj dbiJxk)
Figure imgf000008_0001
J
mit qi = cij , σij und ki.
NN[xk] stellt die tatsächliche Netzausgabe dar und k ist der Laufindex durch alle Muster. ED bezeichnet den zu mini¬ mierenden Fehler.
Figure imgf000008_0002
Alle Parameter pi aus { w, c, σ, k} werden gemäß folgender Beziehung geändert:
(6) pi := pi - η Grad(pi)
wobei Gradienten wie oben beschrieben berechnet werden, und η eine Lernrate ist, die die Lerngeschwindigkeit angibt.
Im folgenden wird anhand von Beispielen beschrieben, auf welche Weise Regeln in neuronale Strukturen und umgekehrt transformiert werden können. Dabei wird von einer neurona¬ len Architektur ausgegangen wie sie oben beschrieben wurde, und wie sie in Fig. 1 dargestellt ist. Die Parameterbele¬ gung erfolgt dabei nach folgendem Schema:
Ohne Beschränkung der Allgemeinheit wird ein zwei-dimensio- naler Eingangsraum angenommen. Die drei verschiedenen Re¬ geltypen werden mit Regel 1, Regel 2 und Regel 3 bezeich¬ net. Regel 1
if xl is All (rangell - Rll) and if x2 is A12 (rangel2 = R12) then y is Bl
entspricht einer Gaußschen Funktion zentriert um cll-All, cl2=A12 mit sll-Rll und sl2=Rl2 und zugeordnetem Gewicht wl-Bl.
Regel 2
if xl is A21 (range21 = R21) then y is B2
stellt eine eindimensionale Gaußsche Funktion dar, zen¬ triert um c21=A21 mit s21=R21 und Gewicht w2=B2. In diesem Fall ist anzumerken, daß die Basisfunktion unabhängig von X2 ist. Regeln wie
Regel 3 if xl is A31 (range31 = R31) or if x2 is A32 (range32 = R32) then y is B3
werden zunächst umgeformt in folgende zwei Regeln:
Regel 3a if xl is A31 (range31 = R31) then y is B3 und
Regel 3b if xl is A32 (range32 - R32) then y is B3
und dann behandelt wie Regel 2. Mit diesem Vorgehen kann man eine Netzwerkarchitektur aus einer Menge von Regeln konstruieren. Andererseits ist auch ein umgekehrters Vorge¬ hen möglich, bei dem man aus einer Netzwerkarchitektur eine Menge von einfachen Regeln wieder herauslesen kann. Unter Verwendung bekannter Ausdünnungsverfahren für neuronale Netze können Knoten gelöscht werden und damit auch die ih¬ nen entsprechenden Regeln.
Das erfindungsgemäße Netzwerk kann besonders dann mit gro¬ ßem Vorteil eingesetzt werden, wenn zu Anfang eines on-line Steuerungs- oder Regelungsprozesses nocht nicht genügend oder gar keine Trainingsdaten vorliegen. Dann greift das Netzwerk gemäß dieser Erfindung auf das bereits zu Anfang vorhandene Regelwissen zurück und kann so - wenn auch even¬ tuell suboptimal - arbeiten.
Das erfindungsgemäße neuronale Netzwerk kann auch in sol¬ chen Fällen angewendet werden, in denen der Wert, welcher der Ausgangs ariablen y gemäß einer Regel zugewiesen werden soll nicht konstant ist, sondern von x abhängt. Dieser Fall läßt sich formal dadurch beschreiben, daß die Größen B in den Regeln Funktionen von x sind. Das neuronale Netz, wel¬ ches dieser Situation entspricht, enthält anstelle von kon¬ stanten Gewichten wi von x = xl, .. ,,xN abhängige Gewichte wi(x) .
Ferner kann ein Straf-Term EP in die Funktion ED eingeführt werden, der verhindert, daß das Netzwerk die durch die (anfänglichen) Regeln vorgegebene Parameterwerte zu schnell (durch die Adaption an die Trainingsdaten) vergißt. Ein solcher Ter kann z.B. die Abweichung der momentanen Para¬ meterwerte von den anfänglichen Parameterwerten messen und entsprechend mit Kosten bewerten. Eine mögliche Wahl für diesen Strafterm ist ein additiver, zu der Summe der qua¬ dratischen Abweichungen der momentanen Netzwerkparameter von den anfänglichen Netzwerkparametern proportionaler Ko- stenterm in der Zielfunktion:
(7) EP
Figure imgf000011_0001
-<i tiai)2
J
Wenn die Netzwerkparameter nicht intuitiv genug sind, kann man alternativ dazu einen ( z.B. additiven) Kostenterm in der Energiefunktion ED verwenden, welcher die (z.B. quadra¬ tische) Abweichung der anfänglichen Netzwerkausgangswerte von den momentanen Netzwerkausgangswerten - summiert über eine Menge von ausgewählten Eingangsdaten - bewertet'.
(8) EP - (NNinitial[x] - NN[x])2 xeXref
Hierbei kann sich die Summe wahlweise über ein regelmäßiges Gitter von Referenzpunkten im Eingangsraum des Netzwerkes oder über eine zufällig oder auf andere Weise ausgewählte Menge solcher Referenzpunkte erstrecken.

Claims

Patentansprüche
1. Neuronales Netzwerk mit einer regelbasierten > Netzwerkstruktur, bei dem jeder Ausgangswert yτ_ eine normierte Linearkombination
Figure imgf000012_0001
von I Basisfunktionen bj_ mit I Gewichtskoeffizienten w± ist, wobei die Basisfunktionen b^ um I Mittelwerte c-j_ lokalisierte, nicht-negative Funktionen der Eingangswerte x des neuronalen Netzwerkes sind.
2. Neuronales Netzwerk nach Anspruch 1 mit Basisfunktionen der Form
bf(x) = kfexp ~(x-c ∑71(x-c)
wobei X i. eine inverse Kovarianzmatrix und k-;L ein Normierungsfaktor der i-ten Basisfunktion ist.
3. Verfahren zur Strukturierung eines neuronalen Netzwerkes durch regelbasiertes Wissen, bei dem die Basisfunktionen eines neuronalen Netzwerkes nach einem der vorhergehenden Ansprüche nach Art der Zugehörigkeitsfunktionen zur Dar¬ stellung unscharfer Regeln gewählt werden.
4. Verfahren zur Adaption der Parameter eines neuronalen Netzwerkes nach einem der vorhergehenden Ansprüche, bei dem eine vorgegebene Zielfunktion dieser Parameter lokal opti¬ miert wird.
5. Verfahren nach Anspruch 4, bei dem während der Adaption laufend neue Basisfunktionen und damit Regeln eingeführt werden, um zu verhindern, daß die Prädiktionen des Netzwer¬ kes zu sehr von den Beobachtungsdaten abweichen.
6. Verfahren nach Anspruch 4, bei dem die Zielfunktion ei- nen Strafterm enthält, welcher ein Maß für die Abweichungen der momentanen Netzwerkparameter von den anfänglichen Netzwerkparametern ist.
7. Verfahren nach Anspruch 6, bei dem der Strafterm additiv und zu der Summe der quadratischen Abweichungen proportio¬ nal ist.
8. Verfahren nach"Anspruch 6, bei dem der Strafterm additiv und zu den über alle möglichen oder über ausgewählte Werte der Eingangsvariablen summierten quadratischen Abweichungen der momentanen Ausgabewerte des neuronalen Netzwerkes von den Ausgabewerten einer Kopie des anfänglichen Netzwerkes mit anf nglichen Parameterwerten ist.
9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Gewichtskoeffizienten wi von den Eingangsvariablen xl, ... ,xN abhängige Funktionen sind.
PCT/DE1993/000245 1992-04-06 1993-03-17 Strukturierung von neuronalen netzen durch regelbasiertes wissen WO1993020530A1 (de)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
DEP4211491.8 1992-04-06
DE4211491 1992-04-06
DEP4230419.9 1992-09-11
DE4230419A DE4230419A1 (de) 1992-09-11 1992-09-11 Strukturierung von neuronalen Netzen durch regelbasiertes Wissen
DE4232479A DE4232479A1 (de) 1992-09-28 1992-09-28 Strukturierung von neuronalen Netzen durch regelbasiertes Wissen
DEP4232479.3 1992-09-28

Publications (1)

Publication Number Publication Date
WO1993020530A1 true WO1993020530A1 (de) 1993-10-14

Family

ID=27203613

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE1993/000245 WO1993020530A1 (de) 1992-04-06 1993-03-17 Strukturierung von neuronalen netzen durch regelbasiertes wissen

Country Status (1)

Country Link
WO (1) WO1993020530A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6907412B2 (en) 1995-09-29 2005-06-14 Computer Associates Think, Inc. Visualization and self-organization of multidimensional data through equalized orthogonal mapping

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0378689A1 (de) * 1988-05-20 1990-07-25 Matsushita Electric Industrial Co., Ltd. Verfahren zur bestimmung der inferenzregel sowie inferenzmotor
EP0471857A1 (de) * 1990-03-12 1992-02-26 Fujitsu Limited Datenverarbeitungssystem, welches neurozerstreute fusion benutzt

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0378689A1 (de) * 1988-05-20 1990-07-25 Matsushita Electric Industrial Co., Ltd. Verfahren zur bestimmung der inferenzregel sowie inferenzmotor
EP0471857A1 (de) * 1990-03-12 1992-02-26 Fujitsu Limited Datenverarbeitungssystem, welches neurozerstreute fusion benutzt

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
1991 IEEE INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS Bd. 1, 18. November 1991, SINGAPORE Seiten 875 - 880 GUPTA 'Synaptic and somatic learning and adaptation in fuzzy neural systems' *
IECON 90 , 16TH ANNUAL CONFERENCE OF IEEE INDUSTRIAL ELECTRONICS SOCIETY Bd. 2, 27. November 1990, PACIFIC GROVE , USA Seiten 1314 - 1343 DOTE 'Fuzzy and neural network controller' *
IEEE TRANSACTIONS ON COMPUTERS Bd. 40, Nr. 12, Dezember 1991, NEW YORK US Seiten 1320 - 1336 LIN 'Neural-network-based fuzzy logic control and decision system' *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6907412B2 (en) 1995-09-29 2005-06-14 Computer Associates Think, Inc. Visualization and self-organization of multidimensional data through equalized orthogonal mapping

Similar Documents

Publication Publication Date Title
EP2112568B1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE69823049T2 (de) Modellfreie adaptive prozesssteuerung
EP2185980B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung mit hilfe neuronaler netze
DE102007017259B4 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
EP2106576B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems
DE112016003245T5 (de) Resistive Verarbeitungseinheit
DE102008020380B4 (de) Verfahren zum rechnergestützten Lernen einer Steuerung und/oder Regelung eines technischen Systems
WO2013170843A1 (de) Verfahren zum trainieren eines künstlichen neuronalen netzes
EP3701433B1 (de) Verfahren, vorrichtung und computerprogramm zur erstellung eines tiefen neuronalen netzes
DE19531967A1 (de) Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems
EP1052558A1 (de) Verfahren und Einrichtung zur Zustandsschätzung
DE4230419A1 (de) Strukturierung von neuronalen Netzen durch regelbasiertes Wissen
DE19530646C1 (de) Lernverfahren für ein rekurrentes neuronales Netz
WO1997044743A1 (de) Verfahren zur optimierung eines fuzzy-regelsatzes durch einen rechner
DE10201018B4 (de) Neuronales Netz, Opimierungsverfahren zur Einstellung der Verbindungsgewichte eines neuronalen Netzes sowie Analyseverfahren zur Überwachung eines Optimierungsverfahrens
DE19504664A1 (de) Chaotisches rekurrentes neuronales Netz und Lernverfahren dafür
DE10139682B4 (de) Verfahren zum Generieren von neuronalen Netzen
DE19537010C2 (de) Lernverfahren und -anordnung zur Nachbildung eines dynamischen Prozesses
WO1993020530A1 (de) Strukturierung von neuronalen netzen durch regelbasiertes wissen
EP0777881B1 (de) Verfahren zur festlegung des gültigkeitsbereichs für ein künstliches neuronales netzwerk
DE19703964C1 (de) Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz
WO2019206776A1 (de) Verfahren und vorrichtung zum ermitteln einer netzkonfiguration eines neuronalen netzes
DE4209746A1 (de) Verfahren zur Optimierung eines technischen Neuro-Fuzzy-Systems
EP0548127B1 (de) Neuronales Netzwerk und Schaltungsanordnung zur Bool&#39;schen Realisierung neuronaler Netze vom ADALINE-Typ
DE4232479A1 (de) Strukturierung von neuronalen Netzen durch regelbasiertes Wissen

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase