WO1994025931A1 - Neuronales netz - Google Patents

Neuronales netz Download PDF

Info

Publication number
WO1994025931A1
WO1994025931A1 PCT/DE1994/000465 DE9400465W WO9425931A1 WO 1994025931 A1 WO1994025931 A1 WO 1994025931A1 DE 9400465 W DE9400465 W DE 9400465W WO 9425931 A1 WO9425931 A1 WO 9425931A1
Authority
WO
WIPO (PCT)
Prior art keywords
neurons
neural network
output
input
intermediate layer
Prior art date
Application number
PCT/DE1994/000465
Other languages
English (en)
French (fr)
Inventor
Karl-Heinz Kirchberg
Edmund Linzenkirchner
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Publication of WO1994025931A1 publication Critical patent/WO1994025931A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • G06N3/105Shells for specifying net layout

Definitions

  • the invention relates to a neural network according to the preamble of claim 1.
  • Neural networks such as z. B. from the book “Neural Networks” by Eberhard Schöneburg, Nikolaus Hansen and Andreas Gawelczyk, appeared in 1990 in T &technik
  • Publishers are known to be able to realize complex, multi-dimensional functions.
  • incoming signals are weighted with factors, eg. B. linked by sum or product formation with each other and then evaluated for a non-linear function.
  • the structure of these basic functions is independent of the overall function of the neural network to be implemented. Only the number of inputs and outputs, the neurons and the parameters of the individual neurons are to be specified for the specific application.
  • These parameters of a neural network can be obtained in a learning phase which can be carried out on the basis of supporting values of the non-linear function to be implemented.
  • a suitable learning method is the back propagation method described in the above-mentioned book, in which the weights of the neural network are initially initialized with random values. The first input pattern is then applied to the network and the network is completely calculated.
  • the invention has for its object to provide a neural network, the output signals can be calculated in a relatively short time and also on a simple computing unit such as z. B. is used in automation devices, can be realized.
  • the new neural network of the type mentioned has the features mentioned in the characterizing part of claim 1.
  • the invention has the advantage that conventional functions of a computing unit, such as. B. that of a controller, can be easily combined with a neural network.
  • a computing unit such as. B. that of a controller
  • the realization of a neural network does not have to take place on a separate computer which then has suitable interfaces with the
  • Automation system would be coupled. No additional components are therefore required, but the combination with conventional functions is possible in a simple manner.
  • the neural network can be reloaded into an existing computing unit and operated there in combination with the existing functions.
  • the time required for calculating the output signals of the neural network can be further reduced if the nonlinear element in neurons of the intermediate layer is implemented by a characteristic curve stored in a data field.
  • the input and output signals can be used in a standardized representation to optimize the computing accuracy.
  • FIG. 1 shows a three-layer neural network
  • FIG. 2 shows the basic structure of a neuron with n inputs
  • FIG. 3 shows a block diagram of a software package for realizing a neural network
  • FIG. 4 shows a function of a nonlinear element.
  • neurons 11 ... In, 21 ... 2p and 31 ... 3m are arranged in a network in three layers one behind the other.
  • the layer of the neurons 11 ... In is referred to as the input layer, that of the neurons 21 ... 2p as the intermediate layer and that with the neurons 31 ... 3m as the output layer.
  • Each intermediate and output layer neuron is connected to the outputs of all the neurons in the previous layer. There must be at least one neuron in each layer.
  • the neural network contains no feedback and no dynamic elements. For the freedom from feedback, the term "feed forward" is also used, which means that the information flow only takes place in the direction from the input layer to the output layer.
  • each input signal xl ... xn In must be present for each input signal xl ... xn.
  • the input data processed in an input signal processing are forwarded via these input neurons 11 ... In to the neurons 21 ... 2p in the intermediate layer.
  • the neurons 31 ... 3m in the output layer form the output of the network.
  • any number of neurons 21 ... 2p can be arranged in the intermediate layer.
  • the neural network can therefore contain one or more input and output neurons.
  • the number of output signals yl ... ym need not be the same as the number of input signals xl ... xn. In the case of neural networks with a plurality of input signals xl ...
  • the neurons 21 ... 2p of the intermediate layer emulate
  • Figure 2 nested functions. They have an input function g (x) and an output function f (g).
  • the input function g (x) has one to n inputs.
  • the input signals xl ... xn are present at these inputs, which are weighted in the input function with weighting factors wl ... wn and linked together.
  • a constant offset can also be added.
  • the result of the input function g (x) is evaluated again linearly or non-linearly in the output function f (g).
  • a neuron has only one output signal y.
  • the neurons 11 ... in the input layer pass on the input signals xl ... xn unchanged to the neurons ⁇ 21 ... 2p of the intermediate layer.
  • Each neuron 21 ... 2p in the intermediate layer is connected to all neurons 11 ... in the input layer.
  • Each neuron 31 ... 3m of the output layer is connected to all neurons 21 ... 2p of the intermediate layer.
  • the neurons 31 ... 3m of the output layer also have an input function g like those of the intermediate layer, but the result of this function is used as an output without further evaluation. signal yl ... ym output.
  • the output function f of the neurons 31 ... 3m is therefore always linear.
  • the parameterization i.e. H. the determination of the weights and the offsets of the individual neurons of the neural network is carried out by “learning” or “training” on the basis of predetermined support values.
  • a suitable method is the back propagation method already mentioned.
  • a software package according to FIG. 3 for realizing a neural network is designed for a maximum of fifteen inputs and five outputs.
  • a control input NF serves to switch the neural network to follow-up mode, in which the values at outputs AI ... A5 follow the values at follow-up inputs NF1 ... NF5.
  • the number of connected inputs (maximum fifteen), the connected outputs (maximum five), the neurons in the intermediate layer or the number of neurons in the intermediate layer with a linear output function are specified at four further control inputs Ax, Ay, Az and Azl. If the value at the input Az is equal to the value at the input Azl, a linear network is obtained in which there are no nonlinear elements.
  • the number of neurons in the intermediate layer is limited to 250 in this exemplary embodiment.
  • Values of the input signals can be transferred to the neural network at fifteen inputs E1 ... E15.
  • range limits for the values of the individual input variables and the output variables can be specified. They also serve to standardize the input and output values to an internal value range from 0 to 1.
  • the five inputs FNL, EGEW, EOFS, AGEW and AOFS are data fields. The parameters of the neural network are stored in these fields.
  • the base values of the non-linear output function of the neurons of the intermediate layer are stored in the data field FNL.
  • the tangent hyperbolic which has approximately the course shown in FIG.
  • the function is suitable for this purpose.
  • the presence of this function in the programming languages of the computing unit is not a prerequisite for the realization of the neural network. In addition, this reduces the computing time and the function can optionally be changed in a simple manner.
  • the weights for the inputs of the neurons in the intermediate layer are stored in the data field EGEW, and the offsets of these neurons are stored in the data field EOFS. Accordingly, the weights and offsets of the neurons are stored in the starting layer in the data fields AGEW and AOFS.
  • the input signals are first normalized to a number range from 0 to 1 in accordance with the range limits. This is followed by monitoring for the exceeding of the range limits, when they occur an alarm signal, not shown, is set. So z.
  • the outputs can be switched to follow-up mode or another strategy can be implemented.
  • the neural network is programmed in the software package in a fixed structure, of which a subset can be used, controlled via the parameters Ax, Ay, Az and Azl.
  • the output signals of the network are again normalized according to the range limits of the outputs.
  • the parameterization of the neural network takes place via the data fields EGEW, EOFS, AGEW and AOFS, the contents of which are determined using suitable learning methods. Any nonlinear function that is used in the nonlinear neurons of the intermediate layer can be defined via the data field FNL.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein neuronales Netz, das mindestens einen Eingang und mindestens einen Ausgang aufweist, wobei in Neuronen (21 ... 2p) einer Zwischenschicht Eingangssignale (x1 ...xn) zunächst gewichtet, dann miteinander verknüpft und mit einem nichtlinearen Element ausgewertet werden und jedem Ausgang des neuronalen Netzes ein Neuron (31 ... 3m) in der Ausgangsschicht zugeordnet ist. Dabei werden die Eingangssignale (x1 ... xn) des neuronalen Netzes von den Neuronen (11 ... 1n) der Eingangsschicht unverändert den Neuronen (21 ... 2p) der Zwischenschicht zugeführt. In den Neuronen (31 ... 3m) der Ausgangsschicht ist kein nichtlineares Element vorhanden. Ein derartiges neuronales Netz ist als Software-Paket auf einfachen Recheneinheiten ablauffähig. Die Erfindung wird angewandt in der Steuerungs- und Regelungstechnik.

Description

Beschreibung
Neuronales Netz
Die Erfindung bezieht sich auf ein neuronales Netz nach dem Oberbegriff des Anspruchs 1.
Neuronale Netze, wie sie z. B. aus dem Buch "Neuronale Netzwerke" von Eberhard Schöneburg, Nikolaus Hansen und Andreas Gawelczyk, erschienen 1990 im Markt & Technik
Verlag, bekannt sind, können komplexe, vieldi ensionale Funktionen realisieren. In den einzelnen Neuronen, die im neuronalen Netz schichtartig hintereinander angeordnet sein können, werden ankommende Signale mit Faktoren ge- wichtet, z. B. durch Summen- oder Produktbildung mitein¬ ander verknüpft und anschließend nach einer nichtlinearen Funktion bewertet. Der Aufbau dieser Grundfunktionen ist von der zu realisierenden Gesamtfunktion des neuronalen Netzes unabhängig. Anwendungsspezifisch sind lediglich die Anzahl der Ein- und Ausgänge, der Neuronen und die Para¬ meter der einzelnen Neuronen festzulegen. Diese Parameter eines neuronalen Netzes können in einer Lernphase gewonnen werden, die auf der Basis von Stützwerten der zu realisie¬ renden nichtlinearen Funktion durchführbar ist. Ein ge- eignetes Lernverfahren ist das in dem oben erwähnten Buch beschriebene Backpropagation-Verfahren, bei dem die Ge¬ wichte des neuronalen Netzes zu Beginn mit Zufallswerten initialisiert werden. Daraufhin wird das erste Eingangs¬ muster an das Netz angelegt und das Netz komplett durch- gerechnet. Der berechnete Ausgangswert des neuronalen
Netzes wird nun mit dem geforderten Ausgangswert vergli¬ chen. Tritt ein Fehler auf, so werden die Gewichte des neuronalen Netzes so korrigiert, daß der korrekte Aus¬ gangswert angenähert wird. Das Verfahren wird so lange wiederholt, bis die gewünschte Genauigkeit der Ausgangs¬ werte erreicht ist und das neuronale Netz die geforderte Abbildungsvorschrift gelernt hat. Da das Backpropagation- Verfahren ein iteratives Verfahren ist, kann es vorkommen, daß es nur langsam konvergiert und große Rechenzeiten er¬ fordert. Maßgeblich beeinflußt werden diese durch die eigentliche Berechnung der Ausgangssignale des neuronalen Netzes.
Der Erfindung liegt die Aufgabe zugrunde, ein neuronales Netz zu schaffen, dessen Ausgangssignale in relativ kurzer Zeit berechnet werden können und das zudem auf einer ein- fachen Recheneinheit, wie sie z. B. in Automatisierungs¬ geräten verwendet wird, realisierbar ist.
Zur Lösung dieser Aufgabe weist das neue neuronale Netz der eingangs genannten Art die im kennzeichnenden Teil des Anspruchs 1 genannten Merkmale auf. Vorteilhafte
Weiterbildungen der Erfindung sind in den Unteransprü¬ chen 2 bis 6 angegeben.
Die Erfindung hat den Vorteil, daß konventionelle Funk- tionen einer Recheneinheit, wie z. B. die eines Reglers, auf einfache Weise mit einem neuronalen Netz kombiniert werden können. Insbesondere in Automatisierungsgeräten mit einer einfachen Recheneinheit muß die Realisierung eines neuronalen Netzes nicht auf einem getrennten Rechner erfolgen, der dann über geeignete Schnittstellen mit dem
Automatisierungssystem zu koppeln wäre. Es sind also keine zusätzlichen Komponenten erforderlich, sondern die Kombi¬ nation mit konventionellen Funktionen ist auf einfache Weise möglich. Das neuronale Netz kann in eine bestehende Recheneinheit nachgeladen und dort in Kombination mit den vorhandenen Funktionen betrieben werden. Die zur Berech¬ nung der Ausgangssignale des neuronalen Netzes benötigte Zeit kann weiter verkürzt werden, wenn das nichtlineare Element in Neuronen der Zwischenschicht durch eine in einem Datenfeld abgelegte Kennlinie realisiert ist. Zur
Optimierung der Rechengenauigkeit können die Ein- und Aus¬ gangssignale in normierter Darstellung verwendet werden. Anhand der Zeichnungen, in denen ein Ausführungsbeispiel der Erfindung dargestellt ist, werden im folgenden die Erfindung sowie Ausgestaltungen und Vorteile näher er¬ läutert.
Es zeigen:
Figur 1 ein dreischichtiges neuronales Netz, Figur 2 den prinzipiellen Aufbau eines Neurons mit n Ein¬ gängen, Figur 3 ein Blockbild eines Software-Pakets zur Realisie¬ rung eines neuronalen Netzes und Figur 4 eine Funktion eines nichtlinearen Elements.
In einem dreilagigen neuronalen Netz nach Figur 1 sind Neuronen 11 ... In, 21 ... 2p und 31 ... 3m netzartig in drei Schichten hintereinander angeordnet. Die Schicht der Neuronen 11 ... In wird als Eingangsschicht, diejenige der Neuronen 21 ... 2p als Zwischenschicht und diejenige mit den Neuronen 31 ... 3m als Ausgangsschicht bezeichnet. Jedes Neuron der Zwischen- und der Ausgangsschicht ist mit den Ausgängen aller Neuronen in der vorherigen Schicht verbunden. In jeder Schicht muß mindestens ein Neuron vorhanden sein. Das neuronale Netz enthält keine Rück¬ kopplungen und keine dynamischen Glieder. Für die Rück- kopplungsfreiheit wird auch die Bezeichnung "Feedforward" benutzt, welche besagt, daß der Informationsfluß nur in der Richtung von der Eingangsschicht zur Ausgangsschicht hin erfolgt. Für jedes Eingangssignal xl ... xn muß ein Eingangsneuron 11 ... In vorhanden sein. Die in einer Ein- gangssignalverarbeitung aufbereiteten Eingangsdaten werden über diese Eingangsπeuronen 11 ... In an die Neuronen 21 ... 2p in der Zwischenschicht weitergeleitet. Die Neuronen 31 ... 3m in der Ausgangsschicht bilden den Aus¬ gang des Netzes. Für jedes zu lernende Ausgangssignal yl ... ym muß ein Ausgangsneuron 31 ... 3m vorhanden sein. In der Zwischenschicht können im Prinzip beliebig viele Neuronen 21 ... 2p angeordnet sein. Das neuronale Netz kann somit ein oder mehrere Ein- und Ausgangsneuronen enthalten. Die Anzahl der Ausgangssignale yl ... ym muß dabei nicht gleich der Anzahl der Eingangssignale xl ... xn sein. Bei neuronalen Netzen mit mehreren Eingaπgs- Signalen xl ... xn werden keine einzelnen Eingangswerte vorgegeben, sondern Eingangsmuster, d. h. zusammengehörige Kombinationen von Eingangswerten. Bei mehreren Ausgangs¬ signalen yl ... ym sind dies entsprechend Ausgangsmuster. Die Begriffe "Wert" und "Muster" sollen im folgenden synonym verwendet werden, d. h., wenn bei einem neuronalen Netz mit mehreren Eingangssignalen von "Eingangswerten" gesprochen wird, dann können darunter auch "Eingangs¬ muster" verstanden werden.
Die Neuronen 21 ... 2p der Zwischenschicht bilden nach
Figur 2 geschachtelte Funktionen. Sie haben eine Eingangs¬ funktion g(x) und eine Ausgangsfunktion f(g). Die Ein¬ gangsfunktion g(x) hat einen bis n Eingänge. An diesen Eingängen liegen die Eingangssignale xl ... xn an, die in der Eingangsfunktion mit Gewichtungsfaktoren wl ... wn gewichtet und miteinander verknüpft werden. Weiterhin kann noch ein konstanter Offset aufaddiert werden. Das Ergebnis der Eiπgangsfunktion g(x) wird in der Ausgangsfunktion f(g) nochmals linear oder nichtlinear bewertet. Ein Neuron hat nur ein Ausgangssignal y.
Die Neuronen 11 ... In der Eingangsschicht geben die Ein¬ gangssignale xl ... xn unverändert an die Neuroneπ 21 ... 2p der Zwischenschicht weiter. Jedes Neuron 21 ... 2p in der Zwischenschicht ist mit allen Neuronen 11 ... In der Eingangsschicht verbunden. Jedes Neuron 31 ... 3m der Ausgangsschicht ist mit allen Neuronen 21 ... 2p der Zwischenschicht verbunden. Die Neuronen 31 ... 3m der Ausgangsschicht besitzen ebenfalls eine Eingangsfunktion g wie diejenigen der Zwischenschicht, das Ergebnis dieser Funktion wird aber ohne weitere Bewertung als Ausgangs- signal yl ... ym ausgegeben. Die Ausgangsfunktion f der Neuronen 31 ... 3m ist daher immer linear.
Das Parametrieren, d. h. das Ermitteln der Gewichte und der Offsets der einzelnen Neuronen des neuronalen Netzes, erfolgt durch ein "Lernen" oder "Trainieren" anhand von vorgegebenen Stützwerten. Ein dazu geeignetes Verfahren ist das bereits erwähnte Backpropagation-Verfahren. Ein weiteres, das auf dem Lösen eines linearen Gleichungs- Systems basiert, wurde in der deutschen Patentanmeldung P 42 28 703.0 vorgeschlagen.
Ein Software-Paket nach Figur 3 zur Realisierung eines neuronalen Netzes ist für maximal fünfzehn Eingänge und fünf Ausgänge ausgelegt. Die Eingänge ID1 ... IDq des
Software-Pakets sind für systemspezifische Daten, z. B. die Nummern von Datenfeldern, vorgesehen. Ein Steuer¬ eingang NF dient zum Umschalten des neuronalen Netzes auf Nachführbetrieb, in dem die Werte an Ausgängen AI ... A5 den Werten an Nachführeingängen NF1 ... NF5 folgen. An vier weiteren Steuereingängen Ax, Ay, Az und Azl wird die Anzahl der beschalteten Eingänge (maximal fünfzehn), der beschalteten Ausgänge (maximal fünf), der Neuronen in der Zwischenschicht bzw. die Anzahl der Neuronen in der Zwischenschicht mit linearer Ausgabefunktion vorgegeben. Für den Fall, daß der Wert am Eingang Az gleich dem Wert am Eingang Azl ist, erhält man ein lineares Netzwerk, in dem keine nichtlinearen Elemente vorhanden sind. Die Zahl der Neuronen in der Zwischenschicht ist in diesem Ausführungsbeispiel auf 250 begrenzt. An fünfzehn Ein¬ gängen El ... E15 können Werte der Eingangssignale an das neuronale Netz übergeben werden. An den Eingängen El_min ... E15_min, El_max ... E15_max, Al_min ... A5_min und Al_max ... A5_max können Bereichsgrenzen für die Werte der einzelnen Eingangsgrößen sowie der Ausgangs¬ größen vorgegeben werden. Sie dienen ebenfalls zur Normie¬ rung der Ein- und Ausgangswerte auf einen internen Werte- bereich von 0 bis 1. Bei den fünf Eingängen FNL, EGEW, EOFS, AGEW und AOFS handelt es sich um Datenfelder. In diesen Feldern werden die Parameter des neuronalen Netzes gespeichert. Im Datenfeld FNL werden die Stützwerte der nichtlinearen Ausgabefunktion der Neuronen der Zwischen¬ schicht abgelegt. Dazu ist der Tangens-Hyperbolikus ge¬ eignet, der etwa den in Figur 4 gezeigten Verlauf hat. Durch das Hinterlegen der Funktion in einer Wertetabelle ist das Vorhandensein dieser Funktion in der Programmier- spräche der Recheneinheit keine Voraussetzung für die Realisierung des neuronalen Netzes. Zudem wird dadurch die Rechenzeit verkürzt, und die Funktion kann gegebenen¬ falls auf einfache Weise geändert werden. In dem Datenfeld EGEW werden die Gewichte für die Eingänge der Neuronen in der Zwischenschicht, in dem Datenfeld EOFS die Offsets dieser Neuronen abgespeichert. Entsprechend sind in den Datenfeldern AGEW und AOFS die Gewichte und die Offsets der Neuronen in der Ausgangsschicht hinterlegt.
In dem Software-Paket werden zunächst die Eingangssignale entsprechend den Bereichsgrenzen auf einen Zahlenbereich von 0 bis 1 normiert. Es folgt eine Überwachung auf die Überschreitung der Bereichsgrenzen, bei deren Auftreten ein nicht dargestelltes Meldesignal gesetzt wird. Damit können z. B. die Ausgänge auf Nachführbetrieb umgeschal¬ tet oder eine andere Strategie realisiert werden. Das neuronale Netz ist in dem Software-Paket in einer festen Struktur programmiert, von der, über die Parameter Ax, Ay, Az und Azl gesteuert, eine Untermenge genutzt werden kann. Die Ausgangssignale des Netzes werden entsprechend den Bereichsgrenzen der Ausgänge wieder denormiert. Die Parametrierung des neuronalen Netzes erfolgt über die Datenfelder EGEW, EOFS, AGEW und AOFS, deren Inhalte mit geeigneten Lernverfahren ermittelt werden. Über das Datenfeld FNL kann eine beliebige nichtlineare Funktion definiert werden, die in den nichtlinearen Neuronen der Zwischenschicht verwendet wird.

Claims

Patentansprüche
1. Neuronales Netz, das mindestens einen Eingang und min¬ destens einen Ausgang sowie Neuronen (11 ... In, 21 ... 2p, 31 ... 3m) in mehreren hintereinander angeordneten Schichten aufweist, wobei in Neuroπen (21 ... 2p) einer Zwischenschicht Eingangssignale (xl ... xn) zunächst gewichtet, dann miteinander verknüpft und mit einem nichtlinearen Element ausgewertet werden und jedem Aus- gang des neuronalen Netzes ein Neuron (31 ... 3m) in der Ausgangsschicht zugeordnet ist, auf welches die Signale der Neuronen (21 ... 2p) der Zwischenschicht geführt sind und in denen durch eine Gewichtung und Verknüpfung dieser Signale jeweils ein Ausgangssignal (yl ... ym) erzeugt wird, d a d u r c h g e k e n n z e i c h n e t ,
- daß Eingangssignale (xl ... xn) des neuronalen Netzes von den Neuronen (11 ... In) der Eingangsschicht un¬ verändert Neuronen (21 ... 2p) der Zwischenschicht zugeführt werden,
- daß in den Neuronen (31 ... 3m) der Ausgangsschicht kein nichtlineares Element vorhanden ist und
- daß das neuronale Netz in einer Recheneinheit durch ein nachladbares Software-Paket realisiert ist.
2. Neuronales Netz nach Anspruch 1, d a d u r c h g e k e n n z e i c h n e t ,
- daß die Eingangs- und Ausgangssignale (xl ... xn; yl .. ym) als numerische Größen ein- bzw. ausgegeben werden, - daß die Anzahl der Ein- und Ausgänge sowie die Anzahl der Neuronen (21 ... 2p) in der Zwischenschicht para- metrierbar sind und
- daß ein Datenfeld (EGEW) für die Gewichtungsfaktoren der Neuronen (21 ... 2p) in der Zwischenschicht, ein Datenfeld (AGEW) für die Gewichtungsfaktoren der Neuronen (31 ... 3m) in der Ausgangsschicht sowie Datenfelder (EOFS, AOFS) für Offsets zur Überlagerung mit den gewichteteπ und verknüpften Signalen in den Neuronen der Zwischenschicht und/oder der Ausgangs¬ schicht vorhanden sind.
3. Neuronales Netz nach Anspruch 1 oder 2, d a ¬ d u r c h g e k e n n z e i c h n e t ,
- daß das nichtlineare Element durch eine für alle Neuronen (21 ... 2p) der Zwischenschicht einheitliche, in einem Datenfeld (FNL) abgelegte Kennlinie reali- siert ist.
4. Neuronales Netz nach einem der Ansprüche 1 bis 3, d a d u r c h g e k e n n z e i c h n e t ,
- daß das nichtlineare Element mindestens eines Neurons (21 ... 2p) der Zwischenschicht überbrückbar ist.
5. Neuronales Netz nach einem der Ansprüche 1 bis 4, d a d u r c h g e k e n n z e i c h n e t ,
- daß die Eingangssignale (xl ... xn) auf einen Zahlen- bereich von 0 bis 1 normiert und auf Einhalten der
Bereichsgrenzen überwacht werden.
6. Neuronales Netz nach Anspruch 5, d a d u r c h g e k e n n z e i c h n e t , - daß die Ausgangssignale (yl ... ym) entsprechend parametrierbarer Bereichsgrenzen denormiert werden.
PCT/DE1994/000465 1993-05-05 1994-04-27 Neuronales netz WO1994025931A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DEP4314895.6 1993-05-05
DE4314895A DE4314895A1 (de) 1993-05-05 1993-05-05 Neuronales Netz

Publications (1)

Publication Number Publication Date
WO1994025931A1 true WO1994025931A1 (de) 1994-11-10

Family

ID=6487264

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE1994/000465 WO1994025931A1 (de) 1993-05-05 1994-04-27 Neuronales netz

Country Status (2)

Country Link
DE (1) DE4314895A1 (de)
WO (1) WO1994025931A1 (de)

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
AHALT: "The neural shell: a neural network simulation tool", TOOLS FOR ARTIFICIAL INTELLIGENCE TAI90, 6 November 1990 (1990-11-06), HERNDON , USA, pages 118 - 124 *
CRUZ-YOUNG: "Flow-of-activation processing : parallel associative networks (PAN)", AIP CONFERENCE PROCEEDINGS 151 : NEURAL NETWORKS FOR COMPUTING, 1986, SNOWBIRD , USA, pages 115 - 120 *
LEE: "Robot kinematic control based on bidirectional mapping neural network", INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS, vol. 3, 17 June 1990 (1990-06-17), SAN DIEGO , USA, pages 327 - 335 *
LEONARD: "Classifying process behavior with neural networks: strategies for improved training and generalization", PROCEEDINGS OF THE 1990 AMERICAN CONTROL CONFERENCE, vol. 3, 23 May 1990 (1990-05-23), SAN DIEGO , USA, pages 2478 - 2483 *
SARNOW: "Simulierte Simulation", C'T MAGAZIN FUR COMPUTERTECHNIK, no. 10, 1990, HANNOVER , DE, pages 164 - 169 *

Also Published As

Publication number Publication date
DE4314895A1 (de) 1994-11-10

Similar Documents

Publication Publication Date Title
DE69823049T2 (de) Modellfreie adaptive prozesssteuerung
DE3404205A1 (de) Steuereinrichtung fuer ein fluessigkeitsventil
EP0706680B1 (de) Regeleinrichtung, insbesondere für einen nichtlinearen, zeitvarianten prozess
EP1638028A2 (de) Rechnergestützte Erzeugung und Änderungsmanagement für Bedienoberflächen
DE10261727A1 (de) Steuersystem in Fuzzy-Logik für ein Rad eines Kraftfahrzeugs und Verfahren zum Implementieren einer Fuzzy-Logikeinheit für derartiges Rad eines Kraftfahrzeuges
EP0424862B1 (de) Analoger Mehrkanalregler
DE1798326A1 (de) Selbstorganisierendes Regelsystem fuer die Regelung einer Anlage mit einer Mehrzahl veraenderlicher Groessen und einer Mehrzahl von Betaetigungsorganen fuer die Verstellung der Anlage
EP0771441B1 (de) Verfahren und anordnung zur anwendung von fuzzy-logik bei automatisierungssystemen
WO1994025931A1 (de) Neuronales netz
EP0750239B1 (de) Vorrichtung zur Lage- und gegebenenfalls Positionsregelung eines Raumfahrzeuges sowie zugehöriges Verfahren
EP0700536B1 (de) Regeleinrichtung
EP1183577B1 (de) Verfahren zur erzeugung eines steuerbausteins und steuerbaustein
EP0561792B1 (de) Wissensbasierte steuer- und regeleinrichtung
EP0614547B1 (de) Verfahren zur regelung für dynamische systeme n-ter ordnung
DE3609925C2 (de)
EP0815515B1 (de) Verfahren und einrichtung zum entwurf eines neuronalen netzes
EP0299321B1 (de) Schaltender PI-Regler mit Rückführung
DE3607241A1 (de) Rechner
EP1639417A1 (de) Vorrichtung und verfahren zur parametrierbaren steuerung
EP0334030B1 (de) Regeleinrichtung für einen Druckregelkreis
WO1990011575A1 (de) Rechensystem zur simulation der grosshirnrinde
DE102005027435A1 (de) Regelverfahren für eine Anzahl von in einem Regeltakt lagegeregelten Folgeachsen
DE4240788A1 (de) Regler
EP0753171B1 (de) Analoger fuzzy-logik-controller
DE102021116388A1 (de) Verfahren zum Optimieren eines Reglers und Regelsystem mit einem derart optimierten Regler

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase
122 Ep: pct application non-entry in european phase