DE4314895A1 - Neuronales Netz - Google Patents

Neuronales Netz

Info

Publication number
DE4314895A1
DE4314895A1 DE4314895A DE4314895A DE4314895A1 DE 4314895 A1 DE4314895 A1 DE 4314895A1 DE 4314895 A DE4314895 A DE 4314895A DE 4314895 A DE4314895 A DE 4314895A DE 4314895 A1 DE4314895 A1 DE 4314895A1
Authority
DE
Germany
Prior art keywords
neurons
neural network
output
input
intermediate layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE4314895A
Other languages
English (en)
Inventor
Karl-Heinz Dipl Ing Kirchberg
Edmund Dipl Ing Linzenkirchner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE4314895A priority Critical patent/DE4314895A1/de
Priority to PCT/DE1994/000465 priority patent/WO1994025931A1/de
Publication of DE4314895A1 publication Critical patent/DE4314895A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • G06N3/105Shells for specifying net layout

Landscapes

  • Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Description

Die Erfindung bezieht sich auf ein neuronales Netz nach dem Oberbegriff des Anspruchs 1.
Neuronale Netze, wie sie z. B. aus dem Buch "Neuronale Netzwerke" von Eberhard Schöneburg, Nikolaus Hansen und Andreas Gawelczyk, erschienen 1990 im Markt & Technik Verlag, bekannt sind, können komplexe, vieldimensionale Funktionen realisieren. In den einzelnen Neuronen, die im neuronalen Netz schichtartig hintereinander angeordnet sein können, werden ankommende Signale mit Faktoren ge­ wichtet, z. B. durch Summen- oder Produktbildung mitein­ ander verknüpft und anschließend nach einer nichtlinearen Funktion bewertet. Der Aufbau dieser Grundfunktionen ist von der zu realisierenden Gesamtfunktion des neuronalen Netzes unabhängig. Anwendungsspezifisch sind lediglich die Anzahl der Ein- und Ausgänge, der Neuronen und die Para­ meter der einzelnen Neuronen festzulegen. Diese Parameter eines neuronalen Netzes können in einer Lernphase gewonnen werden, die auf der Basis von Stützwerten der zu realisie­ renden nichtlinearen Funktion durchführbar ist. Ein ge­ eignetes Lernverfahren ist das in dem oben erwähnten Buch beschriebene Backpropagation-Verfahren, bei dem die Ge­ wichte des neuronalen Netzes zu Beginn mit Zufallswerten initialisiert werden. Daraufhin wird das erste Eingangs­ muster an das Netz angelegt und das Netz komplett durch­ gerechnet. Der berechnete Ausgangswert des neuronalen Netzes wird nun mit dem geforderten Ausgangswert vergli­ chen. Tritt ein Fehler auf, so werden die Gewichte des neuronalen Netzes so korrigiert, daß der korrekte Aus­ gangswert angenähert wird. Das Verfahren wird so lange wiederholt, bis die gewünschte Genauigkeit der Ausgangs­ werte erreicht ist und das neuronale Netz die geforderte Abbildungsvorschrift gelernt hat. Da das Backpropagation- Verfahren ein iteratives Verfahren ist, kann es vorkommen, daß es nur langsam konvergiert und große Rechenzeiten er­ fordert. Maßgeblich beeinflußt werden diese durch die eigentliche Berechnung der Ausgangssignale des neuronalen Netzes.
Der Erfindung liegt die Aufgabe zugrunde, ein neuronales Netz zu schaffen, dessen Ausgangssignale in relativ kurzer Zeit berechnet werden können und das zudem auf einer ein­ fachen Recheneinheit, wie sie z. B. in Automatisierungs­ geräten verwendet wird, realisierbar ist.
Zur Lösung dieser Aufgabe weist das neue neuronale Netz der eingangs genannten Art die im kennzeichnenden Teil des Anspruchs 1 genannten Merkmale auf. Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprü­ chen 2 bis 6 angegeben.
Die Erfindung hat den Vorteil, daß konventionelle Funk­ tionen einer Recheneinheit, wie z. B. die eines Reglers, auf einfache Weise mit einem neuronalen Netz kombiniert werden können. Insbesondere in Automatisierungsgeräten mit einer einfachen Recheneinheit muß die Realisierung eines neuronalen Netzes nicht auf einem getrennten Rechner erfolgen, der dann über geeignete Schnittstellen mit dem Automatisierungssystem zu koppeln wäre. Es sind also keine zusätzlichen Komponenten erforderlich, sondern die Kombi­ nation mit konventionellen Funktionen ist auf einfache Weise möglich. Das neuronale Netz kann in eine bestehende Recheneinheit nachgeladen und dort in Kombination mit den vorhandenen Funktionen betrieben werden. Die zur Berech­ nung der Ausgangssignale des neuronalen Netzes benötigte Zeit kann weiter verkürzt werden, wenn das nichtlineare Element in Neuronen der Zwischenschicht durch eine in einem Datenfeld abgelegte Kennlinie realisiert ist. Zur Optimierung der Rechengenauigkeit können die Ein- und Aus­ gangssignale in normierter Darstellung verwendet werden.
Anhand der Zeichnungen, in denen ein Ausführungsbeispiel der Erfindung dargestellt ist, werden im folgenden die Erfindung sowie Ausgestaltungen und Vorteile näher er­ läutert.
Es zeigen:
Fig. 1 ein dreischichtiges neuronales Netz,
Fig. 2 den prinzipiellen Aufbau eines Neurons mit n Ein­ gängen,
Fig. 3 ein Blockbild eines Software-Pakets zur Realisie­ rung eines neuronalen Netzes und
Fig. 4 eine Funktion eines nichtlinearen Elements.
In einem dreilagigen neuronalen Netz nach Fig. 1 sind Neuronen 11 . . . 1n, 21 . . . 2p und 31 . . . 3m netzartig in drei Schichten hintereinander angeordnet. Die Schicht der Neuronen 11 . . . 1n wird als Eingangsschicht, diejenige der Neuronen 21 . . . 2p als Zwischenschicht und diejenige mit den Neuronen 31 . . . 3m als Ausgangsschicht bezeichnet. Jedes Neuron der Zwischen- und der Ausgangsschicht ist mit den Ausgängen aller Neuronen in der vorherigen Schicht verbunden. In jeder Schicht muß mindestens ein Neuron vorhanden sein. Das neuronale Netz enthält keine Rück­ kopplungen und keine dynamischen Glieder. Für die Rück­ kopplungsfreiheit wird auch die Bezeichnung "Feedforward" benutzt, welche besagt, daß der Informationsfluß nur in der Richtung von der Eingangsschicht zur Ausgangsschicht hin erfolgt. Für jedes Eingangssignal x1 . . . xn muß ein Eingangsneuron 11 . . . 1n vorhanden sein. Die in einer Ein­ gangssignalverarbeitung aufbereiteten Eingangsdaten werden über diese Eingangsneuronen 11 . . . 1n an die Neuronen 21 . . . 2p in der Zwischenschicht weitergeleitet. Die Neuronen 31 . . . 3m in der Ausgangsschicht bilden den Aus­ gang des Netzes. Für jedes zu lernende Ausgangssignal y1 . . . ym muß ein Ausgangsneuron 31 . . . 3m vorhanden sein. In der Zwischenschicht können im Prinzip beliebig viele Neuronen 21 . . . 2p angeordnet sein. Das neuronale Netz kann somit ein oder mehrere Ein- und Ausgangsneuronen enthalten. Die Anzahl der Ausgangssignale y1 . . . ym muß dabei nicht gleich der Anzahl der Eingangssignale x1 . . . xn sein. Bei neuronalen Netzen mit mehreren Eingangs­ signalen x1 . . . xn werden keine einzelnen Eingangswerte vorgegeben, sondern Eingangsmuster, d. h. zusammengehörige Kombinationen von Eingangswerten. Bei mehreren Ausgangs­ signalen y1 . . . ym sind dies entsprechend Ausgangsmuster. Die Begriffe "Wert" und "Muster" sollen im folgenden synonym verwendet werden, d. h., wenn bei einem neuronalen Netz mit mehreren Eingangssignalen von "Eingangswerten" gesprochen wird, dann können darunter auch "Eingangs­ muster" verstanden werden.
Die Neuronen 21 . . . 2p der Zwischenschicht bilden nach Fig. 2 geschachtelte Funktionen. Sie haben eine Eingangs­ funktion g(x) und eine Ausgangsfunktion f(g). Die Ein­ gangsfunktion g(x) hat einen bis n Eingänge. An diesen Eingängen liegen die Eingangssignale x1 . . . xn an, die in der Eingangsfunktion mit Gewichtungsfaktoren w1 . . . wn gewichtet und miteinander verknüpft werden. Weiterhin kann noch ein konstanter Offset aufaddiert werden. Das Ergebnis der Eingangsfunktion g(x) wird in der Ausgangsfunktion f(g) nochmals linear oder nichtlinear bewertet. Ein Neuron hat nur ein Ausgangssignal y.
Die Neuronen 11 . . . 1n der Eingangsschicht geben die Ein­ gangssignale x1 . . . xn unverändert an die Neuronen 21 . . . 2p der Zwischenschicht weiter. Jedes Neuron 21 . . . 2p in der Zwischenschicht ist mit allen Neuronen 11 . . . 1n der Eingangsschicht verbunden. Jedes Neuron 31 . . . 3m der Ausgangsschicht ist mit allen Neuronen 21 . . . 2p der Zwischenschicht verbunden. Die Neuronen 31 . . . 3m der Ausgangsschicht besitzen ebenfalls eine Eingangsfunktion g wie diejenigen der Zwischenschicht, das Ergebnis dieser Funktion wird aber ohne weitere Bewertung als Ausgangs­ signal y1 . . . ym ausgegeben. Die Ausgangsfunktion f der Neuronen 31 . . . 3m ist daher immer linear.
Das Parametrieren, d. h. das Ermitteln der Gewichte und der Offsets der einzelnen Neuronen des neuronalen Netzes, erfolgt durch ein "Lernen" oder "Trainieren" anhand von vorgegebenen Stützwerten. Ein dazu geeignetes Verfahren ist das bereits erwähnte Backpropagation-Verfahren. Ein weiteres, das auf dem Lösen eines linearen Gleichungs­ systems basiert, wurde in der deutschen Patentanmeldung P 42 28 703.0 vorgeschlagen.
Ein Software-Paket nach Fig. 3 zur Realisierung eines neuronalen Netzes ist für maximal fünfzehn Eingänge und fünf Ausgänge ausgelegt. Die Eingänge ID1 . . . IDq des Software-Pakets sind für systemspezifische Daten, z. B. die Nummern von Datenfeldern, vorgesehen. Ein Steuer­ eingang NF dient zum Umschalten des neuronalen Netzes auf Nachführbetrieb, in dem die Werte an Ausgängen Al AS den Werten an Nachführeingängen NF1 . . . NFS folgen. An vier weiteren Steuereingängen Ax, Ay, Az und Az1 wird die Anzahl der beschalteten Eingänge (maximal fünfzehn), der beschalteten Ausgänge (maximal fünf), der Neuronen in der Zwischenschicht bzw. die Anzahl der Neuronen in der Zwischenschicht mit linearer Ausgabefunktion vorgegeben. Für den Fall, daß der Wert am Eingang Az gleich dem Wert am Eingang Az1 ist, erhält man ein lineares Netzwerk, in dem keine nichtlinearen Elemente vorhanden sind. Die Zahl der Neuronen in der Zwischenschicht ist in diesem Ausführungsbeispiel auf 250 begrenzt. An fünfzehn Ein­ gängen E1 . . . E15 können Werte der Eingangssignale an das neuronale Netz übergeben werden. An den Eingängen E1_min . . . E15_min, E1_max . . . E15_max, A1_min . . . A5_min und A1_max . . . A5_max können Bereichsgrenzen für die Werte der einzelnen Eingangsgrößen sowie der Ausgangs­ größen vorgegeben werden. Sie dienen ebenfalls zur Normie­ rung der Ein- und Ausgangswerte auf einen internen Werte­ bereich von 0 bis 1. Bei den fünf Eingängen FNL, EGEW, EOFS, AGEW und AOFS handelt es sich um Datenfelder. In diesen Feldern werden die Parameter des neuronalen Netzes gespeichert. Im Datenfeld FNL werden die Stützwerte der nichtlinearen Ausgabefunktion der Neuronen der Zwischen­ schicht abgelegt. Dazu ist der Tangens-Hyperbolikus ge­ eignet, der etwa den in Fig. 4 gezeigten Verlauf hat. Durch das Hinterlegen der Funktion in einer Wertetabelle ist das Vorhandensein dieser Funktion in der Programmier­ sprache der Recheneinheit keine Voraussetzung für die Realisierung des neuronalen Netzes. Zudem wird dadurch die Rechenzeit verkürzt, und die Funktion kann gegebenen­ falls auf einfache Weise geändert werden. In dem Datenfeld EGEW werden die Gewichte für die Eingänge der Neuronen in der Zwischenschicht, in dem Datenfeld EOFS die Offsets dieser Neuronen abgespeichert. Entsprechend sind in den Datenfeldern AGEW und AOFS die Gewichte und die Offsets der Neuronen in der Ausgangsschicht hinterlegt.
In dem Software-Paket werden zunächst die Eingangssignale entsprechend den Bereichsgrenzen auf einen Zahlenbereich von 0 bis 1 normiert. Es folgt eine Überwachung auf die Überschreitung der Bereichsgrenzen, bei deren Auftreten ein nicht dargestelltes Meldesignal gesetzt wird. Damit können z. B. die Ausgänge auf Nachführbetrieb umgeschal­ tet oder eine andere Strategie realisiert werden. Das neuronale Netz ist in dem Software-Paket in einer festen Struktur programmiert, von der, über die Parameter Ax, Ay, Az und Az1 gesteuert, eine Untermenge genutzt werden kann. Die Ausgangssignale des Netzes werden entsprechend den Bereichsgrenzen der Ausgänge wieder denormiert. Die Parametrierung des neuronalen Netzes erfolgt über die Datenfelder EGEW, EOFS, AGEW und AOFS, deren Inhalte mit geeigneten Lernverfahren ermittelt werden. Über das Datenfeld FNL kann eine beliebige nichtlineare Funktion definiert werden, die in den nichtlinearen Neuronen der Zwischenschicht verwendet wird.

Claims (6)

1. Neuronales Netz, das mindestens einen Eingang und min­ destens einen Ausgang sowie Neuronen (11 . . . 1n, 21 . . . 2p, 31 . . . 3m) in mehreren hintereinander angeordneten Schichten aufweist, wobei in Neuronen (21 . . . 2p) einer Zwischenschicht Eingangssignale (x1 . . . xn) zunächst gewichtet, dann miteinander verknüpft und mit einem nichtlinearen Element ausgewertet werden und jedem Aus­ gang des neuronalen Netzes ein Neuron (31 . . . 3m) in der Ausgangsschicht zugeordnet ist, auf welches die Signale der Neuronen (21 . . . 2p) der Zwischenschicht geführt sind und in denen durch eine Gewichtung und Verknüpfung dieser Signale jeweils ein Ausgangssignal (y1 . . . ym) erzeugt wird, dadurch gekennzeichnet,
  • - daß Eingangssignale (x1 . . . xn) des neuronalen Netzes von den Neuronen (11 . . . 1n) der Eingangsschicht un­ verändert Neuronen (21 . . . 2p) der Zwischenschicht zugeführt werden,
  • - daß in den Neuronen (31 . . . 3m) der Ausgangsschicht kein nichtlineares Element vorhanden ist und
  • - daß das neuronale Netz in einer Recheneinheit durch ein nachladbares Software-Paket realisiert ist.
2. Neuronales Netz nach Anspruch 1, dadurch gekennzeichnet,
  • - daß die Eingangs- und Ausgangssignale (x1 . . . xn; y1 . . . ym) als numerische Größen ein- bzw. ausgegeben werden,
  • - daß die Anzahl der Ein- und Ausgänge sowie die Anzahl der Neuronen (21 . . . 2p) in der Zwischenschicht para­ metrierbar sind und
  • - daß ein Datenfeld (EGEW) für die Gewichtungsfaktoren der Neuronen (21 . . . 2p) in der Zwischenschicht, ein Datenfeld (AGEW) für die Gewichtungsfaktoren der Neuronen (31 . . . 3m) in der Ausgangsschicht sowie Datenfelder (EOFS, AOFS) für Offsets zur Überlagerung mit den gewichteten und verknüpften Signalen in den Neuronen der Zwischenschicht und/oder der Ausgangs­ schicht vorhanden sind.
3. Neuronales Netz nach Anspruch 1 oder 2, da­ durch gekennzeichnet,
  • - daß das nichtlineare Element durch eine für alle Neuronen (21 . . . 2p) der Zwischenschicht einheitliche, in einem Datenfeld (FNL) abgelegte Kennlinie reali­ siert ist.
4. Neuronales Netz nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet,
  • - daß das nichtlineare Element mindestens eines Neurons (21 . . . 2p) der Zwischenschicht überbrückbar ist.
5. Neuronales Netz nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet,
  • - daß die Eingangssignale (x1 . . . xn) auf einen Zahlen­ bereich von 0 bis 1 normiert und auf Einhalten der Bereichsgrenzen überwacht werden.
6. Neuronales Netz nach Anspruch 5, dadurch gekennzeichnet,
  • - daß die Ausgangssignale (y1 . . . ym) entsprechend parametrierbarer Bereichsgrenzen denormiert werden.
DE4314895A 1993-05-05 1993-05-05 Neuronales Netz Withdrawn DE4314895A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE4314895A DE4314895A1 (de) 1993-05-05 1993-05-05 Neuronales Netz
PCT/DE1994/000465 WO1994025931A1 (de) 1993-05-05 1994-04-27 Neuronales netz

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4314895A DE4314895A1 (de) 1993-05-05 1993-05-05 Neuronales Netz

Publications (1)

Publication Number Publication Date
DE4314895A1 true DE4314895A1 (de) 1994-11-10

Family

ID=6487264

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4314895A Withdrawn DE4314895A1 (de) 1993-05-05 1993-05-05 Neuronales Netz

Country Status (2)

Country Link
DE (1) DE4314895A1 (de)
WO (1) WO1994025931A1 (de)

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHEN, S. et.al.: Orthogonal Least Squares Learning Algorithm for Radial Basis Function Networks. In: IEEE Trans.Neur.Netw., Vol. 2, No. 2, März 1991, S. 302-309 *
MILLMAN, J., HALKIAS, Chr. C.: Integrated Elec- tronics: Analog and Digital Circuits and Systems, McGraw-Hill, Tokyo 1972, S. 621 *
Simulator für neuronale Netzwerke. In: Design & Elektronik 6/21.3.1989, S. 144/145 *

Also Published As

Publication number Publication date
WO1994025931A1 (de) 1994-11-10

Similar Documents

Publication Publication Date Title
DE69823049T2 (de) Modellfreie adaptive prozesssteuerung
EP0415281A2 (de) Verfahren und Schaltungsanordnung zum Bilden eines Auswertungssignals aus einer Mehrzahl redundanter Messsignale
DE19531967A1 (de) Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems
EP1638028A2 (de) Rechnergestützte Erzeugung und Änderungsmanagement für Bedienoberflächen
DE1798326A1 (de) Selbstorganisierendes Regelsystem fuer die Regelung einer Anlage mit einer Mehrzahl veraenderlicher Groessen und einer Mehrzahl von Betaetigungsorganen fuer die Verstellung der Anlage
EP0424862A2 (de) Analoger Mehrkanalregler
DE19703964C1 (de) Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz
DE4244014A1 (de) Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren
DE4314895A1 (de) Neuronales Netz
EP0815515B1 (de) Verfahren und einrichtung zum entwurf eines neuronalen netzes
DE4308194A1 (de) Fuzzy-Standard-Automatisierungssystem für industrielle Anlagen
EP0561792B1 (de) Wissensbasierte steuer- und regeleinrichtung
EP1183577B1 (de) Verfahren zur erzeugung eines steuerbausteins und steuerbaustein
EP0770946B1 (de) Verfahren zur automatisierten optimalen Redundanz-Auslegung von Messungen für die Leittechnik in Kraftwerken
DE3609925C2 (de)
EP0700536B1 (de) Regeleinrichtung
EP3779619A1 (de) Emergente risiken eines technischen systems
EP0304453B1 (de) Digitales integriermodul für abtastregeleinrichtungen
EP0724748B1 (de) Regeleinrichtung
DE10359412B4 (de) Verfahren zum Berechnen einer Übergangskurve zum Überführen einer Regelgröße von einem Anfangswert in einen Endwert
DE4336921C2 (de) Verfahren und Vorrichtung zur automatischen Schlußfolgerung (Inferenz) für regelbasierte Fuzzy-Systeme
EP3671378A1 (de) Datencontainer für ein steuersystem einer technischen anlage
DE3050418C2 (de)
DE4216699A1 (de) Verfahren und Einrichtung zum automatischen Schutz einer Anlage, insbesondere eines Kernkraftwerks
WO2019096881A1 (de) Künstliches neuronales netz und verfahren hierzu

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8130 Withdrawal