DE4316533C2 - Neuronales Netz für dynamische Prozesse - Google Patents

Neuronales Netz für dynamische Prozesse

Info

Publication number
DE4316533C2
DE4316533C2 DE4316533A DE4316533A DE4316533C2 DE 4316533 C2 DE4316533 C2 DE 4316533C2 DE 4316533 A DE4316533 A DE 4316533A DE 4316533 A DE4316533 A DE 4316533A DE 4316533 C2 DE4316533 C2 DE 4316533C2
Authority
DE
Germany
Prior art keywords
output
variables
input
neural network
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE4316533A
Other languages
English (en)
Other versions
DE4316533A1 (de
Inventor
Uwe Krogmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Diehl BGT Defence GmbH and Co KG
Original Assignee
Bodenseewerk Geratetechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bodenseewerk Geratetechnik GmbH filed Critical Bodenseewerk Geratetechnik GmbH
Priority to DE4316533A priority Critical patent/DE4316533C2/de
Publication of DE4316533A1 publication Critical patent/DE4316533A1/de
Application granted granted Critical
Publication of DE4316533C2 publication Critical patent/DE4316533C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)

Description

Die Erfindung betrifft ein neuronales Netz nach dem Oberbegriff des Patentanspruchs 1.
Neuronale Netze sind Signalverarbeitungs-Einheiten, bei denen eine Mehrzahl von Prozessorelementen zusammengeschaltet sind. Jedes der Prozessorelemente hat eine relativ einfache Funktion. Die Prozessorelemente bilden "Schichten". Die Prozessorelemente verschiedener Schichten sind über Verbindungen mit "Gewichten" miteinander verbunden. Ebenso sind Eingänge und Ausgänge über gewichtete Verbindungen mit Prozessorelementen einer Eingangs- oder Ausgangsschicht verbunden. Die an den Eingängen der Prozessorelemente anliegenden, gewichteten Größen werden zu einer "Aktivität" überlagert. Das Ausgangssignal des Prozessorelements ist eine Funktion dieser Aktivität. Diese Funktion kann eine Sigmoid- Funktion, eine Tangens-hyperbolicus-Funktion oder auch eine Gauß-Funktion sein.
Im Gegensatz zu konventionellen Digitalrechnern erfolgt die Datenverarbeitung nicht nach einem vorgegebenen Programm. Vielmehr besitzen neuronale Netze Selbstorganisations- und Lernfähigkeit. Der Lösungsweg wird bei der Anwendung neuronaler Netze durch eine kognitive Abbildung mathematischer Zusammenhänge von dem Netz erlernt. Das von dem Netz erworbene Wissen ist dabei in der Stärke der Verbindungsgewichte am Ende der Lernphase gespeichert.
Während der Lernphase werden die ursprünglich zufällig gewählten Verbindungsgewichte durch Lernvorgänge variiert. Zu diesem Zweck werden dem neuronalen Netz zusammengehörige Paare von Eingangsvektoren, d. h. Vektoren von Eingangsgrößen, und Soll-Ausgangsvektoren, d. h. Vektoren der zu den Eingangsgrößen gehörenden richtigen Ausgangsgrößen, angeboten. Die Soll- Ausgangsvektoren werden mit den von dem neuronalen Netz bei Eingabe der Eingangsvektoren erhaltenen tatsächlichen Ausgangsvektoren verglichen. Nach Maßgabe dieses Vergleichs werden die Verbindungsgewichte nach einem bestimmten Algorithmus schrittweise verändert.
Ein neuronales Netz wird definiert durch drei Charakteristika: Die Funktion der Prozessorelemente, die Struktur des Netzes und die Art und der Ablauf des Lernvorganges.
Es sind "Feedforward"-Netze bekannt. Solche neuronalen Netze enthalten nur Vorwärtsverknüpfungen, aber keine Rückführungen. Solche "Feedforward"-Netze haben große Bedeutung als Assoziativspeicher und Klassifikatoren erlangt. Dabei wird die Fähigkeit mehrschichtiger neuronaler Netze ausgenutzt, einen nichtlinearen Zusammenhang zwischen Eingangsgrößen und Ausgangsgrößen eines Systems (Prozesses, Problems) zu erlernen. Mit dieser Fähigkeit werden derartige Netzwerke auch als Regler für kinematische Regelstrecken (z. B. Roboter) eingesetzt. Dabei erlernt das neuronale Netz in einer Trainingsphase z. B. die inverse Kinematik eines mehrachsigen Roboters.
Wegen der fehlenden Rückkopplung innerhalb des neuronalen Netzes sind "Feedforward"-Netze nicht in der Lage, den Zusammenhang zwischen Eingangsgrößen und Ausgangsgrößen eines dynamischen Systems zu erlernen. In dynamischen Systemen ist der funktionale Zusammenhang nicht konstant, sondern in bestimmter Weise von der Zeit abhängig. Damit sind "Feedforward"-Netze für Anwendungen in der Regelungstechnik (Modellierung, Identifikation oder Prädiktion) nicht geeignet, da die Regelstrecken im allgemeinen dynamische Systeme (Prozesse) darstellen.
Es ist jedoch bekannt, "Feedforward"-Netze dadurch als Regler verwendbar zu machen, daß die fehlenden internen Rückführungen durch äußere Rückführungen der Ausgangsgrößen des neuronalen Netzes auf den Eingang teilweise ersetzt werden (DE 42 18 599 A1).
Die US 5 165 009 A beschreibt ein neuronales Netz, bei welchem jedes Prozessorelement einer Schicht nicht nur von gewichteten Eingangsgrößen, sondern auch von den gewichteten Ausgangsgrößen aller Prozessorelemente der Schicht beaufschlagt ist.
Die DE 41 30 164 A1 beschreibt einen Flugregler mit einem neuronalen Netz. Auf das Netz sind in jedem Zeittakt Vektoren von Zustandsgrößen aufgeschaltet, die dem aktuellen Zeittakt und vorhergehenden Zeittakten zugeordnet sind. Das Netz liefert Schätzwerte für Zustandsgrößen, die für zukünftige Zeittakte zu erwarten sind.
Der Erfindung liegt die Aufgabe zugrunde, ein neuronales Netz der eingangs genannten Art so auszubilden, daß es durch überwachtes Lernen räumlich-zeitliche Zusammenhänge zwischen Eingangsgrößen und Ausgangsgrößen eines Systems erlernen kann. Dabei kann das Übertragungsverhalten des Systems nichtlinear dynamisch sein.
Erfindungsgemäß wird diese Aufgabe durch die im Patentanspruch 1 aufgeführten Maßnahmen gelöst.
Ein Verfahren zum Trainieren eines so aufgebauten neuronalen Netzes ist Gegenstand der Patentansprüche 2 und 3.
Erfindungsgemäß enthält somit das neuronale Netz eine interne Rückkopplung. Das Netz ist vorwärts und rückwärts verkoppelt. Durch die Bestimmung der Aktivität eines Prozessorelements aus den Eingangsgrößen und Ausgangsgrößen des vorhergehenden Taktes wird die Zeitabhängigkeit der Größen mit berücksichtigt. Das macht es möglich, daß das neuronale Netz räumlich-zeitliche Zusammenhänge zwischen Eingangsgrößen und Ausgangsgrößen eines nichtlinear dynamischen Systems erlernen kann.
Ein Ausführungsbeispiel der Erfindung ist nachstehend unter Bezugnahme auf die zugehörigen Zeichnungen näher erläutert.
Fig. 1 zeigt schematisch den Aufbau eines neuronalen Netzes mit interner Rückkopplung.
Fig. 2 veranschaulicht den Lernprozeß des neuronalen Netzes von Fig. 1.
Fig. 3 zeigt schematisch den Lernvorgang des neuronalen Netzes von Fig. 1 für die Anwendung als Modell der Regelstrecke.
Fig. 4 zeigt schematisch den Lernvorgang des neuronalen Netzes von Fig. 1 für die Anwendung als inverses Modell der Regelstrecke.
Fig. 5 zeigt schematisch den Lernvorgang des neuronalen Netzes von Fig. 1 für die Anwendung als prädiktives Modell der Regelstrecke.
Fig. 6 zeigt schematisch den Lernvorgang des neuronalen Netzes von Fig. 1 für die Anwendung als Modell des Reglers.
Fig. 1 zeigt die Struktur des rückgekoppelten neuronalen Netzes. Das neuronale Netz enthält nur eine einzige Schicht 10 von Prozessorelementen PE1 . . . PEn. An einem Eingang 12 des neuronalen Netzes liegen Eingangsgrößen u₁, u₂, . . ., um, die zu einem Eingangsvektor u zusmmengefaßt werden können. Die Eingangsgrößen u₁, u₂, . . ., um sind in Speicherelementen 14 gespeichert. Die Eingangsgrößen sind gewichtet auf die Eingänge 16 aller Prozessorelemente PE1, . . ., PEn aufgeschaltet. Die Gewichte sind durch m-dimensionale Vektoren g₁, g₂, . . ., gn dargestellt, die in Fig. 1 durch Kreise 18 symbolisiert sind. Die Vektoren g bilden eine Eingangsmatrix G.
Jedes Prozessorelement PE1, . . ., PEn ist außerdem von gewichteten Ausgangsgrößen xj aller Prozessorelemente beaufschlagt, einschließlich der Ausgangsgröße des betrachteten Prozessorelements selbst. Das ist in Fig. 1 durch die Verbindungen 20 symbolisiert. Die Gewichte sind mit wÿ bezeichnet, wobei der Index i das "empfangende" und der Index j das "sendende" Prozessorelement bezeichnet. Die Gewichte wÿ bilden eine Verbindungsmatrix W.
Die Ausgangsgrößen der Prozessorelemente PE1, . . ., PEn an den Ausgängen 22 sind gewichtet auf p Ausgänge 24 des neuronalen Netzes geschaltet. Dabei ist jeder Ausgang 24 des neuronalen Netzes von den Ausgangsgrößen aller Prozessorelemente PE1, . . ., PEn mit entsprechenden Gewichten beaufschlagt. Die Gewichte, mit denen die Ausgangsgrößen der Prozessorelemente an einem bestimmten Ausgang 24 wirksam sind, sind jeweils durch einen n-dimensionalen Vektor h₁, h₂, . . ., h p dargestellt. Die Vektoren sind in Fig. 1 durch Kreise 26 symbolisiert.
Jedes Prozessorelement PE1, . . ., PEn berechnet seine "Aktivität" aus den aufgeschalteten, gewichteten Eingangsgrößen und den ebenfalls gewichteten Ausgangsgrößen aller Prozessorelemente zu
Darin ist k die laufende Nummer des Rechentaktes. Ist die Taktperiode des Rechentaktes T, dann entspricht die Zahl k einer Zeit kT. zi(k+1) ist die Aktivität des i-ten Prozessorelements PEi im (k+1)-ten Rechentakt, also zur Zeit (k+1)T. Diese Aktivität zi(k+1) hängt ab von den Aktivitäten xj(k) aller Prozessorelemente PE1, . . ., PEn im k-ten, also im vorhergehenden Rechentakt. Diese sind mit den nach Ablauf des Lernprozesses festen Gewichten wÿ gewichtet. Summiert wird über j. Ferner hängt die Aktiviität zi(k+1) ab von den Eingangsgrößen uj(k), ebenfalls im vorangehenden Rechentakt k.
Man kann das wie folgt schreiben:
oder in Vektor-Matrix-Form:
z(k+1) = W * x(k) + G * u(k)
wobei z ein n-dimensionaler Vektor der Aktivitäten der n Prozessorelemente PE1, . . ., PEn, W die Verbindungsmatrix, G die Eingangsmatrix und u der Eingangsvektor ist. Die Matrizen W und G sind zeitunabhängig.
Aus der so bestimmten "Aktivität" des Prozessorelements bildet das Prozessorelement PEi eine Ausgangsgröße
xi(k+i) = f(zi(k+1)) .
Darin ist f eine nichtlineare Funktion. Das kann eine Sigmoid-Funktion oder eine Tangens-hyperbolicus-Funktion oder auch eine Gaußfunktion sein.
Die Ausgangsgrößen der einzelnen Prozessorelemente PE1, . . ., PEn kann man dann in einem Vektor x zusammenfassen. Es gilt:
x(k+1) = f (W * x(k) + G * u(k)) .
Die Ausgangsgrößen des neuronalen Netzes an den Ausgängen 24 kann man zu einem Vektor y(k) zusammenfassen. Der Vektor y(k) ist ebenfalls zeitabhängig. Man kann den Zusammenhang zwischen den n Ausgangsgrößen x(k) der Prozessorelemente und den p Ausgangsgrößen des neuronalen Netzes wie folgt darstellen:
In Vektor-Matrix-Form ergibt das
y(k) = H * x(k)
wobei die Ausgangsmatrix H wieder zeitunabhängig ist.
Fig. 2 veranschaulicht die Konfiguration für das Trainieren des neuronalen Netzes.
Bei dynamischen Systemen ist eine zeitliche Folge von Ausgangsgrößen y(k) eine Funktion der zeitlichen Folge von Eingangsgrößen u(k). Für den Lernvorgang werden somit bestimmte zeitliche Folgen von Eingangsvektoren u(k-1) mit k = 1, 2, . . ., L auf die Eingänge 12 gegeben. Die zugehörigen, vorgegebenen Soll-Ausgangsvektoren sind die Vektoren y*(k). Diese Soll-Ausgangsvektoren können von einem nichtlinearen Prozeß oder System selbst, von einem Modell eines solchen Prozesses oder Systems oder einer Datenbasis geliefert werden. Diese Soll-Ausgangsvektoren y*(k) werden nacheinander mit der von dem neuronalen Netz tatsächlich gelieferten Ausgangsvektoren y(k) verglichen. Nach Maßgabe dieses Vergleichs erfolgt eine Korrektur der Gewichte.
In Fig. 2 ist mit 28 das neuronale Netz von Fig. 1 bezeichnet. Auf die Eingänge 12 des neuronalen Netzes 28, die in Fig. 2 durch einen "Vektoreingang" dargestellt sind, werden nacheinander in einem vorgegebenen Takt Vektoren von Eingangsgrößen u(1), u(2), . . ., u(L) aufgeschaltet. Das ist in Fig. 2 durch einen Block 30 mit einem Wählschalter symbolisiert.
Die Vektoren der Eingangsgrößen u sind gleichzeitig auf Mittel zur Erzeugung zugehöriger Vektoren von Ausgangsgrößen y(k+1) aufgeschaltet. Diese Mittel sind durch einen Block 32 symbolisiert. Dabei kann es sich um einen nichtlinearen Prozeß oder ein nichtlineares System handeln, dessen dynamisches Verhalten von dem neuronalen Netz gelernt werden soll. Beispielsweise können die Eingangsgrößen Meßdaten an einem Flugzeug und die Ausgangsgrößen die Reaktionen eines menschlichen Piloten auf diese Meßdaten sein. Das neuronale Netz 28 kann dann lernen, sich wie ein menschlicher Pilot zu verhalten. Die Mittel zur Erzeugung von Vektoren der Ausgangsgrößen können aber auch von einem Modell eines Prozesses oder Systems oder von einer Datenbasis gebildet sein. Die Soll- Ausgangsgrößen y*(k) werden im gleichen Takt nacheinander zur Verfügung gestellt. Das ist in Fig. 2 durch einen Block 34 mit einem Wählschalter symbolisiert.
An dem Vektorausgang 24 des neuronalen Netzes 28 erscheint der Vektor der Ausgangsgrößen y(k+1), der sich aus dem Vektor der Eingangsgrößen u(k) bei den im Augenblick vorliegenden Gewichten wÿ ergibt. Außerdem erscheint an einem Ausgang 36, der den Ausgängen 22 von Fig. 1 entspricht, ein Vektor der Ausgangsgrößen der Prozessorelemente PE1, . . ., PEn im (k+1)-ten Takt.
Es wird die Differenz der Vektoren der Ausgangsgrößen y(k+1) und der Soll-Ausgangsgrößen y*(k+1) gebildet. Das ist in Fig. 2 durch einen Summierpunkt 38 dargestellt. Die im Summierpunkt 38 gebildete Differenz y*(k+1) - y(k+1) und die Ausgangsgrößen der Prozessorelemente x(k+1) dienen zur Berechnung einer Korrekturmatrix ΔW für die Verbindungsmatrix W des neuronalen Netzes 28. Diese Berechnung der Korrekturmatrix ist in Fig. 2 durch einen Block 40 dargestellt. Mit der Korrekturmatrix ΔW wird die Verbindungsmatrix W des neuronalen Netzes 28 korrigiert, wie in Fig. 2 symbolisch angedeutet ist.
Die Korrekturmatrix ΔW wird
Dabei ist
v(k) = f′(z(k)) * [WT v(k+1) + HT(y*(k) - y(k))]
wobei f′ die Ableitung der nichtlinearen Ausgangsfunktion f(z(k)) der Prozessorelemente des Netzes, z(k) die Aktivitäten der Prozessorelemente, y(k) und y*(k) die Vektoren der Ausgangsgrößen bzw. Soll-Ausgangsgrößen und H die Ausgangsmatrix ist. Der Exponent T bezeichnet die Transponierte der jeweiligen Matrix.
Mit der Korrekturmatrix ΔW wird die Verbindungsmatrix W korrigiert. Es ist
Wneu = Walt + ΔW .
Es ist zu beachten, daß eine Korrektur der Verbindungsmatrix nicht nach der Verarbeitung jedes einzelnen Trainingsvektor-Paares u(k); y*(k+1) erfolgt, sondern daß die Summe über die gesamte Länge L des Signalfensters gebildet werden muß, um ΔW zu erhalten. Die Länge L des Signalfensters für die zeitliche Korrelation von Eingangsgrößen und Ausgangsgrößen hängt von der Dauer der Impulsantwort des Systems oder Prozesses ab.
Mit der Fähigkeit des unter Bezugnahme auf Fig. 1 beschriebenen neuronalen Netzes in Verbindung mit dem unter Bezugnahme auf Fig. 2 beschriebenen Lernverfahren, nichtlineare, dydnamische Systeme oder Prozesse nachzubilden, ergibt sich ein weites Anwendungsfeld in der Regelung- und Automatisierungstechnik.
Einige wichtige Anwendungen sind in den Fig. 3 bis 6 zusammengestellt.
In Fig. 3 ist gezeigt, wie durch das neuronale Netz 28 eine Regelstrecke 42 modelliert wird. Eingangsgrößen werden sowohl der Regelstrecke 42 als auch dem Eingang 12 des neuronalen Netzes 28 zugeführt. Die Ausgangsgrößen der Regelstrecke 42, die den Soll-Ausgangsgrößen y*(k+1) von Fig. 2 entsprechen, werden in einem Summierpunkt 44, der dem Summierpunkt 38 von Fig. 2 entspricht, mit den Ausgangsgrößen y(k+1) des neuronalen Netzes 28 verglichen. Die Verbindungsmatrix W wird nach Maßgabe der über die Länge L des Signalfensters summierten Differenzen in der unter Bezugnahme auf Fig. 2 beschriebenen Weise korrigiert.
Fig. 4 zeigt das Trainieren des neuronalen Netzes 28 so, daß es ein inverses Modell einer Regelstrecke 42 bildet. Dabei werden die Ausgangsgrößen der Regelstrecke 42 als Eingangsgrößen u(k) auf die Eingänge 12 des neuronalen Netzes 28 geschaltet. Die zugehörigen Eingangsgrößen der Regelstrecke 42 bilden die Soll-Ausgangsgrößen y*(k+1), die in einem Summierpunkt 46, der dem Summierpunkt 38 von Fig. 2 entspricht, mit den Ausgangsgrößen y(k+1) am Ausgang 24 des neuronalen Netzes 28 verglichen wird. Die Verbindungsmatrix W des neuronalen Netzes 28 wird nach jedem Signalfenster in der unter Bezugnahme auf Fig. 2 beschriebenen Weise mit der Korrekturmatrix ΔW korrigiert.
Fig. 5 zeigt das Trainieren des neuronalen Netzes 28 zur Erzeugung eines prädiktiven Modells der Regelstrecke 42. Das geschieht in ähnlicher Weise, wie es für die Modellierung der Regelstrecke 42 unter Bezugnahme auf Fig. 4 beschrieben ist. Die Eingangsgrößen der Regelstrecke 42 werden jedoch auf den Eingang 12 des neuronalen Netzes 28 über ein Zeitglied 48 mit einer Verzögerung aufgeschaltet. Das Netz 28 lernt dann vorherzusagen, wie die zukünftige Reaktion der Regelstrecke 42 auf Eingangsgrößen ist, es prädiziert das zukünftige Verhalten der Regelstrecke.
Bei der Anwendung des neuronalen Netzes 28 gemäß Fig. 6 wird das neuronale Netz 28 so trainiert, daß es das Verhalten eines Reglers 50 nachbildet, der eine Regelstrecke 52 in einem geschlossenen Regelkreis regelt. Ausgangsgrößen der Regelstrecke 52 sind als Eingangsgrößen auf den Regler 50 aufgeschaltet. Ausgangsgrößen des Reglers 50 bilden wieder Eingangsgrößen der Regelstrecke 52. Das neuronale Netz 28 erhält an seinem Eingang 12 die Ausgangsgrößen der Regelstrecke 52 (= Eingangsgrößen des Reglers 50). Die am Ausgang 24 des neuronalen Netzes 28 erscheinenden Ausgangsgrößen y(k+1) werden in einem Summierpunkt 54, der dem Summierpunkt 38 von Fig. 2 entspricht, mit Soll-Ausgangsgrößen y*(k+1) in Form der Ausgangsgrößen des Reglers 50 (= Eingangsgrößen der Regelstrecke) verglichen. Nach Maßgabe dieses Vergleichs wird wieder die Verbindungsmatrix W in der unter Bezugnahme auf Fig. 2 beschriebenen Weise korrigiert. Der "Regler" 50 könnte von einem menschlichen Piloten oder Bedienungsmann gebildet sein. Es kann dann der Mensch mit seinen Fähigkeiten durch einen "künstlich intelligenten" technischen Apparat ersetzt werden. Das neuronale Netzwerk 28 erlernt das Verhalten des menschlichen "Reglers" und kann diesen nach Ablauf der Lernphase prinzipiell ersetzen.
Für die beschriebenen Anwendungen ist es nicht notwendig, das dynamische Verhalten der Regelstrecken (Systeme, Prozesse) mathematisch zu beschreiben. Das neuronale Netz erlernt vielmehr in einer Trainingsphase die mathematische Abbildung zwischen Eingangsgrößen und Ausgangsgrößen, wie dies unter Bezugnahme auf Fig. 2 beschrieben ist.

Claims (3)

1. Neuronales Netz mit einer Schicht (10) von Prozessorelementen, die jedes einen Eingang und einen Ausgang aufweisen, bei welchem auf den Eingang jedes Prozessorelements (PE1, . . ., PEn) einmal auf einen Eingang (12) des Netzes aufgeschaltete Eingangsgrößen des Netzwerkes mit Gewichten nach Maßgabe einer Eingangsmatrix (G) und zum anderen die Ausgänge aller Prozessorelemente mit Gewichten nach Maßgabe einer Verbindungsmatrix (W) aufgeschaltet sind, wobei jedes Prozessorelement eine Aktivität zeigt, die von einer Summe der auf seinem Eingang aufgeschalteten Größen abhängt und an seinem Ausgang eine Ausgangsgröße liefert, die eine Funktion der Aktivität ist, und bei welchem die Ausgangsgrößen der Prozessorelemente nach Maßgabe einer Ausgangsmatrix (H) gewichtet zur Bildung von Ausgangsgrößen des Netzes an einem Ausgang (24) überlagert sind, dadurch gekennzeichnet, daß
  • (a) die Eingangsgrößen des Netzes getaktet mit einer vorgegebenen Taktrate auf den Eingang (12) aufgeschaltet sind und
  • (b) die Aktivität der Prozessorelemente in einem Takt (k+1) durch die gewichteten Eingangsgrößen und gewichteten Ausgangsgrößen in dem jeweils vorhergehenden Takt (k) bestimmt sind.
2. Verfahren zum Trainieren eines neuronalen Netzes nach Anspruch 1, dadurch gekennzeichnet, daß
  • - auf den Eingang (12) des neuronalen Netzes nacheinander eine einem Zeitfenster entsprechende Folge von Vektoren von Eingangsgrößen aufgeschaltet werden, und die am Ausgang (24) des neuronalen Netzes auftretenden Vektoren von Ausgangsgrößen mit zugeordneten Vektoren von Soll-Ausgangsgrößen verglichen werden,
  • - die Verbindungsmatrix (W), mit deren Gewichten die Ausgangsgrößen der Prozessorelemente eines Taktes in die Aktivitäten der Prozessorelemente des nächstfolgenden Taktes eingehen, nach jeder der besagten Folgen von Vektoren um eine Korrekturmatrix ΔW korrigiert wird, die von einer über das Zeitfenster gebildeten, gewichteten Summe der Differenzen der Vektoren von Ausgangsgrößen und Soll-Ausgangsgrößen abhängt.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die Korrekturmatrix ΔW nach der Beziehung gebildet wird, wobei v(k) eine interne Netzwerk- Variable ist, die sich wie folgt berechnet:v(k) = f′(z(k)) * [WT v(k+1) + HT(y*(k) - y(k))] ,wobei f′ die Ableitung der nichtlinearen Ausgangsfunktion f(z(k)) der Prozessorelemente des Netzes, z(k) die Aktivitäten der Prozessorelemente, y(k) und y*(k) die Vektoren der Ausgangsgrößen bzw. Soll-Ausgangsgrößen und H die Ausgangsmatrix ist; der Exponent T bezeichnet die Transponierte der jeweiligen Matrix.
DE4316533A 1993-05-18 1993-05-18 Neuronales Netz für dynamische Prozesse Expired - Fee Related DE4316533C2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE4316533A DE4316533C2 (de) 1993-05-18 1993-05-18 Neuronales Netz für dynamische Prozesse

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4316533A DE4316533C2 (de) 1993-05-18 1993-05-18 Neuronales Netz für dynamische Prozesse

Publications (2)

Publication Number Publication Date
DE4316533A1 DE4316533A1 (de) 1994-11-24
DE4316533C2 true DE4316533C2 (de) 1997-09-18

Family

ID=6488326

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4316533A Expired - Fee Related DE4316533C2 (de) 1993-05-18 1993-05-18 Neuronales Netz für dynamische Prozesse

Country Status (1)

Country Link
DE (1) DE4316533C2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10059567A1 (de) * 2000-11-30 2002-06-13 Siemens Ag Verfahren und Vorrichtung zur Berechnung von Prozessgrößen eines industriellen Prozesses

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10050041A1 (de) 2000-10-10 2002-04-18 Infineon Technologies Ag Fernsprechgerät zum Anschluß an ein Fernsprechnetz

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4975961A (en) * 1987-10-28 1990-12-04 Nec Corporation Multi-layer neural network to which dynamic programming techniques are applicable
DE58906476D1 (de) * 1988-07-05 1994-02-03 Siemens Ag In integrierter Schaltungstechnik ausgeführtes digitales neuronales Netz.
JP3260357B2 (ja) * 1990-01-24 2002-02-25 株式会社日立製作所 情報処理装置
EP0466022A3 (en) * 1990-07-12 1993-08-25 Allen-Bradley Company, Inc. Teaching method for recurrent neural networks
JP3221497B2 (ja) * 1991-06-20 2001-10-22 三菱電機株式会社 制御方法およびその制御方法を用いた電力系統電圧−無効電力制御装置
DE4130164A1 (de) * 1991-09-11 1993-03-18 Bodenseewerk Geraetetech Regler, insbesondere flugregler

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10059567A1 (de) * 2000-11-30 2002-06-13 Siemens Ag Verfahren und Vorrichtung zur Berechnung von Prozessgrößen eines industriellen Prozesses

Also Published As

Publication number Publication date
DE4316533A1 (de) 1994-11-24

Similar Documents

Publication Publication Date Title
DE4042139C2 (de) Neuron-Einheit
DE112016003245T5 (de) Resistive Verarbeitungseinheit
DE102007017259B4 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE69030592T2 (de) Generierungsverfahren für Bewegungstrajektoren in einem dynamischen System
EP2649567B1 (de) Verfahren zur rechnergestützten modellierung eines technischen systems
EP2112568B1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102020209685B4 (de) Verfahren zum steuern einer robotervorrichtung und robotervorrichtungssteuerung
DE112011101370T5 (de) Neuronales Netz mit kanonischen gepulsten Neuronen für einen raumzeitlichen Assoziativspeicher
DE68925625T2 (de) Verfahren zur Rückführung von Fehlern und neuronale Netzstruktur
EP0531712B1 (de) Regler, insbesondere Flugregler
CN116781369B (zh) 一种基于参数不确定惯性神经网络的图像加密方法及系统
EP1327959B1 (de) Neuronales Netz zur Modellierung eines physikalischen Systems sowie Verfahren zur Bildung eines solchen neuronalen Netzes
DE69126052T2 (de) Neuronales Netzwerk
DE4316533C2 (de) Neuronales Netz für dynamische Prozesse
DE112016000198T5 (de) Entdecken und Nutzen von informativen Schleifensignalen in einem gepulsten neuronalen Netzwerk mit zeitlichen Codierern
DE19504664A1 (de) Chaotisches rekurrentes neuronales Netz und Lernverfahren dafür
Kuroe et al. A new neural network learning of inverse kinematics of robot manipulator
WO2019206776A1 (de) Verfahren und vorrichtung zum ermitteln einer netzkonfiguration eines neuronalen netzes
DE4244014A1 (de) Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren
DE4205903C2 (de) Signalverarbeitungsvorrichtung mit neuronalem Netzwerk
Anderson Neural network machines
DE4404974C1 (de) Verfahren und Einrichtung zur Realisierung von Neuronalen Back-Propagation-Netzen mittels stochastischer Rechenwerke
DE69029537T2 (de) Verarbeitungsverfahren, neuronale Netzwerkstruktur und Rechner zur Simulation einer solchen neuronalen Netzwerkstruktur
McCullough A neural network adaptive controller for a class of nonlinear systems
DE102020121937A1 (de) Verfahren zur computerimplementierten Simulation einer virtuellen Hand

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: DIEHL BGT DEFENCE GMBH & CO. KG, 88662 UBERLINGEN,

8339 Ceased/non-payment of the annual fee