DE19531967A1 - Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems - Google Patents

Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems

Info

Publication number
DE19531967A1
DE19531967A1 DE19531967A DE19531967A DE19531967A1 DE 19531967 A1 DE19531967 A1 DE 19531967A1 DE 19531967 A DE19531967 A DE 19531967A DE 19531967 A DE19531967 A DE 19531967A DE 19531967 A1 DE19531967 A1 DE 19531967A1
Authority
DE
Germany
Prior art keywords
neural network
time series
technical system
variable
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19531967A
Other languages
English (en)
Other versions
DE19531967C2 (de
Inventor
Volker Dr Tresp
Reimar Hofmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19531967A priority Critical patent/DE19531967C2/de
Priority to US08/705,834 priority patent/US5806053A/en
Priority to JP8230974A priority patent/JPH09128010A/ja
Publication of DE19531967A1 publication Critical patent/DE19531967A1/de
Application granted granted Critical
Publication of DE19531967C2 publication Critical patent/DE19531967C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Description

Die Erfindung bezieht sich auf ein Lernverfahren zur neurona­ len Modellierung von dynamischen Prozessen mit dem erreicht werden soll, daß das neuronale Netz in der Lage ist Prozesse mit hohem Anteil an stochastischen Vorgängen zu regeln.
Neuronale Netze finden in die vielfältigsten technischen Ge­ biete Eingang. Überall dort, wo es gilt, aus komplexen tech­ nischen Zusammenhängen und aus unzureichenden Informationen Entscheidungen abzuleiten, erweisen sich neuronale Netze als besonders geeignet. Zur Bildung einer oder mehrerer Ausgangs­ größen werden dem neuronalen Netz beispielsweise eine oder mehrere Eingangsgrößen zugeführt. Hierzu wird ein solches Netz zunächst für den speziellen Einsatzfall trainiert, an­ schließend generalisiert und danach wird es mit einem anderen Datensatz als den Trainingsdaten validiert. Neuronale Netze erweisen sich für viele Einsatzfälle als besonders geeignet, da sie universell trainierbar sind.
Ein häufig auftretendes Problem im Zusammenhang mit dem Ein­ satz von neuronalen Netzen besteht allerdings darin, daß häu­ fig die Eingangsdaten zum Training, oder beim Betrieb des Netzes nicht vollständig sind. Dieser Sachverhalt und auch die Tatsache, daß die Meßwerte für den Aufbau einer Zeitrei­ he, welche dem neuronalen Netz zugeführt wird, häufig ungenau oder verrauscht sind, bewirken, daß teilweise schlechte Ler­ nergebnisse der Netze erzielt werden. Bei Prozessen mit hohem Anteil an stochastischen Vorgängen tritt insbesondere das Problem auf, daß die Trainingsdaten Zufallscharakter haben und deshalb bisher keine Methode existiert neuronale Netze mit dem Verhalten solcher Systeme zu trainieren. Bislang gibt es keine Ansätze, welche dieser besonderen Problematik Rech­ nung tragen.
Die der Erfindung zugrundeliegende Aufgabe besteht deshalb darin, ein Lernverfahren anzugeben, mit dem der Lernvorgang beim Training eines neuronalen Netzes verbessert werden kann, welches das Verhalten eines technischen Systems mit hohem An­ teil an stochastischen Vorgängen trainieren soll.
Diese Aufgabe wird gemäß den Merkmalen des Patentanspruchs 1 gelöst.
Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.
Besonders vorteilhaft können mit dem erfindungsgemäßen Ver­ fahren neuronale Netze mit dem Verhalten von technischen Sy­ stemen trainiert werden, welche ein nahezu vollständig sto­ chastisches Verhalten aufweisen, da sich das erfindungsgemäße Verfahren statistischer Methoden zur Auswertung der Eingangs­ daten beim Training des neuronalen Netzes bedient. Besonders vorteilhaft werden hierzu die Stellgrößendaten, zur Erzeugung einer neuen Regelgröße des technischen Systems, mit Hilfe ei­ nes Rauschens von bekannter statischer Verteilung variiert. Durch eine häufige Wiederholung dieses Vorgangs und eine Be­ wertung der Regelgröße des technischen Systems anhand einer Kostenfunktion, wobei solche Gewichte, welche eine Verbesse­ rung des Verhaltens des technischen Systems in Bezug auf ein gewünschtes Sollverhalten bewirken mit Hilfe der Kostenfunk­ tion stärker gewichtet werden, kann eine optimale Gewichts­ einstellung des neuronalen Netzes erreicht werden. Zur Ein­ stellung der Gewichte in Bezug auf den Fehlergradienten wer­ den bekannte Verfahren für das Training neuronaler Netze ver­ wendet.
Besonders vorteilhaft kann die Anzahl der zum Training des neuronalen Netzes aufzunehmenden Zeitreihen variiert werden, damit ist dem Fachmann die Möglichkeit gegeben, die Genauig­ keit der Einstellung der Gewichte des neuronalen Netzes in Abhängigkeit der ihm zur Verfügung stehenden Rechenzeit oder Rechenkapazität zu beeinflussen.
Vorzugsweise können durch Modellierung oder durch Einsatz des realen technischen Systems mehrere Zeitreihen gewonnen wer­ den, und deren Mittelwerte zum Training des neuronalen Netzes verwendet werden, da sich so eine bessere statistische Signi­ fikanz für die Richtigkeit der Trainingswerte ergibt.
Vorteilhaft wird beim Training des neuronalen Netzes als be­ kannte Rauschverteilung zur Variation der Stellgröße eine Gaußverteilung verwendet, da sich damit der Fehlergradient zum Training des neuronalen Netzes besonders einfach berech­ nen läßt.
Vorteilhaft werden mehrere Zeitreihen simuliert und gemessen, da so eine Aussage über das Verhalten der Regelgröße des technischen Systems unter verschiedenen Umständen erhalten werden kann und sich dadurch die Statistik der Zeitreihe ver­ bessert. Vorteilhaft kann nicht nur die Stellgröße, sondern auch die Regelgröße von einem Rauschen bekannter Verteilung überlagert sein, ohne daß das Lernverhalten des neuronalen Netzes nach dem erfindungsgemäßen Verfahren beeinträchtigt wird.
Im folgenden wird die Erfindung anhand von Figuren weiter er­ läutert.
Fig. 1 zeigt eine Zeitreihe und ein Systemverhalten,
Fig. 2 gibt ein Beispiel des erfindungsgemäßen Verfahrens an.
Fig. 1 zeigt eine Zeitreihe von Meßwerten, welche beispiels­ weise einem neuronalen Netz zugeführt werden können. Die Er­ läuterung dieser Figur dient insbesondere dazu die mathemati­ schen Grundlagen zur Behandlung des erfindungsgemäßen Verfah­ rens zu durchleuchten. Gemäß ihrer zeitlichen Abfolge werden diese Meßwerte beispielsweise von einem technischen System erfaßt und gemäß ihrer zeitlichen Abfolge mit yt bis yt-6 be­ zeichnet. Beispielsweise wird in Fig. 1 davon ausgegangen, daß der Wert yt-2 fehlt. Die im Markov blanket relevanten Wer­ te, als benachbarte Werte dieses fehlenden Meßwertes, sind yt-4, yt-3, yt-1 und yt. Ein solch fehlender Meßwert in einer Zeitreihe kann beispielsweise dadurch entstehen, daß zum fraglichen Zeitpunkt das Meßgerät, zur Werteaufnahme nicht funktionierte, oder daß es zwischen einzelnen gemessenen Wer­ ten günstig erscheint, um das neuronale Netz besser zu trai­ nieren, diesem einen weiteren Wert zuzuführen, der folglich noch zu bestimmen ist. Beispielsweise wird in Fig. 1 weiter davon ausgegangen, daß der Wert yt-3 fehlt. Die im Markov blanket relevanten Werte, als benachbarte Werte dieses feh­ lenden Meßwertes, sind yt-5, yt-4, yt-2 und yt-1. Die Anwendung des erfindungsgemäßen Verfahrens zum Training hat nach der erfinderischen Idee zur Folge, daß das Netz mit besser zu­ treffenden Gewichtungsfaktoren ausgestattet wird. Dies ist der Fall, weil sich die Erfindung der Statistik bedient und es so ermöglicht auch aus Zeitreihen, welche Prozessen mit hohem stochastischen Anteil von Vorgängen entnommen werden, die relevanten Trainingsdaten zu extrahieren.
Besonders vorteilhaft werden die Daten für die Stellgröße da­ bei durch ein Rauschen mit bekannter Rauschverteilung, wie beispielsweise Gauß-, oder Poisson-Verteilung variiert. Hierdurch wird die Einstellung der Gewichte an den Neuronen des Netzes wesentlich vereinfacht, da sich die mathematischen Terme für die Berechnung der Regeldifferenz wesentlich einfa­ cher gestalten lassen. Dies in Kombination mit einer Kosten­ funktion, welche solche Gewichtseinstellungen begünstigt, die einen gewünschten Sollzustand am technischen System herstel­ len, ergibt ein vorteilhaftes Trainingsverfahren, welche mit vergleichsweise geringem Rechenaufwand zu guten Trainingslei­ stungen der Netze führt.
Fig. 1 zeigt dabei die Zeitreihe in Verbindung mit einem zu trainierenden neuronalen Netz NNW. Es ist zu erkennen, daß y eine zeitabhängige Variable darstellt, welche das Systemver­ halten SY eines technischen Systems repräsentiert. Wie er­ kannt werden kann, entsprechen die Werte yt bis yt-6 Meßwer­ ten, welche dem Systemverlauf SY entnommen werden. Durch die gestrichelten Pfeile zu den jeweiligen Zeitpunkten ist symbo­ lisiert, daß diese Meßwerte dem neuronalen Netz NNW beim Training zugeführt werden sollen.
Hier ist der fragliche Meßwert M für den Zeitpunkt yt-2 nicht vorhanden. Für diesen Meßwert M ist seine Wahrscheinlich­ keitsdichte ε1 angegeben. Diese Wahrscheinlichkeitsdichte ε kann beispielsweise aus einer vorgegebenen bekannten Fehler­ verteilungsdichte der übrigen bekannten Meßwerte rückgerech­ net werden. Insbesondere wird dabei ausgenutzt, daß sich der fehlende Meßwert zwischen zwei bekannten Meßwerten befinden muß und damit auch dessen Fehler durch die Fehler der benach­ barten und der restlichen Meßwerte der Zeitreihe begrenzt wird. Die zugrundeliegende Zeitreihe läßt sich wie folgt be­ schreiben:
Dabei ist f entweder bekannt oder wird hinreichend durch ein neuronales Netz modelliert. εt bedeutet dabei einen additiven unkorrelierten Fehler mit zeitlichem Mittelwert 0. Dieser Fehler weist dabei und das ist für das erfindungsgemäße Ver­ fahren essentiell eine bekannte oder vorgegebene Wahrschein­ lichkeitsdichte Pε (ε) auf und versinnbildlicht typischerwei­ se die unmodellierte Dynamik der Zeitreihe. Beispielsweise soll für eine solche Zeitreihe, ein zukünftiger Wert vorher­ gesagt werden. Dabei ist zu beachten, daß zukünftige Werte relativ zu der momentanen gewählten Zeitposition zu verstehen sind. Das heißt für einen Zeitpunkt yt-5 ist der Zeitpunkt yt-4 ein zukünftiger Wert. Unter diesen Voraussetzungen läßt sich die bedingte Wahrscheinlichkeitsdichte für einen vorherzusa­ genden Wert der Zeitreihe wie folgt beschreiben.
Wie bereits erwähnt muß die Fehlerverteilungsdichte bekannt sein. Diese Verteilungsdichte kann entweder anhand des Sy­ stemverhaltens und bekannter anderer äußerer Größen ermittelt oder vorgegeben werden. Eine typische Fehlerverteilung, die in der Praxis auftritt ist die Gaußverteilung. Mit einer sol­ chen angenommenen Gauß′schen Fehlerverteilung läßt sich die bedingte Wahrscheinlichkeitsdichte wie folgt beschreiben:
Darin bedeutet G (x; c, σ²) die Rotation für eine normale Dichte, die bei x bestimmt wird mit einem Zentrum C und einer Varianz σ². Geht man davon aus, daß das zu beschreibende Sy­ stem in Form einer Folge von Werten auf einer Zeitachse dar­ gestellt wird, so kann man die einzelnen Werte von yt auch als Zufallsvariable in einem probabilistischen Netzwerk auf­ fassen. Beispielsweise besteht das Problem des Netzes darin, einen Wert der Zeitreihe vorherzusagen, indem die vorhandene Information aus den restlichen Werten möglichst vollständig verwendet wird. Unter Voraussetzung der Annahmen, die zuvor gemacht wurden, läßt sich die gesamte Wahrscheinlichkeits­ dichte der Zeitreihe wie folgt beschreiben:
Dabei wird davon ausgegangen, daß yt-k mit k N der fehlende Wert ist. Mit der Bezeichnung yu = {yt-k} für die Menge der un­ bekannten Werte und ym = {yt-1, . . ., yt-k-N}/{yt-k} kann der erwartete Wert der in der Zeitreihe vorherzusagen ist wie folgt be­ schrieben werden:
Dabei gelten folgende Voraussetzungen:
Mt-1 steht für alle Messungen bis zum Zeitpunkt t-1. Die vor­ anstehende Gleichung ist die grundlegende Gleichung für die Vorhersage mit fehlenden Daten. Dabei ist besonders zu beach­ ten, daß die Unbekannte yt-k nicht nur von den Werten der Zeitreihe vor dem Zeitpunkt t-k abhängt, sondern auch von den Messungen nach t-k. Der Grund besteht darin, daß die Variablen in ym ∪ yt ein minimales Markov blanket von yt-k for­ men. Dieses minimale Markov blanket besteht aus den direkten Vorfahren und den direkten Nachfahren einer Variable und al­ len direkten Vorfahren von Variablen des direkten Nachfol­ gers. Im betrachteten Beispiel in Fig. 4 sind die direkten Nachfahren yt . . . yt-k+1. Die direkten Vorfahren sind:
yt-k-1 . . . y1-k-N
und die direkten Eltern der Nachfolger der Variablen sind:
yt-1 . . . yt-k-N+1.
Aus den theoretischen Grundlagen ist bekannt, daß eine Varia­ ble unabhängig von einer anderen Variablen dieses Netzwerkes ist, wenn die Variablen innerhalb des Markov blankets bekannt sind. Deshalb wird die benötigte bedingte Dichte aus Glei­ chung (5) wie folgt bestimmt:
Der hier beschriebene Fall eines fehlenden Meßwert es kann auch ○ auf mehrere nebeneinander liegende fehlende Meßwerte ausgedehnt werden. Falls dies der Fall ist, kann die bedingte Dichte in Gleichung (5) wie im folgenden beschrieben, be­ stimmt werden. Für diesen Fall sei
die Menge aller fehlenden Werte der Zeitreihe zwischen dem Zeitpunkt t-1 und t-N, und weiterhin sei
die Menge aller Meßwerte bis zum Zeitpunkt t-1. Auch gilt
wobei die rechte Seite in (5e) aus Gleichung (4) erhalten wird. Im allgemeinen ist das Integral in Gleichung (5), wobei P(yu/ym) in Gleichung (5) über die Gleichungen (2), (4) und (5b) bis (5e) bestimmt wird, für die Funktion f(), falls dies eine nichtlineare Funktion ist, nicht analytisch lösbar. De­ tails für die numerische Lösung mit Hilfe statistischer Me­ thoden werden im Zusammenhang mit Fig. 2 angegeben. Für den Fall, daß ein weiterer Meßwert, der Zeitreihe nachgebildet werden soll, sieht das Verfahren eine iterative Approximation der Wahrscheinlichkeitsverteilung der fehlenden Werte vor. Beispielsweise sei für das Training des Netzes zusätzlich der Wert L für den Zeitpunkt yt-3 nachzubilden. Für diesen Meßwert M ist seine Wahrscheinlichkeitsdichte ε2 angegeben. Diese Wahrscheinlichkeitsdichte ε2 kann beispielsweise nach dem erfindungsgemäßen Verfahren aus einer vorgegebenen bekannten Fehlerverteilungsdichte der übrigen bekannten Meßwerte rück­ gerechnet werden. Für die Approximation der Wahrscheinlich­ keitsverteilung von zwei solchen fehlenden Werten L und M wird zunächst L beispielsweise als bekannt vorausgesetzt oder geschätzt. Daraus wird die Verteilung von M berechnet und ge­ mäß dieser Verteilung ein Wert für M zufällig bestimmt. Mit diesem bekannten Wert M wird anschließend in derselben Weise L bestimmt. Dieser Vorgang wird iteriert. Die Folge der so ermittelten Werte approximiert die gemeinsame Wahrscheinlich­ keitsverteilung von L und M. Dieser Iterationsvorgang läuft vorzugsweise so lange ab, bis eine hinreichende Genauigkeit der Werte gegeben ist, oder bis das Netz genau genug trai­ niert ist. Für mehr als zwei fehlende Werte verfährt man ana­ log. Es wird immer jeweils ein Wert gemäß der Verteilung be­ stimmt, die sich ergibt, wenn alle anderen als bekannt ange­ nommen werden.
Für den Fall, daß y₁, . . . yt mögliche Werte der Zeitreihe dar­ stellen sollen ym ⊆ {y₁, . . ., yt} alle Meßwerte bezeichnen und yu = {y₁, . . ., yt}ym alle unbekannten werte bezeichnen. Das neuro­ nale Netz NNW, welches die Funktion f modellieren soll, wer­ de beispielsweise mit einem Satz von Gewichten w parametri­ siert. Dann gilt:
Die logarithmische Wahrscheinlichkeitsfunktion lautet dann:
wobei dann die gemeinsame Wahrscheinlichkeitsdichte sich zu
approximiert und für das neuronale Netz folgender Zusammen­ hang für die Berechnung der Fehlerverteilungsdichte gilt:
Für das Lernen mit Hilfe von Backpropagation, oder anderer Gradienten basierter Lernalgorithmen wird nun noch der Gra­ dient der logarithmischen Wahrscheinlichkeitsfunktion benö­ tigt, welcher sich zu:
ergibt. Es ist anzumerken, daß hierbei von bekannten Aus­ gangsbedingungen für y₁, . . ., yN ausgegangen wird. Für den Fall, daß eine Gaußverteilung für die Fehlerverteilung vorliegt er­ gibt sich daraus:
wobei
die fehlenden Werte für die Eingänge des Netzwerkes darstellen und (8a) zeigt, daß falls alle yl . . . yl-N bekannt sind, das Integral verschwindet.
Falls die Meßwerte von einem zusätzlichen aber bekannten Rau­ schen überlagert werden ergeben sich die folgenden Zusammen­ hänge. Beispielsweise gilt wieder:
In dieser Variante der Erfindung soll jedoch kein direkter Zugriff auf yt bestehen. Anstattdessen wird die Zeitreihe
gemessen. Darin bedeutet δt ein unabhängiges Rauschen mit Mittelwert Null. Unter der Voraussetzung, daß z = {z₁ . . . zt-1} und y = {y₁ . . . yt} gelten ergibt sich die Gesamtwahrscheinlichkeits­ dichte zu:
damit läßt sich die Rechenvorschrift für den erwarteten näch­ sten Wert der Zeitreihe angeben
Ebenso kann der Gradient der Wahrscheinlichkeitsfunktion für das Training berechnet werden. Für den Fall, daß eine Gauß­ verteilung des Rauschens mit
vorliegt, ergibt sich:
Dem neuronalen Netz werden beispielsweise Werte zugeführt, die verrauscht oder nicht genau bestimmbar sind. Durch die Approximation der Gewichte im neuronalen Netz werden dabei über die Funktion f, welche dabei durch das neuronale Netz nachgebildet wird neue Werte der Zeitreihe bestimmbar. Diese neuen Werte der Zeitreihe werden im Anschluß dem neuronalen Netz NNW zugeführt, welches daraus wiederum durch Nachbil­ dung der Funktion f neue Werte der Zeitreihe bestimmt. Die­ ser iterative Vorgang wird solange fortgesetzt, bis eine hin­ reichende Genauigkeit der zu bestimmenden Werte erreicht wur­ de.
Zur genauen Bestimmung fehlender Werte mit Hilfe der Monte Carlo Methode wird von folgenden Grundlagen ausgegangen. Es ist hier zu beachten, daß alle Lösungen die Form
aufweisen, wobei u den Satz von unbekannten Variablen und m den Satz von bekannten Variablen bedeutet. Ein Integral die­ ser Form kann beispielsweise gelöst werden, indem Zufallspro­ ben der unbekannten Variablen gemäß P(u|m) gezogen werden. Beispielsweise werden diese Proben mit u¹, . . ., us bezeichnet. Daraus ergibt sich folgender Zusammenhang für die Annäherung:
Es ist zu beachten, daß in dieser Gleichung u den Wert yt-k, welcher fehlt, entspricht. Mit dieser erfindungsgemäßen Lö­ sung reduziert sich das Problem also darauf, aus P(u|m) Proben zu ziehen. Für den Fall, daß lediglich eine Variable fehlt, also beispielsweise lediglich eine Rückführung aufgetrennt wurde, reduziert sich das Problem also auf das Probenziehen aus einer einvariablen Verteilung, welche mit Hilfe des "sampling-importance-resampling" oder anderen sampling- Techniken [1] getan werden kann.
Fig. 2 zeigt ein Blockschaltbild zur Verdeutlichung des er­ findungsgemäßen Verfahrens. Das neuronale Netz NNW soll hier das technische System f steuern. Zum einen ist das neuronale Netz NNW dargestellt und zum anderen das technische System f. Die Indizes t und t-1 sind die zeitlichen Abhängigkeiten der einzelnen Werte voneinander abgegeben. Der Index -1 be­ deutet dabei, daß der betrachtete Wert sich in der Zeitreihe vor dem Wert befindet, welcher den Index t hat. Vom neurona­ len Netz wird über die Verbindungsleitung 150 die Stellgröße ut-1 an das technische System f abgegeben. Unterwegs wird die­ ser Wert nach dem erfindungsgemäßen Verfahren an einer Ver­ knüpfungsstelle "+" mit einem Rauschen von bekannter Rauschverteilung ε überlagert. Dem technischen System f wird dieser Wert ut-1 + ε zusammen mit dem Wert yt-1 zugeführt. Das technische System f reagiert auf diese Stellgröße, indem es eine Regelgröße yt erzeugt. Diese Regelgröße wird einem Ver­ zögerungsglied Z1 zugeführt, welche beispielsweise gleichzei­ tig eine Additionsfunktion enthält. Dieses Verzögerungsglied verzögert beispielsweise den vom technischen System abgegebe­ nen Wert yt um eine Zeiteinheit, um so den Eingangswert über die Leitung 180 für das technische System zur Verfügung stel­ len zu können. Weiter wird dieser Wert yt-1 auch über die Lei­ tung 100 an das neuronale Netz NNW abgegeben. Zusätzlich ist in Fig. 2 das Rauschen δ dargestellt, welches beispielsweise an der Verknüpfungsstelle und dem Verzögerungsglied Z1 der Regelgröße überlagert werden kann. Diese Art der Überlagerung ist jedoch nicht notwendige Voraussetzung für die Funktions­ fähigkeit des erfindungsgemäßen Verfahrens.
Beispielsweise stellt das System eine Heizungsanlage dar, das einen Zustand yt-1 zum Zeitpunkt t-1 und eine Kontrollaktion zum Zeitpunkt t-1, welche als ut-1 bezeichnet ist, wie etwa Einschalten, auf einen neuen Zustand zum Zeitpunkt t, der mit yt bezeichnet ist, abbildet. Ferner wird beispielsweise ein gewünschtes Sollverhalten durch eine Kostenfunktion C(y) vor­ gegeben, die etwa C(y) = (y-ysoll)² lautet. Ziel ist es bei­ spielsweise, das System mit einem neuronalen Netz NNW so zu steuern, daß die Kosten minimiert werden. Vorzugsweise können die Kosten in ferner Zukunft beispielsweise schwächer gewich­ tet werden. Hierzu wird beispielsweise ein Abschlagsfaktor γt-1 eingeführt, wobei 0 γ 1 gilt. Hierzu müssen die Parame­ ter des Netzes NNW, also dessen Gewichte richtig einge­ stellt, d. h. trainiert werden. Dies erfolgt vorzugsweise mit­ tels Gradientenabstieg. Dabei dürfen ut und yt, auch Vektoren sein, die Kostenfunktion kann auch zeitabhängig sein, wie beispielsweise Ct (yt). Die Anfangsbedingungen müssen dabei nicht fest sein, was kein Problem bei der Lösung nach dem er­ findungsgemäßen Verfahren darstellt. Im erfindungsgemäßen Fall werden das technische System und das neuronale Netz als nicht deterministisch behandelt. Zum Training des Netzes muß vorzugsweise der Gradient der Kosten nach den Gewichten be­ stimmt werden. Dieser ist in (11#) angegeben.
Vorzugsweise wird beim erfindungsgemäßen Verfahren das System simuliert, oder das reale System benutzt und die Stellgröße mittels Gaußrauschen überlagert. Die Kosten sind nun Zufalls­ größe und durch die Gleichung (12##) gegeben.
Dabei verschwindet das Produkt der Ableitung, welches sich bei einer deterministischen Lösung, die hier nicht darge­ stellt ist, ergeben würde. Das neuronale Netz wird nun zu­ nächst mittels Zufallsdaten initialisiert, d. h. die Gewichte werden irgendwie eingestellt. Anschließend wird das reale Sy­ stem mit den verrauschten Stellgrößen betrieben, unabhängig davon kann auch ein Modell verwendet werden, und es werden die Stellgrößen beobachtet, welche vom System abgegeben wer­ den. Vorzugsweise wird von mehreren Durchläufen des Systems eine Zeitreihe aufgenommen. Dabei werden beispielsweise so­ wohl die Stellgrößen als auch die Regelgrößen protokolliert. Im Anschluß wird diese Zeitreihe dem neuronalen Netz zuge­ führt, um eine günstige Steuerung des technischen Systems zu erlernen. Durch die vorgegebene Kostenfunktion werden dabei solche Gewichtsveränderungen am neuronalen Netz begünstigt, d. h. verstärkt oder weniger gedämpft, welche geringere Kosten bewirken. Falls dieses Trainingsverfahren mehrfach durchge­ führt wird, d. h. falls mehrere Zeitreihen aufgenommen werden, und mit diesen das neuronale Netz trainiert wird, so ergibt sich eine sehr zuverlässige Einstellung der Gewichte des neu­ ronalen Netzes. Unabhängig von der beispielhaft vorgestellten Kostenfunktion können auch andere Kostenfunktionen angedacht werden. Letztendlich ist es wichtig, daß diese Kostenfunktion eine Verstärkung, bzw. Abschwächung der am Netz eingestellten Gewichtsfaktoren bezüglich eines günstigen Systemverhaltens des technischen Systems erreicht.
Durch das erfindungsgemäße Verfahren kann auf diese Weise über einer statistischen Verteilung der Zeitreihen mittels zufällig gestörter Stellgrößen eine Einstellung der Gewichte am neuronalen Netz gefunden werden, welche ein günstiges Sollverhalten des technischen Systems bewirkt.
Fig. 2 erläutert weiter ein Beispiel des erfindungsgemäßen Verfahrens anhand eines Blockschaltbildes. Gemäß diesem Bei­ spiel sei eine Zeitreihe der Form:
gegeben mit
und
T: Intervallbreite zur Erreichung des Sollzustandes.
Nach dem erfindungsgemäßen Verfahren soll nun das neuronale Netz so trainiert werden, indem die einzustellenden Gewicht an den Neuronen so gewählt werden, daß die gemäß einer Ko­ stenfunktion zu bewertenden erwarteten Kosten innerhalb des Intervalles T minimiert werden. Diese lassen sich allgemein als
darstellen mit:
γ 1 Abschlagsfaktor für zukünftige Werte der Zeit­ reihe
Wahrscheinlichkeit für das Auftreten bestimm­ ter Werte innerhalb der Zeitreihe
Um das Regelverhalten des neuronalen Netzes zu optimieren, wird gemäß dem erfindungsgemäßen Verfahren zunächst der Gra­ dient der zu erwartenden Kosten nach den Gewichten des neuro­ nalen Netzes gebildet:
diese Lösung kann durch stochastisches Sampling approximiert werden, indem die Gleichung (9c) analog angewendet wird, das heißt in diesem Fall, daß das neuronale Netz zusammen mit dem technischen System, oder seinem Modell mehrere Zeitzyklen lang betrieben wird, und daß mehrere Zetreihen von y und u aufgenommen werden. Die Mittelwertbildung der mit diesen Zeitreihen gebildeten Gradienten, führt dann zu den Werten, welche für das Training Verwendung finden. Fallweise kann es hierzu jedoch günstig sein die Kostenfunktion so zu gestal­ ten, daß große Gewichte an einzelnen Neuronen bestraft wer­ den, also hohe Kosten verursachen, oder die Zahl und Stärke der Steueraktionen des Netzes berücksichtigt, um unendlich starke Steueraktionen vermeiden zu können. Mit der obigen Voraussetzung für ut ergibt sich
als Gradient für die zu erwartenden Kosten. Durch analoge An­ wendung von (9c) vereinfacht sich dieser zu
mit:
T: Anzahl der Zeiteinheiten je Zeitreihe
S: Anzahl der Zeitreihen
γ 1 Abschlagsfaktor für zukünftige Werte der Zeitreihe
NNW: vom neuronalen Netz erzeugter Wert

Claims (7)

1. Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems,
  • a) bei dem das neuronale Netz mit dem technischen System, oder einem Modell davon so in einen Regelkreis eingebunden wird, daß das neuronale Netz als Ausgangsgröße mindestens ei­ ne Stellgröße an das technische System, oder sein Modell ab­ gibt und das technische System oder sein Modell aus der vom neuronalen Netz zugeführten Stellgröße, mindestens eine Re­ gelgröße erzeugt, die dem Neuronalen Netz als Eingangsgröße zugeführt wird
  • b) bei dem die Stellgröße mit einem Rauschen von bekannter Rauschverteilung überlagert wird, bevor sie dem technischen System oder seinem Modell zugeführt wird,
  • c) und bei dem die Gewichte des neuronalen Netzes in Reaktion auf die durch das aufgeprägte Rauschen veränderte Regelgröße wie folgt eingestellt werden:
    es wird von einer Kostenfunktion bewertet, ob die Gewichtsän­ derung am Netz, die nach bekannten Lernverfahren eingestellt wird, eine Verbesserung der Regelgröße in Bezug auf ein Soll­ verhalten des technischen- Systems bewirkt hat und solche Ge­ wichtseinstellungen werden durch die Kostenfunktion begün­ stigt.
2. Verfahren nach Anspruch 1, bei dem die Gewichtseinstellungen durch die Kostenfunktion dahingehend bewertet werden, ob die Gewichtsänderung am Netz, die nach bekannten Lernverfahren eingestellt wird, eine Ver­ schlechterung der Regelgröße in Bezug auf ein Sollverhalten des technischen Systems bewirkt hat und solche Gewichtsein­ stellungen durch die Kostenfunktion abgeschwächt werden.
3. Verfahren nach Anspruch 1 oder 2, bei dem die Gewichte des neuronalen Netzes in Reaktion auf die durch das aufgeprägte Rauschen veränderte Regelgröße wie folgt eingestellt werden:
  • i) die Neuronengewichte werden beliebig initialisiert; der Regelkreis wird eine Mehrzahl von Zeitzyklen betrieben und es werden sowohl die Regelgröße, als auch die Stellgröße in Form von je einer Zeitreihe protokolliert,
  • ii) die Neuronengewichte werden nach bekannten Lernverfahren eingestellt und es wird jeweils für jeden Wert der Zeitreihe der Gradient der Gewichtsänderung an den Neuronen in Abhän­ gigkeit der Stellgröße und des bekannten Rauschens bestimmt, wobei dieser Vorgang mehrfach wiederholt wird und dabei von einer Kostenfunktion bewertet wird, wie günstig sich die Re­ gelgröße in Bezug auf ein Sollverhalten des technischen Sy­ stems als Reaktion.
4. Verfahren nach Anspruch 2, bei dem eine Vielzahl von Zeit­ reihen aufgenommen werden und die Neuronengewichte für je­ weils eine Zeitreihe bestimmt werden, welche als Einzelwerte die arithmetischen Mittelwerte der aufgenommenen Zeitreihen hat.
5. Verfahren nach einem der vorangehenden Ansprüche, bei dem Eine Gaußverteilung als bekannte Rauschverteilung verwendet wird.
6. Verfahren nach Anspruch 4, mit einer Zeitreiher der Form: mit: NNW: vom neuronalen Netz erzeugter Wert
bei dem die Gewichte an den Neuronen wie folgt bestimmt wer­ den: mit:
T: Anzahl der Zeiteinheiten je Zeitreihe
S: Anzahl der Zeitreihen
γ 1 Abschlagsfaktor für zukünftige Werte der Zeitreihe.
7. Verfahren nach einem der vorangehenden Ansprüche, bei dem die Regelgröße mit einem Rauschen von bekannter Rauschvertei­ lung der Form überlagert wird mit:
DE19531967A 1995-08-30 1995-08-30 Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems Expired - Fee Related DE19531967C2 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE19531967A DE19531967C2 (de) 1995-08-30 1995-08-30 Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems
US08/705,834 US5806053A (en) 1995-08-30 1996-08-30 Method for training a neural network with the non-deterministic behavior of a technical system
JP8230974A JPH09128010A (ja) 1995-08-30 1996-08-30 技術的系の非決定的特性を有するニューラルネットワークのトレーニング方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19531967A DE19531967C2 (de) 1995-08-30 1995-08-30 Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems

Publications (2)

Publication Number Publication Date
DE19531967A1 true DE19531967A1 (de) 1997-03-06
DE19531967C2 DE19531967C2 (de) 1997-09-11

Family

ID=7770802

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19531967A Expired - Fee Related DE19531967C2 (de) 1995-08-30 1995-08-30 Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems

Country Status (3)

Country Link
US (1) US5806053A (de)
JP (1) JPH09128010A (de)
DE (1) DE19531967C2 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19740565A1 (de) * 1997-09-15 1999-03-18 Max Planck Gesellschaft Verfahren zur Erfassung zeitabhängiger Moden dynamischer Systeme
DE19729187C1 (de) * 1997-07-08 1999-04-29 Siemens Ag Testverfahren für einen Funktionsapproximator in einer Prozeßsteuerung
US7006866B1 (en) 1997-11-07 2006-02-28 Siemens Aktiengesellschaft Arrangement for predicting an abnormality of a system and for carrying out an action which counteracts the abnormality
EP4016202A1 (de) * 2020-12-15 2022-06-22 Siemens Aktiengesellschaft Verfahren zum nachbilden von rauschanteilen von verlustbehaftet aufgezeichneten betriebssignalen sowie steuereinrichtung

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19635758C1 (de) * 1996-09-03 1997-11-20 Siemens Ag Verfahren und Vorrichtung zur rechnergestützten Generierung mindestens eines künstlichen Trainingsdatenvektors für ein neuronales Netz
DE19838654C1 (de) * 1998-08-25 1999-11-25 Siemens Ag Verfahren zum Trainieren eines neuronalen Netzes, Verfahren zur Klassifikation einer Folge von Eingangsgrößen unter Verwendung eines neuronalen Netzes, neuronales Netz und Anordnung zum Trainieren eines neuronalen Netzes
DE10348563B4 (de) 2002-10-22 2014-01-09 Fisher-Rosemount Systems, Inc. Integration von Grafikdisplayelementen, Prozeßmodulen und Steuermodulen in Prozeßanlagen
US9983559B2 (en) * 2002-10-22 2018-05-29 Fisher-Rosemount Systems, Inc. Updating and utilizing dynamic process simulation in an operating process environment
US7146231B2 (en) * 2002-10-22 2006-12-05 Fisher-Rosemount Systems, Inc.. Smart process modules and objects in process plants
US7577636B2 (en) * 2003-05-28 2009-08-18 Fernandez Dennis S Network-extensible reconfigurable media appliance
US20050041609A1 (en) * 2003-08-22 2005-02-24 Scheidt David H. Propagation network
JP2007536634A (ja) 2004-05-04 2007-12-13 フィッシャー−ローズマウント・システムズ・インコーポレーテッド プロセス制御システムのためのサービス指向型アーキテクチャ
US7729789B2 (en) 2004-05-04 2010-06-01 Fisher-Rosemount Systems, Inc. Process plant monitoring based on multivariate statistical analysis and on-line process simulation
US20070041730A1 (en) * 2005-08-09 2007-02-22 Alcatel RF extender co-located with DSL remote
WO2007067645A2 (en) 2005-12-05 2007-06-14 Fisher-Rosemount Systems, Inc. Multi-objective predictive process optimization with concurrent process simulation
US8527252B2 (en) * 2006-07-28 2013-09-03 Emerson Process Management Power & Water Solutions, Inc. Real-time synchronized control and simulation within a process plant
US8095480B2 (en) * 2007-07-31 2012-01-10 Cornell Research Foundation, Inc. System and method to enable training a machine learning network in the presence of weak or absent training exemplars
US7814038B1 (en) 2007-12-06 2010-10-12 Dominic John Repici Feedback-tolerant method and device producing weight-adjustment factors for pre-synaptic neurons in artificial neural networks
US8881039B2 (en) 2009-03-13 2014-11-04 Fisher-Rosemount Systems, Inc. Scaling composite shapes for a graphical human-machine interface
US7915962B2 (en) * 2009-07-06 2011-03-29 Nortel Networks Limited System and method for built in self test for timing module holdover
US8825183B2 (en) 2010-03-22 2014-09-02 Fisher-Rosemount Systems, Inc. Methods for a data driven interface based on relationships between process control tags
KR102494139B1 (ko) 2015-11-06 2023-01-31 삼성전자주식회사 뉴럴 네트워크 학습 장치 및 방법과, 음성 인식 장치 및 방법
US10878140B2 (en) 2016-07-27 2020-12-29 Emerson Process Management Power & Water Solutions, Inc. Plant builder system with integrated simulation and control system configuration
CN106446405B (zh) * 2016-09-23 2018-12-18 北京大学深圳研究生院 一种集成电路器件神经网络建模样本选择方法及装置
US11604459B2 (en) 2019-07-12 2023-03-14 Emerson Process Management Power & Water Solutions, Inc. Real-time control using directed predictive simulation within a control system of a process plant
CN112051256B (zh) * 2020-07-22 2023-01-24 中国地质大学(武汉) 基于cnn模型的待测元素含量libs测量方法、系统
US11418969B2 (en) 2021-01-15 2022-08-16 Fisher-Rosemount Systems, Inc. Suggestive device connectivity planning

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5159660A (en) * 1990-08-09 1992-10-27 Western Thunder Universal process control using artificial neural networks
DE4138053A1 (de) * 1991-11-19 1993-05-27 Siemens Ag Hybrides lernverfahren fuer kuenstliche neuronale netze
US5396415A (en) * 1992-01-31 1995-03-07 Honeywell Inc. Neruo-pid controller

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2979711B2 (ja) * 1991-04-24 1999-11-15 日本電気株式会社 パターン認識方式および標準パターン学習方式
US5649064A (en) * 1995-05-19 1997-07-15 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration System and method for modeling the flow performance features of an object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5159660A (en) * 1990-08-09 1992-10-27 Western Thunder Universal process control using artificial neural networks
DE4138053A1 (de) * 1991-11-19 1993-05-27 Siemens Ag Hybrides lernverfahren fuer kuenstliche neuronale netze
US5396415A (en) * 1992-01-31 1995-03-07 Honeywell Inc. Neruo-pid controller

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
US-Z.: IEEE Transactions on Systems, Man and Cybernetics, Vol. 23, No. 3, May/Juni 1993, S. 686-697 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19729187C1 (de) * 1997-07-08 1999-04-29 Siemens Ag Testverfahren für einen Funktionsapproximator in einer Prozeßsteuerung
DE19740565A1 (de) * 1997-09-15 1999-03-18 Max Planck Gesellschaft Verfahren zur Erfassung zeitabhängiger Moden dynamischer Systeme
US7277831B1 (en) 1997-09-15 2007-10-02 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E. V. Method for detecting time dependent modes of dynamic systems
US7006866B1 (en) 1997-11-07 2006-02-28 Siemens Aktiengesellschaft Arrangement for predicting an abnormality of a system and for carrying out an action which counteracts the abnormality
EP4016202A1 (de) * 2020-12-15 2022-06-22 Siemens Aktiengesellschaft Verfahren zum nachbilden von rauschanteilen von verlustbehaftet aufgezeichneten betriebssignalen sowie steuereinrichtung
WO2022128331A1 (de) * 2020-12-15 2022-06-23 Siemens Aktiengesellschaft Verfahren zum nachbilden von rauschanteilen von verlustbehaftet aufgezeichneten betriebssignalen sowie steuereinrichtung

Also Published As

Publication number Publication date
JPH09128010A (ja) 1997-05-16
DE19531967C2 (de) 1997-09-11
US5806053A (en) 1998-09-08

Similar Documents

Publication Publication Date Title
DE19531967C2 (de) Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems
EP2106576B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems
DE69823049T2 (de) Modellfreie adaptive prozesssteuerung
DE102007017039B4 (de) Robuste Prozessmodellidentifikation bei modellbasierten Steuerungstechniken
DE102008020379A1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE19530646C1 (de) Lernverfahren für ein rekurrentes neuronales Netz
DE19606480C2 (de) Verfahren und Anordnung zur Adaption eines Fuzzy-Reglers
DE102020201133A1 (de) Verfahren und Vorrichtung zur Modellwertbildung, insbesondere zur Sensordatenfusion
EP0750764B1 (de) Verfahren und anordnung zur fuzzy-regelung
EP0956530A1 (de) Verfahren zur transformation einer zur nachbildung eines technischen prozesses dienenden fuzzy-logik in ein neuronales netz
EP1327959B1 (de) Neuronales Netz zur Modellierung eines physikalischen Systems sowie Verfahren zur Bildung eines solchen neuronalen Netzes
DE19530647C1 (de) Verfahren zur Aufbereitung einer Eingangsgröße für ein neuronales Netz
DE19703964C1 (de) Verfahren zur Transformation einer zur Nachbildung eines technischen Prozesses dienenden Fuzzy-Logik in ein neuronales Netz
DE4417932B4 (de) Verfahren und ein System zum Erhalten von Zieleinstellbeträgen für Ausführungsparameter durch Lernen einer Mehrzahl von Sätzen von Muster-Eingabedaten und Muster-Ausgabedaten
DE19528426C2 (de) Verfahren zur Ermittlung von Zustandsparametern eines chemischen Reaktors unter Verwendung künstlicher neuronaler Netze
EP0978052B1 (de) Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz
DE4319926A1 (de) Verfahren zur Regelung eines kontinuierlichen Prozesses mit einer Optimier- und einer Regelphase
WO2000003355A2 (de) Neuronales netz und verfahren und anordnung zum trainieren eines neuronalen netzes
DE19835137C2 (de) Vorrichtung zum Bestimmen der Konzentration einer Meßflüssigkeit
EP0591259B1 (de) Verfahren zur verarbeitung von unsicherheiten von eingangsdaten in neuronalen netzwerken
EP1145190A2 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
DE102006042975A1 (de) Verfahren zum Betrieb eines Kommunikationsnetzes
DE102016113310A1 (de) Verfahren zur Bewertung von Aussagen einer Mehrzahl von Quellen zu einer Mehrzahl von Fakten
DE102022201853A1 (de) Erkennung kritischer Verkehrssituationen mit Petri-Netzen
DE102020211713A1 (de) Datengetriebenes trainieren einer computerimplementierten differenzierbaren impliziten schicht

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee