DE19624301B4 - Lernverfahren für ein neuronales Netz - Google Patents

Lernverfahren für ein neuronales Netz Download PDF

Info

Publication number
DE19624301B4
DE19624301B4 DE19624301A DE19624301A DE19624301B4 DE 19624301 B4 DE19624301 B4 DE 19624301B4 DE 19624301 A DE19624301 A DE 19624301A DE 19624301 A DE19624301 A DE 19624301A DE 19624301 B4 DE19624301 B4 DE 19624301B4
Authority
DE
Germany
Prior art keywords
network
neural network
learning
trained
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19624301A
Other languages
English (en)
Other versions
DE19624301A1 (de
Inventor
Einar Dr.rer.nat. Broese
Otto Dr.-Ing. Gramckow
Frank-Oliver Dipl.-Inform. Malisch
Martin Dr.-Ing. Schlang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19624301A priority Critical patent/DE19624301B4/de
Priority to US08/686,792 priority patent/US6745169B1/en
Publication of DE19624301A1 publication Critical patent/DE19624301A1/de
Application granted granted Critical
Publication of DE19624301B4 publication Critical patent/DE19624301B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B21MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
    • B21BROLLING OF METAL
    • B21B37/00Control devices or methods specially adapted for metal-rolling mills or the work produced thereby
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Mechanical Engineering (AREA)
  • Feedback Control In General (AREA)

Abstract

Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz, mit dem der Prozeß gesteuert bzw. geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des aktuellen Prozesses bildet, und einem Hintergrundnetz, das während des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer bestimmten Lernzeit für das Hintergrundnetz oder aufgrund eines externen Ereignisses durch das Hintergrundnetz ersetzt wird.

Description

  • Die Erfindung geht aus von Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines insbesondere industriellen Prozesses mit sich zeitlich verändernden Parametern.
  • Neuronale Netze müssen, bevor sie ihre Generalisierungsfähigkeit erhalten, zunächst mit Lern- oder Trainingsdaten trainiert werden. Das Sammeln dieser Trainingsdaten ist oft langwierig und mit hohem Aufwand verbunden.
  • Ein Beispiel hierfür ist das aus der DE-OS 44 16 364 bekannte neuronale Netz, das aus einer Vielzahl von ihm zugeführten vorausberechneten Eingangsgrößen als Netzwerkantwort einen Prozeßparameter berechnet, der zur Voreinstellung eines Systems zur Regelung eines technischen Prozesses dient. So wird z.B. bei einem Walzprozeß ein Vorhersagewert für die Walzkraft in Abhängigkeit von der Walzguttemperatur, der Dickenabnahme und anderen material- und anlagenspezifischen Eingangsgrößen berechnet. Der von dem neuronalen Netz nachgebildete Zusammenhang zwischen der Walzkraft und den Eingangsgrößen wird on-line nach jedem Prozeßablauf, also nach jedem Walzgutdurchlauf, an das reale Prozeßgeschehen angepaßt. Dazu werden die während des Prozeßablaufs gemessenen und anschließend nachberechneten Eingangsgrößen und die Walzkraft in einem Datenpunkt zusammengefaßt, der dann zur Adaption von Parametern des neuronalen Netzes herangezogen wird. Die Adaption erfolgt mit jedem neu ermittelten Datenpunkt, also online. Die Adaption muß sich durch eine besondere Stabilität auszeichnen, da sie häufig direkt und ohne Überwachung durch einen Fachmann auf der prozeßausführenden Anlage durchgeführt wird. Daher werden beim on-line Training nur unkritische Parameter des neuronalen Netzes adaptiert, wobei Adaptionsalgorithmen und Netzstrukturen verwendet werden, die eine Stabilität des Verfahrens gewährleisten; z.B. Minimierung der quadratischen Fehlerfunktion zwischen der Netzwerkantwort und der nachberechneten Walzkraft, wobei die Fehlerfunktion vorzugsweise nur ein globales Minimum, aber keine lokalen Minima aufweist.
  • Damit das bekannte neuronale Netz bereits zu Beginn des online-Trainings zumindest annähernd sinnvolle Walzkraftwerte vorhersagt, kann es anhand eines die Walzkraft in Abhängigkeit von zufällig vorgegebenen Eingangsgrößen berechnenden Walzkraftmodells vortrainiert werden. Steht ein derartiges Modell nicht zur Verfügung, so kann das für das Vortraining nötige Vorwissen durch das Sammeln von Trainingsdaten beispielsweise auf vergleichbaren Anlagen erworben und in das neuronale Netz eingebracht werden.
  • Aus der US 5,396,415 ist der Einsatz eines neuronalen Netzes zur Regelung bekannt, wobei dem neuronalen Netz die Eingangssignale eines PID-Reglers zugeführt werden, wobei ein Nutzer wahlweise das neuronale Netz oder den konventionellen PID-Regler als Regelungsvorrichtung auswählen kann.
  • Die EP 0 609 999 A1 offenbart die Verwendung künstlicher neuronaler Netzwerke zur Regelung eines Prozesses, wobei zwei in ihrer Struktur und Funktionsweise identische neuronale Netze zur Regelung eines Prozesses eingesetzt werden.
  • K.J. Hunt et al beschreiben in "Neural Networks for Control Systems – A Survey", Automatika, Vol. 28, Nr. 6, S. 1083–1112, Großbritannien, 1992, verschiedene Eigenschaften von neuronalen Netzwerken, wobei auch die On-line-Adaption von neuronalen Netzwerken offenbart ist.
  • Der Erfindung liegt die Aufgabe zugrunde, einen Prozeß mit sich zeitlich verändernden Parametern in bezug auf die Qualität hochwertig zu steuern und zu regeln. Dabei ist es insbesondere bei der Neuinbetriebnahme einer Anlage oder wesentlichen Veränderungen einer bestehenden Anlage, die mit neurona len Netzen gesteuert wird, wünschenswert, das neuronale Netz in die Lage zu versetzen, ohne Vortraining direkt auf der Anlage bereits nach wenigen Datenpunkten ein sinnvolles Verhalten zu zeigen. Das gleiche gilt beim Umrüsten einer bestehenden Anlage, wenn auf eine vorherige Sammlung von Daten verzichtet werden soll. Ferner sollen Langzeitdriften der Anlage erkannt und kompensiert werden.
  • Die Aufgabe wird durch ein Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines insbesondere industriellen Prozesses mit sich zeitlich verändernden Parametern gelöst, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz, mit dem der Prozeß gesteuert und geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des aktuellen Prozesses bildet, und einem Hintergrundnetz, das während des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer bestimmten Lernzeit für das Hintergrundnetz oder aufgrund eines externen Ereignisses durch das Hintergrundnetz ersetzt wird.
  • Eine weitere Lösung stellt ein Lernverfahren dar, bei dem das Lernen während des Prozeßablaufs in zwei Lernphasen unterteilt ist, eine Initiallernphase und eine Betriebslernphase, wobei die Menge der Trainingsdaten, mit denen das neuronale Netz trainiert wird, in der Initiallernphase wächst und die Menge der Trainingsdaten in der Betriebslernphase weitgehend konstant bleibt.
  • Die Aufgabe wird weiterhin durch das in Patentanspruch 3 angehende Lernverfahren gelöst.
  • Besonders vorteilhafte Lösungen der Aufgabe stellen die in den Patentansprüchen 4 bis 7 angegebenen Lernverfahren dar.
  • Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen, anhand der Zeichnungen und in Verbindung mit den Unteransprüchen. Im einzelnen zeigen:
  • 1 einen Trainingsablauf eines neuronalen Netzes
  • 2 verschiedene Lernphasen eines neuronalen Netzes
  • 3 und 4 Beispiele für die bei der zyklisch wiederholten Adaption verwendete Trainingsdatenmenge,
  • 5 ein Beispiel für die Trainingsdatenmenge beim Lernen mit exponentiellem Vergessen und
  • 6 ein Beispiel für den typischen Fehlerverlauf bei dem erfindungsgemäßen Lernverfahren im Vergleich zu einem Referenz-Lernverfahren,
  • 7 ein adaptiv angepaßtes neuronales Netz
  • 1 zeigt den Trainingsablauf eines neuronalen Netzes für die Steuerung und Regelung eines Prozesses bzw. einer Anlage. Das entsprechende neuronale Netz ist in zumindest zwei Ausführungen ausgeführt, einem Regel- bzw. Steuernetz, mit dem der Prozeß gesteuert und geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des aktuellen Prozesses bildet, und einem Hintergrundnetz, das während des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet. Das Regel- bzw. Steuernetz befindet sich in einem Zustand 5, in dem es den Prozeßablauf regelt bzw. steuert. Gleichzeitig befindet sich das Hintergrundnetz im Training 1. Beim Abschluß 2 des Trainings 1 des Hintergrundnetzes wird es einer Plausibilitätskontrolle 3 unterzogen. Bei einer positiven Plausibilitätskontrolle wird das Regel- und Steuernetz durch das plausible Hintergrundnetz ersetzt. Während das alte Hintergrundnetz als neues Regel- bzw. Steuernetz den Prozeßablauf regelt oder steuert, wird durch weiteres Training 1 ein neues Hintergrundnetz erzeugt. Das Training eines Hintergrundnetzes kann ständig oder zeitweise erfolgen, wenn ein neues Regel- bzw. Steuernetz benötigt wird. Anstoß für ein neues Hintergrundtraining kann das Verstreichen einer definierten Zeit oder ein externes Ereignis, wie z.B. das Walzen eines Walzbandes aus neuem Material sein. Ausgangsbasis für ein neues Hintergrundnetz kann ein untrainiertes Rohnetz, ein Regel- bzw. Steuernetz oder ein altes Hintergrundnetz sein.
  • 2 zeigt drei verschiedene Trainingsphasen in bezug auf das beansprucht Lernverfahren für ein neuronales Netz. Die einzelnen Phasen sind eine Vorbetriebstrainingsphase 7, eine Initiallernphase 8 und eine Betriebslernphase 9. In der Vorbetriebslernphase wird das neuronale Netz, das zur Regelung bzw. Steuerung eines vorteilhafterweise industriellen Prozesses eingesetzt werden soll, vorab trainiert. In der Vorbetriebslernphase 7 ist es möglich, durch entsprechende Daten aus anderen, bereits in Betrieb befindlichen Anlagen die Erfahrungen, die in diesen Anlagen gesammelt wurden, zu berücksichtigen. Auf die Vorbetriebslernphase 7 kann jedoch beim Lernverfahren verzichtet werden. In diesem Fall reicht das durch Datensammlung an der aktuellen Anlage akkumulierte Wissen zum Training des neuronalen Netzes aus. Der Vorbetriebslernphase folgen zwei weitere Lernphasen, die Initiallernphase 8 und die Betriebslernphase 9, die während des Prozessablaufs erfolgen. Wird auf die Vorbetriebslernphase 7 verzichtet, so existieren nur die beiden Lernphasen Initiallernphase 8 und Betriebslernphase 9. Die Initiallernphase 8 ist dadurch gekennzeichnet, daß die Datenbasis der Trainingsdaten anwächst, während die Datenmenge zum Training des neuronalen Netzes in der Betriebslernphase 9 weitgehend konstant bleibt. Im vorliegenden Ausführungsbeispiel wächst in der Initiallernphase 8 nicht nur die zum Training verwendete Datenbasis, sondern auch das trainierte neuronale Netz selbst. Das heißt, die Anzahl der Knoten in den verdeckten Ebenen bzw. der verdeckten Ebene vergrößert sich.
  • Diese beiden unterschiedlichen Lernphasen während des Betriebs, die Initial- und die Betriebslernphase, sind in 3 verdeutlicht, in der die Anzahl der zum zyklischen Training des neuronalen Netzes 1 verwendeten Datenpunkte in Abhängigkeit von dem Beitrag dieser Datenpunkte zum Training aufgetragen sind. Während der Initiallernphase 7 erfolgt das zyklisch wiederholte Training mit einer stetig wachsenden Trainingsdatenmenge 15, wobei jedesmal alle von Beginn des Lernverfahrens an gespeicherten Datenpunkte verwendet werden. Die Häufigkeit des zyklisch wiederholten Trainings ist ein für die vorgegebene Anwendung zu optimierender Parameter, wobei z.B. nach jedem neuen Datenpunkt, nach einem vorgegebenen prozentualen Anwachsen der Trainingsdatenmenge oder, wenn die Abweichung zwischen den Ausgangsgrößen des neuronalen Netzes und ihren richtigen Werten einen bestimmten Wert übersteigt, eine erneute Adaption erfolgt. Darüberhinaus läßt sich die Größe des neuronalen Netzes in Abhängigkeit von der Größe der vorliegenden Trainingsdatenmenge verändern, wobei mit einem kleinen neuronalen Netz begonnen wird, das im Laufe der Zeit langsam vergrößert wird. Die Festlegung der Netzgröße erfolgt z.B. durch Methoden der "Cross-Validation" oder andere Heuristiken, wie Residualfehler im Eingangsraum.
  • Nach einer vorgegebenen Zeit oder, wenn die Trainingsdatenmenge einen vorgegebenen Wert NF erreicht, beginnt die Betriebslernphase, in der die Trainingsdatenmenge 10 konstant gehalten wird. Die Größe NF kann statisch sein oder dynamisch beispielsweise durch Techniken der Cross-Validation festgelegt werden. Die Häufigkeit der zyklisch erfolgenden Adaption sowie die Größe des neuronalen Netzes 1 ist entweder konstant oder wird auf ähnliche Weise bestimmt, wie in der Initiallernphase.
  • Zu Beginn der Inbetriebnahme einer neuronal gesteuerten Anlage werden in der Regel noch sehr viele Anlagenparameter verändert, um die Anlage zu optimieren. Das suboptimale Verhalten direkt nach der Inbetriebnahme sollte aber von dem neuronalen Netz 1 möglichst wieder vergessen werden. Deshalb ist entsprechend der Darstellung in 4 vorgesehen, die in der Initiallernphase 7 ständig wachsende Trainingsdatenmenge 11 nicht komplett zu verwenden, sondern die ältesten Datenpunkte sukzessive zu vergessen. Das Wachstum der Trainingsdatenmenge 11 hat dabei natürlich schneller zu erfolgen als das Vergessen. Die Geschwindigkeit des Vergessens kann in Form eines konstanten Bruchteils der Wachstumsrate der Trainingsdatenmenge 11, in Abhängigkeit von der Abweichung zwischen den Ausgangsgrößen des neuronalen Netzes und ihren richtigen Werten oder in Abhängigkeit von dem Expertenwissen des Inbetriebnehmers festgelegt werden.
  • 5 zeigt ein Beispiel für eine exponentiell abfallende "natürliche" Vergessensfunktion einer Trainingsdatenmenge 12, die dadurch zustande kommt, daß die Datenpunkte in der Trainingsdatenmenge 12 mit zunehmendem Alter mit einem immer geringeren Gewichtsfaktor gewichtet werden.
  • In 6 ist für das Lernverfahren der typische Fehlerverlauf 13 des Residualfehlers F des neuronalen Netzes 1 in Abhängigkeit von der Anzahl der zur Verfügung stehenden Datenpunkte N im Vergleich zu dem Fehlerverlauf 14 eines Referenz-Lernverfahrens, hier Vererbungsdatei mit analytischem Modell im eingeschwungenen Zustand, aufgezeigt.
  • 7 zeigt ein neuronales Netz 16, dem eine Mehrzahl von in einem Eingangsvektor x zusammengefaßten Eingangsgrößen zugeführt wird und das in Abhängigkeit davon eine, gegebenenfalls ebenfalls mehrdimensionale, Antwort yNN erzeugt. Die Antwort yNN ist von einstellbaren Parametern p1 und/oder p2 des neuronalen Netzes 16 abhängig. Das neuronale Netz 16 dient bei dem gezeigten Ausführungsbeispiel dazu, den Zusammenhang zwischen Einflußgrößen eines technischen Prozesses, die durch den Eingangsvektor x repräsentiert werden, und einem Prozeßparameter y, repräsentiert durch die Antwort yNN, nachzubilden. Ein Beispiel hierfür ist die Vorhersage der Walzkraft in einem Walzprozeß in Abhängigkeit von material- und anlagenspezifischen Einflußgrößen, wie unter anderem der Walzguttemperatur, der Walzgutfestigkeit, der Walzgutdicke und der Dickenabnahme.
  • Um den nachzubildenden Zusammenhang zu lernen, und das neuronale Netz 16 an das tatsächliche Prozeßgeschehen anzupassen, werden die Parameter p1 und/oder p2 des neuronalen Netzes 16 mit Hilfe von Adaptionsalgorithmen 17 und 18 im Sinne einer Verringerung des Fehlers zwischen der von dem neuronalen Netz 16 gelieferten Antwort yNN und dem tatsächlichen Wert des Prozeßparameters y verändert.
  • Dabei erfolgt nach jedem n-ten (n ≥ 1) Prozeßablauf, also nach jedem Walzgutdurchlauf, mittels des Adaptionsalgorithmus 17 eine on-line-Adaption, indem die während des erfolgten aktuellen Prozeßablaufs gemessenen und nachberechneten Einflußgrößen xnach dem neuronalen Netz 16 aufgegeben werden und die daraus resultierende Antwort yNN mit dem ebenfalls gemessenen oder nachberechneten Prozeßparameter y verglichen wird. Nicht plausible Werte oder Meßfehler werden durch die Nachberechnung ausgeschieden. In Abhängigkeit von dem dabei ermittelten Fehler y-yNN werden ausgewählte Parameter p1 des neuronalen Netzes 16 im Sinne einer Fehlerverringerung verändert. Dabei werden unkritische Parameter p1 und solche Adaptionsalgorithmen gewählt, die eine Stabilität der on-line-Adaption gewährleisten und es erlauben, schnellen Prozeßzustandsänderungen zu folgen.
  • Die nach jedem n-ten Walzgutdurchlauf ermittelten Eingangsgrößen des Eingangsvektors x bilden zusammen mit dem gemessenen bzw. nachberechneten Prozeßparameter y, der als Bezugsgröße für den Vergleich mit der Antwort yNN dient, einen Datenpunkt, der in einer Speichereinrichtung 19 gespeichert wird. Auf der Grundlage einer aus mehreren gespeicherten Datenpunkten gegebenenfalls durch Clustern, Selektieren oder Mitteln gebildeten Trainingsdatenmenge wird in zyklischen Abständen ein Training des neuronalen Netzes 16 vorgenommen, wobei die Parameter p1 und p2 des neuronalen Netzes 16 mittels des Adaptionsalgorithmus 8 adaptiv verändert werden. Die Parameter p1 und p2 können dieselben oder teilweise oder ganz unterschiedlich sein. Wird das zyklisch wiederholte Training als Hintergrund-Training durchgeführt, kann auf der Basis beliebig großer Trainingsdatenmengen und mit zeitaufwendigen global optimierenden Lernalgorithmen gearbeitet werden.
  • Nach Abschluß eines Hintergrundtrainings wird das neuronale Netz 16 zuerst einer on-line Adaption mit zumindest einem Teil der der Trainingsdatenmenge zugrundeliegenden Datenpunkte unterzogen, bevor das neuronale Netz 16 wieder für die Steuerung der Anlage aktiviert wird und mit neuen Datenpunkten on-line weitertrainiert wird. So wird sichergestellt, daß sich das neuronale Netz nach dem globalen Hintergrundtraining sofort wieder an die aktuelle Tagesform der zu steuernden Anlage anpaßt.

Claims (15)

  1. Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz, mit dem der Prozeß gesteuert bzw. geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des aktuellen Prozesses bildet, und einem Hintergrundnetz, das während des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer bestimmten Lernzeit für das Hintergrundnetz oder aufgrund eines externen Ereignisses durch das Hintergrundnetz ersetzt wird.
  2. Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das Lernen während des Prozeßablaufs in zwei Lernphasen unterteilt, einer Initiallernphase und einer Betriebslernphase, erfolgt, wobei die Menge der Trainingsdaten, mit denen das neuronale Netz trainiert wird, in der Initiallernphase zunimmt und die Anzahl der Trainingsdaten in der Betriebslernphase weitgehend konstant bleibt.
  3. Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei sich die Menge der Trainingsdaten, mit denen das neuronale Netz trainiert wird, ändert, und wobei die Anzahl der Knoten des neuronalen Netzes an die Menge der Trainingsdaten angepaßt wird.
  4. Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz mit dem der Prozeß gesteuert und geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des aktuellen Prozesses bildet und einem Hintergrundnetz, das während des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer bestimmten Lernzeit für das Hintergrundnetz oder aufgrund eines externen Ereignisses durch das Hintergrundnetz ersetzt wird, wobei das Trainieren des Regel- bzw. Steuernetzes während des Prozeßablaufs in zwei Lernphasen unterteilt, einer Initiallernphase und einer Betriebslernphase, erfolgt, wobei die Menge der Trainingsdaten, mit denen das Hintergrundnetz trainiert wird, in der Initiallernphase zunimmt und die Menge der Trainingsdaten in der Betriebslernphase weitgehend konstant bleibt.
  5. Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz mit dem der Prozeß gesteuert und geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des aktuellen Prozesses bildet und einem Hintergrundnetz, das während des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer bestimmten Lernzeit für das Hintergrundnetz oder aufgrund eines externen Ereignisses durch das Hintergrundnetz ersetzt wird und wobei sich die Menge der Trainingsdaten, mit denen das Hintergrundnetz trainiert wird, ändert und die Anzahl der Knoten des Hintergrundnetzes an die Menge der Trainingsdaten angepaßt wird.
  6. Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das Lernen während des Prozeßablaufs in zwei Lernphasen unterteilt, einer Initiallernphase und einer Betriebslernphase, erfolgt, wobei die Menge der Trainingsdaten, mit denen das neuronale Netz trainiert wird, in der Initiallernphase zunimmt und die Menge der Trainingsdaten in der Betriebslernphase weitgehend konstant bleibt und wobei die Anzahl der Knoten des neuronalen Netzes in der Initiallernphase mit der Zunahme der Trainingsdaten zunimmt.
  7. Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz mit dem der Prozeß gesteuert und geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des aktuellen Prozesses bildet, und einem Hintergrundnetz, das während des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer bestimmten Lernzeit für das Hintergrundnetz oder aufgrund eines externen Ereignisses durch das Hintergrundnetz ersetzt wird und das Training des Regel- bzw. Steuernetzes während des Prozeßablaufs in zwei Lernphasen unterteilt, einer Initiallernphase und einer Betriebslernphase, erfolgt, wobei die Menge der Trainingsdaten, mit denen das Regel- bzw. Steuernetz trainiert wird, in der Betriebslernphase weitgehend konstant bleibt und in der Initiallernphase zunimmt und wobei die Anzahl der Knoten des Hintergrundnetzes in der Initiallernphase mit der Zunahme der Trainingsdaten zunimmt.
  8. Verfahren nach Anspruch 1, 4, 5 oder 7, dadurch gekennzeichnet, daß sich die Lernzeit für das Hintergrundnetz nach den Zeitkonstanten der Parameterveränderungen des Prozesses richtet.
  9. Verfahren nach Anspruch 1, 4, 5, 7 oder 8, dadurch gekennzeichnet, daß mehrere Hintergrundnetze gleichzeitig, aber zeitlich versetzt, trainiert werden.
  10. Verfahren nach Anspruch 1, 4, 5, 7, 8 oder 9, dadurch gekennzeichnet, daß ein Hintergrundnetz vor Übernahme von Steuer- und Regelungsaufgaben auf Plausibilität z.B. durch Durchlaufen eines speziellen Testdatensatzes oder durch parallelen Einsatz mit dem Regel- bzw. Steuernetz überprüft wird, wobei die Ausgänge der beiden Netze verglichen werden und einen bestimmten Toleranzwert nicht überschreiten dürfen.
  11. Verfahren nach Anspruch 1, 4, 5, 7, 8, 9 oder 10, dadurch gekennzeichnet, daß das Hintergrundnetz vor einem Ersetzen des Regel- bzw. Steuernetzes durch das Hintergrundnetz einem kurzen Training mit aktuellen Prozeßdaten unterzogen wird, so daß es an die aktuelle Tagesform der zu steuernden Anlage angepaßt ist.
  12. Verfahren nach Anspruch 3, 5, 6, 7, 8, 9, 10 oder 11, dadurch gekennzeichnet, daß das Anpassen der Anzahl von Knoten eines neuronalen Netzes in der Lernphase durch Einfügen von einzelnen Zusatzknoten und Entfernen von Knoten mit sehr geringem Gewicht erfolgt.
  13. Einrichtung zur Durchführung des Verfahrens nach einem oder mehreren der Ansprüche 1 bis 12, dadurch gekennzeichnet, daß sie eine Prozeßrecheneinheit aufweist.
  14. Einrichtung nach Anspruch 13, dadurch gekennzeichnet, daß die Prozeßrecheneinheit als Einchiprechner, z.B. als Mikrocontroller oder als Mehrchip rechner, insbesondere als ein Einplatinenrechner oder als ein Automatisierungsgerät, ausgebildet ist.
  15. Einrichtung nach Anspruch 14, dadurch gekennzeichnet, daß das Automatisierungsgerät als speicherprogrammierbare Steuerung, als VME-Bussystem oder als Industrie-PC ausgebildet ist.
DE19624301A 1995-07-27 1996-06-18 Lernverfahren für ein neuronales Netz Expired - Fee Related DE19624301B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE19624301A DE19624301B4 (de) 1996-06-18 1996-06-18 Lernverfahren für ein neuronales Netz
US08/686,792 US6745169B1 (en) 1995-07-27 1996-07-26 Learning process for a neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19624301A DE19624301B4 (de) 1996-06-18 1996-06-18 Lernverfahren für ein neuronales Netz

Publications (2)

Publication Number Publication Date
DE19624301A1 DE19624301A1 (de) 1998-01-08
DE19624301B4 true DE19624301B4 (de) 2006-08-17

Family

ID=7797272

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19624301A Expired - Fee Related DE19624301B4 (de) 1995-07-27 1996-06-18 Lernverfahren für ein neuronales Netz

Country Status (1)

Country Link
DE (1) DE19624301B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11447935B2 (en) 2019-04-30 2022-09-20 Deere & Company Camera-based boom control

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1408384B1 (de) * 2002-10-09 2006-05-17 STMicroelectronics S.r.l. Anordnung zur Steuerung des Betriebs eines physikalischen Systems wie zum Beispiel einer Brennstoffzelle in elektrischen Fahrzeugen
FI20116256A (fi) * 2011-12-09 2013-06-10 Waertsilae Finland Oy Menetelmä ja järjestely kiinteän oksidin kennon toimintaolosuhteiden ilmaisemiseksi
FI20116257A (fi) * 2011-12-09 2013-06-10 Waertsilae Finland Oy Menetelmä ja järjestely kiinteän oksidin kennojen toimintaolosuhteiden diagnoosia varten

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0609999A1 (de) * 1993-02-01 1994-08-10 AT&T Corp. Differentialprozessregelung mit künstlichen neuronalen Netzwerken
DE4416364A1 (de) * 1993-05-17 1994-11-24 Siemens Ag Verfahren und Regeleinrichtung zur Regelung eines Prozesses
US5396415A (en) * 1992-01-31 1995-03-07 Honeywell Inc. Neruo-pid controller

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5396415A (en) * 1992-01-31 1995-03-07 Honeywell Inc. Neruo-pid controller
EP0609999A1 (de) * 1993-02-01 1994-08-10 AT&T Corp. Differentialprozessregelung mit künstlichen neuronalen Netzwerken
DE4416364A1 (de) * 1993-05-17 1994-11-24 Siemens Ag Verfahren und Regeleinrichtung zur Regelung eines Prozesses

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Automatica, Bd. 28, Nr. 6, S. 1083-1084, 1992 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11447935B2 (en) 2019-04-30 2022-09-20 Deere & Company Camera-based boom control

Also Published As

Publication number Publication date
DE19624301A1 (de) 1998-01-08

Similar Documents

Publication Publication Date Title
DE2735012C2 (de)
DE102007042440B3 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102007001025B4 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102004026979B4 (de) Vielfacheingabe- /Vielfachausgabe-Steuer-/Regelblöcke mit nichtlinearen Vorhersagefähigkeiten
DE10197407B4 (de) Adaptiver rückgekoppelter/vorwärtsgekoppelter PID-Controller
EP2376783B1 (de) Simulationsgestütztes verfahren zur steuerung bzw. regelung von druckluftstationen
DE69720897T2 (de) Steuervorrichtung für Wasserverteilungsanlage
CH687047A5 (de) Verfahren zur Regelung einer Arbeitsmaschine
EP0663632B1 (de) Verfahren und Vorrichtung zur Führung eines Prozesses
DE19702951A1 (de) Verfahren und Vorrichtung zur Steuerung der Nitrifikations- und Denitrifikationsphase
US6745169B1 (en) Learning process for a neural network
DE4131765A1 (de) Regelparameter-verbesserungsverfahren fuer industrielle anlagen
EP0531712B1 (de) Regler, insbesondere Flugregler
DE19624301B4 (de) Lernverfahren für ein neuronales Netz
WO2021259980A1 (de) Training eines künstlichen neuronalen netzwerkes, künstliches neuronales netzwerk, verwendung, computerprogramm, speichermedium und vorrichtung
DE69126052T2 (de) Neuronales Netzwerk
DE69808779T2 (de) Verfahren zum vermeiden von windup in pid-reglern durch nichtlineare verstärkung
EP3542229B1 (de) Einrichtung und verfahren zur bestimmung der parameter einer regeleinrichtung
DE102019206541A1 (de) Verfahren zum Durchführen von computerunterstützten XiL-Simulationen
DE19527521C1 (de) Lernverfahren für ein neuronales Netz
EP0813986A2 (de) Verfahren zur Abstandsregelung für ein Fahrzeug
DE10041439B4 (de) Automatische Abstimmungseinrichtung für einen Regelkreis basierend auf nicht linearen Schätzern der Abstimmregeln
EP1542102A1 (de) Verfahren und Vorrichtung zur suboptimalen Regelung mittels einer Suchstrategie und Verfahren und Vorrichtung zur Gaszerlegung, insbesondere zur Tieftemperatur-Luftzerlegung
DE4323432C2 (de) Spannungs- und Blindleistungsregler für ein Stromsystem auf der Basis neuronaler Netzwerke
DE3500482A1 (de) Verfahren und einrichtung zur steuerung der fuehrungsgroesse einer zwei regler aufweisenden regeleinrichtung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20130101