DE19624301B4 - Lernverfahren für ein neuronales Netz - Google Patents
Lernverfahren für ein neuronales Netz Download PDFInfo
- Publication number
- DE19624301B4 DE19624301B4 DE19624301A DE19624301A DE19624301B4 DE 19624301 B4 DE19624301 B4 DE 19624301B4 DE 19624301 A DE19624301 A DE 19624301A DE 19624301 A DE19624301 A DE 19624301A DE 19624301 B4 DE19624301 B4 DE 19624301B4
- Authority
- DE
- Germany
- Prior art keywords
- network
- neural network
- learning
- trained
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B21—MECHANICAL METAL-WORKING WITHOUT ESSENTIALLY REMOVING MATERIAL; PUNCHING METAL
- B21B—ROLLING OF METAL
- B21B37/00—Control devices or methods specially adapted for metal-rolling mills or the work produced thereby
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Automation & Control Theory (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Mechanical Engineering (AREA)
- Feedback Control In General (AREA)
Abstract
Lernverfahren
für ein
neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen,
Prozesses mit sich zeitlich verändernden
Parametern, wobei das neuronale Netz in zumindest zwei Ausführungen,
einem Regel- bzw. Steuernetz, mit dem der Prozeß gesteuert bzw. geregelt wird
und das mit aktuellen Prozeßdaten
derart trainiert wird, daß es
ein Abbild des aktuellen Prozesses bildet, und einem Hintergrundnetz,
das während des
Betriebes mit repräsentativen
Prozeßdaten
derart trainiert wird, daß es
ein Abbild des Prozesses über
einen längeren
Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel-
bzw. Steuernetz nach Ablauf einer bestimmten Lernzeit für das Hintergrundnetz
oder aufgrund eines externen Ereignisses durch das Hintergrundnetz
ersetzt wird.
Description
- Die Erfindung geht aus von Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines insbesondere industriellen Prozesses mit sich zeitlich verändernden Parametern.
- Neuronale Netze müssen, bevor sie ihre Generalisierungsfähigkeit erhalten, zunächst mit Lern- oder Trainingsdaten trainiert werden. Das Sammeln dieser Trainingsdaten ist oft langwierig und mit hohem Aufwand verbunden.
- Ein Beispiel hierfür ist das aus der DE-OS 44 16 364 bekannte neuronale Netz, das aus einer Vielzahl von ihm zugeführten vorausberechneten Eingangsgrößen als Netzwerkantwort einen Prozeßparameter berechnet, der zur Voreinstellung eines Systems zur Regelung eines technischen Prozesses dient. So wird z.B. bei einem Walzprozeß ein Vorhersagewert für die Walzkraft in Abhängigkeit von der Walzguttemperatur, der Dickenabnahme und anderen material- und anlagenspezifischen Eingangsgrößen berechnet. Der von dem neuronalen Netz nachgebildete Zusammenhang zwischen der Walzkraft und den Eingangsgrößen wird on-line nach jedem Prozeßablauf, also nach jedem Walzgutdurchlauf, an das reale Prozeßgeschehen angepaßt. Dazu werden die während des Prozeßablaufs gemessenen und anschließend nachberechneten Eingangsgrößen und die Walzkraft in einem Datenpunkt zusammengefaßt, der dann zur Adaption von Parametern des neuronalen Netzes herangezogen wird. Die Adaption erfolgt mit jedem neu ermittelten Datenpunkt, also online. Die Adaption muß sich durch eine besondere Stabilität auszeichnen, da sie häufig direkt und ohne Überwachung durch einen Fachmann auf der prozeßausführenden Anlage durchgeführt wird. Daher werden beim on-line Training nur unkritische Parameter des neuronalen Netzes adaptiert, wobei Adaptionsalgorithmen und Netzstrukturen verwendet werden, die eine Stabilität des Verfahrens gewährleisten; z.B. Minimierung der quadratischen Fehlerfunktion zwischen der Netzwerkantwort und der nachberechneten Walzkraft, wobei die Fehlerfunktion vorzugsweise nur ein globales Minimum, aber keine lokalen Minima aufweist.
- Damit das bekannte neuronale Netz bereits zu Beginn des online-Trainings zumindest annähernd sinnvolle Walzkraftwerte vorhersagt, kann es anhand eines die Walzkraft in Abhängigkeit von zufällig vorgegebenen Eingangsgrößen berechnenden Walzkraftmodells vortrainiert werden. Steht ein derartiges Modell nicht zur Verfügung, so kann das für das Vortraining nötige Vorwissen durch das Sammeln von Trainingsdaten beispielsweise auf vergleichbaren Anlagen erworben und in das neuronale Netz eingebracht werden.
- Aus der
US 5,396,415 ist der Einsatz eines neuronalen Netzes zur Regelung bekannt, wobei dem neuronalen Netz die Eingangssignale eines PID-Reglers zugeführt werden, wobei ein Nutzer wahlweise das neuronale Netz oder den konventionellen PID-Regler als Regelungsvorrichtung auswählen kann. - Die
EP 0 609 999 A1 offenbart die Verwendung künstlicher neuronaler Netzwerke zur Regelung eines Prozesses, wobei zwei in ihrer Struktur und Funktionsweise identische neuronale Netze zur Regelung eines Prozesses eingesetzt werden. - K.J. Hunt et al beschreiben in "Neural Networks for Control Systems – A Survey", Automatika, Vol. 28, Nr. 6, S. 1083–1112, Großbritannien, 1992, verschiedene Eigenschaften von neuronalen Netzwerken, wobei auch die On-line-Adaption von neuronalen Netzwerken offenbart ist.
- Der Erfindung liegt die Aufgabe zugrunde, einen Prozeß mit sich zeitlich verändernden Parametern in bezug auf die Qualität hochwertig zu steuern und zu regeln. Dabei ist es insbesondere bei der Neuinbetriebnahme einer Anlage oder wesentlichen Veränderungen einer bestehenden Anlage, die mit neurona len Netzen gesteuert wird, wünschenswert, das neuronale Netz in die Lage zu versetzen, ohne Vortraining direkt auf der Anlage bereits nach wenigen Datenpunkten ein sinnvolles Verhalten zu zeigen. Das gleiche gilt beim Umrüsten einer bestehenden Anlage, wenn auf eine vorherige Sammlung von Daten verzichtet werden soll. Ferner sollen Langzeitdriften der Anlage erkannt und kompensiert werden.
- Die Aufgabe wird durch ein Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines insbesondere industriellen Prozesses mit sich zeitlich verändernden Parametern gelöst, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz, mit dem der Prozeß gesteuert und geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des aktuellen Prozesses bildet, und einem Hintergrundnetz, das während des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer bestimmten Lernzeit für das Hintergrundnetz oder aufgrund eines externen Ereignisses durch das Hintergrundnetz ersetzt wird.
- Eine weitere Lösung stellt ein Lernverfahren dar, bei dem das Lernen während des Prozeßablaufs in zwei Lernphasen unterteilt ist, eine Initiallernphase und eine Betriebslernphase, wobei die Menge der Trainingsdaten, mit denen das neuronale Netz trainiert wird, in der Initiallernphase wächst und die Menge der Trainingsdaten in der Betriebslernphase weitgehend konstant bleibt.
- Die Aufgabe wird weiterhin durch das in Patentanspruch 3 angehende Lernverfahren gelöst.
- Besonders vorteilhafte Lösungen der Aufgabe stellen die in den Patentansprüchen 4 bis 7 angegebenen Lernverfahren dar.
- Weitere Vorteile und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen, anhand der Zeichnungen und in Verbindung mit den Unteransprüchen. Im einzelnen zeigen:
-
1 einen Trainingsablauf eines neuronalen Netzes -
2 verschiedene Lernphasen eines neuronalen Netzes -
3 und4 Beispiele für die bei der zyklisch wiederholten Adaption verwendete Trainingsdatenmenge, -
5 ein Beispiel für die Trainingsdatenmenge beim Lernen mit exponentiellem Vergessen und -
6 ein Beispiel für den typischen Fehlerverlauf bei dem erfindungsgemäßen Lernverfahren im Vergleich zu einem Referenz-Lernverfahren, -
7 ein adaptiv angepaßtes neuronales Netz -
1 zeigt den Trainingsablauf eines neuronalen Netzes für die Steuerung und Regelung eines Prozesses bzw. einer Anlage. Das entsprechende neuronale Netz ist in zumindest zwei Ausführungen ausgeführt, einem Regel- bzw. Steuernetz, mit dem der Prozeß gesteuert und geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des aktuellen Prozesses bildet, und einem Hintergrundnetz, das während des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet. Das Regel- bzw. Steuernetz befindet sich in einem Zustand5 , in dem es den Prozeßablauf regelt bzw. steuert. Gleichzeitig befindet sich das Hintergrundnetz im Training1 . Beim Abschluß2 des Trainings1 des Hintergrundnetzes wird es einer Plausibilitätskontrolle3 unterzogen. Bei einer positiven Plausibilitätskontrolle wird das Regel- und Steuernetz durch das plausible Hintergrundnetz ersetzt. Während das alte Hintergrundnetz als neues Regel- bzw. Steuernetz den Prozeßablauf regelt oder steuert, wird durch weiteres Training1 ein neues Hintergrundnetz erzeugt. Das Training eines Hintergrundnetzes kann ständig oder zeitweise erfolgen, wenn ein neues Regel- bzw. Steuernetz benötigt wird. Anstoß für ein neues Hintergrundtraining kann das Verstreichen einer definierten Zeit oder ein externes Ereignis, wie z.B. das Walzen eines Walzbandes aus neuem Material sein. Ausgangsbasis für ein neues Hintergrundnetz kann ein untrainiertes Rohnetz, ein Regel- bzw. Steuernetz oder ein altes Hintergrundnetz sein. -
2 zeigt drei verschiedene Trainingsphasen in bezug auf das beansprucht Lernverfahren für ein neuronales Netz. Die einzelnen Phasen sind eine Vorbetriebstrainingsphase7 , eine Initiallernphase8 und eine Betriebslernphase9 . In der Vorbetriebslernphase wird das neuronale Netz, das zur Regelung bzw. Steuerung eines vorteilhafterweise industriellen Prozesses eingesetzt werden soll, vorab trainiert. In der Vorbetriebslernphase7 ist es möglich, durch entsprechende Daten aus anderen, bereits in Betrieb befindlichen Anlagen die Erfahrungen, die in diesen Anlagen gesammelt wurden, zu berücksichtigen. Auf die Vorbetriebslernphase7 kann jedoch beim Lernverfahren verzichtet werden. In diesem Fall reicht das durch Datensammlung an der aktuellen Anlage akkumulierte Wissen zum Training des neuronalen Netzes aus. Der Vorbetriebslernphase folgen zwei weitere Lernphasen, die Initiallernphase8 und die Betriebslernphase9 , die während des Prozessablaufs erfolgen. Wird auf die Vorbetriebslernphase7 verzichtet, so existieren nur die beiden Lernphasen Initiallernphase8 und Betriebslernphase9 . Die Initiallernphase8 ist dadurch gekennzeichnet, daß die Datenbasis der Trainingsdaten anwächst, während die Datenmenge zum Training des neuronalen Netzes in der Betriebslernphase9 weitgehend konstant bleibt. Im vorliegenden Ausführungsbeispiel wächst in der Initiallernphase8 nicht nur die zum Training verwendete Datenbasis, sondern auch das trainierte neuronale Netz selbst. Das heißt, die Anzahl der Knoten in den verdeckten Ebenen bzw. der verdeckten Ebene vergrößert sich. - Diese beiden unterschiedlichen Lernphasen während des Betriebs, die Initial- und die Betriebslernphase, sind in
3 verdeutlicht, in der die Anzahl der zum zyklischen Training des neuronalen Netzes1 verwendeten Datenpunkte in Abhängigkeit von dem Beitrag dieser Datenpunkte zum Training aufgetragen sind. Während der Initiallernphase7 erfolgt das zyklisch wiederholte Training mit einer stetig wachsenden Trainingsdatenmenge15 , wobei jedesmal alle von Beginn des Lernverfahrens an gespeicherten Datenpunkte verwendet werden. Die Häufigkeit des zyklisch wiederholten Trainings ist ein für die vorgegebene Anwendung zu optimierender Parameter, wobei z.B. nach jedem neuen Datenpunkt, nach einem vorgegebenen prozentualen Anwachsen der Trainingsdatenmenge oder, wenn die Abweichung zwischen den Ausgangsgrößen des neuronalen Netzes und ihren richtigen Werten einen bestimmten Wert übersteigt, eine erneute Adaption erfolgt. Darüberhinaus läßt sich die Größe des neuronalen Netzes in Abhängigkeit von der Größe der vorliegenden Trainingsdatenmenge verändern, wobei mit einem kleinen neuronalen Netz begonnen wird, das im Laufe der Zeit langsam vergrößert wird. Die Festlegung der Netzgröße erfolgt z.B. durch Methoden der "Cross-Validation" oder andere Heuristiken, wie Residualfehler im Eingangsraum. - Nach einer vorgegebenen Zeit oder, wenn die Trainingsdatenmenge einen vorgegebenen Wert NF erreicht, beginnt die Betriebslernphase, in der die Trainingsdatenmenge
10 konstant gehalten wird. Die Größe NF kann statisch sein oder dynamisch beispielsweise durch Techniken der Cross-Validation festgelegt werden. Die Häufigkeit der zyklisch erfolgenden Adaption sowie die Größe des neuronalen Netzes1 ist entweder konstant oder wird auf ähnliche Weise bestimmt, wie in der Initiallernphase. - Zu Beginn der Inbetriebnahme einer neuronal gesteuerten Anlage werden in der Regel noch sehr viele Anlagenparameter verändert, um die Anlage zu optimieren. Das suboptimale Verhalten direkt nach der Inbetriebnahme sollte aber von dem neuronalen Netz
1 möglichst wieder vergessen werden. Deshalb ist entsprechend der Darstellung in4 vorgesehen, die in der Initiallernphase7 ständig wachsende Trainingsdatenmenge11 nicht komplett zu verwenden, sondern die ältesten Datenpunkte sukzessive zu vergessen. Das Wachstum der Trainingsdatenmenge11 hat dabei natürlich schneller zu erfolgen als das Vergessen. Die Geschwindigkeit des Vergessens kann in Form eines konstanten Bruchteils der Wachstumsrate der Trainingsdatenmenge11 , in Abhängigkeit von der Abweichung zwischen den Ausgangsgrößen des neuronalen Netzes und ihren richtigen Werten oder in Abhängigkeit von dem Expertenwissen des Inbetriebnehmers festgelegt werden. -
5 zeigt ein Beispiel für eine exponentiell abfallende "natürliche" Vergessensfunktion einer Trainingsdatenmenge12 , die dadurch zustande kommt, daß die Datenpunkte in der Trainingsdatenmenge12 mit zunehmendem Alter mit einem immer geringeren Gewichtsfaktor gewichtet werden. - In
6 ist für das Lernverfahren der typische Fehlerverlauf13 des Residualfehlers F des neuronalen Netzes1 in Abhängigkeit von der Anzahl der zur Verfügung stehenden Datenpunkte N im Vergleich zu dem Fehlerverlauf14 eines Referenz-Lernverfahrens, hier Vererbungsdatei mit analytischem Modell im eingeschwungenen Zustand, aufgezeigt. -
7 zeigt ein neuronales Netz16 , dem eine Mehrzahl von in einem Eingangsvektor x zusammengefaßten Eingangsgrößen zugeführt wird und das in Abhängigkeit davon eine, gegebenenfalls ebenfalls mehrdimensionale, Antwort yNN erzeugt. Die Antwort yNN ist von einstellbaren Parametern p1 und/oder p2 des neuronalen Netzes16 abhängig. Das neuronale Netz16 dient bei dem gezeigten Ausführungsbeispiel dazu, den Zusammenhang zwischen Einflußgrößen eines technischen Prozesses, die durch den Eingangsvektor x repräsentiert werden, und einem Prozeßparameter y, repräsentiert durch die Antwort yNN, nachzubilden. Ein Beispiel hierfür ist die Vorhersage der Walzkraft in einem Walzprozeß in Abhängigkeit von material- und anlagenspezifischen Einflußgrößen, wie unter anderem der Walzguttemperatur, der Walzgutfestigkeit, der Walzgutdicke und der Dickenabnahme. - Um den nachzubildenden Zusammenhang zu lernen, und das neuronale Netz
16 an das tatsächliche Prozeßgeschehen anzupassen, werden die Parameter p1 und/oder p2 des neuronalen Netzes16 mit Hilfe von Adaptionsalgorithmen17 und18 im Sinne einer Verringerung des Fehlers zwischen der von dem neuronalen Netz16 gelieferten Antwort yNN und dem tatsächlichen Wert des Prozeßparameters y verändert. - Dabei erfolgt nach jedem n-ten (n ≥ 1) Prozeßablauf, also nach jedem Walzgutdurchlauf, mittels des Adaptionsalgorithmus
17 eine on-line-Adaption, indem die während des erfolgten aktuellen Prozeßablaufs gemessenen und nachberechneten Einflußgrößen xnach dem neuronalen Netz16 aufgegeben werden und die daraus resultierende Antwort yNN mit dem ebenfalls gemessenen oder nachberechneten Prozeßparameter y verglichen wird. Nicht plausible Werte oder Meßfehler werden durch die Nachberechnung ausgeschieden. In Abhängigkeit von dem dabei ermittelten Fehler y-yNN werden ausgewählte Parameter p1 des neuronalen Netzes16 im Sinne einer Fehlerverringerung verändert. Dabei werden unkritische Parameter p1 und solche Adaptionsalgorithmen gewählt, die eine Stabilität der on-line-Adaption gewährleisten und es erlauben, schnellen Prozeßzustandsänderungen zu folgen. - Die nach jedem n-ten Walzgutdurchlauf ermittelten Eingangsgrößen des Eingangsvektors x bilden zusammen mit dem gemessenen bzw. nachberechneten Prozeßparameter y, der als Bezugsgröße für den Vergleich mit der Antwort yNN dient, einen Datenpunkt, der in einer Speichereinrichtung
19 gespeichert wird. Auf der Grundlage einer aus mehreren gespeicherten Datenpunkten gegebenenfalls durch Clustern, Selektieren oder Mitteln gebildeten Trainingsdatenmenge wird in zyklischen Abständen ein Training des neuronalen Netzes16 vorgenommen, wobei die Parameter p1 und p2 des neuronalen Netzes16 mittels des Adaptionsalgorithmus8 adaptiv verändert werden. Die Parameter p1 und p2 können dieselben oder teilweise oder ganz unterschiedlich sein. Wird das zyklisch wiederholte Training als Hintergrund-Training durchgeführt, kann auf der Basis beliebig großer Trainingsdatenmengen und mit zeitaufwendigen global optimierenden Lernalgorithmen gearbeitet werden. - Nach Abschluß eines Hintergrundtrainings wird das neuronale Netz
16 zuerst einer on-line Adaption mit zumindest einem Teil der der Trainingsdatenmenge zugrundeliegenden Datenpunkte unterzogen, bevor das neuronale Netz16 wieder für die Steuerung der Anlage aktiviert wird und mit neuen Datenpunkten on-line weitertrainiert wird. So wird sichergestellt, daß sich das neuronale Netz nach dem globalen Hintergrundtraining sofort wieder an die aktuelle Tagesform der zu steuernden Anlage anpaßt.
Claims (15)
- Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz, mit dem der Prozeß gesteuert bzw. geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des aktuellen Prozesses bildet, und einem Hintergrundnetz, das während des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer bestimmten Lernzeit für das Hintergrundnetz oder aufgrund eines externen Ereignisses durch das Hintergrundnetz ersetzt wird.
- Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das Lernen während des Prozeßablaufs in zwei Lernphasen unterteilt, einer Initiallernphase und einer Betriebslernphase, erfolgt, wobei die Menge der Trainingsdaten, mit denen das neuronale Netz trainiert wird, in der Initiallernphase zunimmt und die Anzahl der Trainingsdaten in der Betriebslernphase weitgehend konstant bleibt.
- Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei sich die Menge der Trainingsdaten, mit denen das neuronale Netz trainiert wird, ändert, und wobei die Anzahl der Knoten des neuronalen Netzes an die Menge der Trainingsdaten angepaßt wird.
- Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz mit dem der Prozeß gesteuert und geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des aktuellen Prozesses bildet und einem Hintergrundnetz, das während des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer bestimmten Lernzeit für das Hintergrundnetz oder aufgrund eines externen Ereignisses durch das Hintergrundnetz ersetzt wird, wobei das Trainieren des Regel- bzw. Steuernetzes während des Prozeßablaufs in zwei Lernphasen unterteilt, einer Initiallernphase und einer Betriebslernphase, erfolgt, wobei die Menge der Trainingsdaten, mit denen das Hintergrundnetz trainiert wird, in der Initiallernphase zunimmt und die Menge der Trainingsdaten in der Betriebslernphase weitgehend konstant bleibt.
- Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz mit dem der Prozeß gesteuert und geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des aktuellen Prozesses bildet und einem Hintergrundnetz, das während des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer bestimmten Lernzeit für das Hintergrundnetz oder aufgrund eines externen Ereignisses durch das Hintergrundnetz ersetzt wird und wobei sich die Menge der Trainingsdaten, mit denen das Hintergrundnetz trainiert wird, ändert und die Anzahl der Knoten des Hintergrundnetzes an die Menge der Trainingsdaten angepaßt wird.
- Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das Lernen während des Prozeßablaufs in zwei Lernphasen unterteilt, einer Initiallernphase und einer Betriebslernphase, erfolgt, wobei die Menge der Trainingsdaten, mit denen das neuronale Netz trainiert wird, in der Initiallernphase zunimmt und die Menge der Trainingsdaten in der Betriebslernphase weitgehend konstant bleibt und wobei die Anzahl der Knoten des neuronalen Netzes in der Initiallernphase mit der Zunahme der Trainingsdaten zunimmt.
- Lernverfahren für ein neuronales Netz zum Regeln oder Steuern eines, insbesondere industriellen, Prozesses mit sich zeitlich verändernden Parametern, wobei das neuronale Netz in zumindest zwei Ausführungen, einem Regel- bzw. Steuernetz mit dem der Prozeß gesteuert und geregelt wird und das mit aktuellen Prozeßdaten derart trainiert wird, daß es ein Abbild des aktuellen Prozesses bildet, und einem Hintergrundnetz, das während des Betriebes mit repräsentativen Prozeßdaten derart trainiert wird, daß es ein Abbild des Prozesses über einen längeren Zeitraum gemittelt bildet, ausgeführt wird, wobei das Regel- bzw. Steuernetz nach Ablauf einer bestimmten Lernzeit für das Hintergrundnetz oder aufgrund eines externen Ereignisses durch das Hintergrundnetz ersetzt wird und das Training des Regel- bzw. Steuernetzes während des Prozeßablaufs in zwei Lernphasen unterteilt, einer Initiallernphase und einer Betriebslernphase, erfolgt, wobei die Menge der Trainingsdaten, mit denen das Regel- bzw. Steuernetz trainiert wird, in der Betriebslernphase weitgehend konstant bleibt und in der Initiallernphase zunimmt und wobei die Anzahl der Knoten des Hintergrundnetzes in der Initiallernphase mit der Zunahme der Trainingsdaten zunimmt.
- Verfahren nach Anspruch 1, 4, 5 oder 7, dadurch gekennzeichnet, daß sich die Lernzeit für das Hintergrundnetz nach den Zeitkonstanten der Parameterveränderungen des Prozesses richtet.
- Verfahren nach Anspruch 1, 4, 5, 7 oder 8, dadurch gekennzeichnet, daß mehrere Hintergrundnetze gleichzeitig, aber zeitlich versetzt, trainiert werden.
- Verfahren nach Anspruch 1, 4, 5, 7, 8 oder 9, dadurch gekennzeichnet, daß ein Hintergrundnetz vor Übernahme von Steuer- und Regelungsaufgaben auf Plausibilität z.B. durch Durchlaufen eines speziellen Testdatensatzes oder durch parallelen Einsatz mit dem Regel- bzw. Steuernetz überprüft wird, wobei die Ausgänge der beiden Netze verglichen werden und einen bestimmten Toleranzwert nicht überschreiten dürfen.
- Verfahren nach Anspruch 1, 4, 5, 7, 8, 9 oder 10, dadurch gekennzeichnet, daß das Hintergrundnetz vor einem Ersetzen des Regel- bzw. Steuernetzes durch das Hintergrundnetz einem kurzen Training mit aktuellen Prozeßdaten unterzogen wird, so daß es an die aktuelle Tagesform der zu steuernden Anlage angepaßt ist.
- Verfahren nach Anspruch 3, 5, 6, 7, 8, 9, 10 oder 11, dadurch gekennzeichnet, daß das Anpassen der Anzahl von Knoten eines neuronalen Netzes in der Lernphase durch Einfügen von einzelnen Zusatzknoten und Entfernen von Knoten mit sehr geringem Gewicht erfolgt.
- Einrichtung zur Durchführung des Verfahrens nach einem oder mehreren der Ansprüche 1 bis 12, dadurch gekennzeichnet, daß sie eine Prozeßrecheneinheit aufweist.
- Einrichtung nach Anspruch 13, dadurch gekennzeichnet, daß die Prozeßrecheneinheit als Einchiprechner, z.B. als Mikrocontroller oder als Mehrchip rechner, insbesondere als ein Einplatinenrechner oder als ein Automatisierungsgerät, ausgebildet ist.
- Einrichtung nach Anspruch 14, dadurch gekennzeichnet, daß das Automatisierungsgerät als speicherprogrammierbare Steuerung, als VME-Bussystem oder als Industrie-PC ausgebildet ist.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19624301A DE19624301B4 (de) | 1996-06-18 | 1996-06-18 | Lernverfahren für ein neuronales Netz |
US08/686,792 US6745169B1 (en) | 1995-07-27 | 1996-07-26 | Learning process for a neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19624301A DE19624301B4 (de) | 1996-06-18 | 1996-06-18 | Lernverfahren für ein neuronales Netz |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19624301A1 DE19624301A1 (de) | 1998-01-08 |
DE19624301B4 true DE19624301B4 (de) | 2006-08-17 |
Family
ID=7797272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19624301A Expired - Fee Related DE19624301B4 (de) | 1995-07-27 | 1996-06-18 | Lernverfahren für ein neuronales Netz |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19624301B4 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11447935B2 (en) | 2019-04-30 | 2022-09-20 | Deere & Company | Camera-based boom control |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1408384B1 (de) * | 2002-10-09 | 2006-05-17 | STMicroelectronics S.r.l. | Anordnung zur Steuerung des Betriebs eines physikalischen Systems wie zum Beispiel einer Brennstoffzelle in elektrischen Fahrzeugen |
FI20116256A (fi) * | 2011-12-09 | 2013-06-10 | Waertsilae Finland Oy | Menetelmä ja järjestely kiinteän oksidin kennon toimintaolosuhteiden ilmaisemiseksi |
FI20116257A (fi) * | 2011-12-09 | 2013-06-10 | Waertsilae Finland Oy | Menetelmä ja järjestely kiinteän oksidin kennojen toimintaolosuhteiden diagnoosia varten |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0609999A1 (de) * | 1993-02-01 | 1994-08-10 | AT&T Corp. | Differentialprozessregelung mit künstlichen neuronalen Netzwerken |
DE4416364A1 (de) * | 1993-05-17 | 1994-11-24 | Siemens Ag | Verfahren und Regeleinrichtung zur Regelung eines Prozesses |
US5396415A (en) * | 1992-01-31 | 1995-03-07 | Honeywell Inc. | Neruo-pid controller |
-
1996
- 1996-06-18 DE DE19624301A patent/DE19624301B4/de not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5396415A (en) * | 1992-01-31 | 1995-03-07 | Honeywell Inc. | Neruo-pid controller |
EP0609999A1 (de) * | 1993-02-01 | 1994-08-10 | AT&T Corp. | Differentialprozessregelung mit künstlichen neuronalen Netzwerken |
DE4416364A1 (de) * | 1993-05-17 | 1994-11-24 | Siemens Ag | Verfahren und Regeleinrichtung zur Regelung eines Prozesses |
Non-Patent Citations (1)
Title |
---|
Automatica, Bd. 28, Nr. 6, S. 1083-1084, 1992 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11447935B2 (en) | 2019-04-30 | 2022-09-20 | Deere & Company | Camera-based boom control |
Also Published As
Publication number | Publication date |
---|---|
DE19624301A1 (de) | 1998-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE2735012C2 (de) | ||
DE102007042440B3 (de) | Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems | |
DE102007001025B4 (de) | Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems | |
DE102004026979B4 (de) | Vielfacheingabe- /Vielfachausgabe-Steuer-/Regelblöcke mit nichtlinearen Vorhersagefähigkeiten | |
DE10197407B4 (de) | Adaptiver rückgekoppelter/vorwärtsgekoppelter PID-Controller | |
EP2376783B1 (de) | Simulationsgestütztes verfahren zur steuerung bzw. regelung von druckluftstationen | |
DE69720897T2 (de) | Steuervorrichtung für Wasserverteilungsanlage | |
CH687047A5 (de) | Verfahren zur Regelung einer Arbeitsmaschine | |
EP0663632B1 (de) | Verfahren und Vorrichtung zur Führung eines Prozesses | |
DE19702951A1 (de) | Verfahren und Vorrichtung zur Steuerung der Nitrifikations- und Denitrifikationsphase | |
US6745169B1 (en) | Learning process for a neural network | |
DE4131765A1 (de) | Regelparameter-verbesserungsverfahren fuer industrielle anlagen | |
EP0531712B1 (de) | Regler, insbesondere Flugregler | |
DE19624301B4 (de) | Lernverfahren für ein neuronales Netz | |
WO2021259980A1 (de) | Training eines künstlichen neuronalen netzwerkes, künstliches neuronales netzwerk, verwendung, computerprogramm, speichermedium und vorrichtung | |
DE69126052T2 (de) | Neuronales Netzwerk | |
DE69808779T2 (de) | Verfahren zum vermeiden von windup in pid-reglern durch nichtlineare verstärkung | |
EP3542229B1 (de) | Einrichtung und verfahren zur bestimmung der parameter einer regeleinrichtung | |
DE102019206541A1 (de) | Verfahren zum Durchführen von computerunterstützten XiL-Simulationen | |
DE19527521C1 (de) | Lernverfahren für ein neuronales Netz | |
EP0813986A2 (de) | Verfahren zur Abstandsregelung für ein Fahrzeug | |
DE10041439B4 (de) | Automatische Abstimmungseinrichtung für einen Regelkreis basierend auf nicht linearen Schätzern der Abstimmregeln | |
EP1542102A1 (de) | Verfahren und Vorrichtung zur suboptimalen Regelung mittels einer Suchstrategie und Verfahren und Vorrichtung zur Gaszerlegung, insbesondere zur Tieftemperatur-Luftzerlegung | |
DE4323432C2 (de) | Spannungs- und Blindleistungsregler für ein Stromsystem auf der Basis neuronaler Netzwerke | |
DE3500482A1 (de) | Verfahren und einrichtung zur steuerung der fuehrungsgroesse einer zwei regler aufweisenden regeleinrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20130101 |