Beschreibung
Verfahren, Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Prognose eines Brennkammerzustandes unter Verwendung eines rekurrenten, neuronalen Netzes
Die Erfindung betrifft im Allgemeinen eine Analyse eines Brennkammerzustandes .
Aus [1] ist eine Analyse eines Brennkammerzustands, insbesondere eine Analyse von Einflussgrößen auf einen Brennkammerzustand bzw. Brennvorgang in einer Brennkammer, bekannt.
Bei dieser aus [1] bekannten Analyse werden lineare Methoden, wie eine Regressionsanalyse, verwendet, um Abhängigkeiten zwischen den Einflussgrößen und deren Einflussnahme auf den Brennvorgang zu untersuchen.
Da allerdings ein in einer Brennkammer ablaufender Brennvor- gang ein komplexer, nicht linearen Abhängigkeiten von Einflussfaktoren gehorchender Prozess ist, liefern solche "linearen" Analyseverfahren, wie aus [1], keine zuverlässigen und hinreichend genauen Ergebnisse hinsichtlich des Einflusses von Einflussgrößen auf den Brennvorgang.
Aus [2] ist eine weiterführende Analyse eines Brennkammerzustands und eines Brennvorgangs in einer Brennkammer einer Gasturbine, einer sogenannte Ringbrennkammer-Gasturbine V84.3A, bekannt.
Ferner ist aus [2] ein Auftreten von Schwingungen bzw. Vibrationen bei einem Brennvorgang in einer Brennkammer einer Gasturbine, in diesem Fall der Ringbrennkammer-Gasturbine V84.3A, und von durch die Vibrationen bedingten Schädigungen der Brennkammer bekannt.
Es ist in [2] beschrieben, dass diese Schwingungen bzw. Vibrationen, ein sogenanntes Brummen bzw. Brennkammerbrummen, entstehen durch eine Mitkopplung von gleichzeitig ablaufenden Brennvorgängen in der Brennkammer der Gasturbine.
Die Vibrationen bedingen eine instabile Flammenfront, die ihrerseits eine stärkere Erhitzung der Brennkammer bewirkt. Diese kann zu Schädigungen der Brennkammer der Gasturbine führen.
Um geeignete Abhilfemaßnahmen gegen das Problem der Verbrennungsschwingungen ergreifen zu können, wird in [2] das Schwingungsphänomen eingehend untersucht und Möglichkeiten zur Beseitigung, insbesondere aktive und passive Methoden, verglichen und diskutiert.
[2] stellt fest bzw. schlägt vor, die schädigenden Schwingungen durch konstruktive Optimierung einer Brennkammergeometrie zu eliminieren.
Gegen eventuell erneut auftretende Schwingungsproblemepbei einer Erweiterung eines Arbeitsbereichs der Gasturbine schlägt [2] eine Aktive Instabilitätskontrolle (AIC) auf Basis einer antizyklischen Modulation eines KraftstoffStroms vor.
Allerdings verlangt die AIC eine aufwendige und teure Senso- rik und Aktorik, was ihre Einsatzmöglichkeit beschränkt.
Ferner ist bekannt, dass sich dieses schädigende Brummen auch durch Reduktion einer Last auf die Gasturbine reduzieren oder vermeiden lässt, d.h. es ist bekannt, dass die Last auf eine Gasturbine einen großen Einfluss auf das bzw. eine starke Abhängigkeit oder Korrelation mit dem (schädliche) Brennkammer- brummen aufweist.
Die Reduktion der Last zur Reduzierung oder Vermeidung von Schädigungen einer Brennkammer einer Gasturbine ist allerdings eine nur bedingt praktikable Lösungsmöglichkeit.
In der Regel werden nämlich von Betreibern von Kraftwerken Leistungszusagen gegenüber ihren Abnehmern gegeben, die bei einer Leistungsreduktion der Gasturbinen in Gefahr geraten, nicht erfüllt zu werden.
Demzufolge ist es von Interesse, weitere Abhilfemaßnahmen gegen das Problem der VerbrennungsSchwingungen bzw. Brennkammerbrummen zu kennen, welche weniger aufwendig, praktikabler und effizienter als obige bekannte Abhilfemaßnahmen sind.
Datenanalyse unter Verwendung neuronaler Netzwerke, insbesondere rekurrenter, neuronaler Netze
Es ist allgemein bekannt, neuronale Netzwerke aus Knoten und Verbindungen auf einem Gebiet einer Datenanalyse zu verwenden, sei es um komplexe Prozesse bzw. Systeme und deren Dynamik abzubilden und zu beschreiben, um zukünftige Systemzustände zu prognostizieren oder um Datenstrukturen und Abhängigkeiten von Daten in den Datenstrukturen zu erkennen und zu beschreiben.
Aus [4], [5], [6] und [7] sind Netzwerke zur Beschreibung komplexer, dynamischer Systeme und zur Prognose zukünftiger Systemzustände bekannt.
Diese Netzwerke sind von einem Typ "rekurrente, time-delay (über eine Zeit entfaltete) , neuronale Netze" und können insbesondere auch eingesetzt werden zu einer Analyse einer Zeitreihe, - zu einer Bestimmung einer Dynamik eines komplexen, dynamischen Systems, beispielweise eines chemischen Reaktors o- der eines Finanzmarktes,
zu einer Prognose eines Zustandes eines komplexen, dynamischen Systems, beispielweise eines chemischen Reaktors o- der eines Finanzmarktes .
Grundlagen, Trainingsverfahren und Netzstrukturen ([4], [5], [6] und [7]) dieser rekurrenten, neuronalen Netze seien im Folgenden kurz beschrieben.
Aus [8] ist es bekannt, zur Beschreibung und Modellierung ei- nes dynamischen Systems bzw. eines dynamischen Prozesses und dessen Prozessverhaltens eine rekurrente, neuronale Struktur, beispielsweise ein rekurrentes, neuronales Netz, einzusetzen.
Allgemein wird ein dynamisches System bzw. ein dynamischer Prozess durch eine Zustandsübergangsbeschreibung, die für einen Beobachter des dynamischen Prozesses nicht sichtbar ist, und eine Ausgangsgleichung, die beobachtbare Größen des technischen dynamischen Prozesses beschreibt, beschrieben.
Ein solches Prozessverhalten eines dynamischen Prozesses ist in Fig.3 dargestellt.
Der dynamische Prozess 300 bzw. ein dynamisches System 300, in dem der dynamische Prozess abläuft, unterliegt dem Ein- fluss einer externen Eingangsgröße u vorgebbarer Dimension, wobei eine Eingangsgröße ut zu einem Zeitpunkt t mit u-j- bezeichnet wird:
ut 9?J
wobei mit 1 eine natürliche Zahl bezeichnet wird.
Die Eingangsgröße u^- zu einem Zeitpunkt t verursacht eine Veränderung des dynamischen Prozesses.
Ein innerer Zustand s (st e 9ϊm ) vorgebbarer Dimension m zu einem Zeitpunkt t ist für einen Beobachter des dynamischen Systems 300 nicht beobachtbar.
In Abhängigkeit vom inneren Zustand Sf und der Eingangsgröße £ wird ein Zustandsübergang des inneren Zustandes s des dynamischen Prozesses verursacht und der Zustand des dynamischen Prozesses geht über in einen Folgezustand s-^+1 zu einem folgenden Zeitpunkt t+1.
wobei mit f(.) eine allgemeine Abbildungsvorschrift bezeichnet wird.
Eine von einem Beobachter des dynamischen Systems 300 beobachtbare Ausgangsgröße y^ zu einem Zeitpunkt t hängt ab von der Eingangsgröße u^ sowie dem inneren Zustand s^.
Die Ausgangsgröße y^ ( Yt G SRn) ist vorgebbarer Dimension n.
Die Abhängigkeit der Ausgangsgröße y^- von der Eingangsgröße u^ und dem inneren Zustand s^- des dynamischen Prozesses ist durch folgende allgemeine Vorschrift gegeben:
wobei mit g(.) eine allgemeine Abbildungsvorschrift bezeichnet wird.
Zur Beschreibung des dynamischen Systems 300 wird in [8] eine neuronale Struktur aus miteinander verbundenen Rechenelemente in Form eines neuronalen Netzes miteinander verbundener Neuronen eingesetzt (rekurrentes neuronales Netz) .
Die Verbindungen zwischen den Neuronen des neuronalen Netzes sind gewichtet. Die Gewichte des neuronalen Netzes sind in einem Parametervektor v zusammengefasst .
Somit hängt ein innerer Zustand eines dynamischen Systems, welches einem dynamischen Prozess unterliegt, gemäß folgender Vorschrift von der Eingangsgröße u^- und dem inneren Zustand des vorangegangenen Zeitpunktes S|- und dem Parametervektor v ab:
st + 1 = NN(v, st, ut), (3)
wobei mit NN(.) eine durch das neuronale Netz vorgegebene Abbildungsvorschrift bezeichnet wird.
Diese Beschreibung des dynamischen Systems 300 gemäß Beziehung (3) wird auch als "Forward Approach" bezeichnet.
Alternativ dazu lässt sich das dynamische System auch durch:
st = f(st_lfut) (I
mit
st = NN(v, st_!,ut) (3 )
beschreiben, was als "Backward bzw. Consistency Approach" bezeichnet wird.
"Forward Approach" und "Backward Approach" führen zu geringfügigen strukturellen Unterschieden in den jeweiligen Netzstrukturen, sind aber gleichwertige, alternativ verwendbare Beschreibungsformen für dynamische Systeme.
Aus [9] ist eine rekurrente, neuronale (Grund-) Struktur (vgl. Fig.5) zur Beschreibung des dynamischen Systems 300 bekannt,
welche als Time Delay Recurrent Neural Network (TDRNN/RNN) bezeichnet wird.
Das bekannte TDRNN ist in Fig.5 als ein über eine endliche Anzahl von Zeitpunkten (dargestellt 5 Zeitpunkte: t-4, t-3, t-2, t-1, t) entfaltetes neuronales Netz 500 dargestellt.
Das in Fig.5 dargestellte neuronale Netz 500 weist eine Eingangsschicht 501 mit fünf Teileingangsschichten 521, 522, 523, 524 und 525 auf, die jeweils eine vorgebbare Anzahl Ein- gangs-Rechenelemente enthalten, denen Eingangsgrößen .- ut-3 / ut-2 ι ut-l und u zu vorgebbaren Zeitpunkten t-4, t- 3, t-2, t-1 und t, d.h. im weiteren beschriebene Zeitreihenwerte mit vorgegebenen Zeitschritten, anlegbar sind.
Eingangs-Rechenelemente, d.h. Eingangsneuronen, sind über variable Verbindungen mit Neuronen einer vorgebbaren Anzahl versteckter Schichten 505 (dargestellt 5 verdeckte Schichten) verbunden .
Dabei sind Neuronen einer ersten 531, einer zweiten 532, einer dritten 533, einer vierten 534 und einer fünften 535 versteckten Schicht jeweils mit Neuronen der ersten 521, der zweiten 522, der dritten 523, der vierten 524 und der fünften 525 Teileingangsschicht verbunden.
Die Verbindungen zwischen der ersten 531, der zweiten 532, der dritten 533, der vierten 534 und der fünften 535 versteckten Schicht mit jeweils der ersten 521, der zweiten 522, der dritten 523, der vierten 524 und der fünften 525 Teileingangsschicht sind jeweils gleich. Die Gewichte aller Verbindungen sind jeweils in einer ersten Verbindungsmatrix Bi enthalten.
Ferner sind die Neuronen der ersten versteckten Schicht 531 mit ihren Ausgängen mit Eingängen von Neuronen der zweiten versteckten Schicht 532 gemäß einer durch eine zweite Verbin-
dungsmatrix A^ gegebene Struktur verbunden. Die Neuronen der zweiten versteckten Schicht 532 sind mit ihren Ausgängen mit Eingängen von Neuronen der dritten versteckten Schicht 533 gemäß einer durch die zweite Verbindungsmatrix A^ gegebene Struktur verbunden. Die Neuronen der dritten versteckten
Schicht 533 sind mit ihren Ausgängen mit Eingängen von Neuronen der vierten versteckten Schicht 534 gemäß einer durch die zweite Verbindungsmatrix A^ gegebene Struktur verbunden. Die Neuronen der vierten versteckten Schicht 534 sind mit ihren Ausgängen mit Eingängen von Neuronen der fünften versteckten Schicht 535 gemäß einer durch die zweite Verbindungsmatrix A^ gegebene Struktur verbunden.
In den versteckten Schichten, der ersten versteckten Schicht 531, der zweiten versteckten Schicht 532, der dritten versteckten Schicht 533, der vierten versteckten Schicht 534 und der fünften versteckten Schicht 535 werden jeweils "innere" Zustände oder "innere" Systemzustände st-4 s -3, st-2/ st-l* und st eines durch das TDRNN beschriebenen dynamischen Pro- zesses an fünf aufeinanderfolgenden Zeitpunkten t-4, t-3, t- 2, t-1 und t repräsentiert.
Die Angaben in den Indizes in den jeweiligen Schichten geben jeweils den Zeitpunkt t-4, t-3, t-2, t-1 und t an, auf die sich jeweils die an den Ausgängen der jeweiligen Schicht abgreifbaren bzw. zuführbaren Signale beziehen
ut-3'
ut-2'
ut-l'
ut> •
Eine AusgangsSchicht 520 weist fünf Teilausgangsschichten, eine erste Teilausgangsschicht 541, eine zweite Teilausgangsschicht 542, eine dritte Teilausgangsschicht 543, eine vierte Teilausgangsschicht 544 sowie eine fünfte Teilausgangsschicht 545 auf. Neuronen der ersten Teilausgangsschicht 541 sind gemäß einer durch eine Ausgangs-Verbindungsmatrix C^ gegebenen Struktur mit Neuronen der ersten versteckten Schicht 531 verbunden. Neuronen der zweiten Teilausgangsschicht 542 sind e- benfalls gemäß der durch die Ausgangs-Verbindungsmatrix C^
gegebenen Struktur mit Neuronen der zweiten versteckten Schicht 532 verbunden. Neuronen der dritten Teilausgangsschicht 543 sind gemäß der Ausgangs-Verbindungsmatrix C^ mit Neuronen der dritten versteckten Schicht 533 verbunden. Neu- ronen der vierten Teilausgangsschicht 544 sind gemäß der Ausgangs-Verbindungsmatrix Ci mit Neuronen der vierten versteckten Schicht 534 verbunden. Neuronen der fünften Teilausgangsschicht 545 sind gemäß der Ausgangs-Verbindungsmatrix C^ mit Neuronen der fünften versteckten Schicht 535 verbunden. An den Neuronen der Teilausgangsschichten 541, 542, 543, 544 und 545 sind die Ausgangsgrößen für jeweils einen Zeitpunkt t-4, t-3, t-2, t-1, t abgreifbar (yt-4* Yt-3' Yt-2' Yt-l* Yt> •
Der Grundsatz, dass äquivalente Verbindungsmatrizen in einem neuronalen Netz zu einem jeweiligen Zeitpunkt die gleichen Werte aufweisen, wird als Prinzip der sogenannten geteilten Gewichtswerte (Shared Weights) bezeichnet.
Die aus [9] bekannte und als Time Delay Recurrent Neural Net- work (TDRNN) bezeichnete Anordnung wird in einer Trainingsphase., derart trainiert, dass zu einer Eingangsgröße u jeweils eine Zielgröße y^ an einem realen dynamischen System ermittelt wird. Das Tupel (Eingangsgröße, ermittelte Zielgröße) wird als Trainingsdatum bezeichnet. Eine Vielzahl solcher Trainingsdaten bilden einen Trainingsdatensatz.
Dabei weisen zeitlich aufeinanderfolgende Tupel (u -4 fy _4) (ut-3 '^ -3)f (ut-2 ' yt-2 > der Zeitpunkte (t-4, t-3, t-3, ...) des Trainingsdatensatzes jeweils einen vorgegeben Zeit- schritt auf.
Mit dem Trainingsdatensatz wird das TDRNN trainiert. Eine Ü- bersicht über verschiedene Trainingsverfahren ist ebenfalls in [1] zu finden.
Es ist an dieser Stelle zu betonen, dass lediglich die Ausgangsgrößen yt-4 ^yt-3 t •■•/ Yt zu Zeitpunkten t-4, t-3,
..., t des dynamischen Systems 800 erkennbar sind. Die "inneren" Systemzustände st_4, st-3 --■/ s^ sind nicht beobachtbar.
In der Trainingsphase wird üblicherweise folgende Kostenfunktion E minimiert:
wobei mit T eine Anzahl berücksichtigter Zeitpunkte bezeichnet wird.
Aus [4, 5, 6, 7] sind Weiterentwicklungen der aus [9] bekannten und als Time Delay Recurrent Neural Network (TDRNN) be- zeichneten neuronalen Struktur (Fig.5) bekannt.
Die Weiterentwicklungen aus [4] sind insbesondere geeignet zur Ermittlung zukünftiger Zustände eines dynamischen Prozesses, was als "overshooting" bezeichnet wird.
Eine Struktur 400 eines solchen "overshooting"-RNN aus [4] ist in Fig.4 dargestellt.
Innerhalb dieser Struktur 400 ist eine Grundstruktur 410 des "overshooting"-RNN gekennzeichnet.
Diese Grundstruktur 410 ist ein über drei Zeitpunkte t, t+1, t+2 entfaltetes neuronales Netz.
Sie weist eine Eingangsschicht auf, die eine vorgebbare Anzahl von Eingangsneuronen enthält, denen Eingangsgrößen t zu vorgebbaren Zeitpunkten t, d.h. im weiteren beschriebene Zeitreihenwerte mit vorgegebenen Zeitschritten, anlegbar sind.
Die Eingangsneuronen, sind über variable Verbindungen mit Neuronen einer vorgebbaren Anzahl versteckter Schichten (dargestellt 3 verdeckte Schichten) verbunden.
Dabei sind Neuronen einer ersten versteckten Schicht mit Neuronen der ersten Eingangsschicht verbunden.
Die Verbindung zwischen der ersten versteckten Schicht mit der ersten Eingangsschicht weist Gewichte auf, die in einer ersten Verbindungsmatrix B enthalten sind.
Ferner sind die Neuronen der ersten versteckten Schicht mit ihren Ausgängen mit Eingängen von Neuronen einer zweiten versteckten Schicht gemäß einer durch eine zweite Verbindungs- matrix A gegebene Struktur verbunden. Die Neuronen der zweiten versteckten Schicht sind mit ihren Ausgängen mit Eingängen von Neuronen einer dritten versteckten Schicht gemäß einer durch die zweite Verbindungsmatrix A gegebene Struktur verbunden.
In den versteckten Schichten, der ersten versteckten Schicht, der zweiten versteckten Schicht und der dritten versteckten Schicht werden jeweils "innere" Zustände oder "innere" Systemzustände st, s +l und s +2 des beschriebenen dynamischen Prozesses an drei aufeinanderfolgenden Zeitpunkten t, t+1 und t+2 repräsentiert.
Die Angaben in den Indizes in den jeweiligen Schichten geben jeweils den Zeitpunkt t, t+1, t+2 an, auf die sich jeweils die an den Ausgängen der jeweiligen Schicht abgreifbaren bzw. zuführbaren Signale (u^-) beziehen.
Eine Ausgangsschicht weist zwei Teilausgangsschichten, eine erste Teilausgangsschicht und eine zweite Teilausgangs- schicht, auf. Neuronen der ersten TeilausgangsSchicht sind gemäß einer durch eine Ausgangs-Verbindungsmatrix C gegebenen Struktur mit Neuronen der ersten versteckten Schicht verbun-
den. Neuronen der zweiten Teilausgangsschicht sind ebenfalls gemäß der durch die Ausgangs-Verbindungsmatrix C gegebenen Struktur mit Neuronen der zweiten versteckten Schicht verbunden.
An den Neuronen der Teilausgangsschichten sind die Ausgangsgrößen für jeweils einen Zeitpunkt t+1, t+2 abgreifbar (yχ_+\ ,
Yt+2 ) ■
Die Weiterentwicklungen aus [7] sind ebenfalls geeignet zur Ermittlung zukünftiger Zustände eines dynamischen Prozesses. Diese Weiterentwicklungen sind sogenannte "Error Correction Neural Networks (ECRNN oder ECNN) ", welche einen in ihrer Struktur begründeten Fehlerkorrekturmechanismus besitzen.
Eine Struktur 800 eines solchen "ECRNN" bzw. "ECNN" aus [7] ist in Fig.8 dargestellt.
Aus [3] ist ein Verfahren zur Ermittlung von zur Entfernung geeigneten Gewichten eines neuronalen Netzes und zur Entfernung von Gewichten aus einem neuronalen, Netz, ein sogenanntes Pruning-Verfahren, bekannt.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren an- zugeben, welches eine frühzeitige Erkennung von gegebenenfalls später bzw. zukünftig auftretenden, unerwünschten Brennkammerzuständen, wie Verbrennungsschwingungen bzw. Brummen in der Brennkammer, ermöglicht.
Diese Aufgabe wird durch das Verfahren, durch das Computerprogramm mit Programmcode-Mitteln und das Computerprogramm- Produkt zur Prognose eines Brennkammerzustandes unter Verwendung eines rekurrenten, neuronalen Netzes mit den Merkmalen gemäß dem jeweiligen unabhängigen Patentanspruch gelöst.
Das erfindungsgemäße Prognoseverfahren zur Ermittlung eines zukünftigen bzw. prognostizierten Brennkammerzustands basiert auf einer Verwendung eines rekurrenten, neuronalen Netzes.
Es werden eine Trainings-Zeitreihe und eine Prognose- Zeitreihe jeweils aus Zustandsvektoren, deren jeder einen Zustand der Brennkammer zu einem vorgebbaren Zeitpunkt beschreibt, bestimmt.
Das rekurrente, neuronale Netz wird mindestens unter Verwendung der Trainings-Zeitreihe trainiert, wobei das rekurrente, neuronale Netz mit einer Prognosefähigkeit ausgestattet wird. Anschaulich gesehen erlernt das rekurrente, neuronale Netz aus der Trainings-Zeitreihe eine Dynamik, welche die Brenn- kammerzustände, im Allgemeinen ein System "Brennkammer", aufweisen bzw. aufweist.
Unter Verwendung der Prognose-Zeitreihe und des trainierten, rekurrenten, neuronalen Netzes wird nun ein Prognose- Zustandsvektor ermittelt, welcher den prognostizierten Brennkammerzustand beschreibt.
Bei der Erfindung wird sich zueigen gemacht, dass rekurrente, neuronale Netze insbesondere geeignet sind, um Dynamiken kom- plexer Systeme zu erlernen und die Dynamiken für zukünftige Systemzustände fortzuschreiben.
Auch ermöglichen solche rekurrente, neuronale Netze insbesondere kurz-, mittel- und langfristige Prognosen von zukünfti- gen Systemzuständen und können damit zu einer frühzeitigen Erkennung ausgewählter Systemzustände eingesetzt werden.
Im Falle der Erfindung wird das rekurrente, neuronale Netz zunächst verwendet, um die Dynamik eines Brennvorgangs in ei- ner Brennkammer zu beschreiben.
Anschaulich bildet dabei das rekurrente, neuronale Netz ein Abbild bzw. Modell der Brennvorgangs. Anhand dieses Modells lassen sich dann nachfolgend vielzählige, verschiedene und überaus komplexe Analysen des Brennvorgangs wie nachfolgend beschrieben durchführen.
So ermöglicht die Erfindung in vorteilhafter Weise kurz-, mittel- und langfristige Prognosen von zukünftigen Brennkammerzuständen und kann damit zu einer frühzeitigen Erkennung ausgewählter Brennkammerzuständen, wie Beispielweise ein
Brummzustand und/oder Schwingungszustand eingesetzt werden.
Wird ein solcher ausgewählter Zustand prognostiziert, so kann frühzeitig eine Gegenmaßnahme eingeleitet werden.
Auch kann die Erfindung wegen der erfindungsgemäßen Verwendung solcher rekurrenter, neuronaler Netze bzw. der besonderen Eigenschaften solcher rekurrenten, neuronalen Netze für sogenannte "first cause"-Analysen für unerwünschte/erwünschte Brennkammerzustände und/oder für eine Ermittlung sogenannter "early warning"-Indikatoren bei unerwünschten/erwünschten Brennkammerzuständen eingesetzt werden.
Damit ist die Erfindung insbesondere geeignet, im Rahmen ei- nes Brennkammer- bzw. Frühwarnsystems für VerbrennungsSchwingungen und/oder Brennkammerbrummen eingesetzt werden.
Ursachenanalysen für Brennvorgangsprobleme, Wirkungsanalysen für vorgebare Brennvorgangszustände, Simulationen und Progno- sen von Brennvorgängen bzw. Brennvorgangszustände können durch die Erfindung durchgeführt werden.
Ferner können bei der erfindungsgemäßen Analyse Ursache- Wirkungszusammenhänge bei dem Brennvorgang offensichtlich ge- macht werden.
Das Computerprogramm mit Programmcode-Mitteln ist eingerichtet, um alle Schritte gemäß dem erfindungsgemäßen Verfahren durchzuführen, wenn das Programm auf einem Computer ausgeführt wird.
Das Computerprogramm-Produkt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode-Mitteln ist eingerichtet, um alle Schritte gemäß dem erfindungsgemäßen Verfahren durchzuführen, wenn das Programm auf einem Computer ausgeführt wird.
Das Computerprogramm mit Programmcode-Mitteln, eingerichtet um alle Schritte gemäß dem erfinderischen Verfahren durchzuführen, wenn das Programm auf einem Computer ausgeführt wird, sowie das Computerprogramm-Produkt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode-Mitteln, eingerichtet um alle Schritte gemäß dem erfinderischen Verfahren durchzuführen, wenn das Programm auf einem Computer ausgeführt wird, sind insbesondere geeignet zur Durchführung des erfindungsgemäßen Verfahrens oder einer seiner nachfolgend erläuterten Weiterbildungen.
Bevorzugte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.
Die im weiteren beschriebenen Weiterbildungen beziehen sich sowohl auf die Verfahren als auch auf das Computerprogramm und auf das Computer-Programmprodukt.
Die Erfindung und die im weiteren beschriebenen Weiterbildungen können sowohl in Software als auch in Hardware, beispielsweise unter Verwendung einer speziellen elektrischen Schaltung, realisiert werden.
Ferner ist eine Realisierung der Erfindung oder einer im weiteren beschriebenen Weiterbildung möglich durch ein computerlesbares Speichermedium, auf welchem das Computerprogramm mit Programmcode-Mitteln gespeichert ist, welches die Erfindung oder Weiterbildung ausführt.
Auch kann die Erfindung oder jede im weiteren beschriebene Weiterbildung durch ein Computerprogrammerzeugnis realisiert sein, welches ein Speichermedium aufweist, auf welchem das Computerprogramm mit Programmcode-Mitteln gespeichert ist, welches die Erfindung oder Weiterbildung ausführt.
In Weiterbildungen der Erfindung können verschiedene Typen von rekurrenten, neuronalen Netzen verwendet werden. Insbe- sondere sind geeignet rekurrente, neuronale Netze von einem Typ "Over-", "Undershooting", "Error Correction" (ECNN), "Causal-Retro-Causal" (CRCNN) oder "Causal-Retro-Causal Error Correction" (CRCECNN) .
Derartige Typen von rekurrenten, über eine Zeit entfalteten, neuronalen Netzen sind in [4], [5], [6] und [7] beschrieben.
Gegebenenfalls können bei den rekurrenten, neuronalen Netzen Glättungsfilter vorgesehen werden.
In einer Ausgestaltung ist eine zeitlich veränderliche Zu- standsbeschreibung ein Vektor vorgebbarer Dimension ist.
Die Dimension kann entsprechend einer Anzahl von Einflussgrö- ßen auf den Brennvorgang gewählt werden.
Als Einflussgrößen können mindestens einige der folgenden Größen und/oder davon abgeleitete Größen verwendet werden : einen Luftdruck außen, einen Gasdruck, einen Druck nach einer Kompression, eine Druckdifferenz an einem Luftfilter, ein Pilotgas, eine Last, eine Lufttemperatur, eine
Gastemperatur, eine Temperatur nach einer Kompression, eine Druckreduktion in einer Brennkammer, eine "blade" Position, eine Last (GtLstg) , eine Ansaugtemperatur (air tem- perature inflow) (SaugT) , einen Umgebungsdruck (air pres- sure) (UmgPr) , eine Druckdifferenz an einem Luftfilter (pressure difference air filter, PrDFi) , einen Druck nach einer Kompression (pressure after compression, sta- ge(VerPr)), eine Temperatur nach einer Kompression (tempe- rature after compression stage (VerdT) ) , eine Druckdiffe- renz in einer Brennkammer (pressure difference burning chamber (DrVBr) ) , einen Gasdruck (gas pressure (GasDr) ) , eine Gastemperatur (gas temperature (GasT) ) , eine Rotationsfrequenz (rotation frequency) , eine Drehzahl, eine Abgastemperatur (exhaust gas temperature (AbgasT) ) , eine erste Brummgröße (humming pressure amplitude (WD01) ) , eine zweite Brummgröße (humming pressure amplitude (WD02) ) .
Weiter kann vorgesehen werden, dass der Brennvorgang unter Verwendung einer ein Brennkammerbrummen beschreibenden Größe oder unter Verwendung einer eine Nox-Emission beschreibende Größe beschrieben wird.
Bei einer Weiterbildung ist vorgesehen, dass die Brennkammer eine Brennkammer einer Turbine, insbesondere einer Gasturbi- ne, ist.
In Figuren ist ein Ausführungsbeispiel der Erfindung dargestellt, welches im weiteren näher erläutert wird.
Es zeigen
Figur 1 eine Skizze einer Brennkammer einer Gasturbine gemäß einem Ausführungsbeispiel;
Figur 2 Input-Variablen eines Zustandsvektors zur Beschreibung eines Zustands eines Brennvorgangs in einer Brennkammer einer Gasturbine und Target-
Größen für ein Training des rekurrenten neuronalen Netzes;
Figur 3 eine Skizze einer allgemeinen Beschreibung eines dynamischen Systems;
Figur 4 eine Skizze eines rekurrenten neuronalen Netzes von einem Typ "Overshooting" - Neural Network gemäß dem Stand der Technik;
Figur 5 eine Skizze eines rekurrenten neuronalen Netzes von einem Typ "Time Delay Neural Network" (TDRNN) , welches mit endlich vielen Zuständen über die Zeit entfaltet ist, gemäß dem Stand der Technik;
Figur 6 eine Skizze eines rekurrenten neuronalen Netzes von einem Typ "Error Correction" - Neural Network mit einem Glättungsfilter;
Figuren 7a und b Skizzen zweier rekurrenter, neuronaler Netze vom Typ ECNN (Consistency Model/Approach und Prognosis bzw. Forward Model/Approach) gemäß einem Ausführungsbeispiel;
Figur 8 eine Skizze eines rekurrenten, neuronalen Netzes von einem Typ "Error Correction" - Neural Network gemäß dem Stand der Technik;
Figur 9 eine Skizze eines rekurrenten neuronalen Netzes von einem Typ "Error Correction" - Neural Network zur Prognose von Brennkammerzuständen gemäß einem Ausführungsbeispiel .
Ausführungsbeispiel: Analyse eines Brennvorgangs und Prognose eines Brennkammerzustandes in einer Gasturbinenbrennkammer
Fig.l zeigt schematisch eine Ringbrennkammer-Gasturbine 100 einer V84.3A Serie, wie sie in [2] beschrieben ist.
Bei dieser Ringbrennkammer-Gasturbine 100 zeigt sich unter gewissen Betriebsbedingungen im Vormischbetrieb ein "Brummen" aufgrund selbst erregter Verbrennungsschwingungen.
Bei der Verbrennung in geschlossenen Brennräumen kann es zu einer Rückkopplung zwischen der Leistungsfreisetzung in der Flamme und der Akustik in der Brennkammer kommen. Dabei wird durch Schwankungen in der Leistungsfreisetzung der Verbrennung ein Schallfeld im Brennraum angeregt, das wiederum erneute Schwankungen in der Verbrennungsleistung hervorruft. Erfolgen die Druck- und Leistungsschwingungen ausreichend in Phase, ist also ein so genanntes Rayleigh-Kriterium erfüllt, so kommt es zu einer Selbstverstärkung der Oszillationen.
Dieses als selbst erregte Brennkammer- oder Verbrennungsschwingung bekannte Phänomen ist oft mit sehr hohen Schall- druckamplituden und einem stark erhöhten Wärmeübergang an die Brennkammerwände verbunden, was zu einer verstärkten mechanischen und thermischen Belastung des Systems führt. Das durch Brennkammerschwingungen verursachte Schadensspektrum reicht von erhöhter Lärmemission über Leistungsminderungen bis zur Beschädigung einzelner Maschinenteile.
Um frühzeitig geeignete Abhilfemaßnahmen gegen das Problem der VerbrennungsSchwingungen (Brennkammerbrummen) , wie sie in der V84.3A auftreten, ergreifen zu können, werden ein Verbrennungsvorgang in der Brennkammer, im folgenden als
"System Brennkammer" bezeichnet, eingehender untersucht bzw. analysiert und zukünftige Brennkammerzustände prognostiziert (Fig.9) .
ECNN - Netzstruktur (Fig.9)
Für die Analyse sowie die Prognose der Brennkammerzustände wird ein rekurrentes, über die Zeit entfaltetes, neuronales Netz vom Typ "Error Correction" (ECNN), wie in Fig.9 dargestellt, verwendet.
Vorläufer der ausführungsgemäße verwendeten Struktur nach Fig.9 sind in den Figuren 6 und 7a und b dargestellt. Die Figuren 6 und 7a und b zeigen alle weiterentwickelte Strukturen des bekannten "Error Correction Neural network" .
Grundlagen, Trainingsverfahren und Netzstrukturen eines solchen ECNN sind in [5], [6] und [7] beschrieben.
Es sei aber darauf hingewiesen, dass auch andere Strukturen rekurrenter, neuronaler Netze, wie im obigen genannt, verwendet werden können.
Fig.9 900 zeigt die Struktur des ausführungsgemäßen ECNN.
Bezeichnungen, Darstellungselemente und Nomenklatur des ausführungsgemäßen ECNN 300 sind in bekannter Weise und entsprechend dem bekannten Stand der Technik aus [4, 5, 6, 7] sowie gemäß den Strukturen aus den Figuren 3 bis 8 gewählt.
So zeigt Fig.9 900 eine neuronale Anordnung miteinander verbundener Rechenelemente (Neuronen 910) in Form eines neuronalen Netzes, des ausführungsgemäßen ECNN.
Die Verbindungen 920 (nut teilweise bezeichnet) zwischen den Neuronen 910 (nur teilweise bezeichnet) des neuronalen Netzes ECNN 900 sind gewichtet. Die Gewichte 930 (nur teilweise bezeichnet) des neuronalen Netzes sind in einem Parametervektor v (dargestellt durch A, B, C, D) zusammengefasst .
Die Gewichte 930 werden in einer Trainingsphase des ECNN 900 verändert und dem System "Brennkammer" angepasst.
An den Eingangsneuronen sind Eingangsgrößen y^ bzw. u (vgl. Figuren 2) , in diesem Zustandsvektoren des System "Brennkammer", zu vorgebbaren Zeitpunkten t mit vorgegebenen Zeitschritten anlegbar.
An den Ausgangsneuronen sind Ausgangsgrößen für jeweils einen Zeitpunkt t+1, t+2 abgreifbar.
Erfassung und statistische Auswertung von Brennkammerzuständen
Kernpunkte der Untersuchung bzw. Analyse bilden eine Erfassung von Brennkammerzuständen, beispielsweise durch Messung von Brennkammerzuständen, Eingabe oder Einlesen von Brennkammerdaten aus einem Speicher, und eine anschließende mittels eines Rechners durchgeführte statistische Auswertung und Analyse der erfassten Informationen sowie eine darauf aufbauende Prognose.
Bei der statistischen Auswertung wird ein statistisches Modell, obig beschriebenes neuronales Netz vom Typ ECNN (Fig.9), für ein System "Brennkammerbrummen" gebildet.
Das statistische Modell ist Grundlage für die nachfolgenden Analysen und die nachfolgende Prognose.
Aufstellen Brennkammermodell (Modell Brennkammer)
Bei einer Messung eines Brennkammerzustandes werden aktuelle Parameterwerte gemessen und in Form eines Zustandsvektors in einem Speicher des Rechners gespeichert. Entsprechendes gilt im Falle eines Einlesens oder Eingehens von Brennkammerdaten.
Eine solche Zustandsmessung von Parameterwerten wird in Zeitschritten von ls ständig bzw. für einen vorgegebenen Zeitraum
wiederholt, wobei eine Zeitreihe von Zustandsvektoren generiert wird.
Diese werden zusammengefasst und als Datensatz gespeichert.
In der Figur 2 ist ein solcher Datensatz 200 schematisch bzw. tabellarisch dargestellt. Fig.2 zeigt den Datensatz 200 mit einer Vielzahl von Zustandsvektoren 201, deren jeder die Parameterwerte 202 einer Messung eines Brennkammerzustands um- fasst.
Eine Zustandvektor umfasst jeweils die Werte folgender messbaren Parameter 203:
- GtLsg - SaugT
- UmgPr
- PrDFi
- VerdPr
- VerdT - Schaufel
- DrVBr
- PilotG
- GasDr
- GasT - Drehz
- AbgasT
- WD01
- WD02.
Es ist darauf hinzuweisen, dass obige Auflistung von Parametern nicht abschließend zu verstehen ist. Ein Zustandsvektor 201 kann auch weitere Parameter bzw. Parameterwerte umfassen.
Zur Modellierung des Systems "Brennkammer", insbesondere zur Verifizierung und Analyse von Einflussgrößen auf den Verbrennungsvorgang sowie zur Ermittlung statistischer Eigenschaften, welche die Einflussgrößen (Variable) des Systems "Brenn-
kammer" zueinander aufweisen und zur Prognose von Brennkammerzuständen, werden unter Verwendung der Parameter Variable des Systems "Brennkammer" definiert. Diese sollen einen Brennkammerzustand bzw. den Brennvorgang möglichst umfassend beschreiben.
Unter Verwendung dieser statistischen Größen wird ein statistisches Modell, das obig beschrieben und in Figur 9 dargestellte rekurrente, neuronale netz vom Typ ECNN, entwickelt.
Unter Verwendung des statistischen Modells, des ECNN (Fig.9) wird anschließend eine weiterführende Analyse des Systems "Brennkammer" und damit eines Brennvorgangs sowie die Prognose von Brennkammerzuständen und die Früherkennung von Brenn- kammerbrummen durchgeführt.
Nachfolgende Verfahrensschritte bei der Ermittlung eines Modells des Systems "Brennkammer" werden durchgeführt:
In einem Initialisierungsschritt werden die Variablen des Systems "Brennkammer" festgelegt.
Die definierten Variablen des Systems "Brennkammer" sind:
- GtLsg - SaugT
- U gPr
- PrDFi
- VerdPr
- VerdT - Schaufel
- DrVBr
- PilotG
- GasDr
- GasT - Drehz
- AbgasT
- WD01
- WD02 und stimmen in diesem Fall mit den messbaren Parametern 203 überein .
Es ist zu betonen, dass diese Übereinstimmung nicht notwendigerweise immer gegeben sein muss. Der Satz von Variablen bzw. von Einflussgrößen wie obig kann eine Teilmenge aus den messbaren Parametern 203 sein oder auch (zumindest zum Teil) durch Kombinationen von bestimmten Parametern 203 gewonnen werden.
Auch ist diese Aufzählung von Variablen nicht als abschließend zu verstehen. Es können durchaus weitere Variablen definiert werden, welche das System "Brennkammer" beschreiben.
Die Variablen werden zu einem sogenannten Modellzustandsvek- tor zusammengefasst, wobei Komponenten des Modellzustandsvek- tors die Variablen sind.
In dem Initialisierungsschritt wird ferner eine Anfangsstruktur eines ECNN bestimmt, welches aus Knoten und gewichteten Verbindungen aufgebaut ist.
Anschließend wird ein sogenannter Trainingsdatensatz des Sys- tems "Brennkammer" ermittelt. Unter Verwendung dieses Trainingsdatensatzes wird nach bekannten Trainingsverfahren das Netzwerk derart bearbeitet bzw. trainiert, dass eine Endstruktur des Netzwerks das System "Brennkammer" abbildet bzw. die zeitliche Entwicklung von Brennkammerzuständen be- schreibt.
Dazu werden aus einem vorgegeben Datensatz Modellzustandsvek- toren extrahiert und zu einem Trainingsdatensatz zusammengefasst.
Dieses gestaltet sich in diesem Fall sehr einfach, da die Parameter mit den Variablen übereinstimmen, d.h. der Zustands- vektor mit dem Modellzustandsvektor übereinstimmt.
Mit dem Trainingsdatensatz wird die Grundstruktur des ECNN trainiert, wobei die Gewichte des ECNN angepasst werden.
Dadurch wird nun das Modell Brennkammer bzw. das Modell Brennkammerbrummen in Form des trainierten ECNN (Fig.9) ent- wickelt, welches insbesondere geeignet ist, zur Untersuchung und Analyse des Phänomens Brennkammerbrummen [2] und zur Prognose von Brennkammerzuständen.
Dieses Modell Brennkammerbrummen erlaubt auf allgemeingültige und zielgerichtete Art und Weise eine Identifikation von wichtigen mit dem Problem des Brennkammerbrummens [2] im Zusammenhang stehenden Einflussgrößen, Brennkammerprobleme und darüber hinaus die Prognose von Brennkammerzuständen, insbesondere die vorherige Identifizierung von Brennkammerspitzen.
Durch vorheriges Identifizieren von Brennkammerspitzen und anderen unerwünschten Brennkammerzuständen können rechtzeitig Gegenmaßnahmen eingeleitet und dadurch derartiges Auftreten vermieden oder abgeschwächt werden.
Auch können mittels des derart erzeugten neuronalen Netzes Effekte von Änderungen von Einflussgrößen auf den Brennvorgang ermittelt werden.
Dadurch können ohne Experimente an der Turbine oder vor deren Einleitung die Wirkungen von Gegenmaßnahmen gegen ein Brummen abgeschätzt werden.
Auch können ohne Eingriff in das durch das Modell modellierte reale System bzw. in die Turbine Gegenmaßnahmen entwickelt werden, die wirkungsvoll Turbinenbrummen verringern und nicht eine Reduzierung der Last und Stromleistung beinhalten.
Die wirksamen Gegenmaßnahmen oder Kombinationen daraus werden identifiziert, evaluiert und vorbereitet.
In diesem Dokument sind folgende Schriften zitiert:
[1] S.M. Candel, Combustion Instability Coupled by Pressure Waves and their Active Control, Invited General Lecture, 25. Int. Symp. On Combustion, Sydney, 1992;
[2] J. Hermann, et al., Aktive Instabilitätskontrolle an einer 170 MW Gasturbine, VDI-Bericht Nr. 1313, 18. Deutsch- Niederländischer Flammentag, TU Delft/NL, 28.-29. August 1997;
[3] EP-Offenlegungsnummer 0890153 AI (Pruning) ;
[4] EP 1145192 AI (Over-Under-Shooting) ;
[5] EP-Anmeldeaktenzeichen 01978185.5 (Kausal-Retro-Kausal) ;
[6] PCT-Anmeldeaktenzeichen PCT/DE02/03494 (Kausal-Retro-Kausal) ;
[7] EP 1252566 AI (error-correction) ;
[8] S. Haykin, Neural Networks: A Comprehensive Foundation, Prentice Hall, Second Edition, ISBN 0-13-273350-1, S. 732-789, 1999;
[9] David E. Rumelhart et al., Parallel Distributed Processing, Explorations in the Microstructure of Cognition, Vol. 1: Foundations, A Bradford Book, The MIT Press, Cambrigde, Massachusetts, London, England, 1987.