WO2005081076A2 - Verfahren, zur prognose eines brennkammerzustandes unter verwendung eines rekurrenten, neuronalen netzes - Google Patents

Verfahren, zur prognose eines brennkammerzustandes unter verwendung eines rekurrenten, neuronalen netzes Download PDF

Info

Publication number
WO2005081076A2
WO2005081076A2 PCT/EP2005/050452 EP2005050452W WO2005081076A2 WO 2005081076 A2 WO2005081076 A2 WO 2005081076A2 EP 2005050452 W EP2005050452 W EP 2005050452W WO 2005081076 A2 WO2005081076 A2 WO 2005081076A2
Authority
WO
WIPO (PCT)
Prior art keywords
combustion chamber
neural network
state
recurrent
variables
Prior art date
Application number
PCT/EP2005/050452
Other languages
English (en)
French (fr)
Other versions
WO2005081076A3 (de
Inventor
Reimar Hofmann
Volkmar Sterzing
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Publication of WO2005081076A2 publication Critical patent/WO2005081076A2/de
Publication of WO2005081076A3 publication Critical patent/WO2005081076A3/de

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41885Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by modeling, simulation of the manufacturing system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Definitions

  • the invention generally relates to an analysis of a combustion chamber condition.
  • An analysis of a combustion chamber state in particular an analysis of influencing variables on a combustion chamber state or combustion process in a combustion chamber, is known from [1].
  • the vibrations cause an unstable flame front, which in turn causes the combustion chamber to heat up more. This can damage the combustion chamber of the gas turbine.
  • AIC active instability control
  • this damaging hum can also be reduced or avoided by reducing a load on the gas turbine, ie it is known that the load on a gas turbine has a large influence on or a strong dependency or correlation with the (harmful) Combustion chamber hum. Reducing the load to reduce or avoid damage to a combustion chamber of a gas turbine is, however, only a practically feasible solution.
  • neural networks consisting of nodes and connections in an area of data analysis, be it to map and describe complex processes or systems and their dynamics, to predict future system states or to data structures and dependencies of data in the data structures to recognize and describe.
  • These networks are of the "recurrent, time-delay (neural networks)" type and can in particular also be used to analyze a time series, - to determine the dynamics of a complex, dynamic system, for example a chemical reactor or a financial market, to forecast a state of a complex, dynamic system, for example a chemical reactor or a financial market.
  • a dynamic system or a dynamic process is described by a state transition description, which is not visible to an observer of the dynamic process, and an output equation, which describes observable quantities of the technical dynamic process.
  • the dynamic process 300 or a dynamic system 300, in which the dynamic process runs, is subject to the influence of an external input variable u of a predeterminable dimension, an input variable ut at a point in time t being denoted by u- j :
  • the input variable u ⁇ - at a time t causes a change in the dynamic process.
  • An internal state s (st e 9 ⁇ m ) of predeterminable dimension m at a point in time t cannot be observed by an observer of the dynamic system 300.
  • a state transition of the inner state s of the dynamic process is caused and the state of the dynamic process changes into a subsequent state s - ⁇ + 1 at a subsequent time t + 1.
  • f (.) denotes a general mapping rule
  • An output variable y ⁇ observable by an observer of the dynamic system 300 at a time t depends on the input variable u ⁇ and the internal state s ⁇ .
  • the output variable y ⁇ (Yt G SR n ) is predeterminable dimension n.
  • g (.) denotes a general mapping rule
  • a neural structure of interconnected computing elements in the form of a neural network of interconnected neurons is used in [8] (recurrent neural network).
  • the connections between the neurons of the neural network are weighted.
  • the weights of the neural network are summarized in a parameter vector v.
  • an inner state of a dynamic system which is subject to a dynamic process, depends on the input variable u ⁇ - and the inner state of the preceding time S
  • NN denotes a mapping rule specified by the neural network.
  • the dynamic system can also be:
  • a recurrent, neural (basic) structure for describing the dynamic system 300 is known from [9], which is called Time Delay Recurrent Neural Network (TDRNN / RNN).
  • the known TDRNN is shown in FIG. 5 as a neural network 500 which is developed over a finite number of times (shown 5 times: t-4, t-3, t-2, t-1, t).
  • the neural network 500 shown in FIG. 5 has an input layer 501 with five partial input layers 521, 522, 523, 524 and 525, each of which contains a predeterminable number of input computing elements, the input variables . - u t-3 / u t-2 ⁇ u tl and you can be created at predefinable times t-4, t-3, t-2, t-1 and t, ie time series values described below with predefined time steps.
  • Input computing elements i.e. Input neurons are connected via variable connections to neurons with a predefinable number of hidden layers 505 (5 hidden layers shown).
  • Neurons of a first 531, a second 532, a third 533, a fourth 534 and a fifth 535 hidden layer are each connected to neurons of the first 521, the second 522, the third 523, the fourth 524 and the fifth 525 partial input layer.
  • the connections between the first 531, the second 532, the third 533, the fourth 534 and the fifth 535 hidden layer with the first 521, the second 522, the third 523, the fourth 524 and the fifth 525 partial input layer are respectively the same.
  • the weights of all connections are each contained in a first connection matrix Bi.
  • the neurons of the first hidden layer 531 with their outputs are inputs with neurons of the second hidden layer 532 according to a aation matrix A ⁇ given structure.
  • the outputs of the neurons of the second hidden layer 532 are connected to inputs of neurons of the third hidden layer 533 according to a structure given by the second connection matrix A ⁇ .
  • the third neurons were hiding
  • Layer 533 have their outputs connected to inputs of neurons of the fourth hidden layer 534 according to a structure given by the second connection matrix A ⁇ .
  • the neurons of the fourth hidden layer 534 are connected with their outputs to inputs of neurons of the fifth hidden layer 535 according to a structure given by the second connection matrix A ⁇ .
  • the information in the indices in the respective layers indicates the times t-4, t-3, t-2, t-1 and t, to which the signals that can be tapped or supplied at the outputs of the respective layer relate u t-3 ' u t-2' u tl ' u t> •
  • An output layer 520 has five partial output layers, a first partial output layer 541, a second partial output layer 542, a third partial output layer 543, a fourth partial output layer 544 and a fifth partial output layer 545.
  • Neurons of the first partial output layer 541 are connected to neurons of the first hidden layer 531 according to a structure given by an output connection matrix C ⁇ .
  • Neurons of the second sub-output layer 542 are also in accordance with that through the output connection matrix C ⁇ given structure connected to neurons of the second hidden layer 532.
  • Neurons of the third partial output layer 543 are connected to neurons of the third hidden layer 533 according to the output connection matrix C ⁇ .
  • Neurons of the fourth partial output layer 544 are connected to neurons of the fourth hidden layer 534 in accordance with the output connection matrix Ci.
  • Neurons of the fifth partial output layer 545 are connected to neurons of the fifth hidden layer 535 according to the output connection matrix C ⁇ .
  • the output variables for a point in time t-4, t-3, t-2, t-1, t can be tapped at the neurons of the partial output layers 541, 542, 543, 544 and 545 (y t -4 * Yt-3 'Yt -2 'Yt-l * Yt> •
  • connection matrices in a neural network have the same values at any given time is referred to as the principle of the so-called shared weights.
  • Time Delay Recurrent Neural Network (TDRNN) is trained in a training phase in such a way that for each input variable u a target variable y ⁇ is determined on a real dynamic system.
  • the tuple input variable, determined target variable
  • a large number of such training data form a training data record.
  • the successive tuples (u -4 f y _ 4 ) ( ut-3 ' ⁇ -3 ) f (u t-2' y t -2> of the times ( t-4, t-3, t-3 , ...) of the training data set each have a predetermined time step.
  • the TDRNN is trained with the training data record. An overview of various training methods can also be found in [1].
  • T is a number of times taken into account.
  • TDRNN Time Delay Recurrent Neural Network
  • FIG. 400 A structure 400 of such an "overshooting" RNN from [4] is shown in FIG.
  • a basic structure 410 of the "overshooting" RNN is identified within this structure 400.
  • This basic structure 410 is a neural network developed over three times t, t + 1, t + 2.
  • It has an input layer which contains a predeterminable number of input neurons, to which input variables t can be applied at predeterminable times t, that is to say time series values described below with predefined time steps.
  • the input neurons are connected via variable connections to neurons with a predefinable number of hidden layers (3 hidden layers shown).
  • Neurons of a first hidden layer are connected to neurons of the first input layer.
  • connection between the first hidden layer and the first input layer has weights which are contained in a first connection matrix B.
  • the neurons of the first hidden layer are connected with their outputs to inputs of neurons of a second hidden layer according to a structure given by a second connection matrix A.
  • the outputs of the neurons of the second hidden layer are connected to inputs of neurons of a third hidden layer in accordance with a structure given by the second connection matrix A.
  • the details in the indices in the respective layers each indicate the time t, t + 1, t + 2, to which the signals (u ⁇ -) which can be tapped or supplied at the outputs of the respective layer relate.
  • An output layer has two sub-output layers, a first sub-output layer and a second sub-output layer. Neurons of the first partial output layer are connected to neurons of the first hidden layer in accordance with a structure given by an output connection matrix C. the. Neurons of the second partial output layer are also connected to neurons of the second hidden layer in accordance with the structure given by the output connection matrix C.
  • the output variables can be tapped at a time t + 1, t + 2 from the neurons of the partial output layers (y ⁇ _ + ⁇ ,
  • FIG. 800 A structure 800 of such an "ECRNN” or “ECNN” from [7] is shown in FIG.
  • a method for determining weights suitable for removal from a neural network and for removing weights from a neural network is known from [3].
  • the invention is based on the object of specifying a method which enables early detection of undesirable combustion chamber conditions which may occur later or in the future, such as combustion vibrations or hum in the combustion chamber.
  • This object is achieved by the method, by the computer program with program code means and the computer program product for predicting a combustion chamber state using a recurrent, neural network with the features according to the respective independent claim.
  • the prediction method according to the invention for determining a future or predicted combustion chamber state is based on the use of a recurrent, neural network.
  • a training time series and a forecast time series are each determined from state vectors, each of which describes a state of the combustion chamber at a predeterminable point in time.
  • the recurrent neural network is trained at least using the training time series, the recurrent neural network being equipped with a forecasting ability. Seen clearly, the recurrent neural network learns from the training time series a dynamic which the combustion chamber states, generally a "combustion chamber” system, exhibit or have.
  • a prognosis state vector is now determined, which describes the predicted combustion chamber state.
  • the invention makes it clear that recurrent neural networks are particularly suitable for learning the dynamics of complex systems and for updating the dynamics for future system states.
  • Such recurrent neural networks enable short, medium and long-term forecasts of future system states and can thus be used for the early detection of selected system states.
  • the recurrent, neural network is first used to describe the dynamics of a combustion process in a combustion chamber.
  • the recurrent neural network vividly forms an image or model of the burning process. Based on this model, numerous, different and extremely complex analyzes of the burning process can then be carried out as described below.
  • the invention thus advantageously enables short, medium and long-term forecasts of future combustion chamber conditions and can thus be used for early detection of selected combustion chamber conditions, such as, for example
  • Humming condition and / or vibration condition are used.
  • a countermeasure can be initiated at an early stage.
  • the invention is therefore particularly suitable for use in the context of a combustion chamber or early warning system for combustion vibrations and / or combustion chamber hum.
  • the computer program with program code means is set up to carry out all steps according to the inventive method when the program is executed on a computer.
  • the computer program product with program code means stored on a machine-readable carrier is set up to carry out all steps according to the inventive method when the program is executed on a computer.
  • the computer program with program code means set up to carry out all steps according to the inventive method when the program is executed on a computer
  • the computer program product with program code means stored on a machine-readable medium set up to carry out all steps according to the inventive method If the program is executed on a computer, they are particularly suitable for carrying out the method according to the invention or one of its further developments explained below.
  • the invention or any further development described below can also be implemented by a computer program product which has a storage medium on which the computer program with program code means which carries out the invention or further development is stored.
  • recurrent neural networks can be used.
  • recurrent, neural networks of a type “over-”, “undershoot”, “error correction” (ECNN), “causal-retro-causal” (CRCNN) or “causal-retro-causal error correction” are suitable ( CRCECNN).
  • smoothing filters can be provided for the recurrent neural networks.
  • a state description that changes over time is a vector of predeterminable dimension.
  • the dimension can be selected according to a number of factors influencing the burning process.
  • At least some of the following variables and / or variables derived therefrom can be used as influencing variables: an air pressure outside, a gas pressure, a pressure after a compression, a pressure difference at an air filter, a pilot gas, a load, an air temperature, an Gas temperature, a temperature after compression, a pressure reduction in a combustion chamber, a "blade" position, a load (GtLstg), an intake temperature (air temperature inflow) (SaugT), an ambient pressure (air pressure) (UmgPr) , a pressure difference on an air filter (PrDFi), a pressure after compression (pressure after compression (VerPr)), a temperature after a compression (temperature after compression stage (VerdT)), a pressure difference in a combustion chamber (DrVBr), a gas pressure (GasDr), a gas temperature (GasT)), a rotation frequency, a speed, an exhaust gas temperature ( exhaust gas temperature (exhaust gas T)), a first humming pressure amplitude (WD
  • combustion process is described using a quantity describing a combustion chamber hum or using a quantity describing a NOx emission.
  • the combustion chamber is a combustion chamber of a turbine, in particular a gas turbine.
  • Figure 1 is a sketch of a combustion chamber of a gas turbine according to an embodiment
  • FIG. 2 input variables of a state vector for describing a state of a combustion process in a combustion chamber of a gas turbine and target Sizes for training the recurrent neural network;
  • Figure 3 is a sketch of a general description of a dynamic system
  • FIG. 4 shows a sketch of a recurrent neural network of the “overshoot” - neural network type according to the prior art
  • FIG. 5 shows a sketch of a recurrent neural network of a "Time Delay Neural Network” (TDRNN) type, which is developed over time with a finite number of states, in accordance with the prior art;
  • TDRNN Time Delay Neural Network
  • FIG. 6 shows a sketch of a recurrent neural network of the “error correction” type - neural network with a smoothing filter
  • FIGS. 7a and b show sketches of two recurrent, neural networks of the type ECNN (consistency model / approach and prognosis or forward model / approach) according to one exemplary embodiment
  • FIG. 8 shows a sketch of a recurrent neural network of the “error correction” type - neural network according to the prior art
  • FIG. 9 shows a sketch of a recurrent neural network of the type “error correction” - neural network for the prediction of combustion chamber conditions according to an exemplary embodiment.
  • Exemplary embodiment analysis of a combustion process and prognosis of a combustion chamber state in a gas turbine combustion chamber
  • Fig.l schematically shows an annular combustor gas turbine 100 of a V84.3A series, as described in [2].
  • combustion chamber vibration This phenomenon, known as self-excited combustion chamber or combustion vibration, is often associated with very high sound pressure amplitudes and a greatly increased heat transfer to the combustion chamber walls, which leads to an increased mechanical and thermal load on the system.
  • the damage spectrum caused by combustion chamber vibrations ranges from increased noise emissions to reduced performance and damage to individual machine parts.
  • combustion chamber hum combustion process in the combustion chamber
  • System combustion chamber denotes, examined or analyzed in more detail and predicted future combustion chamber conditions (Fig. 9).
  • ECNN - network structure (Fig. 9) A recurrent neural network of the type "Error Correction” (ECNN), which is unfolded over time, is used for the analysis and the prognosis of the combustion chamber states, as shown in FIG. 9.
  • ECNN Error Correction
  • FIGS. 6 and 7a and b Forerunners of the structure according to FIG. 9 used according to the embodiment are shown in FIGS. 6 and 7a and b.
  • Figures 6 and 7a and b show all further developed structures of the known "Error Correction Neural network".
  • 9,900 shows the structure of the ECNN according to the embodiment.
  • the designations, representation elements and nomenclature of the ECNN 300 according to the embodiment are selected in a known manner and in accordance with the known prior art from [4, 5, 6, 7] and according to the structures from FIGS. 3 to 8.
  • 9,900 shows a neural arrangement of interconnected computing elements (neurons 910) in the form of a neural network, the ECNN according to the embodiment.
  • the connections 920 (only partially designated) between the neurons 910 (only partially designated) of the neural network ECNN 900 are weighted.
  • the weights 930 (only partially designated) of the neural network are summarized in a parameter vector v (represented by A, B, C, D).
  • the weights 930 are changed in a training phase of the ECNN 900 and adapted to the "combustion chamber" system.
  • input variables y ⁇ and u (cf. FIG. 2), in this state vector of the "combustion chamber” system, can be applied at predetermined times t with predetermined time steps.
  • Output variables can be tapped from the output neurons for a respective time t + 1, t + 2.
  • the key points of the investigation or analysis are the recording of combustion chamber conditions, for example by measuring combustion chamber conditions, input or reading in of combustion chamber data from a memory, and a subsequent statistical evaluation and analysis of the recorded information carried out by means of a computer and a forecast based thereon.
  • a statistical model the above-described neural network of the ECNN type (FIG. 9), is formed for a "combustion chamber hum" system.
  • the statistical model is the basis for the subsequent analyzes and the subsequent forecast.
  • combustion chamber model combustion chamber model
  • Such a state measurement of parameter values is carried out continuously in time steps of 1 s or for a predetermined period of time repeated, generating a time series of state vectors.
  • Such a data record 200 is shown schematically or in tabular form in FIG. 2 shows the data set 200 with a multiplicity of state vectors 201, each of which comprises the parameter values 202 of a measurement of a combustion chamber state.
  • a state vector comprises the values of the following measurable parameters 203:
  • a state vector 201 can also include further parameters or parameter values.
  • combustion chamber For modeling the "combustion chamber” system, in particular for verifying and analyzing influencing variables on the combustion process and for determining statistical properties which determine the influencing variables (variables) of the "combustion chamber” system.
  • chamber "to each other and for the prediction of combustion chamber states are defined using the parameter variable of the system” combustion chamber ".
  • a statistical model which is described above and is shown in FIG. 9, is developed as a recurrent neural network of the ECNN type.
  • the variables of the "combustion chamber" system are defined in an initialization step.
  • the set of variables or influencing variables as above can be a subset of the measurable parameters 203 or can also (at least in part) be obtained by combinations of certain parameters 203.
  • the variables are combined into a so-called model state vector, components of the model state vector being the variables.
  • an initial structure of an ECNN is also determined, which is made up of nodes and weighted connections.
  • a so-called training data record of the "combustion chamber” system is then determined.
  • the network is processed or trained in accordance with known training methods in such a way that an end structure of the network depicts the “combustion chamber” system or describes the temporal development of combustion chamber states.
  • model state vectors are extracted from a given data set and combined to form a training data set.
  • this is very simple since the parameters correspond to the variables, ie the state vector corresponds to the model state vector.
  • the basic structure of the ECNN is trained with the training data set, the weights of the ECNN being adapted.
  • the combustion chamber model or the combustion chamber hum model is now being developed in the form of the trained ECNN (Fig. 9), which is particularly suitable for examining and analyzing the combustion chamber hum phenomenon [2] and for predicting combustion chamber conditions.
  • combustion chamber hum allows in a generally valid and targeted manner an identification of important influencing variables, combustion chamber problems related to the problem of combustion chamber hum [2] and furthermore the prediction of combustion chamber conditions, especially the previous identification of combustion chamber peaks.
  • Effects of changes in influencing variables on the burning process can also be determined by means of the neural network generated in this way.
  • Countermeasures can also be developed without intervention in the real system modeled by the model or in the turbine, which effectively reduce turbine hum and do not include a reduction in load and power output.
  • the effective countermeasures or combinations thereof are identified, evaluated and prepared.

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Die Erfindung betrifft eine Analyse und Prognose eines Brennkammerzustandes unter Verwendung eines rekurrenten, neuronalen Netzes. Dabei wird das rekurrente, neuronale Netz mit Trainingsdaten von Brennkammerzuständen trainiert und dadurch mit einer Prognosefähigkeit ausgestattet. Unter Verwendung des trainierten, rekurrenten, neuronalen Netzes wird ein Brennkammerzustand prognostiziert.

Description

Beschreibung
Verfahren, Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Prognose eines Brennkammerzustandes unter Verwendung eines rekurrenten, neuronalen Netzes
Die Erfindung betrifft im Allgemeinen eine Analyse eines Brennkammerzustandes .
Aus [1] ist eine Analyse eines Brennkammerzustands, insbesondere eine Analyse von Einflussgrößen auf einen Brennkammerzustand bzw. Brennvorgang in einer Brennkammer, bekannt.
Bei dieser aus [1] bekannten Analyse werden lineare Methoden, wie eine Regressionsanalyse, verwendet, um Abhängigkeiten zwischen den Einflussgrößen und deren Einflussnahme auf den Brennvorgang zu untersuchen.
Da allerdings ein in einer Brennkammer ablaufender Brennvor- gang ein komplexer, nicht linearen Abhängigkeiten von Einflussfaktoren gehorchender Prozess ist, liefern solche "linearen" Analyseverfahren, wie aus [1], keine zuverlässigen und hinreichend genauen Ergebnisse hinsichtlich des Einflusses von Einflussgrößen auf den Brennvorgang.
Aus [2] ist eine weiterführende Analyse eines Brennkammerzustands und eines Brennvorgangs in einer Brennkammer einer Gasturbine, einer sogenannte Ringbrennkammer-Gasturbine V84.3A, bekannt.
Ferner ist aus [2] ein Auftreten von Schwingungen bzw. Vibrationen bei einem Brennvorgang in einer Brennkammer einer Gasturbine, in diesem Fall der Ringbrennkammer-Gasturbine V84.3A, und von durch die Vibrationen bedingten Schädigungen der Brennkammer bekannt. Es ist in [2] beschrieben, dass diese Schwingungen bzw. Vibrationen, ein sogenanntes Brummen bzw. Brennkammerbrummen, entstehen durch eine Mitkopplung von gleichzeitig ablaufenden Brennvorgängen in der Brennkammer der Gasturbine.
Die Vibrationen bedingen eine instabile Flammenfront, die ihrerseits eine stärkere Erhitzung der Brennkammer bewirkt. Diese kann zu Schädigungen der Brennkammer der Gasturbine führen.
Um geeignete Abhilfemaßnahmen gegen das Problem der Verbrennungsschwingungen ergreifen zu können, wird in [2] das Schwingungsphänomen eingehend untersucht und Möglichkeiten zur Beseitigung, insbesondere aktive und passive Methoden, verglichen und diskutiert.
[2] stellt fest bzw. schlägt vor, die schädigenden Schwingungen durch konstruktive Optimierung einer Brennkammergeometrie zu eliminieren.
Gegen eventuell erneut auftretende Schwingungsproblemepbei einer Erweiterung eines Arbeitsbereichs der Gasturbine schlägt [2] eine Aktive Instabilitätskontrolle (AIC) auf Basis einer antizyklischen Modulation eines KraftstoffStroms vor.
Allerdings verlangt die AIC eine aufwendige und teure Senso- rik und Aktorik, was ihre Einsatzmöglichkeit beschränkt.
Ferner ist bekannt, dass sich dieses schädigende Brummen auch durch Reduktion einer Last auf die Gasturbine reduzieren oder vermeiden lässt, d.h. es ist bekannt, dass die Last auf eine Gasturbine einen großen Einfluss auf das bzw. eine starke Abhängigkeit oder Korrelation mit dem (schädliche) Brennkammer- brummen aufweist. Die Reduktion der Last zur Reduzierung oder Vermeidung von Schädigungen einer Brennkammer einer Gasturbine ist allerdings eine nur bedingt praktikable Lösungsmöglichkeit.
In der Regel werden nämlich von Betreibern von Kraftwerken Leistungszusagen gegenüber ihren Abnehmern gegeben, die bei einer Leistungsreduktion der Gasturbinen in Gefahr geraten, nicht erfüllt zu werden.
Demzufolge ist es von Interesse, weitere Abhilfemaßnahmen gegen das Problem der VerbrennungsSchwingungen bzw. Brennkammerbrummen zu kennen, welche weniger aufwendig, praktikabler und effizienter als obige bekannte Abhilfemaßnahmen sind.
Datenanalyse unter Verwendung neuronaler Netzwerke, insbesondere rekurrenter, neuronaler Netze
Es ist allgemein bekannt, neuronale Netzwerke aus Knoten und Verbindungen auf einem Gebiet einer Datenanalyse zu verwenden, sei es um komplexe Prozesse bzw. Systeme und deren Dynamik abzubilden und zu beschreiben, um zukünftige Systemzustände zu prognostizieren oder um Datenstrukturen und Abhängigkeiten von Daten in den Datenstrukturen zu erkennen und zu beschreiben.
Aus [4], [5], [6] und [7] sind Netzwerke zur Beschreibung komplexer, dynamischer Systeme und zur Prognose zukünftiger Systemzustände bekannt.
Diese Netzwerke sind von einem Typ "rekurrente, time-delay (über eine Zeit entfaltete) , neuronale Netze" und können insbesondere auch eingesetzt werden zu einer Analyse einer Zeitreihe, - zu einer Bestimmung einer Dynamik eines komplexen, dynamischen Systems, beispielweise eines chemischen Reaktors o- der eines Finanzmarktes, zu einer Prognose eines Zustandes eines komplexen, dynamischen Systems, beispielweise eines chemischen Reaktors o- der eines Finanzmarktes .
Grundlagen, Trainingsverfahren und Netzstrukturen ([4], [5], [6] und [7]) dieser rekurrenten, neuronalen Netze seien im Folgenden kurz beschrieben.
Aus [8] ist es bekannt, zur Beschreibung und Modellierung ei- nes dynamischen Systems bzw. eines dynamischen Prozesses und dessen Prozessverhaltens eine rekurrente, neuronale Struktur, beispielsweise ein rekurrentes, neuronales Netz, einzusetzen.
Allgemein wird ein dynamisches System bzw. ein dynamischer Prozess durch eine Zustandsübergangsbeschreibung, die für einen Beobachter des dynamischen Prozesses nicht sichtbar ist, und eine Ausgangsgleichung, die beobachtbare Größen des technischen dynamischen Prozesses beschreibt, beschrieben.
Ein solches Prozessverhalten eines dynamischen Prozesses ist in Fig.3 dargestellt.
Der dynamische Prozess 300 bzw. ein dynamisches System 300, in dem der dynamische Prozess abläuft, unterliegt dem Ein- fluss einer externen Eingangsgröße u vorgebbarer Dimension, wobei eine Eingangsgröße ut zu einem Zeitpunkt t mit u-j- bezeichnet wird:
ut 9?J
wobei mit 1 eine natürliche Zahl bezeichnet wird.
Die Eingangsgröße u^- zu einem Zeitpunkt t verursacht eine Veränderung des dynamischen Prozesses. Ein innerer Zustand s (st e 9ϊm ) vorgebbarer Dimension m zu einem Zeitpunkt t ist für einen Beobachter des dynamischen Systems 300 nicht beobachtbar.
In Abhängigkeit vom inneren Zustand Sf und der Eingangsgröße £ wird ein Zustandsübergang des inneren Zustandes s des dynamischen Prozesses verursacht und der Zustand des dynamischen Prozesses geht über in einen Folgezustand s-^+1 zu einem folgenden Zeitpunkt t+1.
Dabei gilt:
Figure imgf000007_0001
wobei mit f(.) eine allgemeine Abbildungsvorschrift bezeichnet wird.
Eine von einem Beobachter des dynamischen Systems 300 beobachtbare Ausgangsgröße y^ zu einem Zeitpunkt t hängt ab von der Eingangsgröße u^ sowie dem inneren Zustand s^.
Die Ausgangsgröße y^ ( Yt G SRn) ist vorgebbarer Dimension n.
Die Abhängigkeit der Ausgangsgröße y^- von der Eingangsgröße u^ und dem inneren Zustand s^- des dynamischen Prozesses ist durch folgende allgemeine Vorschrift gegeben:
Figure imgf000007_0002
wobei mit g(.) eine allgemeine Abbildungsvorschrift bezeichnet wird.
Zur Beschreibung des dynamischen Systems 300 wird in [8] eine neuronale Struktur aus miteinander verbundenen Rechenelemente in Form eines neuronalen Netzes miteinander verbundener Neuronen eingesetzt (rekurrentes neuronales Netz) . Die Verbindungen zwischen den Neuronen des neuronalen Netzes sind gewichtet. Die Gewichte des neuronalen Netzes sind in einem Parametervektor v zusammengefasst .
Somit hängt ein innerer Zustand eines dynamischen Systems, welches einem dynamischen Prozess unterliegt, gemäß folgender Vorschrift von der Eingangsgröße u^- und dem inneren Zustand des vorangegangenen Zeitpunktes S|- und dem Parametervektor v ab:
st + 1 = NN(v, st, ut), (3)
wobei mit NN(.) eine durch das neuronale Netz vorgegebene Abbildungsvorschrift bezeichnet wird.
Diese Beschreibung des dynamischen Systems 300 gemäß Beziehung (3) wird auch als "Forward Approach" bezeichnet.
Alternativ dazu lässt sich das dynamische System auch durch:
st = f(st_lfut) (I
mit
st = NN(v, st_!,ut) (3 )
beschreiben, was als "Backward bzw. Consistency Approach" bezeichnet wird.
"Forward Approach" und "Backward Approach" führen zu geringfügigen strukturellen Unterschieden in den jeweiligen Netzstrukturen, sind aber gleichwertige, alternativ verwendbare Beschreibungsformen für dynamische Systeme.
Aus [9] ist eine rekurrente, neuronale (Grund-) Struktur (vgl. Fig.5) zur Beschreibung des dynamischen Systems 300 bekannt, welche als Time Delay Recurrent Neural Network (TDRNN/RNN) bezeichnet wird.
Das bekannte TDRNN ist in Fig.5 als ein über eine endliche Anzahl von Zeitpunkten (dargestellt 5 Zeitpunkte: t-4, t-3, t-2, t-1, t) entfaltetes neuronales Netz 500 dargestellt.
Das in Fig.5 dargestellte neuronale Netz 500 weist eine Eingangsschicht 501 mit fünf Teileingangsschichten 521, 522, 523, 524 und 525 auf, die jeweils eine vorgebbare Anzahl Ein- gangs-Rechenelemente enthalten, denen Eingangsgrößen .- ut-3 / ut-2 ι ut-l und u zu vorgebbaren Zeitpunkten t-4, t- 3, t-2, t-1 und t, d.h. im weiteren beschriebene Zeitreihenwerte mit vorgegebenen Zeitschritten, anlegbar sind.
Eingangs-Rechenelemente, d.h. Eingangsneuronen, sind über variable Verbindungen mit Neuronen einer vorgebbaren Anzahl versteckter Schichten 505 (dargestellt 5 verdeckte Schichten) verbunden .
Dabei sind Neuronen einer ersten 531, einer zweiten 532, einer dritten 533, einer vierten 534 und einer fünften 535 versteckten Schicht jeweils mit Neuronen der ersten 521, der zweiten 522, der dritten 523, der vierten 524 und der fünften 525 Teileingangsschicht verbunden.
Die Verbindungen zwischen der ersten 531, der zweiten 532, der dritten 533, der vierten 534 und der fünften 535 versteckten Schicht mit jeweils der ersten 521, der zweiten 522, der dritten 523, der vierten 524 und der fünften 525 Teileingangsschicht sind jeweils gleich. Die Gewichte aller Verbindungen sind jeweils in einer ersten Verbindungsmatrix Bi enthalten.
Ferner sind die Neuronen der ersten versteckten Schicht 531 mit ihren Ausgängen mit Eingängen von Neuronen der zweiten versteckten Schicht 532 gemäß einer durch eine zweite Verbin- dungsmatrix A^ gegebene Struktur verbunden. Die Neuronen der zweiten versteckten Schicht 532 sind mit ihren Ausgängen mit Eingängen von Neuronen der dritten versteckten Schicht 533 gemäß einer durch die zweite Verbindungsmatrix A^ gegebene Struktur verbunden. Die Neuronen der dritten versteckten
Schicht 533 sind mit ihren Ausgängen mit Eingängen von Neuronen der vierten versteckten Schicht 534 gemäß einer durch die zweite Verbindungsmatrix A^ gegebene Struktur verbunden. Die Neuronen der vierten versteckten Schicht 534 sind mit ihren Ausgängen mit Eingängen von Neuronen der fünften versteckten Schicht 535 gemäß einer durch die zweite Verbindungsmatrix A^ gegebene Struktur verbunden.
In den versteckten Schichten, der ersten versteckten Schicht 531, der zweiten versteckten Schicht 532, der dritten versteckten Schicht 533, der vierten versteckten Schicht 534 und der fünften versteckten Schicht 535 werden jeweils "innere" Zustände oder "innere" Systemzustände st-4 s -3, st-2/ st-l* und st eines durch das TDRNN beschriebenen dynamischen Pro- zesses an fünf aufeinanderfolgenden Zeitpunkten t-4, t-3, t- 2, t-1 und t repräsentiert.
Die Angaben in den Indizes in den jeweiligen Schichten geben jeweils den Zeitpunkt t-4, t-3, t-2, t-1 und t an, auf die sich jeweils die an den Ausgängen der jeweiligen Schicht abgreifbaren bzw. zuführbaren Signale beziehen
Figure imgf000010_0001
ut-3' ut-2' ut-l' ut> •
Eine AusgangsSchicht 520 weist fünf Teilausgangsschichten, eine erste Teilausgangsschicht 541, eine zweite Teilausgangsschicht 542, eine dritte Teilausgangsschicht 543, eine vierte Teilausgangsschicht 544 sowie eine fünfte Teilausgangsschicht 545 auf. Neuronen der ersten Teilausgangsschicht 541 sind gemäß einer durch eine Ausgangs-Verbindungsmatrix C^ gegebenen Struktur mit Neuronen der ersten versteckten Schicht 531 verbunden. Neuronen der zweiten Teilausgangsschicht 542 sind e- benfalls gemäß der durch die Ausgangs-Verbindungsmatrix C^ gegebenen Struktur mit Neuronen der zweiten versteckten Schicht 532 verbunden. Neuronen der dritten Teilausgangsschicht 543 sind gemäß der Ausgangs-Verbindungsmatrix C^ mit Neuronen der dritten versteckten Schicht 533 verbunden. Neu- ronen der vierten Teilausgangsschicht 544 sind gemäß der Ausgangs-Verbindungsmatrix Ci mit Neuronen der vierten versteckten Schicht 534 verbunden. Neuronen der fünften Teilausgangsschicht 545 sind gemäß der Ausgangs-Verbindungsmatrix C^ mit Neuronen der fünften versteckten Schicht 535 verbunden. An den Neuronen der Teilausgangsschichten 541, 542, 543, 544 und 545 sind die Ausgangsgrößen für jeweils einen Zeitpunkt t-4, t-3, t-2, t-1, t abgreifbar (yt-4* Yt-3' Yt-2' Yt-l* Yt> •
Der Grundsatz, dass äquivalente Verbindungsmatrizen in einem neuronalen Netz zu einem jeweiligen Zeitpunkt die gleichen Werte aufweisen, wird als Prinzip der sogenannten geteilten Gewichtswerte (Shared Weights) bezeichnet.
Die aus [9] bekannte und als Time Delay Recurrent Neural Net- work (TDRNN) bezeichnete Anordnung wird in einer Trainingsphase., derart trainiert, dass zu einer Eingangsgröße u jeweils eine Zielgröße y^ an einem realen dynamischen System ermittelt wird. Das Tupel (Eingangsgröße, ermittelte Zielgröße) wird als Trainingsdatum bezeichnet. Eine Vielzahl solcher Trainingsdaten bilden einen Trainingsdatensatz.
Dabei weisen zeitlich aufeinanderfolgende Tupel (u -4 fy _4) (ut-3 '^ -3)f (ut-2 ' yt-2 > der Zeitpunkte (t-4, t-3, t-3, ...) des Trainingsdatensatzes jeweils einen vorgegeben Zeit- schritt auf.
Mit dem Trainingsdatensatz wird das TDRNN trainiert. Eine Ü- bersicht über verschiedene Trainingsverfahren ist ebenfalls in [1] zu finden.
Es ist an dieser Stelle zu betonen, dass lediglich die Ausgangsgrößen yt-4 ^yt-3 t •■•/ Yt zu Zeitpunkten t-4, t-3, ..., t des dynamischen Systems 800 erkennbar sind. Die "inneren" Systemzustände st_4, st-3 --■/ s^ sind nicht beobachtbar.
In der Trainingsphase wird üblicherweise folgende Kostenfunktion E minimiert:
Figure imgf000012_0001
wobei mit T eine Anzahl berücksichtigter Zeitpunkte bezeichnet wird.
Aus [4, 5, 6, 7] sind Weiterentwicklungen der aus [9] bekannten und als Time Delay Recurrent Neural Network (TDRNN) be- zeichneten neuronalen Struktur (Fig.5) bekannt.
Die Weiterentwicklungen aus [4] sind insbesondere geeignet zur Ermittlung zukünftiger Zustände eines dynamischen Prozesses, was als "overshooting" bezeichnet wird.
Eine Struktur 400 eines solchen "overshooting"-RNN aus [4] ist in Fig.4 dargestellt.
Innerhalb dieser Struktur 400 ist eine Grundstruktur 410 des "overshooting"-RNN gekennzeichnet.
Diese Grundstruktur 410 ist ein über drei Zeitpunkte t, t+1, t+2 entfaltetes neuronales Netz.
Sie weist eine Eingangsschicht auf, die eine vorgebbare Anzahl von Eingangsneuronen enthält, denen Eingangsgrößen t zu vorgebbaren Zeitpunkten t, d.h. im weiteren beschriebene Zeitreihenwerte mit vorgegebenen Zeitschritten, anlegbar sind. Die Eingangsneuronen, sind über variable Verbindungen mit Neuronen einer vorgebbaren Anzahl versteckter Schichten (dargestellt 3 verdeckte Schichten) verbunden.
Dabei sind Neuronen einer ersten versteckten Schicht mit Neuronen der ersten Eingangsschicht verbunden.
Die Verbindung zwischen der ersten versteckten Schicht mit der ersten Eingangsschicht weist Gewichte auf, die in einer ersten Verbindungsmatrix B enthalten sind.
Ferner sind die Neuronen der ersten versteckten Schicht mit ihren Ausgängen mit Eingängen von Neuronen einer zweiten versteckten Schicht gemäß einer durch eine zweite Verbindungs- matrix A gegebene Struktur verbunden. Die Neuronen der zweiten versteckten Schicht sind mit ihren Ausgängen mit Eingängen von Neuronen einer dritten versteckten Schicht gemäß einer durch die zweite Verbindungsmatrix A gegebene Struktur verbunden.
In den versteckten Schichten, der ersten versteckten Schicht, der zweiten versteckten Schicht und der dritten versteckten Schicht werden jeweils "innere" Zustände oder "innere" Systemzustände st, s +l und s +2 des beschriebenen dynamischen Prozesses an drei aufeinanderfolgenden Zeitpunkten t, t+1 und t+2 repräsentiert.
Die Angaben in den Indizes in den jeweiligen Schichten geben jeweils den Zeitpunkt t, t+1, t+2 an, auf die sich jeweils die an den Ausgängen der jeweiligen Schicht abgreifbaren bzw. zuführbaren Signale (u^-) beziehen.
Eine Ausgangsschicht weist zwei Teilausgangsschichten, eine erste Teilausgangsschicht und eine zweite Teilausgangs- schicht, auf. Neuronen der ersten TeilausgangsSchicht sind gemäß einer durch eine Ausgangs-Verbindungsmatrix C gegebenen Struktur mit Neuronen der ersten versteckten Schicht verbun- den. Neuronen der zweiten Teilausgangsschicht sind ebenfalls gemäß der durch die Ausgangs-Verbindungsmatrix C gegebenen Struktur mit Neuronen der zweiten versteckten Schicht verbunden.
An den Neuronen der Teilausgangsschichten sind die Ausgangsgrößen für jeweils einen Zeitpunkt t+1, t+2 abgreifbar (yχ_+\ ,
Yt+2 )
Die Weiterentwicklungen aus [7] sind ebenfalls geeignet zur Ermittlung zukünftiger Zustände eines dynamischen Prozesses. Diese Weiterentwicklungen sind sogenannte "Error Correction Neural Networks (ECRNN oder ECNN) ", welche einen in ihrer Struktur begründeten Fehlerkorrekturmechanismus besitzen.
Eine Struktur 800 eines solchen "ECRNN" bzw. "ECNN" aus [7] ist in Fig.8 dargestellt.
Aus [3] ist ein Verfahren zur Ermittlung von zur Entfernung geeigneten Gewichten eines neuronalen Netzes und zur Entfernung von Gewichten aus einem neuronalen, Netz, ein sogenanntes Pruning-Verfahren, bekannt.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren an- zugeben, welches eine frühzeitige Erkennung von gegebenenfalls später bzw. zukünftig auftretenden, unerwünschten Brennkammerzuständen, wie Verbrennungsschwingungen bzw. Brummen in der Brennkammer, ermöglicht.
Diese Aufgabe wird durch das Verfahren, durch das Computerprogramm mit Programmcode-Mitteln und das Computerprogramm- Produkt zur Prognose eines Brennkammerzustandes unter Verwendung eines rekurrenten, neuronalen Netzes mit den Merkmalen gemäß dem jeweiligen unabhängigen Patentanspruch gelöst. Das erfindungsgemäße Prognoseverfahren zur Ermittlung eines zukünftigen bzw. prognostizierten Brennkammerzustands basiert auf einer Verwendung eines rekurrenten, neuronalen Netzes.
Es werden eine Trainings-Zeitreihe und eine Prognose- Zeitreihe jeweils aus Zustandsvektoren, deren jeder einen Zustand der Brennkammer zu einem vorgebbaren Zeitpunkt beschreibt, bestimmt.
Das rekurrente, neuronale Netz wird mindestens unter Verwendung der Trainings-Zeitreihe trainiert, wobei das rekurrente, neuronale Netz mit einer Prognosefähigkeit ausgestattet wird. Anschaulich gesehen erlernt das rekurrente, neuronale Netz aus der Trainings-Zeitreihe eine Dynamik, welche die Brenn- kammerzustände, im Allgemeinen ein System "Brennkammer", aufweisen bzw. aufweist.
Unter Verwendung der Prognose-Zeitreihe und des trainierten, rekurrenten, neuronalen Netzes wird nun ein Prognose- Zustandsvektor ermittelt, welcher den prognostizierten Brennkammerzustand beschreibt.
Bei der Erfindung wird sich zueigen gemacht, dass rekurrente, neuronale Netze insbesondere geeignet sind, um Dynamiken kom- plexer Systeme zu erlernen und die Dynamiken für zukünftige Systemzustände fortzuschreiben.
Auch ermöglichen solche rekurrente, neuronale Netze insbesondere kurz-, mittel- und langfristige Prognosen von zukünfti- gen Systemzuständen und können damit zu einer frühzeitigen Erkennung ausgewählter Systemzustände eingesetzt werden.
Im Falle der Erfindung wird das rekurrente, neuronale Netz zunächst verwendet, um die Dynamik eines Brennvorgangs in ei- ner Brennkammer zu beschreiben. Anschaulich bildet dabei das rekurrente, neuronale Netz ein Abbild bzw. Modell der Brennvorgangs. Anhand dieses Modells lassen sich dann nachfolgend vielzählige, verschiedene und überaus komplexe Analysen des Brennvorgangs wie nachfolgend beschrieben durchführen.
So ermöglicht die Erfindung in vorteilhafter Weise kurz-, mittel- und langfristige Prognosen von zukünftigen Brennkammerzuständen und kann damit zu einer frühzeitigen Erkennung ausgewählter Brennkammerzuständen, wie Beispielweise ein
Brummzustand und/oder Schwingungszustand eingesetzt werden.
Wird ein solcher ausgewählter Zustand prognostiziert, so kann frühzeitig eine Gegenmaßnahme eingeleitet werden.
Auch kann die Erfindung wegen der erfindungsgemäßen Verwendung solcher rekurrenter, neuronaler Netze bzw. der besonderen Eigenschaften solcher rekurrenten, neuronalen Netze für sogenannte "first cause"-Analysen für unerwünschte/erwünschte Brennkammerzustände und/oder für eine Ermittlung sogenannter "early warning"-Indikatoren bei unerwünschten/erwünschten Brennkammerzuständen eingesetzt werden.
Damit ist die Erfindung insbesondere geeignet, im Rahmen ei- nes Brennkammer- bzw. Frühwarnsystems für VerbrennungsSchwingungen und/oder Brennkammerbrummen eingesetzt werden.
Ursachenanalysen für Brennvorgangsprobleme, Wirkungsanalysen für vorgebare Brennvorgangszustände, Simulationen und Progno- sen von Brennvorgängen bzw. Brennvorgangszustände können durch die Erfindung durchgeführt werden.
Ferner können bei der erfindungsgemäßen Analyse Ursache- Wirkungszusammenhänge bei dem Brennvorgang offensichtlich ge- macht werden. Das Computerprogramm mit Programmcode-Mitteln ist eingerichtet, um alle Schritte gemäß dem erfindungsgemäßen Verfahren durchzuführen, wenn das Programm auf einem Computer ausgeführt wird.
Das Computerprogramm-Produkt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode-Mitteln ist eingerichtet, um alle Schritte gemäß dem erfindungsgemäßen Verfahren durchzuführen, wenn das Programm auf einem Computer ausgeführt wird.
Das Computerprogramm mit Programmcode-Mitteln, eingerichtet um alle Schritte gemäß dem erfinderischen Verfahren durchzuführen, wenn das Programm auf einem Computer ausgeführt wird, sowie das Computerprogramm-Produkt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode-Mitteln, eingerichtet um alle Schritte gemäß dem erfinderischen Verfahren durchzuführen, wenn das Programm auf einem Computer ausgeführt wird, sind insbesondere geeignet zur Durchführung des erfindungsgemäßen Verfahrens oder einer seiner nachfolgend erläuterten Weiterbildungen.
Bevorzugte Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.
Die im weiteren beschriebenen Weiterbildungen beziehen sich sowohl auf die Verfahren als auch auf das Computerprogramm und auf das Computer-Programmprodukt.
Die Erfindung und die im weiteren beschriebenen Weiterbildungen können sowohl in Software als auch in Hardware, beispielsweise unter Verwendung einer speziellen elektrischen Schaltung, realisiert werden. Ferner ist eine Realisierung der Erfindung oder einer im weiteren beschriebenen Weiterbildung möglich durch ein computerlesbares Speichermedium, auf welchem das Computerprogramm mit Programmcode-Mitteln gespeichert ist, welches die Erfindung oder Weiterbildung ausführt.
Auch kann die Erfindung oder jede im weiteren beschriebene Weiterbildung durch ein Computerprogrammerzeugnis realisiert sein, welches ein Speichermedium aufweist, auf welchem das Computerprogramm mit Programmcode-Mitteln gespeichert ist, welches die Erfindung oder Weiterbildung ausführt.
In Weiterbildungen der Erfindung können verschiedene Typen von rekurrenten, neuronalen Netzen verwendet werden. Insbe- sondere sind geeignet rekurrente, neuronale Netze von einem Typ "Over-", "Undershooting", "Error Correction" (ECNN), "Causal-Retro-Causal" (CRCNN) oder "Causal-Retro-Causal Error Correction" (CRCECNN) .
Derartige Typen von rekurrenten, über eine Zeit entfalteten, neuronalen Netzen sind in [4], [5], [6] und [7] beschrieben.
Gegebenenfalls können bei den rekurrenten, neuronalen Netzen Glättungsfilter vorgesehen werden.
In einer Ausgestaltung ist eine zeitlich veränderliche Zu- standsbeschreibung ein Vektor vorgebbarer Dimension ist.
Die Dimension kann entsprechend einer Anzahl von Einflussgrö- ßen auf den Brennvorgang gewählt werden.
Als Einflussgrößen können mindestens einige der folgenden Größen und/oder davon abgeleitete Größen verwendet werden : einen Luftdruck außen, einen Gasdruck, einen Druck nach einer Kompression, eine Druckdifferenz an einem Luftfilter, ein Pilotgas, eine Last, eine Lufttemperatur, eine Gastemperatur, eine Temperatur nach einer Kompression, eine Druckreduktion in einer Brennkammer, eine "blade" Position, eine Last (GtLstg) , eine Ansaugtemperatur (air tem- perature inflow) (SaugT) , einen Umgebungsdruck (air pres- sure) (UmgPr) , eine Druckdifferenz an einem Luftfilter (pressure difference air filter, PrDFi) , einen Druck nach einer Kompression (pressure after compression, sta- ge(VerPr)), eine Temperatur nach einer Kompression (tempe- rature after compression stage (VerdT) ) , eine Druckdiffe- renz in einer Brennkammer (pressure difference burning chamber (DrVBr) ) , einen Gasdruck (gas pressure (GasDr) ) , eine Gastemperatur (gas temperature (GasT) ) , eine Rotationsfrequenz (rotation frequency) , eine Drehzahl, eine Abgastemperatur (exhaust gas temperature (AbgasT) ) , eine erste Brummgröße (humming pressure amplitude (WD01) ) , eine zweite Brummgröße (humming pressure amplitude (WD02) ) .
Weiter kann vorgesehen werden, dass der Brennvorgang unter Verwendung einer ein Brennkammerbrummen beschreibenden Größe oder unter Verwendung einer eine Nox-Emission beschreibende Größe beschrieben wird.
Bei einer Weiterbildung ist vorgesehen, dass die Brennkammer eine Brennkammer einer Turbine, insbesondere einer Gasturbi- ne, ist.
In Figuren ist ein Ausführungsbeispiel der Erfindung dargestellt, welches im weiteren näher erläutert wird.
Es zeigen
Figur 1 eine Skizze einer Brennkammer einer Gasturbine gemäß einem Ausführungsbeispiel;
Figur 2 Input-Variablen eines Zustandsvektors zur Beschreibung eines Zustands eines Brennvorgangs in einer Brennkammer einer Gasturbine und Target- Größen für ein Training des rekurrenten neuronalen Netzes;
Figur 3 eine Skizze einer allgemeinen Beschreibung eines dynamischen Systems;
Figur 4 eine Skizze eines rekurrenten neuronalen Netzes von einem Typ "Overshooting" - Neural Network gemäß dem Stand der Technik;
Figur 5 eine Skizze eines rekurrenten neuronalen Netzes von einem Typ "Time Delay Neural Network" (TDRNN) , welches mit endlich vielen Zuständen über die Zeit entfaltet ist, gemäß dem Stand der Technik;
Figur 6 eine Skizze eines rekurrenten neuronalen Netzes von einem Typ "Error Correction" - Neural Network mit einem Glättungsfilter;
Figuren 7a und b Skizzen zweier rekurrenter, neuronaler Netze vom Typ ECNN (Consistency Model/Approach und Prognosis bzw. Forward Model/Approach) gemäß einem Ausführungsbeispiel;
Figur 8 eine Skizze eines rekurrenten, neuronalen Netzes von einem Typ "Error Correction" - Neural Network gemäß dem Stand der Technik;
Figur 9 eine Skizze eines rekurrenten neuronalen Netzes von einem Typ "Error Correction" - Neural Network zur Prognose von Brennkammerzuständen gemäß einem Ausführungsbeispiel .
Ausführungsbeispiel: Analyse eines Brennvorgangs und Prognose eines Brennkammerzustandes in einer Gasturbinenbrennkammer Fig.l zeigt schematisch eine Ringbrennkammer-Gasturbine 100 einer V84.3A Serie, wie sie in [2] beschrieben ist.
Bei dieser Ringbrennkammer-Gasturbine 100 zeigt sich unter gewissen Betriebsbedingungen im Vormischbetrieb ein "Brummen" aufgrund selbst erregter Verbrennungsschwingungen.
Bei der Verbrennung in geschlossenen Brennräumen kann es zu einer Rückkopplung zwischen der Leistungsfreisetzung in der Flamme und der Akustik in der Brennkammer kommen. Dabei wird durch Schwankungen in der Leistungsfreisetzung der Verbrennung ein Schallfeld im Brennraum angeregt, das wiederum erneute Schwankungen in der Verbrennungsleistung hervorruft. Erfolgen die Druck- und Leistungsschwingungen ausreichend in Phase, ist also ein so genanntes Rayleigh-Kriterium erfüllt, so kommt es zu einer Selbstverstärkung der Oszillationen.
Dieses als selbst erregte Brennkammer- oder Verbrennungsschwingung bekannte Phänomen ist oft mit sehr hohen Schall- druckamplituden und einem stark erhöhten Wärmeübergang an die Brennkammerwände verbunden, was zu einer verstärkten mechanischen und thermischen Belastung des Systems führt. Das durch Brennkammerschwingungen verursachte Schadensspektrum reicht von erhöhter Lärmemission über Leistungsminderungen bis zur Beschädigung einzelner Maschinenteile.
Um frühzeitig geeignete Abhilfemaßnahmen gegen das Problem der VerbrennungsSchwingungen (Brennkammerbrummen) , wie sie in der V84.3A auftreten, ergreifen zu können, werden ein Verbrennungsvorgang in der Brennkammer, im folgenden als
"System Brennkammer" bezeichnet, eingehender untersucht bzw. analysiert und zukünftige Brennkammerzustände prognostiziert (Fig.9) .
ECNN - Netzstruktur (Fig.9) Für die Analyse sowie die Prognose der Brennkammerzustände wird ein rekurrentes, über die Zeit entfaltetes, neuronales Netz vom Typ "Error Correction" (ECNN), wie in Fig.9 dargestellt, verwendet.
Vorläufer der ausführungsgemäße verwendeten Struktur nach Fig.9 sind in den Figuren 6 und 7a und b dargestellt. Die Figuren 6 und 7a und b zeigen alle weiterentwickelte Strukturen des bekannten "Error Correction Neural network" .
Grundlagen, Trainingsverfahren und Netzstrukturen eines solchen ECNN sind in [5], [6] und [7] beschrieben.
Es sei aber darauf hingewiesen, dass auch andere Strukturen rekurrenter, neuronaler Netze, wie im obigen genannt, verwendet werden können.
Fig.9 900 zeigt die Struktur des ausführungsgemäßen ECNN.
Bezeichnungen, Darstellungselemente und Nomenklatur des ausführungsgemäßen ECNN 300 sind in bekannter Weise und entsprechend dem bekannten Stand der Technik aus [4, 5, 6, 7] sowie gemäß den Strukturen aus den Figuren 3 bis 8 gewählt.
So zeigt Fig.9 900 eine neuronale Anordnung miteinander verbundener Rechenelemente (Neuronen 910) in Form eines neuronalen Netzes, des ausführungsgemäßen ECNN.
Die Verbindungen 920 (nut teilweise bezeichnet) zwischen den Neuronen 910 (nur teilweise bezeichnet) des neuronalen Netzes ECNN 900 sind gewichtet. Die Gewichte 930 (nur teilweise bezeichnet) des neuronalen Netzes sind in einem Parametervektor v (dargestellt durch A, B, C, D) zusammengefasst .
Die Gewichte 930 werden in einer Trainingsphase des ECNN 900 verändert und dem System "Brennkammer" angepasst. An den Eingangsneuronen sind Eingangsgrößen y^ bzw. u (vgl. Figuren 2) , in diesem Zustandsvektoren des System "Brennkammer", zu vorgebbaren Zeitpunkten t mit vorgegebenen Zeitschritten anlegbar.
An den Ausgangsneuronen sind Ausgangsgrößen für jeweils einen Zeitpunkt t+1, t+2 abgreifbar.
Erfassung und statistische Auswertung von Brennkammerzuständen
Kernpunkte der Untersuchung bzw. Analyse bilden eine Erfassung von Brennkammerzuständen, beispielsweise durch Messung von Brennkammerzuständen, Eingabe oder Einlesen von Brennkammerdaten aus einem Speicher, und eine anschließende mittels eines Rechners durchgeführte statistische Auswertung und Analyse der erfassten Informationen sowie eine darauf aufbauende Prognose.
Bei der statistischen Auswertung wird ein statistisches Modell, obig beschriebenes neuronales Netz vom Typ ECNN (Fig.9), für ein System "Brennkammerbrummen" gebildet.
Das statistische Modell ist Grundlage für die nachfolgenden Analysen und die nachfolgende Prognose.
Aufstellen Brennkammermodell (Modell Brennkammer)
Bei einer Messung eines Brennkammerzustandes werden aktuelle Parameterwerte gemessen und in Form eines Zustandsvektors in einem Speicher des Rechners gespeichert. Entsprechendes gilt im Falle eines Einlesens oder Eingehens von Brennkammerdaten.
Eine solche Zustandsmessung von Parameterwerten wird in Zeitschritten von ls ständig bzw. für einen vorgegebenen Zeitraum wiederholt, wobei eine Zeitreihe von Zustandsvektoren generiert wird.
Diese werden zusammengefasst und als Datensatz gespeichert.
In der Figur 2 ist ein solcher Datensatz 200 schematisch bzw. tabellarisch dargestellt. Fig.2 zeigt den Datensatz 200 mit einer Vielzahl von Zustandsvektoren 201, deren jeder die Parameterwerte 202 einer Messung eines Brennkammerzustands um- fasst.
Eine Zustandvektor umfasst jeweils die Werte folgender messbaren Parameter 203:
- GtLsg - SaugT
- UmgPr
- PrDFi
- VerdPr
- VerdT - Schaufel
- DrVBr
- PilotG
- GasDr
- GasT - Drehz
- AbgasT
- WD01
- WD02.
Es ist darauf hinzuweisen, dass obige Auflistung von Parametern nicht abschließend zu verstehen ist. Ein Zustandsvektor 201 kann auch weitere Parameter bzw. Parameterwerte umfassen.
Zur Modellierung des Systems "Brennkammer", insbesondere zur Verifizierung und Analyse von Einflussgrößen auf den Verbrennungsvorgang sowie zur Ermittlung statistischer Eigenschaften, welche die Einflussgrößen (Variable) des Systems "Brenn- kammer" zueinander aufweisen und zur Prognose von Brennkammerzuständen, werden unter Verwendung der Parameter Variable des Systems "Brennkammer" definiert. Diese sollen einen Brennkammerzustand bzw. den Brennvorgang möglichst umfassend beschreiben.
Unter Verwendung dieser statistischen Größen wird ein statistisches Modell, das obig beschrieben und in Figur 9 dargestellte rekurrente, neuronale netz vom Typ ECNN, entwickelt.
Unter Verwendung des statistischen Modells, des ECNN (Fig.9) wird anschließend eine weiterführende Analyse des Systems "Brennkammer" und damit eines Brennvorgangs sowie die Prognose von Brennkammerzuständen und die Früherkennung von Brenn- kammerbrummen durchgeführt.
Nachfolgende Verfahrensschritte bei der Ermittlung eines Modells des Systems "Brennkammer" werden durchgeführt:
In einem Initialisierungsschritt werden die Variablen des Systems "Brennkammer" festgelegt.
Die definierten Variablen des Systems "Brennkammer" sind:
- GtLsg - SaugT
- U gPr
- PrDFi
- VerdPr
- VerdT - Schaufel
- DrVBr
- PilotG
- GasDr
- GasT - Drehz
- AbgasT
- WD01 - WD02 und stimmen in diesem Fall mit den messbaren Parametern 203 überein .
Es ist zu betonen, dass diese Übereinstimmung nicht notwendigerweise immer gegeben sein muss. Der Satz von Variablen bzw. von Einflussgrößen wie obig kann eine Teilmenge aus den messbaren Parametern 203 sein oder auch (zumindest zum Teil) durch Kombinationen von bestimmten Parametern 203 gewonnen werden.
Auch ist diese Aufzählung von Variablen nicht als abschließend zu verstehen. Es können durchaus weitere Variablen definiert werden, welche das System "Brennkammer" beschreiben.
Die Variablen werden zu einem sogenannten Modellzustandsvek- tor zusammengefasst, wobei Komponenten des Modellzustandsvek- tors die Variablen sind.
In dem Initialisierungsschritt wird ferner eine Anfangsstruktur eines ECNN bestimmt, welches aus Knoten und gewichteten Verbindungen aufgebaut ist.
Anschließend wird ein sogenannter Trainingsdatensatz des Sys- tems "Brennkammer" ermittelt. Unter Verwendung dieses Trainingsdatensatzes wird nach bekannten Trainingsverfahren das Netzwerk derart bearbeitet bzw. trainiert, dass eine Endstruktur des Netzwerks das System "Brennkammer" abbildet bzw. die zeitliche Entwicklung von Brennkammerzuständen be- schreibt.
Dazu werden aus einem vorgegeben Datensatz Modellzustandsvek- toren extrahiert und zu einem Trainingsdatensatz zusammengefasst. Dieses gestaltet sich in diesem Fall sehr einfach, da die Parameter mit den Variablen übereinstimmen, d.h. der Zustands- vektor mit dem Modellzustandsvektor übereinstimmt.
Mit dem Trainingsdatensatz wird die Grundstruktur des ECNN trainiert, wobei die Gewichte des ECNN angepasst werden.
Dadurch wird nun das Modell Brennkammer bzw. das Modell Brennkammerbrummen in Form des trainierten ECNN (Fig.9) ent- wickelt, welches insbesondere geeignet ist, zur Untersuchung und Analyse des Phänomens Brennkammerbrummen [2] und zur Prognose von Brennkammerzuständen.
Dieses Modell Brennkammerbrummen erlaubt auf allgemeingültige und zielgerichtete Art und Weise eine Identifikation von wichtigen mit dem Problem des Brennkammerbrummens [2] im Zusammenhang stehenden Einflussgrößen, Brennkammerprobleme und darüber hinaus die Prognose von Brennkammerzuständen, insbesondere die vorherige Identifizierung von Brennkammerspitzen.
Durch vorheriges Identifizieren von Brennkammerspitzen und anderen unerwünschten Brennkammerzuständen können rechtzeitig Gegenmaßnahmen eingeleitet und dadurch derartiges Auftreten vermieden oder abgeschwächt werden.
Auch können mittels des derart erzeugten neuronalen Netzes Effekte von Änderungen von Einflussgrößen auf den Brennvorgang ermittelt werden.
Dadurch können ohne Experimente an der Turbine oder vor deren Einleitung die Wirkungen von Gegenmaßnahmen gegen ein Brummen abgeschätzt werden.
Auch können ohne Eingriff in das durch das Modell modellierte reale System bzw. in die Turbine Gegenmaßnahmen entwickelt werden, die wirkungsvoll Turbinenbrummen verringern und nicht eine Reduzierung der Last und Stromleistung beinhalten. Die wirksamen Gegenmaßnahmen oder Kombinationen daraus werden identifiziert, evaluiert und vorbereitet.
In diesem Dokument sind folgende Schriften zitiert:
[1] S.M. Candel, Combustion Instability Coupled by Pressure Waves and their Active Control, Invited General Lecture, 25. Int. Symp. On Combustion, Sydney, 1992;
[2] J. Hermann, et al., Aktive Instabilitätskontrolle an einer 170 MW Gasturbine, VDI-Bericht Nr. 1313, 18. Deutsch- Niederländischer Flammentag, TU Delft/NL, 28.-29. August 1997;
[3] EP-Offenlegungsnummer 0890153 AI (Pruning) ;
[4] EP 1145192 AI (Over-Under-Shooting) ;
[5] EP-Anmeldeaktenzeichen 01978185.5 (Kausal-Retro-Kausal) ;
[6] PCT-Anmeldeaktenzeichen PCT/DE02/03494 (Kausal-Retro-Kausal) ;
[7] EP 1252566 AI (error-correction) ;
[8] S. Haykin, Neural Networks: A Comprehensive Foundation, Prentice Hall, Second Edition, ISBN 0-13-273350-1, S. 732-789, 1999;
[9] David E. Rumelhart et al., Parallel Distributed Processing, Explorations in the Microstructure of Cognition, Vol. 1: Foundations, A Bradford Book, The MIT Press, Cambrigde, Massachusetts, London, England, 1987.

Claims

Patentansprüche
1. Verfahren zur Prognose eines Brennkammerzustandes unter Verwendung eines rekurrenten, neuronalen Netzes, - bei dem eine Trainings-Zeitreihe und eine Prognose- Zeitreihe jeweils aus Zustandsvektoren, deren jeder einen Zustand der Brennkammer zu einem vorgebbaren Zeitpunkt beschreibt, bestimmt wird, bei dem das rekurrente, neuronale Netz mindestens unter Verwendung der Trainings-Zeitreihe trainiert wird, wobei das rekurrente, neuronale Netz mit einer Prognosefähigkeit ausgestattet wird, bei dem mindestens unter Verwendung der Prognose-Zeitreihe und des trainierten, rekurrenten, neuronalen Netzes ein Prognose-Zustandsvektor ermittelt wird, welcher einen prognostizierten Brennkammerzustand beschreibt.
2. Verfahren nach Anspruch 1, bei dem das rekurrente, neuronale Netze mindestens von ei- nem Typ aus einer Typenliste mit einem "Overshooting"-, "Undershooting"- Neuronalen TNetz", "Error Correction"- Neuronalen Netz (ECNN) , "Causal-Retro-Causal"-Neuronalen Netz (CRCNN) oder "Causal-Retro-Causal Error Correction"- Neuronalen Netz (CRCECNN) verwendet wird.
3. Verfahren nach einem der vorangehenden Ansprüche, bei dem der Zustandsvektor mindestens einige der folgenden Größen und/oder davon abgeleitete Größen und/oder daraus transformierte Größen umfasst: - einen Luftdruck außen, einen Gasdruck, einen Druck nach einer Kompression, eine Druckdifferenz an einem Luftfilter, ein Pilotgas, eine Last, eine Lufttemperatur, eine Gastemperatur, eine Temperatur nach einer Kompression, eine Druckreduktion in einer Brennkammer, eine "blade" (Schaufel-) Position.
4. Verfahren nach einem der vorangehenden Ansprüche, bei dem der Zustandsvektor durch Messen eines Brennkammerzustands und/oder durch Ein- und/oder Auslesen von Daten ermittelt wird.
>. Verfahren nach dem vorangehenden Anspruch, bei dem der Brennvorgang unter Verwendung einer eine Nox- Emission beschreibenden Größe beschrieben wird, wobei die Einflussgrößen auf die die Nox-Emission beschreibende Größe abgebildet werden.
6. Verfahren nach dem vorangehenden Anspruch, bei dem die das Brennkammerbrummen beschreibende Größe eine Targetgröße bei dem Training ist.
7. Verfahren nach dem vorangehenden Anspruch, bei dem die die Nox-Emission beschreibende Größe die Targetgröße bei dem Training ist.
8. Verfahren nach einem der vorangehenden Ansprüche, - bei dem die Analyse der Einflussgrößen unter Verwendung eines Pruning-Verfahrens durchgeführt wird.
9. Verfahren nach dem vorangehenden Anspruch, bei dem bei dem Pruning-Verfahren ein Pruning der Modell- parameter durchgeführt wird.
10. Verfahren nach einem der vorangehenden Ansprüche, bei dem die Brennkammer eine Brennkammer einer Turbine, insbesondere einer Gasturbine, ist.
11. Verfahren nach einem der vorangehenden Ansprüche, eingesetzt im Rahmen einer Sensitivitätsanalyse für Einflussgrößen eines Brennvorgangs einer Brennkammer.
12. Verfahren nach einem der vorangehenden Ansprüche, eingesetzt zu einer Ermittlung einer Reihenfolge einer Wichtigkeit von Einflussgrößen auf ein Brennkammerbrummen einer Brennkammer.
13. Verfahren nach einem der vorangehenden Ansprüche, eingesetzt zu einer Ermittlung einer Reihenfolge einer Wichtigkeit von Einflussgrößen auf eine Nox-Emission einer Brennkammer .
14. Computerprogramm mit Programmcode-Mitteln, um alle
Schritte gemäß Anspruch 1 durchzuführen, wenn das Programm auf einem Computer ausgeführt wird.
15. Computerprogramm mit Programmcode-Mitteln gemäß dem vo- rangehenden Anspruch, welche Programmcode-Mitteln auf einem computerlesbaren Datenträger gespeichert sind.
16. Computerprogramm-Produkt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode-Mitteln, um alle Schritte gemäß Anspruch 1 durchzuführen, wenn das Programm auf einem Computer ausgeführt wird.
PCT/EP2005/050452 2004-02-24 2005-02-02 Verfahren, zur prognose eines brennkammerzustandes unter verwendung eines rekurrenten, neuronalen netzes WO2005081076A2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102004008907.8 2004-02-24
DE102004008907 2004-02-24

Publications (2)

Publication Number Publication Date
WO2005081076A2 true WO2005081076A2 (de) 2005-09-01
WO2005081076A3 WO2005081076A3 (de) 2006-03-02

Family

ID=34877084

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2005/050452 WO2005081076A2 (de) 2004-02-24 2005-02-02 Verfahren, zur prognose eines brennkammerzustandes unter verwendung eines rekurrenten, neuronalen netzes

Country Status (1)

Country Link
WO (1) WO2005081076A2 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007001024A1 (de) * 2007-01-02 2008-07-03 Siemens Ag Verfahren zur rechnergestützten Regelung und/oder Steuerung eines technischen Systems insbesondere einer Gasturbine
DE102007017259A1 (de) * 2007-04-12 2008-10-16 Siemens Ag Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102007042440B3 (de) * 2007-09-06 2009-01-29 Siemens Ag Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102008020379A1 (de) * 2008-04-23 2009-10-29 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102010011221A1 (de) * 2010-03-12 2011-09-15 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102011076969A1 (de) * 2011-06-06 2012-12-06 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen einer Regelung und/oder Steuerung eines technischen Systems
EP2706422A1 (de) 2012-09-11 2014-03-12 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Überwachung des Betriebs eines technischen Systems, insbesondere einer elektrischen Energieerzeugungsanlage
FR3046265A1 (fr) * 2015-12-29 2017-06-30 Thales Sa Systeme de surveillance d'une installation industrielle ; procedes de configuration et de surveillance associes

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002027654A2 (de) * 2000-09-29 2002-04-04 Siemens Aktiengesellschaft Verfahren und anordnung zur rechnergestützten abbildung mehrerer zeitlich veränderlicher zustandsbeschreibungen und verfahren zum training einer solchen anordnung
DE10146222A1 (de) * 2001-09-19 2003-04-10 Siemens Ag Verfahren und Anordnung zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems
EP1145192B1 (de) * 1999-03-03 2003-05-14 Siemens Aktiengesellschaft Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
EP1252566B1 (de) * 2000-01-31 2003-09-17 Siemens Aktiengesellschaft Anordnung miteinander verbundener rechenelemente und verfahren zur rechnergestützten ermittlung eines zweiten zustands eines systems in einem ersten zustandsraum aus einem ersten zustand des systems in dem ersten zustandsraum

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1145192B1 (de) * 1999-03-03 2003-05-14 Siemens Aktiengesellschaft Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
EP1252566B1 (de) * 2000-01-31 2003-09-17 Siemens Aktiengesellschaft Anordnung miteinander verbundener rechenelemente und verfahren zur rechnergestützten ermittlung eines zweiten zustands eines systems in einem ersten zustandsraum aus einem ersten zustand des systems in dem ersten zustandsraum
WO2002027654A2 (de) * 2000-09-29 2002-04-04 Siemens Aktiengesellschaft Verfahren und anordnung zur rechnergestützten abbildung mehrerer zeitlich veränderlicher zustandsbeschreibungen und verfahren zum training einer solchen anordnung
DE10146222A1 (de) * 2001-09-19 2003-04-10 Siemens Ag Verfahren und Anordnung zur Ermittlung eines aktuellen ersten Zustands einer ersten zeitlichen Abfolge von jeweils ersten Zuständen eines dynamisch veränderlichen Systems

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CANDEL S M: "COMBUSTION INSTABILITIES COUPLED BY PRESSURE WAVES AND THEIR ACTIVE CONTROL" SYMPOSIUM (INTERNATIONAL) ON COMBUSTION, COMBUSTION INSTITUTE, PITTSBURGH, PA, US, 1992, Seiten 1277-1296, XP009049689 *
HERMANN J ET AL: "AKTIVE INSTABILITAETSKONTROLLE AN EINER 170 MW GASTURBINE" VERBRENNUNG UND FEUERUNGEN - 18. DEUTSCH-NIEDERLAENDISCHER FLAMMENTAG. DELFT, AUG. 28 - 29, 1997, VDI BERICHTE, 1313, DUESSELDORF, VDI VERLAG, DE, 1997, Seiten 337-344, XP009049688 ISBN: 3-18-091313-4 *
KALOGIROU S A: "Artificial intelligence for the modeling and control of combustion processes: a review" PROGRESS IN ENERGY AND COMBUSTION SCIENCE, ELSEVIER SCIENCE PUBLISHERS, AMSTERDAM, NL, Bd. 29, Nr. 6, 2003, Seiten 515-566, XP004470707 ISSN: 0360-1285 *
SIMON HAYKIN: "Neural Networks: A Comprehensive Foundation" 1999, PRENTICE HALL INTERNATIONAL , XP002344426 ISBN: 0-13-908385-5 Seite 732 - Seite 789 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007001024A1 (de) * 2007-01-02 2008-07-03 Siemens Ag Verfahren zur rechnergestützten Regelung und/oder Steuerung eines technischen Systems insbesondere einer Gasturbine
DE102007001024B4 (de) * 2007-01-02 2008-10-02 Siemens Ag Verfahren zur rechnergestützten Regelung und/oder Steuerung eines technischen Systems insbesondere einer Gasturbine
US8099181B2 (en) 2007-01-02 2012-01-17 Siemens Aktiengesellschaft Method for the computer-aided regulation and/or control of a technical system, especially a gas turbine
DE102007017259B4 (de) * 2007-04-12 2009-04-09 Siemens Ag Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102007017259A1 (de) * 2007-04-12 2008-10-16 Siemens Ag Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102007042440B3 (de) * 2007-09-06 2009-01-29 Siemens Ag Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
US8447706B2 (en) 2007-09-06 2013-05-21 Siemens Aktiengesellschaft Method for computer-aided control and/or regulation using two neural networks wherein the second neural network models a quality function and can be used to control a gas turbine
DE102008020379A1 (de) * 2008-04-23 2009-10-29 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
EP2112568A3 (de) * 2008-04-23 2011-05-11 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
US8160978B2 (en) 2008-04-23 2012-04-17 Siemens Aktiengesellschaft Method for computer-aided control or regulation of a technical system
CN102792234A (zh) * 2010-03-12 2012-11-21 西门子公司 用于计算机辅助地控制和/或调节技术系统的方法
DE102010011221A1 (de) * 2010-03-12 2011-09-15 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102010011221B4 (de) * 2010-03-12 2013-11-14 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102011076969A1 (de) * 2011-06-06 2012-12-06 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen einer Regelung und/oder Steuerung eines technischen Systems
DE102011076969B4 (de) * 2011-06-06 2015-01-08 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen einer Regelung und/oder Steuerung eines technischen Systems
EP2706422A1 (de) 2012-09-11 2014-03-12 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Überwachung des Betriebs eines technischen Systems, insbesondere einer elektrischen Energieerzeugungsanlage
FR3046265A1 (fr) * 2015-12-29 2017-06-30 Thales Sa Systeme de surveillance d'une installation industrielle ; procedes de configuration et de surveillance associes

Also Published As

Publication number Publication date
WO2005081076A3 (de) 2006-03-02

Similar Documents

Publication Publication Date Title
EP1668431B1 (de) Verfahren, computerprogramm mit programmcode-mitteln und computerprogramm-produkt zur analyse von einflussgrössen auf einen brennvorgang in einer brennkammer unter verwendung eines trainierbaren, statistischen modells
AT512977B1 (de) Methode zur Ermittlung eines Modells einer Ausgangsgröße eines technischen Systems
EP2649567B1 (de) Verfahren zur rechnergestützten modellierung eines technischen systems
WO2005081076A2 (de) Verfahren, zur prognose eines brennkammerzustandes unter verwendung eines rekurrenten, neuronalen netzes
CH697748A2 (de) Systeme und Verfahren zur modellgestützten Sensorstörungsdetektion und -isolation.
DE102019126310A1 (de) System und Verfahren zum Optimieren der Verbrennung eines Kessels
DE102016011520B4 (de) Produktionsausrüstung mit Maschinenlernsystem und Montage-und Prüfeinheit
DE102008038347A1 (de) Verfahren zur Analyse der Leistungscharakteristik einer Gasturbine und System zur Analyse der Leistungscharakteristik einer Gasturbine
DE112008001654T5 (de) System und Verfahren für virtuelle Sensoren
EP0988583A1 (de) System und verfahren zur diagnose von triebwerkszuständen
EP3268713B1 (de) Verfahren zum erstellen eines modell-ensembles zur kalibrierung eines steuergerätes
Simon et al. Benchmarking gas path diagnostic methods: a public approach
DE102007001026A1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102019126286A1 (de) System und Verfahren zum Optimieren der Verbrennung eines Kessels
WO2019160138A1 (ja) 因果推定装置、因果推定方法、及びプログラム
WO2019057489A1 (de) Verfahren und trainingsdatengenerator zum konfigurieren eines technischen systems sowie steuereinrichtung zum steuern des technischen systems
DE10010681A1 (de) Virtueller Drehmomentsensor auf Basis neuronaler Netze (MD-VNS) zur Implementierung in Kraftfahrzeugsteuergeräte
EP1327959A2 (de) Neuronales Netz zur Modellierung eines physikalischen Systems sowie Verfahren zur Bildung eines solchen neuronalen Netzes
DE102017110795A1 (de) Verfahren zur verbesserten Kalibrierung der Steuerung einer Brennkraftmaschine
WO2020229050A1 (de) Verfahren zur validierung von systemparametern eines energiesystems, verfahren zum betrieb eines energiesystems sowie energiemanagementsystem für ein energiesystem
DE102019128655B4 (de) Verfahren zur Bereitstellung einer rechnergestützten Steuerung für ein technisches System
DE102017118996B3 (de) Verfahren zur Bestimmung von einflussführenden Parameterkombinationen eines physikalischen Simulationsmodells
EP4016202B1 (de) Verfahren zum nachbilden von rauschanteilen von verlustbehaftet aufgezeichneten betriebssignalen sowie steuereinrichtung
DE102017205437A1 (de) Robustheitsanalyse bei Fahrzeugen
DE102016115331A1 (de) Verfahren und Vorrichtung zur Bestimmung eines Modells eines technischen Systems

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase