WO2012076306A1 - Verfahren zur rechnergestützten modellierung eines technischen systems - Google Patents

Verfahren zur rechnergestützten modellierung eines technischen systems Download PDF

Info

Publication number
WO2012076306A1
WO2012076306A1 PCT/EP2011/070243 EP2011070243W WO2012076306A1 WO 2012076306 A1 WO2012076306 A1 WO 2012076306A1 EP 2011070243 W EP2011070243 W EP 2011070243W WO 2012076306 A1 WO2012076306 A1 WO 2012076306A1
Authority
WO
WIPO (PCT)
Prior art keywords
layer
network
hidden
neural network
feed
Prior art date
Application number
PCT/EP2011/070243
Other languages
English (en)
French (fr)
Inventor
Siegmund DÜLL
Alexander Hans
Steffen Udluft
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to EP11785653.4A priority Critical patent/EP2649567B1/de
Priority to US13/992,799 priority patent/US9489619B2/en
Priority to KR1020137017857A priority patent/KR101608283B1/ko
Publication of WO2012076306A1 publication Critical patent/WO2012076306A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02CGAS-TURBINE PLANTS; AIR INTAKES FOR JET-PROPULSION PLANTS; CONTROLLING FUEL SUPPLY IN AIR-BREATHING JET-PROPULSION PLANTS
    • F02C9/00Controlling gas-turbine plants; Controlling fuel supply in air- breathing jet-propulsion plants
    • F02C9/26Control of fuel supply
    • F02C9/28Regulating systems responsive to plant or ambient parameters, e.g. temperature, pressure, rotor speed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Definitions

  • the invention relates to a method for the computer-aided modeling of a technical system and to a method for the computer-aided estimation of states of a technical system and to a corresponding computer program product.
  • Neural networks allow the prediction of conditions ei ⁇ ner output layer based on states of an input layer ⁇ , wherein one or more layers of neurons are provided with hidden states between the output layer and the input layer.
  • the greater the number of hidden layers used the more accurately a technical system can be modeled by learning a neural network.
  • conventional monitored learning methods in particular the Gradientenab ⁇ rose method, are unsuitable for neural networks with a variety of hidden layers.
  • new ⁇ ronale networks are often layered learned with a plurality of hidden layers with unsupervised learning method, which is then carried out with a gradient descent adaptation to the actual conditions in accordance with the training data.
  • the document PETERSON, C. et al. : JETNET 3.0 A versatile artificial neural network package, computer physics Communi ⁇ cations, No. Vol 81, 1993. 1-2, pp 185-220 relates to the Be ⁇ scription of a program package, which is based on neural net based zen. It also describes the use of so-called skip-layer networks including skip-layer connections.
  • the object of the invention is to provide a simple and accurate modeling of a technical system based on a computer-aided method with a neural network.
  • the method according to the invention is used for computer-aided modeling of a technical system whose operation for a plurality of operating points is described by a first state vector having one or more first state variables and by a second state vector having one or more second state variables.
  • the technical system is modeled by learning a neural network including at least one feed-forward network based on training data from known first and second state vectors for multiple operating points. Feed-forward networks only route neuron output to a processing continue.
  • the at least one feed-forward network used in the method according to the invention contains a plurality of neuron layers, which comprise an input layer, one or more hidden layers and an output layer. These layers contain state vectors in the form of corresponding neuron clusters from one or more neurons.
  • the neuron layers are connected to each other via so-called connectors with respective weights in the form of weight matrices.
  • the input layer is associated with at least a first state vector and the output layer is associated with at least one second state vector.
  • the concept of linking the input layer with the at least one first state vector or the output layer with the at least ei ⁇ NEN second state vector is to be understood.
  • the at least one first state vector can be part of the input layer or represent it.
  • the at least one second state vector which can be part of the output layer or can represent it. It is also possible for the at least one first state vector to be subjected to preprocessing, with the resulting preprocessed vector then being part of the input layer.
  • the first state vector can be converted via a recurrent neural network into a hidden state vector, which then represents the input layer of the feed-forward network.
  • a hidden state vector which then represents the input layer of the feed-forward network.
  • the inventive method is characterized by a spe ⁇ cial structure of the feed-forward network used.
  • Ge ⁇ Gurss this structure, at least one connector used to bridge a ckungskonnektor, which connects at least one neuron layer while bridging a hidden layer to the output layer.
  • the at least one feed-forward network comprises five or more and preferably eight or more and particularly preferably 40 or more layers.
  • the network structure can be learned in a simple manner using learning methods known per se, for example the gradient descent method and in particular the error backpropagation method. Due to the bridging connector (s), the backpropagated error signal does not have to pass through all layers above a certain layer until the weights of the particular layer are affected.
  • the at least one feed-forward network comprises a plurality of hidden layers, each hidden layer not directly connected to the output layer being connected to the output layer via a bridging connector. This ensures that all hidden layers have a direct connection to the source layer.
  • Ausges ⁇ taltung the input layer of the at least one feed-forward network via a Uberbrückungskonnektor to the output layer is connected.
  • the dynamic behavior of the technical system can be modeled with the neural network for a multiplicity of temporally successive operating points of the system.
  • said at least one feed-forward network is a recurrent neural network is used which ei ⁇ NEN feed-forward network is coupled to the at least.
  • the recurrent neural network comprises an input layer and a recurrent hidden layer, in which the hidden state vectors, unlike a feed-forward network, are also connected within the layer via connectors.
  • the input layer the recurrent neural network includes first state ⁇ vectors to consecutive operating points of the technical system comprising a current and one or more past operating points, each first supply state vector at the respective operating point of the input layer of the recurrent neural network via a connector with the corresponding weight with a hidden state vector is connected to the respective same operating point of the recurrent hidden layer of the recurrent neural network.
  • the hidden state vector for the current operating point representing the input layer of the at least ⁇ a feed-forward network, whereas the output of this ⁇ layer feed-forward network, represents the second state vector to the current operating point.
  • the input layer of the recurrent neuro ⁇ dimensional network further comprises one or more first state vectors at consecutive future operating points of the technical system and each first state vector at a future operating point is via a connector with the corresponding weight with a hidden state vector to the future operating point of the recurrent hidden layer of the recurrent neural network.
  • Each hidden state vector at a future operating point forms the input layer of the at least one feed-forward network for the future operating point, wherein the output layer of each feed-forward network, represents the second state vector to the future operating point for a to ⁇ future operating point.
  • the embodiment just described thus comprises several feed-forward networks to the current operating point and to one or more future operating points.
  • a particularly computationally efficient learning of this neural network is guiding achieved in a preferred form in that the con- nektoren having all Feed-forward networks which connect to each other entspre ⁇ sponding layers of neurons, the same weights.
  • the connectors also point between the input layer of the recurrent neural network and the recurrent hidden layer of the recurrent neural network
  • the connectors Zvi ⁇ rule of the input layer of the recurrent neural network and the recurrent hidden layer of the recurrent neural network for current and future operating points have the same second weights.
  • the connectors of the hidden recurrent layer of the recurrent neural network which extend from hidden state vectors to past operating points, have the same third weights.
  • Analog preferably have the Konnek ⁇ gates of the hidden recurrent layer of the recurrent neural network, which extend in the hidden state vectors to future operating points, the same fourth weights.
  • the inventive method can be used for modeling of any technical systems.
  • a preferred application is the modeling of the technical system in the form of a turbine, in particular ⁇ sondere a gas turbine, wherein the gas turbine is preferably a generator for generating electrical energy from fossil fuels.
  • the first state vectors include corresponding environmental variables or variable manipulated variables of the gas turbine. Vorzugswei- For example, the first state vectors of the gas turbine include one or more of the following state variables:
  • one or more temperature values on or in the gas turbine in particular one or more gas temperature values, one or more gas pressure values on or in the gas turbine, in particular one or more fuel gas pressure values, one or more control values for setting one or more partial fuel streams fed to the gas turbine.
  • the individual values can be measured or adjusted at different points in the gas turbine.
  • the second state vectors preferably include one or more of the following state variables:
  • one or more emission levels of nitrogen oxides and / or carbon monoxide describe one or more parameters which Vib ⁇ configurations of the combustor of the gas turbine.
  • the invention also includes a method for computer-aided estimation of states of a technical system, wherein the technical system is modeled by learning a neural network based on the inventive method and one or more second state vectors of the technical system based on the learned neural network be determined on one or more first state vectors of the technical system.
  • the invention further relates to a computer program product with a program code stored on a machine-readable carrier for carrying out the method according to the invention, when the program runs on a computer.
  • FIG. 1 shows a schematic representation of the general topology of a feed-forward network used in the method according to the invention.
  • FIG. 2 shows a special embodiment of a neural network used in a variant of the method according to the invention.
  • the method according to the invention serves to model a technical system which is described via first and second state vectors to corresponding operating points of the technical system.
  • a neural network is learned based vectors to training data in the form of well-known first and second status, wherein the learned new ⁇ ronale network then vectors to the prediction of the second status based on any Not contained in the Trainingsda ⁇ th first State vectors can be used.
  • the learned new ⁇ ronale network then vectors to the prediction of the second status based on any Not contained in the Trainingsda ⁇ th first State vectors can be used.
  • the second state variables can be estimated or predicted with the learned neural network, which are critical to the operation of the technical system and may for example lead to Be ⁇ damage to the technical system. This makes it possible to initiate appropriate countermeasures, eg stopping the technical system.
  • the neural network learned with the method according to the invention provides a very good modeling of the real behavior of the technical system. This has been demonstrated by simulations of the inventors, as described below.
  • the inventive method is characterized by a new ⁇ like, specific structure of a neural net to be learned ⁇ zes in the form of a cascaded network.
  • Such Network structure is generally shown in Fig. 1.
  • the neural network represents a so-called feed-forward network, which has the property that neuron outputs are conducted only in the processing direction from an input layer via hidden layers to an output layer.
  • the input layer is denoted by reference symbols I and the output layer by reference symbols 0.
  • the intervening layers represent hidden layers and are labeled Hl, H2, HN.
  • each layer comprises a single cluster of a plurality of neurons, the neurons of the input layer I representing a first state vector of a technical system and the neurons of the output layer 0 representing a second state vector of the technical system.
  • the neurons in the hidden layers represent hidden states of the technical system.
  • the individual, adjacent layers of the network are connected to each other via connectors K in the forward direction of the network. These connectors couple the individual layers of the neural network to corresponding weights in the form of weight matrices.
  • the individual hidden-layer neuron clusters use a non-linear activation function, usually a sigmoidal function, such as a sigmoidal function, as the activation function. the hyperbolic tangent, is used.
  • the network of FIG. 1 is characterized in that further connectors K 'are provided with corresponding weights, the individual connectors each having a neuron layer comprising the input layer I and the first to penultimate hidden layer (ie layers Hl to HN-1) connect to the output layer 0.
  • the individual connectors K 'thus represent bridging connectors in the sense of the claims, since they always connect two neuron layers while bridging at least one hidden layer.
  • This cascaded structure has the advantage that it can also be used in a large numbers of hidden layers can be learned with a simple supervised learning method, in particular with a gradient descent method, such as error backpropagation, while at the same time modeling very well the behavior of the underlying technical system.
  • a gradient descent method such as error backpropagation
  • FIG. 1 several network structures of FIG. 1 are linked to a recurrent neural network structure in which connectors within a layer can also occur.
  • a recurrent neural network structure in which connectors within a layer can also occur.
  • FIG. 2 shows a combination of several feed-forward networks of FIG. 1 with a recurrent neural network structure.
  • the structure of the network of FIG. 2 is based on the structure of the neural networks, which are described in German Patent Applications Nos. 10 2007 001 026 and 10 2010 011 221. The entire disclosure of this patent filings Pa ⁇ is incorporated by reference in the present application.
  • the recurrent network structure is denoted by RN in FIG. 2 and comprises the input layer I 'and the hidden layer I.
  • This network structure is coupled to four feed-forward networks F1, F2, F3 and F4, each network having the same structure as the network Fig. 1 corresponds and corresponding bridging connectors K 'have. overall Fig. 2, all other connectors, the no
  • Bridging connectors represent, denoted by reference K, but for clarity, only partially the reference character K is used for the connectors.
  • a time series of the first state vectors of the technical system is considered that about past operating points t-5, t-4, etc. t is for ak ⁇ tual operating point and from there to three future Be ⁇ operating points t +1, t + 2 and t + 3 extend.
  • the individual first state vectors of the input layer I 'of the recurrent neural network RN are t -5, -4 s t, s t coupled in the form of hidden ⁇ ter state vectors of hidden recurrent layer I +3 with corresponding hidden states s.
  • the same weights are used B p for past first state vectors and the sliding surfaces ⁇ B f weights for the current and future first to ⁇ stand vectors for the connectors.
  • the hidden state vectors are also connected to one another via connectors, the connectors having the same weights A p between past state vectors s t -5, s t -4, etc. and the last past state vector s t -i and the current state vector s t .
  • the connectors that are used in future s t + i, s t + 2, etc. extend term hidden states, the sliding surfaces ⁇ A f weights on.
  • each feedforward network Z contains a neuron cluster in a respective hidden layer.
  • the neuron clusters of the hidden layers of the feedforward network Fl are denoted by hl t , h2 t and h3 t , the neuron clusters of the hidden layers of the feedforward net F2 with hl t + i, h2 t + i and h3 t + i - Analogously, corresponding designations were used for the further neuron clusters of the hidden layers of the feedforward networks F3 and F4. As can be seen from FIG.
  • the states of the input layer of the individual feedforward networks F1 to F4 are now hidden state vectors of the hidden layer I of the recurrent neural network RN. That is, for the network Fl, the input layer is formed by the state vector s t , for the network F 2 is formed by the state vector s t + i, etc.
  • the corresponding weight matrices are again indicated for the individual connectors. It can be seen that the corresponding connectors of the respective feed-forward net ze use the same weight matrices.
  • the weight matrix D2 used for Konnekto ⁇ ren between the input layer I and the first hidden layer Hl
  • the weight matrix D2 for the connectors between the second hidden Layer H2 and the third hidden layer H3, the weight matrix D3 and for the connectors between the third hidden layer H3 and the output layer 0, the weight matrix C3.
  • the same weights will be appropriate for each other
  • Bridging connectors are used in the individual feedforward networks. That is, for the connectors between the input layer I and the output layer 0, the weight matrix CO is used, for the connectors between the first Hl hidden layer and the output layer the Ge 0 ⁇ weight matrix Cl and for the connectors between the second hidden layer and output layer H2 0, the Ge ⁇ weight matrix C2.
  • Fig. 2 The network structure of Fig. 2 has been tested by the inventors based on training data concerning the operation of a gas turbine.
  • feed-forward networks with nine instead of three hidden layers were used.
  • For learning a total of about 400,000 training patterns in the form of corresponding time series of the first state vectors i t -5, ⁇ -, it + 3 and the second state vectors o t , o t +3 were used.
  • second neural network estimated states were compared with known second states of the technical system, using approximately 100,000 patterns in the comparison.
  • state variables of the first state vectors various environmental variables and actuating variables of the gas turbine, such as, for example, taken into account various temperatures and gas pressures and SET ⁇ lungs of the turbine fuel supplied substreams.
  • state variables of the second state vectors emissions of nitrogen oxides and carbon monoxide were taken into account in one simulation and the amplitudes of combustion chamber vibrations in different acoustic frequencies in another simulation.
  • the results obtained with the learned fiction, modern network ⁇ were compared with result ⁇ sen a three-layer and four-layer network, such networks are constructed analogously to FIG. 2, each ⁇ but no connectors comprise K '.
  • the hidden layer I exists without the further hidden layers Hl to H3.
  • the learning process was inventive net and the comparison networks several times as ⁇ repeated to achieve significant results.
  • the cascaded network according to the invention achieved a 14% higher average accuracy and a 12% higher accuracy for the most successful learning process. In addition, a higher 13% accuracy for the dislike most he ⁇ most successful learning process has been reached.
  • the four-layered network is better suited for modeling a gas turbine than the three-layered network. Nevertheless ⁇ despite the cascaded network of the invention is still significantly better than the four-layer network.
  • the network according to the invention is also more robust, because the dispersion of the accuracies of the various learning processes was lower for the cascaded network than for the four-layer network.
  • the method according to the invention which is based on the learning of a cascaded neural network structure, is very well suited for the modeling of technical systems, wherein the learning can be effected in a simple manner with a conventional gradient descent method.
  • a correspondingly learned neuro ⁇ nal network comprising this cascaded network structure can then be used very well in the context of real operation or the simulation of a technical system to predict operating conditions of the technical system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur rechnergestützten Modellierung eines technischen Systems. Das technische System wird dabei für eine Vielzahl von Betriebspunkten (t-5, t-4,..., t+3) jeweils durch einen ersten Zustandsvektor (it-5, it-4,..., it+3) mit einer oder mehreren ersten Zustandsvariablen und durch einen zweiten Zustandsvektor (ot, ot+1,..., ot+3) mit einer oder mehreren zweiten Zustandsvariablen beschrieben. Zur rechnergestützten Modellierung dieses Systems wird ein neuronales Netz verwendet, welches eine spezielle Form eines Feed-Forward-Netzes (F1, F2,..., F4 ) umfasst. Dieses Feed-Forward- Netz (F1, F2,...,F4 ) zeichnet sich dadurch aus, dass zumindest ein Konnektor (K) des Netzes ein Überbrückungskonnektor ist, der eine Neuronenschicht unter Überbrückung zumindest einer versteckten Schicht (H1, H2, H3) mit der Ausgangsschicht (O) des Feed-Forward-Netzes verbindet. Eine derartige Netzstruktur ermöglicht die Realisierung von Netzen mit einer Vielzahl von versteckten Schichten, welche auf einfache Weise mit an sich bekannten Lernverfahren, insbesondere mit dem Gradientenabstiegsverfahren, gelernt werden können. Das Verfahren der Erfindung wird in einer bevorzugten Variante zur Modellierung eines technischen Systems in der Form einer Gasturbine verwendet. Das mit dem erfindungsgemäßen Verfahren gelernte neuronale Netz kann dabei zur Schätzung bzw. Prognose von durch die Gasturbine abgegebenen Emissionen von Stickoxiden bzw. Kohlenmonoxid oder von Parametern betreffend Vibrationen der Brennkammer der Gasturbine eingesetzt werden.

Description

Beschreibung
Verfahren zur rechnergestützten Modellierung eines technischen Systems
Die Erfindung betrifft ein Verfahren zur rechnergestützten Modellierung eines technischen Systems sowie ein Verfahren zum rechnergestützten Schätzen von Zuständen eines technischen Systems und ein entsprechendes Computerprogrammprodukt.
Aus dem Stand der Technik ist es bekannt, zur Modellierung eines technischen Systems künstliche neuronale Netze einzu- setzen, welche basierend auf Trainingsdaten umfassend ent- sprechende Zustände des technischen Systems gelernt werden, Das gelernte neuronale Netz eignet sich dann zur Schätzung bzw. Prognose von Zuständen des technischen Systems.
Neuronale Netze ermöglichen die Vorhersage von Zuständen ei¬ ner Ausgangsschicht basierend auf Zuständen einer Eingangs¬ schicht, wobei zwischen Ausgangsschicht und Eingangsschicht eine oder mehrere Neuronenschichten mit versteckten Zuständen vorgesehen sind. Je größer die Anzahl der verwendeten versteckten Schichten ist, desto genauer kann ein technisches System über das Lernen eines neuronalen Netzes modelliert werden. Dabei besteht jedoch das Problem, dass herkömmliche überwachte Lernverfahren, insbesondere das Gradientenab¬ stiegsverfahren, für neuronale Netze mit einer Vielzahl von versteckten Schichten ungeeignet sind. Demzufolge werden neu¬ ronale Netze mit einer Vielzahl von versteckten Schichten oftmals schichtweise mit unüberwachten Lernverfahren gelernt, wobei anschließend mit einem Gradientenabstiegsverfahren die Anpassung an die tatsächlichen Zustände gemäß den Trainingsdaten erfolgt.
Die Druckschrift PETERSON, C. et al . : JETNET 3.0-A versatile artificial neural network package, Computer physics Communi¬ cations, Vol. 81, 1993, No. 1-2, S. 185-220 betrifft die Be¬ schreibung eines Programmpakets, welches auf neuronalen Net- zen beruht. Dabei wird auch die Verwendung von sogenannten Skip-Layer-Netzen umfassend Skip-Layer-Verbindungen beschrieben . Die Druckschrift ROSENBERG, A. : Lecture 14 - Neural Networks. Machine Learning. Queens College (CUNY) , New York, USA, März 2010, offenbart die Struktur eines Skip-Layer-Netzes , in dem eine Eingangsschicht über Konnektoren direkt mit einer Aus¬ gangsschicht verbunden ist.
In der Druckschrift REYFUS G.: Neural networks : methodology and applications . 2. Auflage. Berlin: Springer, 2005. S. i, iii-xvi, 1-11, 171-186 ist u.a. offenbart, wie ein rekurrentes neuronales Netz in der kanonischen Form eines Feed- Forward-Netzes dargestellt werden kann. Einige Ausgaben die¬ ses Feed-Forward-Netzes werden zu den Eingaben des Netzes zu¬ rückgeführt .
Aufgabe der Erfindung ist es, eine einfache und genaue Model- lierung eines technischen Systems basierend auf einem rechnergestützten Verfahren mit einem neuronalen Netz zu schaffen .
Diese Aufgabe wird durch die unabhängigen Patentansprüche ge- löst. Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen gelöst.
Das erfindungsgemäße Verfahren dient zur rechnergestützten Modellierung eines technischen Systems, dessen Betrieb für eine Vielzahl von Betriebspunkten jeweils durch einen ersten Zustandsvektor mit einer oder mehreren ersten Zustandsvariab- len und durch einen zweiten Zustandsvektor mit einer oder mehreren zweiten Zustandsvariablen beschrieben wird. Das technische System wird durch das Lernen eines neuronalen Net- zes umfassend zumindest ein Feed-Forward-Netz basierend auf Trainingsdaten aus bekannten ersten und zweiten Zustandsvek- toren für mehrere Betriebspunkte modelliert. Feed-Forward- Netze leiten Neuronenausgaben nur in eine Verarbeitungsrich- tung weiter. Das im erfindungsgemäßen Verfahren verwendete zumindest eine Feed-Forward-Netz enthält mehrere Neuronen- schichten, welche eine Eingangsschicht, eine oder mehrere versteckte Schichten und eine Ausgangsschicht umfassen. Diese Schichten enthalten Zustandsvektoren in der Form von entsprechenden Neuronenclustern aus einem oder mehreren Neuronen. Die Neuronenschichten sind untereinander über sog. Konnekto- ren mit jeweiligen Gewichten in der Form von Gewichtsmatrizen verbunden. Ferner ist die Eingangsschicht mit zumindest einem ersten Zustandsvektor und die Ausgangsschicht mit zumindest einem zweiten Zustandsvektor verknüpft. Der Begriff der Verknüpfung der Eingangsschicht mit dem zumindest einen ersten Zustandsvektor bzw. der Ausgangsschicht mit dem zumindest ei¬ nen zweiten Zustandsvektor ist weit zu verstehen. Insbesondere kann der zumindest eine erste Zustandsvektor Teil der Eingangsschicht sein bzw. diese repräsentieren. Das Gleiche gilt für den zumindest einen zweiten Zustandsvektor, der Teil der Ausgangsschicht sein kann bzw. diese repräsentieren kann. Ebenso besteht die Möglichkeit, dass der zumindest eine erste Zustandsvektor einer Vorverarbeitung unterzogen wird, wobei der sich daraus ergebende vorverarbeitete Vektor dann Teil der Eingangsschicht ist. Wie weiter unten näher beschrieben, kann beispielsweise der erste Zustandsvektor über ein rekurrentes neuronales Netz in einen versteckten Zustandsvektor gewandelt werden, der dann die Eingangsschicht des Feed- Forward-Netzes repräsentiert. Analog besteht auch die Mög¬ lichkeit, dass die Ausgangsschicht noch nicht den zumindest einen zweiten Zustandsvektor repräsentiert, sondern dieser in einem separaten Nachverarbeitungsschritt generiert wird.
Das erfindungsgemäße Verfahren zeichnet sich durch eine spe¬ zielle Struktur des verwendeten Feed-Forward-Netzes aus. Ge¬ mäß dieser Struktur ist zumindest ein Konnektor ein Überbrü- ckungskonnektor, der eine Neuronenschicht unter Überbrückung zumindest einer versteckten Schicht mit der Ausgangsschicht verbindet. Durch diese zusätzlichen Überbrückungskonnektoren wird ein einfaches und effizientes Lernen des zumindest einen Feed-Forward-Netzes auch für eine große Anzahl von versteck¬ ten Schichten erreicht, wobei gleichzeitig eine gute Model¬ lierungsqualität gewährleistet ist. In einer bevorzugten Aus¬ führungsform umfasst das zumindest eine Feed-Forward-Netz fünf oder mehr und vorzugsweise acht oder mehr und besonders bevorzugt 40 oder mehr Schichten. Die Netzstruktur kann dabei in einfacher Weise mit an sich bekannten Lernverfahren, wie z.B. dem Gradientenabstiegsverfahren und insbesondere dem Er- ror-Backpropagation-Verfahren gelernt werden. Dabei muss das rückpropagierte Fehlersignal aufgrund des oder der Überbrü- ckungskonnektoren nicht alle Schichten oberhalb einer bestimmten Schicht durchlaufen, bis die Gewichte der bestimmten Schicht beeinflusst werden.
Erfindungsgemäß umfasst das zumindest eine Feed-Forward-Netz eine Mehrzahl von versteckten Schichten, wobei jede nicht direkt mit der Ausgangsschicht verbundene versteckte Schicht über einen Uberbrückungskonnektor mit der Ausgangsschicht verbunden ist. Auf diese Weise wird sichergestellt, dass für alle versteckten Schichten eine direkte Verbindung zu der Ausgangsschicht gewährleistet ist. In einer weiteren Ausges¬ taltung ist auch die Eingangsschicht des zumindest einen Feed-Forward-Netzes über einen Uberbrückungskonnektor mit der Ausgangsschicht verbunden.
In einer besonders bevorzugten Aus führungs form des erfindungsgemäßen Verfahrens kann mit dem neuronalen Netz das dynamische Verhalten des technischen Systems für eine Vielzahl von zeitlich aufeinander folgenden Betriebspunkten des Systems modelliert werden. Dies wird dadurch erreicht, dass ne¬ ben dem zumindest einen Feed-Forward-Netz ein rekurrentes neuronales Netz verwendet wird, welches mit dem zumindest ei¬ nen Feed-Forward-Netz gekoppelt ist. Das rekurrente neuronale Netz umfasst dabei eine Eingangsschicht und eine rekurrente versteckte Schicht, bei der die versteckten Zustandsvektoren im Unterschied zu einem Feed-Forward-Netz auch innerhalb der Schicht über Konnektoren verbunden sind. Die Eingangsschicht des rekurrenten neuronalen Netzes beinhaltet erste Zustands¬ vektoren zu zeitlich aufeinander folgenden Betriebspunkten des technischen Systems umfassend einen aktuellen und einen oder mehrere vergangene Betriebspunkte, wobei jeder erste Zu- standsvektor zum jeweiligen Betriebspunkt der Eingangsschicht des rekurrenten neuronalen Netzes über einen Konnektor mit entsprechendem Gewicht mit einem versteckten Zustandsvektor zum jeweiligen gleichen Betriebspunkt der rekurrenten versteckten Schicht des rekurrenten neuronalen Netzes verbunden ist. Ferner repräsentiert der versteckte Zustandsvektor zum aktuellen Betriebspunkt die Eingangsschicht eines des zumin¬ dest einen Feed-Forward-Netzes , wohingegen die Ausgangs¬ schicht dieses Feed-Forward-Netzes den zweiten Zustandsvektor zum aktuellen Betriebspunkt repräsentiert.
In einer besonders bevorzugten Aus führungs form des soeben beschriebenen neuronalen Netzes, welches neben dem Feed-For- ward-Netz ein rekurrentes neuronales Netz verwendet, können in geeigneter Weise auch Zustandsvektoren für einen oder mehrere zukünftige Betriebspunkte des technischen Systems model¬ liert werden, um diese anschließend mit dem gelernten neuro¬ nalen Netz in geeigneter Weise zu prognostizieren. Um dies zu erreichen, umfasst die Eingangsschicht des rekurrenten neuro¬ nalen Netzes ferner einen oder mehrere erste Zustandsvektoren zu zeitlich aufeinander folgenden zukünftigen Betriebspunkten des technischen Systems und jeder erste Zustandsvektor zu einem zukünftigen Betriebspunkt ist über einen Konnektor mit entsprechendem Gewicht mit einem versteckten Zustandsvektor zu dem zukünftigen Betriebspunkt der rekurrenten versteckten Schicht des rekurrenten neuronalen Netzes verbunden. Dabei bildet jeder versteckte Zustandsvektor zu einem zukünftigen Betriebspunkt die Eingangsschicht eines des zumindest einen Feed-Forward-Netzes für den zukünftigen Betriebspunkt, wobei die Ausgangsschicht jedes Feed-Forward-Netzes für einen zu¬ künftigen Betriebspunkt den zweiten Zustandsvektor zu dem zukünftigen Betriebspunkt repräsentiert. Die soeben beschriebene Aus führungs form umfasst somit mehrere Feed-Forward-Netze zum aktuellen Betriebspunkt und zu einem oder mehreren zukünftigen Betriebspunkten. Ein besonders recheneffizientes Lernen dieses neuronalen Netzes wird in einer bevorzugten Aus führungs form dadurch erreicht, dass die Kon- nektoren aller Feed-Forward-Netze, welche einander entspre¬ chende Neuronenschichten verbinden, die gleichen Gewichte aufweisen. Vorzugsweise weisen auch die Konnektoren zwischen der Eingangsschicht des rekurrenten neuronalen Netzes und der rekurrenten versteckten Schicht des rekurrenten neuronalen
Netzes zu vergangenen Betriebspunkten die gleichen ersten Gewichte auf. Ebenso weisen vorzugsweise die Konnektoren zwi¬ schen der Eingangsschicht des rekurrenten neuronalen Netzes und der rekurrenten versteckten Schicht des rekurrenten neu- ronalen Netzes zum aktuellen und zu zukünftigen Betriebspunkten die gleichen zweiten Gewichte auf.
In einer weiteren bevorzugten Aus führungs form weisen die Konnektoren der versteckten rekurrenten Schicht des rekurrenten neuronalen Netzes, welche sich aus versteckten Zustandsvekto- ren zu vergangenen Betriebspunkten erstrecken, die gleichen dritten Gewichte auf. Analog weisen vorzugsweise die Konnek¬ toren der versteckten rekurrenten Schicht des rekurrenten neuronalen Netzes, welche sich in versteckte Zustandsvektoren zu zukünftigen Betriebspunkten erstrecken, die gleichen vierten Gewichte auf.
Das erfindungsgemäße Verfahren kann zur Modellierung von beliebigen technischen Systemen eingesetzt werden. Ein beson- ders bevorzugter Anwendungsfall ist dabei die Modellierung eines technischen Systems in der Form einer Turbine, insbe¬ sondere einer Gasturbine, wobei die Gasturbine vorzugsweise einen Generator zur Erzeugung von elektrischer Energie aus fossilen Brennstoffen darstellt.
Wird eine Gasturbine als technisches System modelliert, so umfassen die ersten Zustandsvektoren entsprechende Umweltgrößen bzw. veränderbare Stellgrößen der Gasturbine. Vorzugswei- se beinhalten die ersten Zustandsvektoren der Gasturbine eine oder mehrere der folgenden Zustandsvariablen :
einen oder mehrere Temperaturwerte an oder in der Gasturbine, insbesondere einen oder mehrere Brenngastemperaturwerte, ei- nen oder mehrere Gasdruckwerte an oder in der Gasturbine, insbesondere einen oder mehrere Brenngasdruckwerte, einen oder mehrere Stellwerte zur Einstellung von einem oder mehreren, der Gasturbine zugeführten Brennstoffteilströmen . Die einzelnen Werte können dabei an unterschiedlichen Stellen in der Gasturbine gemessen bzw. eingestellt werden.
Wird als technisches System eine Gasturbine modelliert, so umfassen die zweiten Zustandsvektoren vorzugsweise eine oder mehrere der folgenden Zustandsvariablen:
einen oder mehrere Emissionswerte von Stickoxiden und/oder von Kohlenmonoxid; einen oder mehrere Parameter, welche Vib¬ rationen der Brennkammer der Gasturbine beschreiben.
Das mit dem oben beschriebenen Verfahren gelernte neuronale Netz kann anschließend zum Schätzen bzw. zur Prognose von zweiten Zustandsvektoren eingesetzt werden. Demzufolge um- fasst die Erfindung auch ein Verfahren zum rechnergestützten Schätzen von Zuständen eines technischen Systems, wobei das technische System durch das Lernen eines neuronalen Netzes basierend auf dem erfindungsgemäßen Verfahren modelliert ist und ein oder mehrere zweite Zustandsvektoren des technischen Systems über das gelernte neuronale Netz basierend auf einem oder mehreren ersten Zustandsvektoren des technischen Systems bestimmt werden.
Die Erfindung betrifft darüber hinaus ein Computerprogrammprodukt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung des erfindungsgemäßen Verfahrens, wenn das Programm auf einem Rechner abläuft.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand der beigefügten Figuren detailliert beschrieben. Es zeigen:
Fig. 1 eine schematische Darstellung der generellen, im erfindungsgemäßen Verfahren verwendeten Topologie eines Feed-Forward-Netzes ; und
Fig. 2 eine spezielle Aus führungs form eines in einer Variante des erfindungsgemäßen Verfahrens verwendeten neuronalen Netzes.
Das erfindungsgemäße Verfahren dient zur Modellierung eines technischen Systems, welches über erste und zweite Zustands- vektoren zu entsprechenden Betriebspunkten des technischen Systems beschrieben wird. Dabei wird basierend auf Trainings- daten in der Form von bekannten ersten und zweiten Zustands- vektoren ein neuronales Netz gelernt, wobei das gelernte neu¬ ronale Netz anschließend zur Prognose von zweiten Zustands- vektoren basierend auf beliebigen, nicht in den Trainingsda¬ ten enthaltenen ersten Zustandsvektoren verwendet werden kann. Auf diese Weise können z.B. im Realbetrieb des techni¬ schen Systems bestimmte Zustände vor deren Eintritt vorherge¬ sagt werden bzw. bestimmte, üblicherweise durch aufwändige Messverfahren gemessene Zustände geschätzt werden, ohne dass diese separat gemessen werden müssen. Insbesondere können mit dem gelernten neuronalen Netz zweite Zustandsgrößen geschätzt bzw. prognostiziert werden, welche kritisch für den Betrieb des technischen Systems sind und beispielsweise zu einer Be¬ schädigung des technischen Systems führen können. Somit ist es möglich, vorab entsprechende Gegenmaßnahmen, z.B. das An- halten des technischen Systems, zu initiieren. Das mit dem erfindungsgemäßen Verfahren gelernte neuronale Netz liefert dabei eine sehr gute Modellierung des realen Verhaltens des technischen Systems. Dies wurde durch Simulationen der Erfinder nachgewiesen, wie weiter unten beschrieben wird.
Das erfindungsgemäße Verfahren zeichnet sich durch eine neu¬ artige, spezielle Struktur eines zu lernenden neuronalen Net¬ zes in der Form eines kaskadierten Netzes aus. Eine solche Netzstruktur ist allgemein in Fig. 1 wiedergegeben. Das neuronale Netz stellt dabei ein sog. Feed-Forward-Netz dar, welches die Eigenschaft aufweist, dass Neuronenausgaben nur in Verarbeitungsrichtung von einer Eingangsschicht über versteckte Schichten zu einer Ausgangsschicht geleitet werden. In dem Netz der Fig. 1 ist die Eingangsschicht mit Bezugszei¬ chen I und die Ausgangsschicht mit Bezugszeichen 0 bezeichnet. Die dazwischen liegenden Schichten stellen versteckte Schichten dar und sind mit Hl, H2, HN bezeichnet. Gemäß Fig. 1 umfasst jede Schicht ein einzelnes Cluster aus einer Vielzahl von Neuronen, wobei die Neuronen der Eingangsschicht I einen ersten Zustandsvektor eines technischen Systems und die Neuronen der Ausgangsschicht 0 einen zweiten Zustandsvektor des technischen Systems darstellen. Demgegenüber repräsentieren die Neuronen in den versteckten Schichten versteckte Zustände des technischen Systems.
Wie sich aus Fig. 1 ergibt, sind die einzelnen, benachbarten Schichten des Netzes über Konnektoren K in Vorwärtsrichtung des Netzes miteinander verbunden. Diese Konnektoren koppeln die einzelnen Schichten des neuronalen Netzes mit entsprechenden Gewichten in der Form von Gewichtsmatrizen. Die einzelnen Neuronencluster der versteckten Schichten verwenden eine nicht lineare Aktivierungsfunktion, wobei üblicherweise als Aktivierungsfunktion eine Sigmoidfunktion, wie z.B. der Tangens Hyperbolicus , verwendet wird.
Im Unterschied zu einem herkömmlichen Feed-Forward-Netz zeichnet sich das Netz der Fig. 1 dadurch aus, dass weitere Konnektoren K' mit entsprechenden Gewichten vorgesehen sind, wobei die einzelnen Konnektoren jeweils eine Neuronenschicht umfassend die Eingangsschicht I sowie die erste bis vorletzte versteckte Schicht (d.h. die Schichten Hl bis HN-1) mit der Ausgangsschicht 0 verbinden. Die einzelnen Konnektoren K' stellen somit Überbrückungskonnektoren im Sinne der Ansprüche dar, denn sie verbinden immer zwei Neuronenschichten unter Überbrückung zumindest einer versteckten Schicht. Diese kaskadierte Struktur hat den Vorteil, dass sie auch bei einer großen Anzahl von versteckten Schichten mit einem einfachen überwachten Lernverfahren, insbesondere mit einem Gradientenabstiegsverfahren, wie z.B. Error-Backpropagation, gelernt werden kann und dabei gleichzeitig sehr gut das Verhalten des zu Grunde liegenden technischen Systems modelliert. Im Unterschied hierzu muss man bei herkömmlichen Feed-Forward-Netzen mit einer Vielzahl von versteckten Schichten zur Erreichung einer guten Modellierung des technischen Systems aufwändige Lernverfahren einsetzen, bei denen zunächst mit unüberwachtem Lernen jede Schicht gelernt wird und anschließend über ein Gradientenabstiegsverfahren die Parameter an die Trainingsdaten angepasst werden.
In einer besonders bevorzugten Aus führungs form der Erfindung werden mehrere Netzstrukturen der Fig. 1 mit einer rekurrenten neuronalen Netzstruktur verknüpft, bei der auch Konnekto- ren innerhalb einer Schicht auftreten können. Dadurch wird insbesondere die Möglichkeit geschaffen, Training-Patterns in der Form von ersten und zweiten Zustandsvektoren zu mehreren zeitlich aufeinander folgenden Betriebspunkten des technischen Systems zu verwenden und damit auch eine Prognose von mehreren zukünftigen zweiten Zustandsvektoren zu ermöglichen. Hierdurch kann mit hoher Genauigkeit das dynamische Verhalten des technischen Systems in der Zukunft vorhergesagt werden.
Fig. 2 zeigt eine Kombination mehrerer Feed-Forward-Netze der Fig. 1 mit einer rekurrenten neuronalen Netzstruktur. Die Struktur des Netzes der Fig. 2 ist dabei an die Struktur der neuronalen Netze angelehnt, welche in den deutschen Patentanmeldungen mit den Nummern 10 2007 001 026 und 10 2010 011 221 beschrieben sind. Der gesamte Offenbarungsgehalt dieser Pa¬ tentanmeldungen wird durch Verweis zum Inhalt der vorliegenden Anmeldung gemacht. Die rekurrente Netzstruktur ist in Fig. 2 mit RN bezeichnet und umfasst die Eingangsschicht I' sowie die versteckte Schicht I. Diese Netzstruktur ist mit vier Feed-Forward-Netzen Fl, F2, F3 und F4 gekoppelt, wobei jedes Netz in seiner Struktur dem Netz der Fig. 1 entspricht und entsprechende Überbrückungskonnektoren K' aufweisen. Ge- maß Fig. 2 werden alle anderen Konnektoren, die keine
Überbrückungskonnektoren darstellen, mit Bezugszeichen K bezeichnet, wobei jedoch aus Übersichtlichkeitsgründen nur teilweise das Bezugszeichen K für die Konnektoren verwendet wird. Die Konnektoren K und K' verbinden wiederum einzelne Neuronencluster über Gewichte in der Form von Gewichtsmatrizen, wobei nunmehr für alle Konnektoren die entsprechenden Gewichtsmatrizen angegeben sind. In der Aus führungs form der Fig. 2 wird eine Zeitreihe von ersten Zustandsvektoren des technischen Systems betrachtet, die sich über vergangene Betriebspunkte t-5, t-4 usw. zum ak¬ tuellen Betriebspunkt t und von dort zu drei zukünftigen Be¬ triebspunkten t+1, t+2 und t+3 erstrecken. Dabei existiert zu jedem dieser Betriebspunkte ein entsprechender erster Zu- standsvektor it-5, it-4/ it+3- Diese Zeitreihe von ersten Zu¬ standsvektoren wird beim Lernen des neuronalen Netzes berücksichtigt, d.h. jeweilige Zeitabschnitte umfassend diese Zu¬ standsvektoren werden als Trainingsdaten zum Lernen des Net- zes verwendet, wobei die Trainingsdaten ferner die entspre¬ chenden zweiten Zustandsvektoren ot, ot+i, ot+2 und ot+3 umfas¬ sen, welche in Fig. 2 jeweils eine Ausgangsschicht der Feed- Forward-Netze Fl, F2, F3 und F4 bilden. Die einzelnen ersten Zustandsvektoren der Eingangsschicht I' des rekurrenten neuronalen Netzes RN sind mit entsprechenden versteckten Zuständen st-5, st-4, st+3 in der Form versteck¬ ter Zustandsvektoren der versteckten rekurrenten Schicht I gekoppelt. Dabei werden für die Konnektoren die gleichen Ge- wichte Bp für vergangene erste Zustandsvektoren und die glei¬ chen Gewichte Bf für den aktuellen und zukünftige erste Zu¬ standsvektoren verwendet. Die versteckten Zustandsvektoren sind ferner untereinander über Konnektoren verbunden, wobei die Konnektoren zwischen vergangenen Zustandsvektoren st-5, st-4 usw. bzw. dem letzten vergangenen Zustandsvektoren st-i und dem aktuellen Zustandsvektoren st die gleichen Gewichte Ap aufweisen. Ebenso weisen die Konnektoren, die sich in zukünf- tige versteckte Zustände st+i, st+2 usw. erstrecken, die glei¬ chen Gewichte Af auf.
In der Aus führungs form der Fig. 2 werden als kaskadierte Feed-Forward-Net ze Fl bis F4 Strukturen mit drei versteckten Schichten verwendet, wobei jedes Feed-Forward-Net z in einer jeweiligen versteckten Schicht einen Neuronencluster enthält. Die Neuronencluster der versteckten Schichten des Feed- Forward-Net zes Fl sind dabei mit hlt, h2t und h3t bezeichnet, die Neuronencluster der versteckten Schichten des Feed- Forward-Net zes F2 mit hlt+i , h2t+i und h3t+i - In Analogie wurden entsprechende Bezeichnungen für die weiteren Neuronencluster der versteckten Schichten der Feed-Forward-Net ze F3 und F4 verwendet. Wie sich aus Fig. 2 ergibt, sind die Zustände der Eingangsschicht der einzelnen Feed-Forward-Net ze Fl bis F4 nunmehr versteckte Zustandsvektoren der versteckten Schicht I des rekurrenten neuronalen Netzes RN. Das heißt, für das Netz Fl wird die Eingangsschicht durch den Zustandsvektor st ge¬ bildet, für das Netz F2 durch den Zustandsvektor st+i usw.
Für die Feed-Forward-Net ze Fl bis F4 sind für die einzelnen Konnektoren wiederum die entsprechenden Gewichtsmatrizen angegeben. Man erkennt, dass die einander entsprechenden Konnektoren der jeweiligen Feed-Forward-Net ze die gleichen Gewichtsmatrizen verwenden. Insbesondere wird für die Konnekto¬ ren zwischen der Eingangsschicht I und der ersten versteckten Schicht Hl die Gewichtsmatrix Dl verwendet, für die Konnekto¬ ren zwischen der ersten versteckten Schicht Hl und der zweiten versteckten Schicht H2 die Gewichtsmatrix D2, für die Konnektoren zwischen der zweiten versteckten Schicht H2 und der dritten versteckten Schicht H3 die Gewichtsmatrix D3 und für die Konnektoren zwischen der dritten versteckten Schicht H3 und der Ausgangsschicht 0 die Gewichtsmatrix C3. Ebenso werden die gleichen Gewichte für einander entsprechende
Überbrückungskonnektoren in den einzelnen Feed-Forward-Net zen eingesetzt. Das heißt, für die Konnektoren zwischen der Eingangsschicht I und der Ausgangsschicht 0 wird die Gewichts¬ matrix CO verwendet, für die Konnektoren zwischen der ersten versteckten Schicht Hl und der Ausgangsschicht 0 die Ge¬ wichtsmatrix Cl und für die Konnektoren zwischen der zweiten versteckten Schicht H2 und der Ausgangsschicht 0 die Ge¬ wichtsmatrix C2.
Die Netzstruktur der Fig. 2 wurde von den Erfindern basierend auf Trainingsdaten betreffend den Betrieb einer Gasturbine getestet. Im Unterschied zur Darstellung der Fig. 2 wurden dabei Feed-Forward-Netze mit neun anstatt drei versteckten Schichten verwendet. Zum Lernen wurden insgesamt in etwa 400000 Training-Patterns in der Form entsprechender Zeitreihen der ersten Zustandsvektoren it-5, ■-, it+3 und der zweiten Zustandsvektoren ot, ot+3 eingesetzt. Zur Überprüfung, ob das gelernte neuronale Netz den tatsächlichen Betrieb des technischen Systems widerspiegelt, wurden mit dem gelernten neuronalen Netz geschätzte zweite Zustände mit bekannten zweiten Zuständen des technischen Systems verglichen, wobei für den Vergleich in etwa 100000 Patterns herangezogen wurden .
Als Zustandsvariablen der ersten Zustandsvektoren wurden verschiedene Umweltgrößen und Stellgrößen der Gasturbine, wie z.B. verschiedene Temperaturen und Gasdrucke sowie Einstel¬ lungen von der Turbine zugeführten Brennstoffteilströmen berücksichtigt. Als Zustandsvariablen der zweiten Zustandsvektoren wurden in einer Simulation Emissionen von Stickoxiden und Kohlenmonoxid und in einer anderen Simulation die Amplituden von Brennkammervibrationen in verschiedenen akustischen Frequenzen berücksichtigt. Die mit dem gelernten erfindungs¬ gemäßen Netz erzielten Ergebnisse wurden dabei mit Ergebnis¬ sen eines dreischichtigen und vierschichtigen Netzes verglichen, wobei diese Netze analog zu Fig. 2 aufgebaut sind, je¬ doch keine Konnektoren K' umfassen. Für das dreischichtige Netz existiert dabei nur die versteckte Schicht I ohne die weiteren versteckten Schichten Hl bis H3. Demgegenüber existiert für das vierschichtige Netz neben der Schicht I auch die versteckte Schicht Hl. Der Lernprozess wurde für das er- findungsgemäße Netz und die Vergleichsnetze mehrere Male wie¬ derholt, um signifikante Ergebnisse zu erzielen.
Im Vergleich zu dem dreischichtigen Netz wurde mit dem erfin- dungsgemäßen kaskadierten Netz eine um 14% höhere durchschnittliche Genauigkeit und eine um 12% höhere Genauigkeit für den erfolgreichsten Lernprozess erreicht. Darüber hinaus wurde eine um 13% höhere Genauigkeit für den am Wenigsten er¬ folgreichsten Lernprozess erreicht. Diese Ergebnisse zeigen klar, dass das erfindungsgemäße kaskadierte Netz eine deut¬ lich bessere Modellierung des Verhaltens einer Gasturbine im Vergleich zu einem dreischichtigen Netz ermöglicht.
Verglichen mit dem vierschichtigen Netz wurde für das erfin- dungsgemäße kaskadierte Netz eine um 8% höhere durchschnitt¬ liche Genauigkeit, eine um 5% höhere Genauigkeit für den er¬ folgreichsten Lernprozess und eine um 18% höhere Genauigkeit für den am wenigsten erfolgreichen Lernprozess erreicht. Somit ist das vierschichtige Netz besser zur Modellierung einer Gasturbine als das dreischichtige Netz geeignet. Nichtsdesto¬ trotz ist das kaskadierte Netz der Erfindung immer noch deutlich besser als das vierschichtige Netz. Darüber hinaus ist das erfindungsgemäße Netz auch robuster, denn die Streuung der Genauigkeiten der verschiedenen Lernprozesse war für das kaskadierte Netz geringer als für das vierschichtige Netz.
Wie sich aus en obigen Ausführungen ergibt, eignet sich das erfindungsgemäße Verfahren, welches auf dem Lernen einer kaskadierten neuronalen Netzstruktur basiert, sehr gut zur Modellierung von technischen Systemen, wobei das Lernen auf einfache Weise mit einem herkömmlichen Gradientenabstiegsverfahren bewirkt werden kann. Ein entsprechend gelerntes neuro¬ nales Netz umfassend diese kaskadierte Netzstruktur kann dann sehr gut im Rahmen des Realbetriebs bzw. der Simulation eines technischen Systems eingesetzt werden, um Betriebszustände des technischen Systems vorherzusagen.

Claims

Patentansprüche
1. Verfahren zur rechnergestützten Modellierung eines technischen Systems, bei dem:
- der Betrieb des technischen Systems für eine Vielzahl von Betriebspunkten (t-5, t-4, t+3) jeweils durch einen ersten Zustandsvektor (it-5, it-4/ it+3) mit einer oder mehreren ersten Zustandsvariablen und durch einen zweiten Zustandsvektor (ot, ot+i, ot+3) mit einer oder mehreren zweiten Zustandsvariablen beschrieben wird;
das technische System durch das Lernen eines neuronalen Netzes umfassend zumindest ein Feed-Forward-Netz (Fl, F2, F4 ) basierend auf Trainingsdaten aus bekannten ersten und zweiten Zustandsvektoren (it-5, i-t-4/ ■■■/ it+3 ot, ot+i, Ot+3) für mehrere Betriebspunkte (t-5, t-4, t+3) mo¬ delliert wird;
wobei das zumindest eine Feed-Forward-Netz (Fl, F2,
F4 ) mehrere Neuronenschichten umfassend eine Eingangs¬ schicht (I), zumindest eine versteckte Schicht (Hl, H2, H3) und eine Ausgangsschicht (0) enthält, wobei die Neu¬ ronenschichten untereinander über Konnektoren (K, K' ) mit jeweiligen Gewichten (CO, Cl, D2, D3) verbunden sind und die Eingangsschicht (I) mit zumindest einem ersten Zustandsvektor (it-5, i-t-4/ ■■■/ it+3) und die Ausgangsschicht (0) mit zumindest einem zweiten Zustandsvektor (ot, ot+i,
Ot+3) verknüpft ist;
wobei zumindest ein Konnektor (K' ) des zumindest einen Feed-Forward-Netzes (Fl, F2, F4 ) ein Überbrückungs- konnektor (K' ) ist, der eine Neuronenschicht unter Über- brückung zumindest einer versteckten Schicht (Hl, H2,
H3) mit der Ausgangsschicht (0) verbindet,
wobei das zumindest eine Feed-Forward-Netz (Fl, F2, F4 ) eine Mehrzahl von versteckten Schichten (Hl, H2, H3) umfasst und jede nicht direkt mit der Ausgangsschicht (0) verbundene versteckte Schicht (Hl, H2 ) über einen
Überbrückungskonnektor (K' ) mit der Ausgangsschicht (0) verbunden ist.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Eingangsschicht (I) des zumindest einen Feed-Forward- Netzes (Fl, F2, F4 ) über einen Überbrückungskonnektor (K' ) mit der Ausgangsschicht (0) verbunden ist.
3. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das neuronale Netz über ein Gradientenabstiegsverfahren und insbesondere über Error-Backpropagation gelernt wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das neuronale Netz ferner ein rekurren¬ tes, mit dem zumindest einen Feed-Forward-Netz (Fl, F2,
F4 ) gekoppeltes neuronales Netz (RN) umfassend eine Eingangs¬ schicht (Ι') und eine rekurrente versteckte Schicht (I) ent- hält, wobei die Eingangsschicht (Ι') des rekurrenten neurona¬ len Netzes (RN) erste Zustandsvektoren (it-5/ it-4/ it+3 ) ZU zeitlich aufeinander folgenden Betriebspunkten (t-5, t-4, t+3) des technischen Systems umfassend einen aktuellen und einen oder mehrere vergangene Betriebspunkte beinhaltet, wo- bei jeder erste Zustandsvektor (it-5, it-4/ it+3) zum jewei¬ ligen Betriebspunkt der Eingangsschicht (Ι') des rekurrenten neuronalen Netzes (RN) über einen Konnektor (K) mit entsprechendem Gewicht (Bp, Bf) mit einem versteckten Zustandsvektor (st-5, st-4, ..·, St+3) zum jeweiligen gleichen Betriebspunkt der rekurrenten versteckten Schicht (I) des rekurrenten neuronalen Netzes (RN) verbunden ist, wobei der versteckte Zustands¬ vektor (st) zum aktuellen Betriebspunkt (t) die Eingangs¬ schicht (I) eines des zumindest einen Feed-Forward-Netzes (Fl, F2, F4 ) repräsentiert und die Ausgangsschicht (0) dieses Feed-Forward-Netzes (Fl, F2, F4 ) den zweiten Zu¬ standsvektor (ot) zum aktuellen Betriebspunkt (t) repräsen¬ tiert .
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Eingangsschicht (Ι') des rekurrenten neuronalen Netzes (RN) ferner einen oder mehrere erste Zustandsvektoren (it+i, it+3) zu zeitlich aufeinander folgenden zukünftigen Be¬ triebspunkten (t+1, t+3) des technischen Systems umfasst und jeder erste Zustandsvektor (it+i/ ■■·, it+3) zu einem zukünf¬ tigen Betriebspunkt (t+1, t+3) über einen Konnektor (K) mit entsprechendem Gewicht (Bf) mit einem versteckten Zustandsvektor (st+i, -r St+3) zu dem zukünftigen Betriebspunkt (t+1, t+3) der rekurrenten versteckten Schicht (I) des rekurrenten neuronalen Netzes (RN) verbunden ist, wobei jeder versteckte Zustandsvektor (st+i, st+3) zu einem zukünftigen Betriebspunkt (t+1, t+3) die Eingangsschicht (I) eines des zumindest einen Feed-Forward-Netzes (Fl, F2, F4 ) für den zukünftigen Betriebspunkt (t+1, t+3) bildet, wobei die
Ausgangsschicht (0) jedes Feed-Forward-Netzes (Fl, F2, F4 ) für einen zukünftigen Betriebspunkt (t+1, t+3) den zweiten Zustandsvektor (ot+i, ot+3) zu dem zukünftigen Betriebspunkt (t+1, t+3) repräsentiert.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Konnektoren (K) aller Feed-Forward-Netze (Fl, F2, F4 ) , welche einander entsprechende Neuronenschichten verbinden, die gleichen Gewichte (CO, Cl, D2, D3) aufweisen.
7. Verfahren nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass die Konnektoren (K) zwischen der Eingangs¬ schicht (Ι') des rekurrenten neuronalen Netzes (RN) und der rekurrenten versteckten Schicht (I) des rekurrenten neurona- len Netzes (RN) zu vergangenen Betriebspunkten (t-5, t-1) die gleichen ersten Gewichte (Bp) aufweisen.
8. Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass die Konnektoren (K) zwischen der Eingangs- schicht (Ι') des rekurrenten neuronalen Netzes (RN) und der rekurrenten versteckten Schicht (I) des rekurrenten neuronalen Netzes (RN) zum aktuellen und zu zukünftigen Betriebspunkten (t, t+3) die gleichen zweiten Gewichte (Bf) aufweisen.
9. Verfahren nach einem der Ansprüche 4 bis 8, dadurch gekennzeichnet, dass die Konnektoren (K) der versteckten rekurrenten Schicht (I) des rekurrenten neuronalen Netzes (RN) , welche sich aus versteckten Zustandsvektoren { st-5, ■■·, st-i) zu vergangenen Betriebspunkten (t-5, t-4, t-1) erstrecken, die gleichen dritten Gewichte (Ap) aufweisen.
10. Verfahren nach einem der Ansprüche 5 bis 9, dadurch gekennzeichnet, dass die Konnektoren (K) der versteckten rekurrenten Schicht (I) des rekurrenten neuronalen Netzes (RN) , welche sich in versteckte Zustandsvektoren (st+i, st+2/ st+3) zu zukünftigen Betriebspunkten (t+1, t+2, t+3) erstrecken, die gleichen vierten Gewichte (Af) aufweisen.
11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als technisches System eine Turbi¬ ne, insbesondere eine Gasturbine, modelliert wird.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass die ersten Zustandsvektoren (it-5, it-4/ it+3) der Gasturbine eine oder mehrere der folgenden Zustandsvariablen der Gasturbine umfassen:
einen oder mehrere Temperaturwerte an oder in der Gasturbine, insbesondere einen oder mehrere Brenngastemperaturwerte, ei¬ nen oder mehrere Gasdruckwerte an oder in der Gasturbine, insbesondere einen oder mehrere Brenngasdruckwerte, einen oder mehrere Stellwerte zur Einstellung von einem oder mehre- ren, der Gasturbine zugeführten Brennstoffteilströmen .
13. Verfahren nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass die zweiten Zustandsvektoren (ot, ot+i, ot+3) eine oder mehrere der folgenden Zustandsvariablen umfassen:
einen oder mehrere Emissionswerte von Stickoxiden und/oder von Kohlenmonoxid; einen oder mehrere Parameter, welche Vib¬ rationen der Brennkammmer der Gasturbine beschreiben.
14. Verfahren zum rechnergestützten Schätzen von Zuständen eines technischen Systems, dadurch gekennzeichnet, dass das technische System durch das Lernen eines neuronalen Netzes gemäß einem Verfahren nach einem der vorhergehenden Ansprüche modelliert ist, wobei ein oder mehrere zweite Zustandsvekto- ren (ot, ot+i, ot+3) des technischen Systems über das ge¬ lernte neuronale Netz basierend auf einem oder mehreren ers¬ ten Zustandsvektoren (it-5, it-4/ it+3) des technischen Sys¬ tems bestimmt werden.
15. Computerprogrammprodukt mit einem auf einem maschinenies baren Träger gespeicherten Programmcode zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche, wenn das Programm auf einem Rechner abläuft.
PCT/EP2011/070243 2010-12-10 2011-11-16 Verfahren zur rechnergestützten modellierung eines technischen systems WO2012076306A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP11785653.4A EP2649567B1 (de) 2010-12-10 2011-11-16 Verfahren zur rechnergestützten modellierung eines technischen systems
US13/992,799 US9489619B2 (en) 2010-12-10 2011-11-16 Method for the computer-assisted modeling of a technical system
KR1020137017857A KR101608283B1 (ko) 2010-12-10 2011-11-16 기술 시스템의 컴퓨터―보조 모델링을 위한 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102010062832 2010-12-10
DE102010062832.8 2010-12-10

Publications (1)

Publication Number Publication Date
WO2012076306A1 true WO2012076306A1 (de) 2012-06-14

Family

ID=45002942

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2011/070243 WO2012076306A1 (de) 2010-12-10 2011-11-16 Verfahren zur rechnergestützten modellierung eines technischen systems

Country Status (4)

Country Link
US (1) US9489619B2 (de)
EP (1) EP2649567B1 (de)
KR (1) KR101608283B1 (de)
WO (1) WO2012076306A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140229158A1 (en) * 2013-02-10 2014-08-14 Microsoft Corporation Feature-Augmented Neural Networks and Applications of Same
CN104200005A (zh) * 2014-07-28 2014-12-10 东北大学 基于神经网络的桥梁损伤识别方法
CN104200265A (zh) * 2014-07-28 2014-12-10 东北大学 一种改进的基于神经网络的桥梁损伤识别方法
US9489619B2 (en) 2010-12-10 2016-11-08 Siemens Aktiengesellschaft Method for the computer-assisted modeling of a technical system
CN109115879A (zh) * 2018-08-22 2019-01-01 广东工业大学 一种基于模态振型和卷积神经网络的结构损伤识别方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9047566B2 (en) * 2013-03-12 2015-06-02 Oracle International Corporation Quadratic regularization for neural network with skip-layer connections
DE102013205356B4 (de) * 2013-03-26 2016-07-07 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
WO2015101556A1 (en) * 2014-01-03 2015-07-09 Koninklijke Philips N.V. Calculation of the probability of gradient coil amplifier failure using environment data
US10466266B2 (en) 2014-08-14 2019-11-05 University Of North Dakota Flight parameter prediction using neural networks
WO2016053748A1 (en) * 2014-09-29 2016-04-07 Sikorsky Aircraft Corporation Vibration signatures for prognostics and health monitoring of machinery
CN105549384B (zh) * 2015-09-01 2018-11-06 中国矿业大学 一种基于神经网络和强化学习的倒立摆控制方法
WO2018088804A1 (en) 2016-11-08 2018-05-17 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
US11215363B2 (en) * 2017-04-24 2022-01-04 Honeywell International Inc. Apparatus and method for two-stage detection of furnace flooding or other conditions
US11276071B2 (en) * 2017-08-31 2022-03-15 Paypal, Inc. Unified artificial intelligence model for multiple customer value variable prediction
US20190065932A1 (en) * 2017-08-31 2019-02-28 Paypal, Inc. Densely connected neural networks with output forwarding
US11200577B2 (en) 2017-08-31 2021-12-14 Paypal, Inc. Convolutional neural networks for variable prediction using raw data
US11591894B2 (en) 2017-11-15 2023-02-28 Schlumberger Technology Corporation Field operations system with particle filter
US10922833B2 (en) * 2018-05-15 2021-02-16 Apical Ltd. Image processing
JP7046745B2 (ja) 2018-07-09 2022-04-04 株式会社日立ハイテク 機械学習装置、画像診断支援装置、機械学習方法及び画像診断支援方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5857321A (en) * 1996-06-11 1999-01-12 General Electric Company Controller with neural network for estimating gas turbine internal cycle parameters
DE102007001026A1 (de) 2007-01-02 2008-07-03 Siemens Ag Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102010011221A1 (de) 2010-03-12 2011-09-15 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5250014A (en) * 1992-10-06 1993-10-05 Chang Ching Yi Weight adjustable dumbbell
DE102007001025B4 (de) * 2007-01-02 2008-11-20 Siemens Ag Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102007001024B4 (de) * 2007-01-02 2008-10-02 Siemens Ag Verfahren zur rechnergestützten Regelung und/oder Steuerung eines technischen Systems insbesondere einer Gasturbine
DE102007017259B4 (de) * 2007-04-12 2009-04-09 Siemens Ag Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102007042440B3 (de) * 2007-09-06 2009-01-29 Siemens Ag Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102008007700A1 (de) * 2007-10-31 2009-05-07 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Exploration von Zuständen eines technischen Systems
DE102008020379A1 (de) * 2008-04-23 2009-10-29 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
EP2296062B1 (de) * 2009-09-09 2021-06-23 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen einer Steuerung und/oder Regelung eines technischen Systems
EP2558910B1 (de) * 2010-04-12 2018-12-05 Siemens Aktiengesellschaft Verfahren für computerunterstützten geschlossenen und/oder offenen regelkreis eines technischen systems
WO2012076306A1 (de) 2010-12-10 2012-06-14 Siemens Aktiengesellschaft Verfahren zur rechnergestützten modellierung eines technischen systems
DE102011079432B4 (de) * 2011-07-19 2014-10-23 Siemens Aktiengesellschaft Ansteuerung einer Windturbine, Rotorblatt und Windturbine
US9141915B2 (en) * 2013-01-30 2015-09-22 Siemens Aktiengesellschaft Method and apparatus for deriving diagnostic data about a technical system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5857321A (en) * 1996-06-11 1999-01-12 General Electric Company Controller with neural network for estimating gas turbine internal cycle parameters
DE102007001026A1 (de) 2007-01-02 2008-07-03 Siemens Ag Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102010011221A1 (de) 2010-03-12 2011-09-15 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
ANTON MAXIMILIAN SCHAEFER ET AL: "A Neural Reinforcement Learning Approach to Gas Turbine Control", NEURAL NETWORKS, 2007. IJCNN 2007. INTERNATIONAL JOINT CONFERENCE ON, IEEE, PISCATAWAY, NJ, USA, 1 August 2007 (2007-08-01), pages 1691 - 1696, XP031154848, ISBN: 978-1-4244-1379-9 *
DREYFUS, G.: "Neural networks: methodology and applications", 2005, SPRINGER, ISBN: 3-540-22980-9, pages: 1 - 497, XP002668620 *
PETERSON C ET AL: "JETNET 3.0-A versatile artificial neural network package", COMPUTER PHYSICS COMMUNICATION, ELSEVIER SCIENCE PUBLISHERS B.V., AMSTERDAM, NL, vol. 81, no. 1-2, 1 June 1994 (1994-06-01), pages 185 - 220, XP023140219, ISSN: 0010-4655, [retrieved on 19940601], DOI: 10.1016/0010-4655(94)90120-1 *
PETERSON, C. ET AL.: "JETNET 3.0-A versatile artificial neural network package", COMPUTER PHYSICS COMMUNICATIONS, vol. 81, no. 1-2, 1993, pages 185 - 220, XP024466275, DOI: doi:10.1016/0010-4655(94)90120-1
REYFUS G.: "Neural networks: methodology and applications", 2005, SPRINGER, pages: I,III - XVI,1-11
ROSENBERG, A.: "Lecture 14 - Neural Networks. Machine Learning", March 2010, QUEENS COLLEGE

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9489619B2 (en) 2010-12-10 2016-11-08 Siemens Aktiengesellschaft Method for the computer-assisted modeling of a technical system
US20140229158A1 (en) * 2013-02-10 2014-08-14 Microsoft Corporation Feature-Augmented Neural Networks and Applications of Same
US9519858B2 (en) * 2013-02-10 2016-12-13 Microsoft Technology Licensing, Llc Feature-augmented neural networks and applications of same
CN104200005A (zh) * 2014-07-28 2014-12-10 东北大学 基于神经网络的桥梁损伤识别方法
CN104200265A (zh) * 2014-07-28 2014-12-10 东北大学 一种改进的基于神经网络的桥梁损伤识别方法
CN109115879A (zh) * 2018-08-22 2019-01-01 广东工业大学 一种基于模态振型和卷积神经网络的结构损伤识别方法
CN109115879B (zh) * 2018-08-22 2020-10-09 广东工业大学 一种基于模态振型和卷积神经网络的结构损伤识别方法

Also Published As

Publication number Publication date
KR20130126952A (ko) 2013-11-21
KR101608283B1 (ko) 2016-04-01
EP2649567B1 (de) 2016-08-17
US20130282635A1 (en) 2013-10-24
EP2649567A1 (de) 2013-10-16
US9489619B2 (en) 2016-11-08

Similar Documents

Publication Publication Date Title
EP2649567B1 (de) Verfahren zur rechnergestützten modellierung eines technischen systems
EP2135140B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems
EP2112568B1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
EP2519861B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems
EP2296062B1 (de) Verfahren zum rechnergestützten Lernen einer Steuerung und/oder Regelung eines technischen Systems
EP2185980B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung mit hilfe neuronaler netze
EP2106576B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems
WO2013023887A1 (de) Verfahren zur rechnergestützten modellierung eines technischen systems
EP2097793B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems
WO1999044106A1 (de) System und verfahren zur diagnose von triebwerkszuständen
EP3376026B1 (de) Verfahren zur regelung der wirkleistungsabgabe eines windparks sowie ein entsprechender windpark
EP1627263A1 (de) Verfahren sowie computerprogramm mit programmcode-mitteln und computerprogramm-produkt zur ermittlung eines zukünftigen systemverhaltens eines dynamischen systems
DE102011076969B4 (de) Verfahren zum rechnergestützten Lernen einer Regelung und/oder Steuerung eines technischen Systems
EP3432093A1 (de) Verfahren zur modellierung eines dynamischen systems durch rechnergestütztes lernen von datengetriebenen modellen
WO2012113635A1 (de) Verfahren zum rechnergestützten lernen eines rekurrenten neuronalen netzes zur modellierung eines dynamischen systems
EP4057482A1 (de) Verfahren und vorrichtung zur zustandsschätzung eines elektrischen netzes
EP3528063B1 (de) Verfahren zur rechnergestützten erstellung eines prognosemodells zur prognose von einer oder mehreren zielgrössen
DE102016209721A1 (de) Modellbasierte Ermittlung eines Systemzustandes mittels eines dynamischen Systems
EP0704778B1 (de) Verfahren zur Energieverteilung in Systemen und zugehörige Anordnung
EP4060559B1 (de) Trainingsdatensatz, training sowie künstliches neuronales netz für die zustandsschätzung eines stromnetzes
EP3489773A1 (de) Verfahren zum rechnergestützten steuern eines technischen systems, insbesondere einer energieerzeugungsanlage
DE102013209917A1 (de) System und Verfahren zum Berechnen einer Produktivität einer industriellen Anlage
EP3623881A1 (de) Computerimplementiertes verfahren zum abschätzen eines technischen verhaltens einer vorrichtung
EP4043969A1 (de) Regelung einer energietechnischen anlage
WO2022207353A1 (de) Maschinensteuerung sowie verfahren zum konfigurieren der maschinensteuerung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11785653

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2011785653

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011785653

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20137017857

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13992799

Country of ref document: US