WO2020192827A1 - Verfahren und vorrichtung zur probabilistischen vorhersage von sensordaten - Google Patents

Verfahren und vorrichtung zur probabilistischen vorhersage von sensordaten Download PDF

Info

Publication number
WO2020192827A1
WO2020192827A1 PCT/DE2020/100165 DE2020100165W WO2020192827A1 WO 2020192827 A1 WO2020192827 A1 WO 2020192827A1 DE 2020100165 W DE2020100165 W DE 2020100165W WO 2020192827 A1 WO2020192827 A1 WO 2020192827A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor data
rcgan
target variable
technical system
values
Prior art date
Application number
PCT/DE2020/100165
Other languages
English (en)
French (fr)
Inventor
Matthias Schultalbers
Peter SCHICHTEL
Alireza KOOCHALI
Sheraz Ahmed
Original Assignee
Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr filed Critical Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr
Priority to DE112020001605.6T priority Critical patent/DE112020001605A5/de
Priority to US17/442,632 priority patent/US20220187772A1/en
Publication of WO2020192827A1 publication Critical patent/WO2020192827A1/de

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D41/00Electrical control of supply of combustible mixture or its constituents
    • F02D41/0002Controlling intake air

Definitions

  • a comprehensible result can be generated in a simple manner.
  • Statistical models such as ARMA (Auto Regressive Moving Average) or ARIMA are known here.
  • SVM Small Vector Machine
  • evolutionary algorithms include the SVM ("Support Vector Machine"), evolutionary algorithms, fuzzy logic, and artificial neural networks.
  • methods of regression to the middle do not take into account the fluctuations around the mean value, do not show any overlap with the true value in the case of probability distributions of complex systems and cannot improve their result with given probability distributions.
  • probabilistic prediction of future values is based on the quantification of the variance of a
  • a GAN is used to generate artificial user data of a driver of a vehicle.
  • the artificial user data is based on real user data analyzed in advance.
  • a generator network generates artificial user data and a discriminator network differentiates between artificial and real user data, so that the generator network and the discriminator network are trained on the basis of this distinction so that the generator network can later be used as an artificial user model.
  • it is sufficient to generate artificial user data which look realistic, but are not compared with a given probability distribution or in other words with the true values (basic truth).
  • arXiv preprint arXiv: 1706.02633, 2017, is an approach to the
  • recurrent conditional GAN recurrent conditional GAN
  • RCGAN recurrent conditional GAN
  • the aim is to forecast measured values for patient monitoring. On the basis of the measured values of various measured variables of the patients from a past period, it is intended to predict whether individual measured variables in a certain period of time will exceed defined limit values in the future.
  • RCGAN recurrent conditional GAN
  • the generator network and the discriminator network are each replaced by recurrent neural networks (“recurrent neural network” - RNN) and are represented in particular by long-short-term memory (LSTM).
  • recurrent neural network - RNN
  • LSTM long-short-term memory
  • the generator network takes a random value from a noise vector as well as an additional condition and generates a signal value from this. Designations are assigned to the previous values.
  • This ongoing process creates a synthetic time series.
  • the discriminator network receives the synthetically generated values and creates a distinction for each journal in synthetic or realistic and tries to learn the behavior of the time series in this way.
  • the discriminator network is trained to minimize the average negative cross entropy of its predictions per time step and the designation of the values.
  • the model is assessed by testing a model that was learned with synthetically generated values for real data or by testing a model that was learned with real data for synthetic values. Attention is also drawn to the problem that a model learned in this way could only store and reproduce the training data. Furthermore, the possibility is offered of being able to evaluate the result based on the probability distribution of the initial data (basic truth).
  • Sensor data from devices for controlling a drive unit do not depict reality with sufficient accuracy.
  • Methods for the probabilistic prediction of future values of time series of sensor data are not used in technical systems for the control of drive units, in particular for the lack of the ability to evaluate their predictions with regard to realistic results
  • the object of the present invention is therefore to provide a method and a device which is set up to determine future values of a time series, in particular
  • Predict sensor data from technical systems in particular a drive unit, in particular the filling of cylinders of an internal combustion engine in a probabilistic and assessable manner.
  • the present invention is based on the intention of having an RCGAN
  • the technical system can be the drive train, a drive machine or some other type of drive unit of a vehicle and the sensor can provide a parameter which is processed by the technical system and on which further parameters can be dependent.
  • the technical system can generally be a machine, some other drive machine or prime mover, or also an electrical machine that is able to control technical processes.
  • the technical system can be an internal combustion engine
  • the method according to the invention for predicting sensor data now comprises the following basic steps:
  • the method according to the invention continuously generates the artificial predicted future value x p (t + 1), at each point in time t at which it has the value x (t) of the time series of the parameter mapped by the sensor of interest should correspond to the real future value x r (t + 1).
  • the method according to the invention takes into account the history of the time series
  • parameter x (t) up to any point in time in the past.
  • the time period ⁇ to, ..., t ⁇ is shown as an example in FIG. 1.
  • the historical period used may depend on the sampling rate of the sensor from which
  • Measurement data acquisition resolution the measurement data processing resolution or other limiting properties of the technical system, so that the historical period and in particular the intervals between the individual journals can be selected as desired by the user.
  • the values associated with the historical period ⁇ t 0 , ..., t ⁇ under consideration are referred to below as the historical condition time window
  • condition time window (C) ⁇ x (to), ..., x (t) ⁇ or just called condition time window (C).
  • Fig. 2 shows the schematic structure of a technical system (1) for carrying out the method according to the invention.
  • the technical system (1) comprises a drive control unit (2), a generator network (G), a sensor (3) of interest and optionally further sensors (4).
  • the drive control unit (2) is set up to process artificially predicted future values x P (t + 1) generated by the generator network (G).
  • the generator network (G) is set up to record the condition time window C of the history of the sensor data from the sensor (3) of interest and the other sensors (4) and to predict the future value x p (t + 1) of the sensor (3) of interest from this.
  • the future value x (t + 1) is then returned to the
  • the drive control unit (2) is the engine control unit (ECU) of an internal combustion engine and the parameter of the sensor (3) of interest is the ECU
  • the filling quantity can be the physical equivalent of the control stroke or a control factor f r of a known lambda control which at least indirectly represents the filling quantity in a cylinder.
  • any further parameter can be used which directly or indirectly represents the filling quantity.
  • further parameters are determined by the sensor data of further sensors (4) by the drive control unit (2) or by the Engine control unit (ECU) given.
  • the parameters of the sensor data of further sensors (4) can be, for example, the engine speed (n mot ), the intake pressure, the camshaft adjustment, the throttle valve position, lambda values, coolant temperature (T mot ) and others, which affect or through the parameters of the sensor (3) of interest these themselves are influenced.
  • the parameters of the sensor data of the other sensors (4) are summarized below under the term auxiliary variables, the parameter of the
  • Generator network (G) trained in advance of the application.
  • Fig. 3 the schematic structure of a system (5) for training the RCGAN according to the invention is shown.
  • the auxiliary variables S ⁇ y (t 0 ), ..., y (t) ⁇ are used both in the application and in the training of the generator network (G), these also being used as input variables for the generator network ( G) and that
  • Discriminator network (D) serve.
  • Another input variable for the generator network (G) is the noise vector (Z).
  • the noise vector (Z) follows a known one
  • p RauSch (z) Probability distribution p RauSch (z).
  • p RauSch (z) is a Gaussian normal distribution, with a mean value of 0 and a standard deviation of 1.
  • any other known probability distribution can be used as the predistribution.
  • the generator network (G) generates artificial future values x (t + 1) from the condition time window (C) and the noise vector (Z).
  • real future values x r (t + 1) are taken from a training data set (6). Both the artificially generated and the real future values (x p (t + 1), x r (t + 1)) serve as input variables for the discriminator network (D).
  • the discriminator network (D) creates an evaluation (7) for each journal from the condition time window (C) and the artificially generated or real future value (x p (t + 1), x r (t + 1)), which is stored in this is whether the predicted future value is a correct (R) or incorrect (F) value.
  • Fig. 4 the method for training the RCGAN according to the invention is shown.
  • a known, existing data set is divided into three sub-data sets.
  • 50% of the existing data set is used as a training data set,
  • a data record in the sense of the invention consists of several pairs of values of the sensor data that were generated by the technical system (1). In this way, the real behavior of the
  • a data record can be generated artificially, for example by simulating the entire or parts of the technical system (1).
  • step (S010) a part of the training data set is taken, on which the generator network (G) is then trained in a further step (S020).
  • step (S010) a part of the training data set is taken, on which the generator network (G) is then trained in a further step (S020).
  • step (S030) the discriminator network (D) is trained using a further independent part of the training data set (6).
  • step (S040) the result of the training is evaluated using the validation data record and it is then checked whether the result meets the requirements of the application in the technical system (1) (S050). If this is not the case (s), another training run takes place, starting with the first step (S010). If the result meets the requirements (j), the training is over.
  • the entire data set has an unknown probability distribution p Data (x), from which the known generator distribution p G (x) initially deviates (FIG. 4, top).
  • p Data x
  • p G x
  • Z noise vector
  • the generator network (G) tries out the noise vector (Z) and the
  • Condition time window (C) to generate a sample that of the unknown
  • the generator network (G) learns, using the known probability distribution p noise (z), to generate a generator distribution p G (x) which is similar to the probability distribution p Data (x) of the training data set (FIG. 4, bottom).
  • the inventive RCGAN can be conditioned to the additional information y (t). This can be any type of information, such as
  • the auxiliary variables can serve both the generator network (G) and the discriminator network (D) as an additional input variable. This results in the value function V (G, D) according to Eq. 2: [logD (x
  • the generator network (G) comprises a first RNN layer (8) and two dense NN layers (10, 11).
  • the first RNN layer (8) is set up to process the condition time window (C) and to represent it in a state vector (9).
  • the first dense NN layer (10) is set up to process the state vector (9) and the noise vector (Z).
  • the second dense NN layer (11) is set up to process the outputs of the first dense NN layer (10) and to generate the artificial predicted future value x P (t + 1).
  • the generator network (G) takes the condition time window (C) and the
  • Noise vector (Z) as input variables and leads the condition time window (C) into the first RNN layer (8).
  • the first RNN layer (8) generates the state vector (9) from the condition time window (C) and links it with the noise vector (Z).
  • State vector (9) and noise vector (Z) are fed into the first dense NN layer (10), which these
  • the first RNN layer (8) comprises a defined number of cells, which is described below with the variable RG.
  • the noise vector (Z) comprises a number of N samples.
  • the first dense NN layer (10) comprises a number of RG + N cells.
  • the second dense NN layer (11) comprises only one cell.
  • Fig. 6 the structure of the discriminator network (D) is shown.
  • Discriminator network (D) comprises a first RNN layer (8) and a dense NN layer (10).
  • the first RNN layer (8) is set up to process the condition time window (C) and a future real value x r (t + 1) or a predicted artificial value x p (t + 1) and to enter the results as a state vector to lead dense NN layer (10).
  • the dense NN layer (10) is set up to generate a rating (7) from the results of the first RNN layer (8), this containing validity information (R, F).
  • the discriminator network (D) thus takes the artificial predicted future value x p (t + 1) of the generator network (G) for the value x t + i or the real value x r (t + 1) from the training data set (6), links this with the condition time window (C) and leads this into the first RNN layer (8).
  • the first RNN layer (8) comprises a defined number of cells, which is described below with the variable RD.
  • the dense NN layer (10) comprises only one cell.
  • the first RNN layers (8) of the generator network (G) and of the discriminator network (D) are LSTM (“long short-term memory) or GRU (“ gated recurerent unit ”).
  • LSTM long short-term memory
  • GRU gated recurerent unit
  • Table 1 lists possible values for the hyperparameters for the method according to the invention. Other values and types are possible.
  • the network generator (G) once and the discriminator network (D) is repeatedly trained with each pass of FIG..
  • the number of iterations with which the discriminator network (D) is trained within a training run is referred to as the variable Di ter . All hyperparameters that are listed in Tab. 1 are set specifically for each application.
  • the hyperparameters are set using a genetic algorithm.
  • the genetic algorithm uses directed random trials to find optimal solutions to complex problems. All hyperparameters are encoded in a vector, which is called a gene.
  • the algorithm starts with a series of randomly initialized genes that form a gene pool and tries to find the most optimized gene through iterative progress. At each iteration, the genes in the gene pool are scored with an adaptation function and those with low scores are eliminated. Then the remaining genes are used to create offspring. After several iterations, the algorithm converges on a gene with the most optimized one
  • the algorithm has an 8 gene pool and 8 iterations are performed. In each iteration, the 4 genes with the best values are used to generate offspring. In each case 4 genes are generated by gene exchange and 4 more by mutation. With the generated by in such a gene is followed by a variant of the invention RCGAN 's designed and trained with a training data set (6), wherein this is the Kullback-Leibler divergence (KLD) is validated by a validation data set by means of review.
  • KLD Kullback-Leibler divergence
  • the deviation between the probability distributions P and Q is determined, where P is the data distribution and Q is the distribution of the prediction probability. Therefore, if, due to the appearance of Q in the denominator, the predicted distribution is the
  • the KLD is not defined.
  • N is the number of data samples, x, and £) are the current predictions.
  • selective error codes as loss functions are only suitable to a limited extent
  • opposing training is therefore advantageously used in order to train the neural networks for the prognosis.
  • a generator regression model is constructed which has the identical structure of the generator of the
  • the error figure RMSE is optimized as a loss function and its results serve as Comparison of the conventional methods of data prediction using neural networks with the RCGAN according to the invention. Referring to Fig. 4, after the
  • the method according to the invention trained RCGAN during the training, in the validation step S040, compared with the trained generator regression model.
  • the error indicators RMSE, MAE, MAPE and / or the KLD can be used to evaluate the respective results.
  • RCGAN s 100 forecasts of t x + i taken for each condition of a test data set and calculates the prediction probability distribution for the entire test data set. Then KLD is between the
  • Prediction probability distribution and the data distribution of the test data set are formed.
  • the KLD for this model is determined on the basis of the data from the histogram of the predictions of the generator regression model.
  • the prognosis by the RCGAN according to the invention can be applied 100 times to the test data set and from this a mean value and the
  • Standard deviation can be calculated for the corresponding error metrics.
  • the application of the invention RCGAN's on the record as often done.
  • the result of the KLD thus indicates how precisely the RCGAN according to the invention learned the distribution from the data record.
  • a data set is used which is based on the Lorenz equations.
  • the Lorenz equations describe the atmospheric convection a, the horizontal
  • data can be generated using the Mackey-Glass approach, which is based on the following differential equation for the time delay:
  • data can be taken from the Internet traffic data set, which contains the forecast of Internet traffic and is also known as A5M.
  • 11 shows a system and method for the filling prediction of cylinders of a
  • chaotic data distributions are generated from a Lorenz data set.
  • 5 numerical values are first selected for the initial condition b 0 and the associated relative occurrence thereof according to Tab. 3.
  • the condition time window (C) between seconds 12 and 17 was selected for the resulting data.
  • the data record of the condition time windows is shown in FIG. 7b.
  • samples are taken for the target variables x t + i with the values te (20, 22, 25).
  • the hyperparameters for this embodiment are determined in accordance with Table 2. This results in an RCGAN with GRU as cell type (T), 8 generator cells (RG), 64 discriminator cells (RD), a noise vector (Z) of length 32, a condition vector (C) of length 24, with 2 iterations (D iter ) of discriminator training.
  • the inventive RCGAN generated in this way is trained according to the method of FIG. 4 on the generated Lorenz data set.
  • RCGAN 's is constructed and
  • Error code RMSE (Eq. 5) optimized as a loss function.
  • FIG. 9 shows the results of the predicted probability distribution of the invention
  • the RCGAN according to the invention has lower error values than the generator regression. This is particularly interesting with regard to the error index RMSE, since the generator regression model was optimized directly for RMSE. Regarding the internet traffic dataset, the results obtained are generator regression and the
  • RCGAN according to the invention in scales.
  • the starting point is the engine control unit (ECU), which manages the sensor data of the internal combustion engine and the vehicle.
  • ECU engine control unit
  • Sensor data in the sense of the invention relates to the acquisition, calculation and
  • the target variable for example the control stroke f r
  • the target variable for example the control stroke f r
  • the target variable itself belongs to the sensor data and thus forms the sensor (3) of interest.
  • the other sensor data (4a, 4b, 4c, ...) are processed within the engine control unit (ECU). These are the physical time delay, the engine speed (n mot ), the relative cylinder charge (rl), the camshaft adjustment, the throttle valve position, the intake pressure, the air-fuel ratio, the coolant temperature (T mot ), the intake air temperature, and other parameters, which are known for the engine control of internal combustion engines.
  • the target variable for r contains further information about the in the engine control
  • Weighting which is known to be used for calculation within neural networks. Furthermore, the sensor data of the
  • Sensor data (4a, 4b, 4c, ...) are used as auxiliary variables (S).
  • the weighting (W) of the target variable (f r ), the condition time window (C), the auxiliary variables (S) and the noise vector (Z) now serve as input variables in the RCGAN according to the invention, which has already been trained in advance as described above.
  • the trained generator network (G) is used, which generates the probability distribution p ( fr (t + 1)) of the future value of the target variable as an output variable from the existing input variables and ultimately a future value f r (t + from this) 1) intended for the target size. This is then transferred to the

Abstract

Die Erfindung betrifft ein computerimplementiertes Verfahren zur probabilistischen Vorhersage von Sensordaten. Ausgehend von vorhandenen zeitlichen Verläufen einer Zielgröße und optional von weiteren Hilfsgrößen ist ein erfindungsgemäßes RCGAN in der Lage, die Wahrscheinlichkeitsverteilung zukünftiger Werte der Zielgröße zu berechnen und daraus die zukünftigen Werte der Zielgröße vorherzusagen. Die vorhergesagten zukünftigen Werte der Zielgröße können dem technischen System, in welchem das erfindungsgemäße Verfahren angewendet wird, zurückgeführt werden, sodass dieses anhand der gewonnenen Erkenntnisse Parameter verstellen kann. Die Vorhersage der Füllungsmenge von Zylindern einer Verbrennungskraftmaschine dient hierbei als spezifische technische Anwendung.

Description

Verfahren und Vorrichtung zur probabilistischen Vorhersage von Sensordaten
Beschreibung
Technisches Gebiet
Die vorliegende Erfindung betrifft das Gebiet der die Wahrscheinlichkeitsverteilung
berücksichtigenden Vorhersage zukünftiger Werte von Zeitreihen, unter Anwendung von generativen gegnerischen Netzwerken („generative adversarial networks“ - GAN),
insbesondere zur Prognose von Sensordaten einer Antriebseinheit, in der Anwendung der Prognose der Füllung von Zylindern einer Verbrennungskraftmaschine.
Stand der Technik
Die Vorhersage zukünftiger Werte von gegebenen Zeitreihen von Kenngrößen technischer Systeme kann das Verhalten jener technischen Systeme bezüglich Performance, Effizienz und Effektivität positiv beeinflussen. Speziell in der Ausführung der Prognose der Füllung von Zylindern einer Verbrennungskraftmaschine eines Kraftfahrzeuges kann auf diese Art und Weise eine vorausschauende Steuerung des gesamten Antriebsstranges des Kraftfahrzeuges erfolgen, was zu verringertem Verschleiß der Komponenten, einem reduzierten
Kraftstoffverbrauch und einhergehend zu reduziertem Schadstoffausstoß, bei gleichzeitiger leistungsgerechter Gewährleistung der Performance führt. Zur Vorhersage von zukünftigen Werten, ausgehend von vergangenen Daten, existieren verschiedene Methoden.
Durch die Methode der Regression zur Mitte kann beispielsweise auf einfache Art und Weise ein nachvollziehbares Ergebnis erzeugt werden. Hierbei sind statistische Modelle, wie ARMA (Auto Regressive-Moving Average) oder ARIMA bekannt. Auf dem Gebiet des maschinellen Lernens zählen hierzu die SVM („Support-Vector-Machine“), evolutionäre Algorithmen, Fuzzy Logic, sowie künstliche neuronale Netze. Methoden der Regression zur Mitte berücksichtigen jedoch die Schwankungen um den Mittelwert nicht, weisen bei Wahrscheinlichkeitsverteilungen von komplexen Systemen keine Überlappung mit dem wahren Wert auf und können ihr Ergebnis bei gegebenen Wahrscheinlichkeitsverteilungen nicht verbessern.
Die Wahrscheinlichkeitsverteilung berücksichtigende, oder mit anderen Worten probabilistische Vorhersage von zukünftigen Werten beruht auf der Quantifizierung der Varianz einer
Vorhersage. Hierbei sind Verteilungsschätzungen, wie die bedingte Quantilregression oder die expektile Regression bekannt. Weiterhin werden hierfür Modelle der Bayes’schen
Wahrscheinlichkeitstheorie verwendet. Bei diesen Ansätzen entsteht zum einen die Gefahr von Quantilüberschneidung und zum anderen sind sie rechenintensiv und erfordern eine geeignete Vorverteilung, die vom Anwender ausgewählt werden muss. Durch die Anwendung von GAN’s entsteht die Möglichkeit, dass ein technisches System unbekannte Wahrscheinlichkeitsverteilungen aus einer Auswahl von Stichproben aus der datengenerierenden (physikalischen) Verteilung lernt. Dadurch werden synthetische Daten erzeugt, die der so erlernten Wahrscheinlichkeitsverteilung folgen. Auf diese Art und Weise können GAN's trainiert werden, um zukünftige Werte aus einer Historie von Daten zu prognostizieren. Allerdings entsteht das Problem der Bewertung, ob die nach solcherart entstandenen Daten realistisch sind. Aus diesem Grund beschränkt sich die Erzeugung von synthetischen, realistischen Daten mittels GAN weitestgehend auf Anwendungen, deren Ergebnisse ein menschlicher Betrachter intuitiv bewerten kann, wie Bild-, Text-, Sprach- und Musikdaten.
In DE102018200816B3 wird ein GAN verwendet, um künstliche Benutzerdaten eines Fahrers eines Fahrzeuges zu erzeugen. Die künstlichen Benutzerdaten basieren dabei auf im Vorfeld analysierten echten Benutzerdaten. In der bekannten Arbeitsweise eines GAN’s erzeugt ein Generatornetzwerk künstliche Benutzerdaten und ein Diskriminatornetzwerk unterscheidet zwischen künstlichen und echten Benutzerdaten, sodass das Generatornetzwerk und das Diskriminatornetzwerk auf Grundlage dieser Unterscheidung trainiert werden, sodass das Generatornetzwerk später als künstliches Benutzermodell verwendet werden kann. Für diese Anwendung reicht es aus, künstliche Benutzerdaten zu erzeugen, welche realistisch aussehen, jedoch nicht mit einer gegebenen Wahrscheinlichkeitsverteilung oder mit anderen Worten, mit den wahren Werten (Grundwahrheit) verglichen werden.
In C. Esteban, S. L. Hyland, G. Rätsch:“Real-valued (medical) time series generation with recurrent conditional gans.” arXiv preprint arXiv: 1706.02633, 2017, wird ein Ansatz zum
Erzeugen von realistischen Werten von medizinischen Zeitreihen, unter Verwendung von wiederkehrenden bedingten GAN’s („recurrent conditional GAN“ - RCGAN) offenbart. Ziel ist die Prognose von Messwerten zur Patientenüberwachung. Dabei soll auf Grundlage der Messwerte verschiedener Messgrößen der Patienten aus einem vergangenen Zeitraum prognostiziert werden, ob einzelne Messgrößen in einem bestimmten Zeitraum in der Zukunft definierte Grenzwerte überschreiten. Hierbei werden RCGAN 's verwendet, wobei das
Generatornetzwerk und das Diskriminatornetzwerk jeweils durch wiederkehrende neuronale Netze („recurrent neural network“ - RNN) ersetzt sind und insbesondere durch Long-Short- Term-Memory (LSTM) dargestellt werden. Das Generatornetzwerk nimmt zu jedem Zeitpunkt, in dem ein weiterer zukünftiger Wert der Zeitreihe prognostiziert wird, einen zufälligen Wert aus einem Rauschvektor sowie eine zusätzliche Bedingung und erzeugt daraus einen Signalwert. Den vorangegangenen Werten sind dabei Bezeichnungen zugeordnet. Durch diesen fortlaufenden Vorgang entsteht eine synthetische Zeitreihe. Das Diskriminatornetzwerk erhält die synthetisch erzeugten Werte und erstellt für jeden Zeitschrift eine Unterscheidung in synthetisch oder realistisch und versucht auf diese Art und Weise das Verhalten der Zeitreihe zu lernen. Das Diskriminatornetzwerk wird hierbei darauf trainiert, die durchschnittliche negative Kreuzentropie seiner Vorhersagen pro Zeitschritt und den Bezeichnungen der Werte zu minimieren. Bewertet wird das Modell durch das Testen eines Modells, das mit synthetisch erzeugten Werten gelernt wurde, auf reale Daten oder durch Testen eines Modells, das mit realen Daten gelernt wurde, auf synthetische Werte. Es wird zusätzlich auf die Problematik hingewiesen, dass ein nach solcherart gelerntes Modell lediglich die Trainingsdaten speichern und wiedergeben könnte. Weiterhin wird die Möglichkeit in Aussicht gestellt, das Ergebnis anhand der Wahrscheinlichkeitsverteilung der Ausgangsdaten (Grundwahrheit) bewerten zu können.
Zur Bestimmung und Vorhersage der Befüllung eines Zylinders einer
Verbrennungskraftmaschine sind durch den Stand der Technik Berechnungsmethoden nach DE19756919A1 und DE102004041708B4 bekannt.
Bekannte Verfahren zur Vorhersage von zukünftigen Werten technischer Systeme, wie
Sensordaten von Vorrichtungen zum Steuern einer Antriebseinheit, insbesondere der Befüllung der Zylinder einer Verbrennungskraftmaschine, bilden die Realität nur unzureichend genau ab. Verfahren zur probabilistischen Vorhersage zukünftiger Werte von Zeitreihen von Sensordaten werden in technischen Systemen aus Mangel an der Bewertbarkeit ihrer Prognosen bezüglich realistischer Ergebnisse nicht zur Steuerung von Antriebseinheiten, insbesondere von
Verbrennungskraftmaschinen angewendet.
Aufgabe der Erfindung
Die Aufgabe der vorliegenden Erfindung ist es daher, ein Verfahren und eine Vorrichtung bereitzustellen, das eingerichtet ist, um zukünftige Werte einer Zeitreihe, insbesondere
Sensordaten von technischen Systemen, insbesondere einer Antriebseinheit, insbesondere die Füllung von Zylindern einer Verbrennungskraftmaschine probabilistisch und bewertbar vorherzusagen.
Lösung der Aufgabe
Die Aufgabe wird durch ein Verfahren nach Patentanspruch 1 und eine Vorrichtung nach Patentanspruch 8 gelöst. Weitere Varianten und Ausführungsformen ergeben sich durch die Unteransprüche.
Darstellung und Vorteile der Erfindung
Der vorliegenden Erfindung liegt die Intention zu Grunde, einem RCGAN mit
erfindungsgemäßer Architektur die Wahrscheinlichkeitsverteilung der Werte eines Sensors eines technischen Systems zu erlernen, sodass das fertig gelernte Generatornetzwerk des RCGAN's fähig ist, zukünftige Werte des Sensors vorherzusagen, sodass das technische System, ausgehend von der Kenntnis des zukünftigen Wertes des Sensors eigenständig Vorkehrungen treffen kann, um eine gewünschte Funktionsweise zu realisieren. In einer Ausführungsform kann das technische System der Antriebsstrang, eine Antriebsmaschine oder eine anders geartete Antriebseinheit eines Fahrzeuges sein und der Sensor eine Kenngröße bereitstellen, welche durch das technische System verarbeitet wird und von welcher weitere Kenngrößen abhängig sein können. Alternativ kann das technische System generell eine Maschine, eine sonstige Antriebsmaschine oder Kraftmaschine oder auch eine elektrische Maschine sein, die in der Lage ist technische Prozesse zu steuern. In einer erfindungsgemäßen Ausführungsform kann das technische System eine Verbrennungskraftmaschine eines
Fahrzeuges und die Kenngröße des Sensors, von welchem die zukünftigen Werte vorhergesagt werden sollen, die Füllungsmenge der einzelnen Zylinder der Verbrennungskraftmaschine sein. Zum besseren Verständnis und als Unterstützung der Beschreibung wird sich auf folgende Abbildungen bezogen. Hierbei zeigen:
Fig. 1 die Vorhersage und den zeitlichen Verlauf eines beispielhaften Sensordatenwertes,
Fig. 2 ein technisches System zur Ausführung des erfindungsgemäßen Verfahrens,
Fig. 3 ein System zum Trainieren des erfindungsgemäßen RCGAN’s,
Fig. 4 das Verfahren zum Trainieren des erfindungsgemäßen RCGAN’s,
Fig. 5 den Aufbau des Generatornetzwerkes,
Fig. 6 den Aufbau des Diskriminatornetzwerkes.
Das erfindungsgemäße Verfahren zur Vorhersage von Sensordaten umfasst nunmehr folgende grundlegende Schritte:
• Trainieren eines erfindungsgemäßen RCGAN's mittels erhobener Daten eines
technischen Systems;
• Bereitstellen der zeitlichen Verläufe der Zielgröße und der Hilfsgrößen des technischen Systems;
• Erzeugen eines Bedingungszeitfensters aus den zeitlichen Verläufen der Zielgröße und den Hilfsgrößen;
• Berechnung der zukünftigen Wahrscheinlichkeitsverteilung der Zielgröße durch das erfindungsgemäße RCGAN;
• Bestimmung eines in der Zukunft liegenden Wertes der Zielgröße aus der berechneten Wahrscheinlichkeitsverteilung;
• Rückführung des vorhergesagten Wertes der Zielgröße in das technische System,
sodass dieses, unter Verwendung der Zielgröße, Einstellungen verändern kann. Bezugnehmend auf Fig. 1 erzeugt das erfindungsgemäße Verfahren fortlaufend, zu jedem Zeitpunkt t, zu welchem es den Wert x(t) der Zeitreihe der durch den interessierenden Sensor abgebildeten Kenngröße innehat, den künstlichen vorhergesagten zukünftigen Wert xp(t+1), der dem realen zukünftigen Wert xr(t+1) entsprechen soll. Analog dazu, wird im folgenden
Zeitschrift der zukünftige Wert, der im aktuellen Diagramm xr(t+2) entspricht, vorhergesagt.
Dazu berücksichtigt das erfindungsgemäße Verfahren die Historie der Zeitreihe der
abgebildeten Kenngröße x(t) bis zu einem beliebig weit in der Vergangenheit zurückliegenden Zeitpunkt. Beispielhaft ist hierfür in Fig. 1 der Zeitraum {to, ... ,t} dargestellt. Der angewendete historische Zeitraum kann von der Abtastrate des Sensors, von der
Messdatenaufnahmeauflösung, der Messdatenverarbeitungsauflösung oder weiteren begrenzenden Eigenschaften des technischen Systems abhängig sein, sodass der historische Zeitraum und insbesondere die Intervalle zwischen den einzelnen Zeitschriften beliebig vom Anwender gewählt werden können. Die zu dem betrachteten historischen Zeitraum {t0,... ,t} zugehörigen Werte werden im Folgenden als das historische Bedingungszeitfenster
C={x(to), ... ,x(t)} oder auch nur Bedingungszeitfenster (C) bezeichnet.
Fig. 2 zeigt den schematischen Aufbau eines technischen Systems (1) zur Ausführung des erfindungsgemäßen Verfahrens. In einer Ausführungsform umfasst das technische System (1) eine Antriebssteuereinheit (2), ein Generatornetzwerk (G), einen interessierenden Sensor (3) und optional weitere Sensoren (4). Die Antriebssteuereinheit (2) ist eingerichtet, um vom Generatornetzwerk (G) erzeugte, künstliche vorhergesagte zukünftige Werte xP(t+1) zu verarbeiten. Das Generatornetzwerk (G) ist eingerichtet, um das Bedingungszeitfenster C der Historie der Sensordaten vom interessierenden Sensor (3) sowie der weiteren Sensoren (4) aufzunehmen und daraus den zukünftigen Wert xp(t+1) des interessierenden Sensors (3) vorherzusagen. Der zukünftige Wert x (t+1) wird anschließend wieder zurück in die
Antriebssteuereinheit (2) geführt, sodass diese, ausgehend von der Kenntnis über die Prognose von x(t), Vorkehrungen treffen oder Parameter verstellen kann, um den Anforderungen zu genügen, welche an das technische System gestellt werden.
In einer Ausführungsform ist die Antriebssteuereinheit (2) die Motorsteuereinheit (ECU) einer Verbrennungskraftmaschine und die Kenngröße des interessierenden Sensors (3) die
Füllungsmenge der Zylinder der Verbrennungskraftmaschine. Die Füllungsmenge kann hierbei das physikalische Äquivalent zum Steuerhub oder einem Steuerfaktor fr einer bekannten Lambdasteuerung, welche die Füllungsmenge in einem Zylinder zumindest indirekt darstellt, sein. Alternativ kann jede weitere Kenngröße verwendet werden, welche die Füllungsmenge unmittelbar oder indirekt darstellt. In einer weiteren Ausführungsform sind weitere Kenngrößen durch die Sensordaten weiterer Sensoren (4) durch die Antriebssteuereinheit (2) oder die Motorsteuereinheit (ECU) gegeben. Die Kenngrößen der Sensordaten weiterer Sensoren (4) können beispielsweise die Motordrehzahl (nmot), der Ansaugdruck, die Nockenwellenverstellung, die Drosselklappenstellung, Lambdawerte, Kühlmitteltemperatur (Tmot) und weitere sein, welche die Kenngröße des interessierenden Sensors (3) beeinträchtigen oder durch diese selbst beeinflusst werden. Die Kenngrößen der Sensordaten der weiteren Sensoren (4) werden im Folgenden unter dem Begriff der Hilfsgrößen zusammengefasst, die Kenngröße des
interessierenden Sensors (3) wird als Zielgröße bezeichnet.
Um einen zukünftigen Wert der Zielgröße erfindungsgemäß vorherzusagen, wird das
Generatornetzwerk (G) im Vorfeld der Anwendung trainiert. In Fig. 3 ist der schematische Aufbau eines Systems (5) zum Trainieren des erfindungsgemäßen RCGAN’s dargestellt. Das System (5) umfasst das Generatornetzwerk (G) und ein Diskriminatornetzwerk (D), wobei das Bedingungszeitfenster C={x(t0), ... ,x(t)} jeweils als Eingangsgröße für beide Netzwerke (G, D) dient. In einer vorteilhaften Ausführungsform werden sowohl bei der Anwendung, als auch beim Training des Generatornetzwerkes (G) die Hilfsgrößen S={y(t0),... ,y(t)} verwendet, wobei diese ebenfalls als Eingangsgrößen für das Generatornetzwerk (G) und das
Diskriminatornetzwerk (D) dienen. Eine weitere Eingangsgröße für das Generatornetzwerk (G) ist der Rauschvektor (Z). Der Rauschvektor (Z) folgt einer bekannten
Wahrscheinlichkeitsverteilung pRauSch(z). In einer vorteilhaften Ausführungsform ist pRauSch(z) eine Gauß’sche Normalverteilung, mit einem Mittelwert von 0 und einer Standardabweichung von 1. Alternativ kann jede weitere bekannte Wahrscheinlichkeitsverteilung als Vorverteilung verwendet werden. Während des Trainings erzeugt das Generatornetzwerk (G) aus dem Bedingungszeitfenster (C) und dem Rauschvektor (Z) künstliche zukünftige Werte x (t+1).
Zusätzlich werden aus einem Trainingsdatensatz (6) reale zukünftige Werte xr(t+1) entnommen. Sowohl die künstlich erzeugten, als auch die realen zukünftigen Werte (xp(t+1), xr(t+1 )) dienen als Eingangsgröße für das Diskriminatornetzwerk (D). Das Diskriminatornetzwerk (D) erstellt für jeden Zeitschrift aus dem Bedingungszeitfenster (C) und dem künstlich erzeugten oder realen zukünftigen Wert (xp(t+1), xr(t+1 )) eine Bewertung (7), wobei in dieser hinterlegt ist, ob es sich bei dem vorhergesagten zukünftigen Wert um einen richtigen (R) oder falschen (F) Wert handelt. Richtig (R) im Sinne der Erfindung bedeutet, dass der vorhergesagte zukünftige Wert (xt+i = x (t+1) = xr(t+1)) einer bekannten Wahrscheinlichkeitsverteilung folgt und falsch (F) entsprechend, dass der Wert xt+i dieser Wahrscheinlichkeitsverteilung nicht folgt.
In Fig. 4 ist das Verfahren zum Trainieren des erfindungsgemäßen RCGAN’s dargestellt. Für jedes Training wird ein bekannter, vorhandener Datensatz in drei Teildatensätze unterteilt. In einer Ausführungsform werden 50% des vorhandenen Datensatzes als Trainingsdatensatz,
10% als Validierungsdatensatz und 40% als Testdatensatz (11) verwendet. Alternativ ist jede weitere Aufteilung des Datensatzes möglich. Ein Datensatz im Sinne der Erfindung besteht aus mehreren Wertepaaren der Sensordaten, die durch das technische System (1) erzeugt wurden. Auf diese Art und Weise kann für das Training des RCGAN das reale Verhalten der
spezifischen Anwendung des technischen Systems (1) abgebildet werden. Alternativ kann ein Datensatz künstlich erzeugt werden, beispielsweise durch Simulation des gesamten oder von Teilen des technischen Systems (1). In einem Trainingsdurchlauf wird in einem ersten
Schritt (S010) ein Teil des Trainingsdatensatzes entnommen, an welchem dann in einem weiteren Schritt (S020) das Generatornetzwerk (G) trainiert wird. In einem weiteren
Schritt (S030) wird das Diskriminatornetzwerk (D), unter Verwendung eines weiteren unabhängigen Teils des Trainingsdatensatzes (6), trainiert. In einem weiteren Schritt (S040) wird das Ergebnis des Trainings unter Verwendung des Validierungsdatensatzes bewertet und anschließend überprüft, ob das Ergebnis den Anforderungen der Anwendung im technischen System (1) genügt (S050). Ist dies nicht der Fall (n), erfolgt ein weiterer Trainingsdurchlauf, beginnend beim ersten Schritt (S010). Genügt das Ergebnis den Anforderungen (j), ist das Training beendet.
Der gesamte Datensatz weist eine unbekannte Wahrscheinlichkeitsverteilung pData(x) auf, von der die bekannte Generatorverteilung pG(x) zunächst abweicht (Fig. 4, oben). Während des Trainings wird aus der bekannten Vorverteilung pRauSch(z) der Rauschvektor (Z) entnommen.
Das Generatornetzwerk (G) versucht aus dem Rauschvektor (Z) und dem
Bedingungszeitfenster (C) eine Probe zu erzeugen, die der unbekannten
Wahrscheinlichkeitsverteilung pData(x) folgt. Gleichzeitig versucht das Diskriminatornetzwerk (D) zwischen der künstlichen Probe und einer realen Probe aus dem Trainingsdatensatz (6) zu unterscheiden. Mathematisch betrachtet, wird während des Trainings die Wertefunktion V(G, D) nach GI.1 berechnet:
Figure imgf000009_0001
Mit anderen Worten lernt das Generatornetzwerk (G), unter Verwendung der bekannten Wahrscheinlichkeitsverteilung pRausch(z), eine Generatorverteilung pG(x) zu erzeugen, welche der Wahrscheinlichkeitsverteilung pData(x) des Trainingsdatensatzes ähnelt (Fig. 4, unten). In einer vorteilhaften Ausführungsform, wobei Hilfsgrößen in die Vorhersage der Zielgröße einbezogen werden, kann das erfindungsgemäße RCGAN auf die zusätzlichen Informationen y(t) konditioniert werden. Diese können jede Art von Informationen sein, wie bspw.
Klassenlables oder weitere Daten. In einer vorteilhaften Ausführungsform entsprechen diese Information den Hilfsgrößen S={y(to), ... ,y(t)} und sind somit Kenngrößen des technischen Systems (1), die durch weitere Sensoren (4) produziert werden können. Die Hilfsgrößen können hierbei sowohl dem Generatornetzwerk (G) als auch dem Diskriminatornetzwerk (D) als zusätzliche Eingangsgröße dienen. Hierbei ergibt sich die Wertefunktion V(G, D) nach Gl. 2: [logD(x|y)] + Ez„Pz(z) pog(l - D(G(z|y)))] (2)
Figure imgf000010_0001
Um nun die Wahrscheinlichkeitsverteilung des zukünftigen Wertes xt+i zu modellieren, wird die Gl. 2 auf das Bedingungszeitfenster C={x(to), ... ,x(t)} abgebildet, wobei die
Hilfsgrößen S={y(to), ... ,y(t)} in C integriert werden, sodass C={ x(to),... ,x(t); y(to), ... ,y(t)} und die Wertefunktion V(G, D) nach Gl. 3 wie folgt berechnet wird: ) pog(l - D(G(z|c)))] (3)
Figure imgf000010_0002
In Fig. 5 ist der Aufbau des Generatornetzwerkes (G) dargestellt. Das Generatornetzwerk (G) umfasst eine erste RNN-Schicht (8) und zwei dichte NN-Schichten (10, 11). Die erste RNN- Schicht (8) ist eingerichtet, um das Bedingungszeitfenster (C) zu verarbeiten und in einem Zustandsvektor (9) darzustellen. Die erste dichte NN-Schicht (10) ist eingerichtet, um den Zustandsvektor (9) und den Rauschvektor (Z) zu verarbeiten. Die zweite dichte NN-Schicht (11) ist eingerichtet, um die Ausgänge der ersten dichten NN-Schicht (10) zu verarbeiten und den künstlichen vorhergesagten zukünftigen Wert xP(t+1) zu erzeugen.
Das Generatornetzwerk (G) nimmt dazu das Bedingungszeitfenster (C) und den
Rauschvektor (Z) als Eingangsgrößen auf und führt das Bedingungszeitfenster (C) in die erste RNN-Schicht (8). Die erste RNN-Schicht (8) erzeugt aus dem Bedingungszeitfenster (C) den Zustandsvektor (9) und verknüpft diesen mit dem Rauschvektor (Z). Zustandsvektor (9) und Rauschvektor (Z) werden in die erste dichte NN-Schicht (10) geführt, welche diese
weiterverarbeitet und in die zweite dichte NN-Schicht (11) führt. Hierfür umfasst die erste RNN- Schicht (8) eine definierte Anzahl an Zellen, welche im Folgenden mit der Variable RG beschrieben wird. Der Rauschvektor (Z) umfasst eine Anzahl von N Stichproben. Entsprechend umfasst die erste dichte NN-Schicht (10) eine Anzahl von RG + N Zellen. Die zweite dichte NN- Schicht (11) umfasst lediglich eine Zelle.
In Fig. 6 ist der Aufbau des Diskriminatornetzwerkes (D) dargestellt. Das
Diskriminatornetzwerk (D) umfasst eine erste RNN-Schicht (8) und eine dichte NN-Schicht (10). Die erste RNN-Schicht (8) ist eingerichtet, um das Bedingungszeitfenster (C) und einen zukünftigen realen Wert xr(t+1) oder einen vorhergesagten künstlichen Wert xp(t+1) zu verarbeiten und die Ergebnisse als Zustandsvektor in die dichte NN-Schicht (10) zu führen. Die dichte NN-Schicht (10) ist eingerichtet, um aus den Ergebnissen der ersten RNN-Schicht (8) eine Bewertung (7) zu erzeugen, wobei diese eine Gültigkeitsinformation (R, F) enthält. Das Diskriminatornetzwerk (D) nimmt also den künstlichen vorhergesagten zukünftigen Wert xp(t+1) des Generatornetzwerks (G) für den Wert xt+i oder den realen Wert xr(t+1) aus dem Trainingsdatensatz (6), verknüpft diesen mit dem Bedingungszeitfenster (C) und führt dieses in die erste RNN-Schicht (8). Hierfür umfasst die erste RNN-Schicht (8) eine definierte Anzahl an Zellen, welche im Folgenden mit der Variable RD beschrieben wird. Die dichte NN-Schicht (10) umfasst lediglich eine Zelle.
In einer Ausführungsform sind die ersten RNN-Schichten (8) des Generatornetzwerks (G) und des Diskriminatornetzwerkes (D) LSTM („long short-term memory) oder GRU („gated recurerent unit“). Die Auswahl dieses Zelltyps wird im Folgenden in der Variable T beschrieben. Für die hier genannten Variablen, welche im Folgenden als Hyperparameter bezeichnet werden, wurden verschiedene Werte aufgestellt, welche in Kombination unterschiedliche
Ausführungsformen ergeben können. In Tab. 1 sind mögliche Werte für die Hyperparameter für das erfindungsgemäße Verfahren aufgelistet. Andere Werte und Typen sind möglich.
Bezeichnung Variable Werte
Zelltyp T GRU, LSTM
Zellanzahl Generator RG 1 , 2, 4, 8, 16, 32, 64, 128, 256
Zellanzahl Diskriminator RD 1 , 2, 4, 8, 16, 32, 64, 128, 256
Größe Rauschvektor Z 1 , 2, 4, 8, 16, 32
Größe der Bedingungen C 1 , 2, 4, 8, 16, 32, 64, 128, 256
Anzahl Trainingsiteration Diskriminator Diter 1 , 2, 3, 4, 5, 6, 7
Tabelle 1
Während des Trainings des erfindungsgemäßen RCGAN's wird bei jedem Durchlauf des Verfahrens nach Fig. 4 das Generatornetzwerk (G) einmal und das Diskriminatornetzwerk (D) mehrmals trainiert. Bezugnehmend auf Tab. 1 wird die Anzahl der Iterationen, mit welchen das Diskriminatornetzwerk (D) innerhalb eines Trainingsdurchlaufes trainiert wird, als die Variable Diter bezeichnet. Sämtliche Hyperparameter, welche in Tab. 1 aufgeführt sind, werden für jeden Anwendungsfall spezifisch eingestellt. In einer vorteilhaften Ausführungsform des
erfindungsgemäßen Verfahrens erfolgt die Einstellung der Hyperparameter durch einen genetischen Algorithmus. Der genetische Algorithmus verwendet gerichtete Zufallsversuche, um optimale Lösungen in komplexen Problemen zu finden. Hierbei sind alle Hyperparameter in einem Vektor codiert, welcher als Gen bezeichnet wird. Der Algorithmus beginnt mit einer Reihe von zufällig initialisierten Genen, die einen Genpool bilden und versucht, das am besten optimierte Gen durch iterativen Fortschritt zu finden. Bei jeder Iteration werden die Gene im Genpool mit einer Anpassungsfunktion bewertet und diejenigen mit niedrigen Werten eliminiert. Dann werden die restlichen Gene verwendet, um Nachkommen zu bilden. Nach mehreren Iterationen konvergiert der Algorithmus zu einem Gen mit der am besten optimierten
Wertekombination. In einer Ausführungsform hat der Algorithmus einen Genpool der Größe 8 und es werden 8 Iterationen durchgeführt. Bei jeder Iteration werden hierbei die 4 Gene mit den besten Werten verwendet, um Nachkommen zu erzeugen. Dabei werden jeweils 4 Gene durch Gentausch erzeugt und 4 weitere durch Mutation. Mit dem nach solcherart erzeugten Gen wird anschließend eine Variante des erfindungsgemäßen RCGAN's konstruiert und mit einem Trainingsdatensatz (6) trainiert, wobei dieses mittels Bewertung der Kullback-Leibler- Divergenz (KLD) durch einen Validierungsdatensatz validiert wird. Die KLD ist definiert durch:
Figure imgf000012_0001
Hierbei wird die Abweichung zwischen den Wahrscheinlichkeitsverteilungen P und Q bestimmt, wobei P die Datenverteilung und Q die Verteilung der Vorhersagewahrscheinlichkeit ist. Wenn daher, aufgrund des Auftretens von Q im Nenner, die vorhergesagte Verteilung die
Datenverteilung nicht korrekt abbildet, ist die KLD nicht definiert.
In einer alternativen Ausführungsform werden zur Bewertung des nach solcherart erzeugten erfindungsgemäßen RCGAN's die bekannten punktuellen Fehlerkennzahlen RMSE und/oder MAE und/oder MAPE verwendet, welche wie folgt definiert sind:
Figure imgf000012_0002
Hierbei ist N die Anzahl der Datenproben, x, und £) sind die aktuellen Vorhersagen. Punktuelle Fehlerkennzahlen als Verlustfunktionen sind jedoch nur bedingt geeignet, um
Verteilungsähnlichkeiten zu beurteilen. Erfindungsgemäß vorteilhaft wird daher gegnerisches Training angewendet, um die neuronalen Netze für die Prognose zu trainieren.
In einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens wird ein Generator- Regressionsmodell konstruiert, welches die identische Struktur des Generators des
erfindungsgemäßen RCGAN's aufweist. In diesem Generator-Regressionsmodell wird die Fehlerkennzahl RMSE als Verlustfunktion optimiert und dessen Ergebnisse dienen als Vergleich der konventionellen Methoden der Datenvorhersage mittels neuronalen Netzen, zu dem erfindungsgemäßen RCGAN. Bezugnehmend auf Fig. 4, wird das nach dem
erfindungsgemäßen Verfahren trainierte RCGAN während des Trainings, im Schritt der Validierung S040, mit dem trainierten Generator-Regressionsmodell verglichen. Zur Bewertung der jeweiligen Ergebnisse können die Fehlerkennzahlen RMSE, MAE, MAPE und/oder die KLD herangezogen werden.
In einer vorteilhaften Ausführungsform des erfindungsgemäßen Verfahrens werden zur Bewertung des erfindungsgemäßen RCGAN 's 100 Prognosen von xt+i für jede Bedingung aus einem Testdatensatz entnommen und es wird die Vorhersagewahrscheinlichkeitsverteilung für den gesamten Testdatensatz berechnet. Anschließend wird KLD zwischen der
Vorhersagewahrscheinlichkeitsverteilung und der Datenverteilung des Testdatensatzes gebildet. Zum Vergleich wird, ausgehend von den Daten des Histogramms der Vorhersagen des Generator-Regressionsmodells, die KLD für dieses Modell bestimmt. Zur Bewertung mittels punktueller Fehlerkennzahlen kann die Prognose durch das erfindungsgemäße RCGAN 100- mal auf den Testdatensatz angewendet werden und daraus ein Mittelwert und die
Standardabweichung für die entsprechenden Fehlerkennzahlen berechnet werden. Alternativ kann die Anwendung des erfindungsgemäßen RCGAN 's auf den Datensatz beliebig oft erfolgen. Das Ergebnis der KLD gibt somit an, wie genau das erfindungsgemäße RCGAN die Verteilung aus dem Datensatz gelernt hat.
Je nach Anwendungsgebiet können unterschiedliche Datensätze als Trainingsdaten eingesetzt werden. In einer vorteilhaften Ausführungsform, in welcher das erfindungsgemäße Verfahren zur Prognose der Füllung der Zylinder einer Verbrennungskraftmaschine angewendet wird, wird ein Datensatz verwendet, welcher auf Grundlage der Lorenz-Gleichungen basiert. Die Lorenz- Gleichungen beschreiben die atmosphärische Konvektion a, die horizontale
Temperaturänderung b und die vertikale Temperatur c in Abhängigkeit von der Zeit t. Mit einem Punkt für die zeitliche Ableitung wird das System der gekoppelten Differentialgleichungen gegeben durch: ά = a(b— d),
b = a( - c), (8) c = ba— ßc wobei s proportional zur Prandtl-Zahl, g proportional zur Rayleigh-Zahl und ß mit den physikalischen Abmessungen der interessierenden Atmosphärenschicht verbunden ist. Eines der interessantesten Merkmale der Lorenz-Gleichungen ist die Entstehung von chaotischem Verhalten für bestimmte Werte der Parameter s, g und ß. In einer Ausführungsform werden die Parameter o = 16, g = 45,92 und ß = 4 verwendet. Alternativ kann jede weitere Kombination der Parameter s, g und ß erfolgen. Durch weiteres Festlegen der Ausgangsbedingungen für ao, bo und Co können aus diesem Gleichungssystem beliebige Zeitreihen x(t) entwickelt werden. Aus diesen Zeitreihen können weiterhin Stichproben entnommen werden, welche dann die
Wahrscheinlichkeitsverteilung der Daten abbilden und als Bedingungszeitfenster (C) verwendet werden können.
Alternativ können Daten nach dem Mackey-Glass-Ansatz erzeugt werden, welcher auf der folgenden Differentialgleichung zur Zeitverzögerung basiert:
Figure imgf000014_0001
In einer vorteilhaften Ausführung werden die Parameter dieser Differentialgleichung zu a = 0,1 , b = 0,2 und T = 17 gesetzt, um ein chaotisches Verhalten abzubilden.
Alternativ können Daten aus dem Internet-Traffic- Datensatz entnommen werden, der die Vorhersage des Internetverkehrs beinhaltet und auch als A5M bekannt ist.
Aufgrund der einzelnen Schritte, der Erhebung der zeitlichen Verläufe der Sensordaten, der Berechnung der Wahrscheinlichkeitsverteilung der Zielgröße durch das erfindungsgemäße RCGAN, der Rückführung des Ergebnisses in die Antriebssteuereinheit und die Verarbeitung des Ergebnisses durch diese, kann es zu einer zeitlichen Verzögerung kommen, sodass das erfindungsgemäße RCGAN auch Werte der Zielgröße berechnen kann, die weiter in der Zukunft liegen, als der nächste unmittelbar folgende Zeitschrift.
Ausführungsbeispiel
Nachfolgend werden Ausführungsbeispiele der beschriebenen Ausführungsformen aufgezeigt. Diese dienen der prinzipiellen Veranschaulichung, wobei das erfindungsgemäße Verfahren nicht durch die aufgezeigten Ausführungsbeispiele limitiert sein soll. Weitere Besonderheiten und Vorteile ergeben sich zusätzlich aus den unterstützenden Schaubildern, hierbei zeigen:
Fig. 7a Zeitreihen aus den Lösungen der Lorenz-Gleichungen, bei verschiedenen b0,
Fig. 7b zusätzliches Rauschen um die Zeitreihen,
Fig. 8a mögliche zukünftige Werte xt+i, bei verschiedenen bo,
Fig. 8b die Gesamtheit der Wahrscheinlichkeitsverteilung xt+i (Grundwahrheit),
Fig. 9 die prognostizierte Wahrscheinlichkeitsverteilung der Beispieldatensätze, Fig. 10 prognostizierte Wahrscheinlichkeitsverteilungen bei zufällig gewähltem Bedingungszeitfenster,
Fig. 11 ein System und Verfahren zur Füllungsvorhersage von Zylindern einer
Verbrennungskraftmaschine.
Bezugnehmend auf Tab. 2 werden nachfolgend 3 Ausführungsbeispiele beschrieben, wobei jedem ein spezieller Beispieldatensatz sowie eine Kombination aus Hyperparametern zugeordnet ist. In einer ersten Ausführungsform werden aus einem Lorenz-Datensatz chaotische Datenverteilungen erzeugt. Bezugnehmend auf Gl. (8) werden die Parameter der Lorenz-Gleichungen auf die Werte o = 16, g = 45,92 und ß = 4 gesetzt. Um den Datensatz zu erzeugen, werden zunächst 5 Zahlenwerte für die Ausgangsbedingung b0 und das dazugehörige relative Auftreten davon nach Tab. 3 gewählt.
Mackey-Glass- Internet-Traffic-
Variable Lorenz-Datensatz
Datensatz Datensatz
T GRU LSTM GRU
RG 8 64 8
RD 64 256 128
Z 32 4 16
C 24 32 32
Diter 2 6 3
Tabelle 2
Index b0 Relatives Auftreten
0 1 ,0001 5,5%
1 1 ,000001 22%
2 1 ,00000001 42%
3 1 ,0000000001 24%
4 1 ,000000000001 6,5%
Tabelle 3
Die Ausgangsbedingungen für ao und Co werden zu ao = 1 und Co = 1 gesetzt. Es werden 100.000 Datenproben mit der Länge von 26s und der Auflösung von 0,02s erzeugt. Dadurch entstehen Zeitreihen, die auszugsweise in Fig. 7a abgebildet sind. Zu den in Fig. 7a dargestellten Zeitreihen wird ein Gauß’sches Rauschen mit dem Mittelwert 0 und einer
Standardabweichung von 7,2 hinzugefügt, um einzigartige Zeitfenster mit chaotischen
Datenreihen zu erzeugen. Bezugnehmend auf Fig. 7b wird aus den nach solcherart
entstandenen Daten das Bedingungszeitfenster (C) zwischen Sekunde 12 und 17 gewählt. Der Datensatz der Bedingungszeitfenster ist in Fig. 7b dargestellt. Weiterhin werden Stichproben für die Zielgrößen xt+i mit den Werten t e (20, 22, 25) entnommen. Die entnommenen Stichproben bilden Wahrscheinlichkeitsverteilungen für xt+i für die jeweiligen Startwerte bo. (i={0,... ,4}), welche in Fig. 8a abgebildet sind. Bezugnehmend auf Fig. 8a weisen die
Wahrscheinlichkeitsverteilungen der zu prognostizierenden Zielgrößen xt+i, für t e (20, 22, 25) für die unterschiedlichen Startwerte b0, (i={0,... ,4}) unterschiedliche
Wahrscheinlichkeitsverteilungen auf. In Fig. 8b ist die vollständige
Wahrscheinlichkeitsverteilung der gewählten xt+i für den gesamten Datensatz abgebildet.
Durch Anwendung eines genetischen Algorithmus mit einem Genpool der Größe 8 und 8 ausgeführten Iterationen werden die Hyperparameter für diese Ausführungsform entsprechend Tab. 2 festgelegt. Somit ergibt sich ein RCGAN mit GRU als Zelltyp (T), 8 Generatorzellen (RG), 64 Diskriminatorzellen (RD), ein Rauschvektor (Z) der Länge 32, ein Bedingungsvektor (C) der Länge 24, mit 2 Iterationen (Diter) des Diskriminatortrainings.
Das nach solcherart erzeugte erfindungsgemäße RCGAN wird entsprechend dem Verfahren von Fig. 4 auf den erzeugten Lorenz- Datensatz trainiert. Zur Bewertung des nach solcherart erzeugten erfindungsgemäßen RCGAN wird ein Generator-Regressionsmodell mit identischer Struktur des Generators (G) des erfindungsgemäßen RCGAN 's konstruiert und die
Fehlerkennzahl RMSE (Gl. 5) als Verlustfunktion optimiert. Anschließend werden sowohl für das erfindungsgemäße RCGAN als auch für das Generator-Regressionsmodell 100 Prognosen von xt+i für das gewählte Bedingungszeitfenster (C) durchgeführt. Dieser Vorgang wird für jeden Startwert bo, (i={0,... ,4}) und für den gesamten Lorenz-Datensatz durchgeführt. In Fig. 9 sind die Ergebnisse der prognostizierten Wahrscheinlichkeitsverteilung des erfindungsgemäßen
RCGAN 's, des Generator-Regressionsmodells und des wahren Wertes (Grundwahrheit) für den Lorenz- Datensatz dargestellt. Weil das Generator-Regressionsmodell keine
Wahrscheinlichkeitsverteilung abbilden kann, ist für dieses das Histogramm der Ergebnisse der 100 Durchläufe dargestellt. Es ist zu erkennen, dass das erfindungsgemäße RCGAN die wahren Werte (Grundwahrheit) sowohl über die einzelnen Startwerte bo, (i={0,... ,4}) als auch über den gesamten Datensatz mit einer hohen Übereinstimmung abbildet, wohingegen das auf konventionelle Art und Weise trainierte Generator-Regressions-Modell eher die gewichteten Mittelwerte abbildet. Erfindungsgemäß vorteilhaft stellt der Vergleich mit der Grundwahrheit eine Möglichkeit der Bewertung der Güte des nach solcherart entwickelten RCGAN 's dar. Wird das soeben beschriebene Ausführungsbeispiel in analoger Art und Weise auf die weiteren Beispieldatensätze des Mackey-Datensatzes und des Internet-Traffic-Datensatzes, wie in Tab. 2 abgebildet, angewendet, werden folgende Ergebnisse erzielt, welche in Tab. 4 dargestellt sind. Bezüglich der berechneten Fehlerkennzahlen des Lorenz-Datensatzes aus Tab. 4 sind die Fehlerwerte der Generator-Regression niedriger als jene des
erfindungsgemäßen RCGAN's. Für die Anwendung des Mackey-Glass-Datensatzes weist jedoch das erfindungsgemäße RCGAN niedrigere Fehlerwerte auf, als die Generator- Regression. Das ist insbesondere im Hinblick auf die Fehlerkennzahl RMSE interessant, da das Generator-Regressionsmodell direkt auf RMSE optimiert wurde. Bezüglich des Internet-Traffic- Datensatzes sind die erzielten Ergebnisse von Generator-Regression und dem
erfindungsgemäßen RCGAN in Waage.
Generator-
Datensatz Bewertung RCGAN
Regression
RMSE 2,91 4,06
Lorenz- MAE 2,39 2,94
Datensatz MAPE 2,25% 3,35%
KLD NaN 1 ,67 x I O-2
RMSE 5,63 x 10-4 3,82 x 10-4
Mackey-Glass- MAE 4,92 x IO-4 2,93 x 10-4
Datensatz MApE 6,29 x 10-2% 3,46 x 10-2%
KLD 8,00 x 10-3 3, 18 x 10-3
Internet-Traffic- RMSE 1 ,27 x 108 1 ,31 x 108
Datensatz MAE 9,01 x 107 9,29 x 107
MApE 2,85% 2,94%
(A5M)
KLD 5,31 x 10 11 2,84 x 10 11
Tabelle 4
Daraus lässt sich ableiten, dass das erfindungsgemäße RCGAN für die prognose von zukünftigen Werten aus gegebenen Zeitreihen vergleichbare Ergebnisse erzielt, wie
konventionelle prognosemodelle, welche zu einem Ergebnis der Mittenregression korrelieren und zusätzlich in vorteilhafter Art und Weise die Wahrscheinlichkeitsverteilung von Datensätzen mit einer hohen Übereinstimmung abbilden können, was den konventionellen Methoden vorenthalten bleibt. Um diese Fähigkeit zu verdeutlichen, sind in Fig. 10 zwei weitere
Wahrscheinlichkeitsverteilungen abgebildet, wobei das Bedingungszeitfenster (C) zufällig ausgewählt wurde. Die Testdaten entstammen auch hier dem Lorenz-Datensatz. Es ist auch hier ersichtlich, dass das erfindungsgemäße Verfahren in der Lage ist, aus zufälligen
Stichproben die Wahrscheinlichkeitsverteilung der gegebenen Daten zu lernen. Wird das erfindungsgemäße Verfahren auf technische Systeme, wie beispielsweise auf die Steuerung einer Verbrennungskraftmaschine, angewendet, erzeugt es somit die Möglichkeit, die Wahrscheinlichkeitsverteilung des Verhaltens der Verbrennungskraftmaschine, auf
Grundlage der Zeitverläufe sensorischer Daten, zu lernen und somit zukünftige Werte der Sensoren mit einer hohen Realitätstreue vorauszubestimmen. In Fig. 11 ist hierzu ein
Systemschaubild zur Füllungsvorhersage der Zylinder der Verbrennungskraftmaschine eines Fahrzeuges dargestellt. Ausgangspunkt ist das Motorsteuergerät (ECU), das die Sensordaten der Verbrennungskraftmaschine und des Fahrzeuges verwaltet. Die Verwaltung von
Sensordaten im Sinne der Erfindung bezieht sich auf die Erfassung, Berechnung und
Weiterverarbeitung. Zur Vorhersage der Füllung der Zylinder der Verbrennungskraftmaschine gehört die Zielgröße, z.B. der Steuerhub fr, selbst zu den Sensordaten und bildet somit den interessierenden Sensor (3). Zur Bestimmung des Steuerhubs (fr) innerhalb des
Motorsteuergerätes (ECU) sind jedoch weitere Parameter erforderlich. So werden innerhalb des Motorsteuergerätes (ECU) die weiteren Sensordaten (4a, 4b, 4c, ...) verarbeitet. Diese sind die physikalische Zeitverzögerung, die Motordrehzahl (nmot), die relative Zylinderfüllung (rl), die Nockenwellenverstellung, die Drosselklappenstellung, der Ansaugdruck, das Luft- Kraftstoff- Verhältnis, die Kühlmitteltemperatur (Tmot), die Ansauglufttemperatur, und weitere Parameter, die für die Motorsteuerung von Verbrennungskraftmaschinen bekannt sind.
Die Zielgröße fr beinhaltet in der Motorsteuerung weitere Informationen über die
Gewichtung (W), die bekannter Art und Weise für die Berechnung innerhalb neuronaler Netze verwendet werden. Weiterhin wird aus dem zeitlichen Verlauf der Sensordaten des
interessierenden Sensors (3) das Bedingungszeitfenster (C) gewählt. Die weiteren
Sensordaten (4a, 4b, 4c,...) werden als Hilfsgrößen (S) verwendet. Für die Hilfsgrößen (S) wird ebenfalls die Historie des zeitlichen Verlaufs entsprechend dem Bedingungszeitfenster berücksichtigt, sodass bei einem Bedingungszeitfenster von C(fr) = {f r(t-1 ),... , fr(to)} auch sämtliche Hilfsgrößen (S) in der Form S(nmot, Tmot.) = { nmot(t- 1 ) , ... , nmot (to) ; Tmot(t-1), ... , Tmot (to); ... } dargestellt werden. Die Gewichtung (W) der Zielgröße (fr), das Bedingungszeitfenster (C), die Hilfsgrößen (S) und der Rauschvektor (Z) dienen nunmehr als Eingangsgrößen in das erfindungsgemäße RCGAN, welches bereits im Vorfeld, wie vorher beschrieben, trainiert wurde. In dem RCGAN wird nur noch das trainierte Generatornetzwerk (G) verwendet, welches aus den vorhandenen Eingangsgrößen die Wahrscheinlichkeitsverteilung p(fr(t+1)) des zukünftigen Wertes der Zielgröße als Ausgangsgröße erzeugt und daraus letztendlich einen zukünftigen Wert fr(t+1) für die Zielgröße bestimmt. Dieser wird anschließend in das
Motorsteuergerät (ECU) zurückgeführt, welches diese Information verwenden kann, um ihre Parameter entsprechend den Anforderungen an die Verbrennungskraftmaschine einzustellen. Aufgrund der physikalischen Zeitverzögerung durch die Berechnung der Wahrscheinlichkeitsverteilung p(fr(t+1)) der Zielgröße, kann es erforderlich sein, dass das erfindungsgemäße RCGAN Werte für die Zielgröße (fr) berechnet, die weiter in der Zukunft liegen, als der nächstfolgende Zeitschrift, wie beispielsweise fr(t > t+1).
Bezugszeichenliste
1 technisches System
2 Antriebssteuereinheit
3 interessierender Sensor
4 weitere Sensoren
5 Trainingssystem
6 Trainingsdatensatz
7 Bewertung
8 erste RNN-Schicht
9 Zustandsvektor
10 erste dichte NN-Schicht
1 1 zweite dichte NN-Schicht
12 Wahrscheinlichkeitsverteilung Zielgröße
S010 Entnahme Trainingsdatensatz
S020 Generatornetzwerk trainieren
S030 Diskriminatornetzwerk trainieren
S040 Ergebnis validieren
S050 Validierung überprüfen
C Bedingungszeitfenster
D Diskriminator
Diter Iterationen Diskriminatortraining
ECU Motorsteuereinheit
fr Steuerfaktor
F Falsch
G Generator
GRU Gated Recurrent Unit
j Ja
LSTM Long-Short-T erm-Memory
n Nein
rimot Motordrehzahl
N Anzahl Stichproben
P Datenverteilung
Q Vorhersagewahrscheinlichkeitsverteilung rl relative Füllungsmenge
R richtig RD Zellenanzahl Diskriminatornetzwerk
RG Zellenanzahl Generatornetzwerk
S Hilfsgrößen
t Zeit
T Zelltyp
Kühlmitteltemperatur
x, y Sensorwert
XP künstlicher zukünftiger Sensorwert
Xr realer zukünftiger Sensorwert z Rauschwerte
Z Rauschvektor
P Wahrscheinlichkeitsverteilung ß Atmosphärenschicht
Y Rayleigh-Zahl
o Prandtl-Zahl

Claims

Patentansprüche
1. Computerimplementiertes Verfahren zur probabilistischen Vorhersage von Sensordaten einer Zielgröße eines technischen Systems (1), umfassend die Schritte:
• vor der probabilistischen Vorhersage der Sensordaten:
Erzeugen eines wiederkehrenden bedingten generativen gegnerischen
Netzwerkes (RCGAN);
Trainieren des erzeugten RCGAN's mittels Testdaten des technischen Systems (1);
• während der probabilistischen Vorhersage der Sensordaten:
Bereitstellen des zeitlichen Verlaufs der Zielgröße durch das technische System (1); Erzeugen eines historischen Bedingungszeitfensters (C) aus dem Verlauf der Zielgröße durch das technische System (1);
Berechnung der Wahrscheinlichkeitsverteilung zukünftiger Werte der Zielgröße durch das trainierte RCGAN, unter Verwendung des historischen
Bedingungszeitfensters (C);
Vorhersagen eines in der Zukunft liegenden Sensordatenwertes der Zielgröße unter Verwendung der berechneten Wahrscheinlichkeitsverteilung durch das trainierte RCGAN;
Rückführung des vorhergesagten Sensordatenwertes der Zielgröße in das technische System (1), sodass dieses den vorhergesagten Wert der Zielgröße weiterverarbeiten kann.
2. Computerimplementiertes Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die zeitlichen Verläufe von Hilfsgrößen (S) zusätzlich durch das technische System (1)
bereitgestellt werden sowie dass das historische Bedingungszeitfenster (C) zusätzlich aus den Verläufen der Hilfsgrößen (S) erzeugt wird.
3. Computerimplementiertes Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass durch Anwendung des Verfahrens nach Anspruch 1 oder 2 eine Steuerung eines technischen Prozesses erfolgt.
4. Computerimplementiertes Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das technische System (1) eine Maschine, eine Antriebsmaschine, eine Kraftmaschine oder eine elektrische Maschine ist.
5. Computerimplementiertes Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass das technische System (1) eine Verbrennungskraftmaschine eines Fahrzeuges und die Zielgröße die Füllungsmenge (fr) der Zylinder von dieser ist.
6. Computerimplementiertes Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Hilfsgrößen (S) eine physikalische Zeitverzögerung, die Motordrehzahl (nmot), die relative Zylinderfüllung (rl), die Nockenwellenverstellung, die Drosselklappenstellung, den Ansaugdruck, das Luft-Kraftstoff-Verhältnis, die Kühlmitteltemperatur (Tmot) und die Ansauglufttemperatur umfassen.
7. Computerimplementiertes Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass das Weiterverarbeiten des vorhergesagten Sensordatenwertes der Füllungsmenge (fr) die Verstellung wenigstens einer Hilfsgröße (S) umfasst.
8. Vorrichtung die eingerichtet ist, ein Verfahren nach einem der Ansprüche 1 bis 2 und 4 bis 6 auszuführen.
9. Vorrichtung nach Anspruch 8, mit einer Antriebssteuereinheit (2) einer
Verbrennungskraftmaschine, die eingerichtet ist, um
• zeitliche Verläufe der Füllungsmenge (fr) sowie weiterer Sensordaten (4) zu erfassen und weiter zu verarbeiten;
• ein historisches Bedingungszeitfenster (C) aus den zeitlichen Verläufen der
Füllungsmenge (fr) und weiterer Sensordaten (4) zu erzeugen;
• ein RCGAN zu speichern und zu verarbeiten;
• die Wahrscheinlichkeitsverteilung zukünftiger Sensordatenwerte der Füllungsmenge (fr) aus dem historischen Bedingungszeitfenster (C), unter Verwendung des RCGAN's, zu berechnen;
• zukünftige Sensordatenwerte der Füllungsmenge (fr) aus der berechneten
Wahrscheinlichkeitsverteilung zu bestimmen;
• die berechneten zukünftigen Sensordatenwerte der Füllungsmenge (fr) weiter zu
verarbeiten.
10. Antriebssteuereinheit (2) nach Anspruch 9, dadurch gekennzeichnet, dass die
Weiterverarbeitung der berechneten zukünftigen Werte der Füllungsmenge (fr) die Verstellung wenigstens einer der Hilfsgrößen (S) Motordrehzahl (nmot), relative Zylinderfüllung (rl),
Nockenwellenverstellung, Drosselklappenstellung, Ansaugdruck, Luft-Kraftstoff-Verhältnis, Kühlmitteltemperatur (Tmot) umfasst.
PCT/DE2020/100165 2019-03-25 2020-03-10 Verfahren und vorrichtung zur probabilistischen vorhersage von sensordaten WO2020192827A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112020001605.6T DE112020001605A5 (de) 2019-03-25 2020-03-10 Verfahren und Vorrichtung zur probabilistischen Vorhersage von Sensordaten
US17/442,632 US20220187772A1 (en) 2019-03-25 2020-03-10 Method and device for the probabilistic prediction of sensor data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DEDE102019107612.9 2019-03-25
DE102019107612 2019-03-25

Publications (1)

Publication Number Publication Date
WO2020192827A1 true WO2020192827A1 (de) 2020-10-01

Family

ID=70285351

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2020/100165 WO2020192827A1 (de) 2019-03-25 2020-03-10 Verfahren und vorrichtung zur probabilistischen vorhersage von sensordaten

Country Status (3)

Country Link
US (1) US20220187772A1 (de)
DE (1) DE112020001605A5 (de)
WO (1) WO2020192827A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112763967A (zh) * 2020-12-11 2021-05-07 国网辽宁省电力有限公司鞍山供电公司 一种基于BiGRU的智能电表计量模块故障预测与诊断方法
DE102021124928A1 (de) 2021-09-27 2023-03-30 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Vorrichtung und Verfahren zum Abschätzen von Unsicherheiten

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19756919A1 (de) 1997-04-01 1998-10-08 Bosch Gmbh Robert Verfahren und Vorrichtung zur Bestimmung einer Gasfüllung eines Verbrennungsmotors
DE102004041708B4 (de) 2004-08-28 2006-07-20 Bayerische Motoren Werke Ag Verfahren zur modellbasierten Bestimmung der während einer Ansaugphase in die Zylinderbrennkammer einer Brennkraftmaschine einströmenden Frischluftmasse
DE102018200816B3 (de) 2018-01-18 2019-02-07 Audi Ag Verfahren und Analysevorrichtung zum Ermitteln von Benutzerdaten, die ein Benutzerverhalten in einem Kraftfahrzeug beschreiben

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10122017A (ja) * 1996-10-14 1998-05-12 Yamaha Motor Co Ltd エンジン制御方式
DE102007008514A1 (de) * 2007-02-21 2008-09-04 Siemens Ag Verfahren und Vorrichtung zur neuronalen Steuerung und/oder Regelung
WO2019127231A1 (en) * 2017-12-28 2019-07-04 Intel Corporation Training data generators and methods for machine learning
EP3598344A1 (de) * 2018-07-19 2020-01-22 Nokia Technologies Oy Verarbeitung von sensordaten
US20210342703A1 (en) * 2018-08-31 2021-11-04 Siemens Aktiengesellschaft Generative adversarial networks for time series
US11598880B2 (en) * 2018-10-04 2023-03-07 The Boeing Company Detecting fault states of an aircraft
US20200134494A1 (en) * 2018-10-26 2020-04-30 Uatc, Llc Systems and Methods for Generating Artificial Scenarios for an Autonomous Vehicle
US11772663B2 (en) * 2018-12-10 2023-10-03 Perceptive Automata, Inc. Neural network based modeling and simulation of non-stationary traffic objects for testing and development of autonomous vehicle systems
US20200202208A1 (en) * 2018-12-19 2020-06-25 Dalong Li Automatic annotation and generation of data for supervised machine learning in vehicle advanced driver assistance systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19756919A1 (de) 1997-04-01 1998-10-08 Bosch Gmbh Robert Verfahren und Vorrichtung zur Bestimmung einer Gasfüllung eines Verbrennungsmotors
DE102004041708B4 (de) 2004-08-28 2006-07-20 Bayerische Motoren Werke Ag Verfahren zur modellbasierten Bestimmung der während einer Ansaugphase in die Zylinderbrennkammer einer Brennkraftmaschine einströmenden Frischluftmasse
DE102018200816B3 (de) 2018-01-18 2019-02-07 Audi Ag Verfahren und Analysevorrichtung zum Ermitteln von Benutzerdaten, die ein Benutzerverhalten in einem Kraftfahrzeug beschreiben

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
C. ESTEBANS. L. HYLANDG. RÄTSCH: "Real-valued (medical) time series generation with recurrent conditional gans", ARXIV PREPRINT ARXIV: 1706.02633, 2017
CHENG FENG ET AL: "A Deep Learning-based Framework for Conducting Stealthy Attacks in Industrial Control Systems", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 19 September 2017 (2017-09-19), XP080817359 *
HENRIK ARNELID: "Sensor Modelling with Recurrent Conditional GANs Recurrent Conditional Generative Adversarial Networks for Generating Artificial Real-Valued Time Series Master's thesis in Complex Adaptive Systems", 1 January 2018 (2018-01-01), XP055685157, Retrieved from the Internet <URL:https://www.semanticscholar.org/paper/Sensor-Modelling-with-Recurrent-Conditional-GANs-Arnelid/0239391353e63e5286f6e7f2ce9b9bd6aca922ee> [retrieved on 20200414] *
ZHANG CHI ET AL: "Generative Adversarial Network for Synthetic Time Series Data Generation in Smart Grids", 2018 IEEE INTERNATIONAL CONFERENCE ON COMMUNICATIONS, CONTROL, AND COMPUTING TECHNOLOGIES FOR SMART GRIDS (SMARTGRIDCOMM), IEEE, 29 October 2018 (2018-10-29), pages 1 - 6, XP033478150, DOI: 10.1109/SMARTGRIDCOMM.2018.8587464 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112763967A (zh) * 2020-12-11 2021-05-07 国网辽宁省电力有限公司鞍山供电公司 一种基于BiGRU的智能电表计量模块故障预测与诊断方法
DE102021124928A1 (de) 2021-09-27 2023-03-30 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Vorrichtung und Verfahren zum Abschätzen von Unsicherheiten

Also Published As

Publication number Publication date
DE112020001605A5 (de) 2021-12-30
US20220187772A1 (en) 2022-06-16

Similar Documents

Publication Publication Date Title
DE112022000106T5 (de) Verfahren zur Getriebefehlerdiagnose und Signalerfassung, eine Vorrichtung und ein elektronisches Gerät
DE4108310C2 (de) Verarbeitungssystem für eine Wissensbank in einem Expertensystem
DE102016011520B4 (de) Produktionsausrüstung mit Maschinenlernsystem und Montage-und Prüfeinheit
DE102016008987A1 (de) Maschinenlernverfahren und Maschinenlernvorrichtung zum Lernen von Fehlerbedingungen, und Fehlervorhersagevorrichtung und Fehlervorhersagesystem, das die Maschinenlernvorrichtung einschließt
DE202017106532U1 (de) Suche nach einer neuronalen Architektur
EP2999998B1 (de) Methode zur ermittlung eines modells einer ausgangsgrösse eines technischen systems
EP3876061B1 (de) Verfahren zur validierung und auswahl auf maschinellem lernen basierender modelle zur zustandsüberwachung einer maschine
EP1543394A1 (de) Vorrichtung und verfahren zur überwachung einer mehrere systeme umfassenden technischen anlage, insbesondere einer kraftwerksanlage
WO2020192827A1 (de) Verfahren und vorrichtung zur probabilistischen vorhersage von sensordaten
DE102019217613A1 (de) Verfahren zur diagnose eines motorzustands und diagnostisches modellierungsverfahren dafür
WO2022171788A1 (de) Vorhersagemodell zum vorhersagen von produktqualitätsparameterwerten
DE112021002866T5 (de) Modelltreueüberwachung und -neuerstellung zur entscheidungsunterstützung eines fertigungsverfahrens
Torabi et al. Predict student scores using bayesian networks
EP2088486A1 (de) Verfahren zur Vermessung eines nichtlinearen dynamischen realen Systems mittels Versuchsplanung
EP3527817A1 (de) Verfahren und vorrichtungen zur automatischen ermittlung und/oder kompensation des einflusses einer wirbelschleppe auf eine windkraftanlage
DE102011075337A1 (de) Verfahren und Vorrichtung zur Ansteuerung einer Anlage
EP1264253B1 (de) Verfahren und anordnung zur modellierung eines systems
DE102019205359A1 (de) Verfahren und Vorrichtung zum Ansteuern einer technischen Einrichtung
DE102019128655B4 (de) Verfahren zur Bereitstellung einer rechnergestützten Steuerung für ein technisches System
DE112015005501B4 (de) Alterungsprofilbildungsmaschine für physikalische Systeme
EP3871052B1 (de) Verfahren zur kalibirierung eines technischen systems
AT522649B1 (de) Verfahren und System zur Bestimmung der einer Verbrennungskraftmaschine zugeführten Luftmenge
DE102020133654B3 (de) Computerimplementiertes Verfahren zur Modifizierung einer Komponente eines computergenerierten Modells eines Kraftfahrzeugs
DE102013007007A1 (de) Muster- und Signifikanzerkennung in Datenbeständen mit genetischen Algorithmen
EP4060559B1 (de) Trainingsdatensatz, training sowie künstliches neuronales netz für die zustandsschätzung eines stromnetzes

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20718534

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: DE

Ref legal event code: R225

Ref document number: 112020001605

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20718534

Country of ref document: EP

Kind code of ref document: A1