DE102014225039A1 - Method and apparatus for providing sparse Gaussian process models for calculation in an engine control unit - Google Patents

Method and apparatus for providing sparse Gaussian process models for calculation in an engine control unit Download PDF

Info

Publication number
DE102014225039A1
DE102014225039A1 DE102014225039.0A DE102014225039A DE102014225039A1 DE 102014225039 A1 DE102014225039 A1 DE 102014225039A1 DE 102014225039 A DE102014225039 A DE 102014225039A DE 102014225039 A1 DE102014225039 A1 DE 102014225039A1
Authority
DE
Germany
Prior art keywords
gaussian process
model
data points
process models
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014225039.0A
Other languages
German (de)
Inventor
Heiner Markert
Michael Hanselmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102014225039.0A priority Critical patent/DE102014225039A1/en
Publication of DE102014225039A1 publication Critical patent/DE102014225039A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/17Function evaluation by approximation methods, e.g. inter- or extrapolation, smoothing, least mean square method
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D41/00Electrical control of supply of combustible mixture or its constituents
    • F02D41/24Electrical control of supply of combustible mixture or its constituents characterised by the use of digital means
    • F02D41/26Electrical control of supply of combustible mixture or its constituents characterised by the use of digital means using computer, e.g. microprocessor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F02COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
    • F02DCONTROLLING COMBUSTION ENGINES
    • F02D41/00Electrical control of supply of combustible mixture or its constituents
    • F02D41/24Electrical control of supply of combustible mixture or its constituents characterised by the use of digital means
    • F02D41/2406Electrical control of supply of combustible mixture or its constituents characterised by the use of digital means using essentially read only memories
    • F02D41/2425Particular ways of programming the data
    • F02D41/2429Methods of calibrating or learning
    • F02D41/2438Active learning methods

Abstract

Die Erfindung betrifft ein Verfahren zum Erstellen einer Anzahl M von spärlichen Gauß-Prozess-Modellen mit dem Ziel der Modellauswertung in einer hardwarebasierten Modellberechnungseinheit (43), umfassend die folgenden Schritte:
– Bereitstellen (S1) von Trainingsdatenpunkten X und zugeordnete Ausgangswerte Y(1), ..., Y(M) von mehreren Ausgangsgrößen y(1), ..., y(M);
– Bilden einer gemeinsamen Marginal-Likelihood-Funktion p(Y(1), ..., Y(M)|X, X', H(1), ..., H(M)), wobei X' virtuellen Stützstellendatenpunkten und H(1), ..., H(M) Modellparametern für jedes der zu erstellenden Gauß-Prozess-Modelle entsprechen;
– Optimieren (S3) der gemeinsamen Marginal Likelihood-Funktion p(Y(1), ..., Y(M)|X, X', H(1), ..., H(M)), um eine Menge der virtuellen Stützstellendatenpunkte und die Modellparameter H(1), ..., H(M) für jedes der zu erstellenden Gauß-Prozess-Modelle zu erhalten.
The invention relates to a method for generating a number M of sparse Gaussian process models with the aim of model evaluation in a hardware-based model calculation unit (43), comprising the following steps:
Providing (S1) training data points X and associated output values Y (1) , ..., Y (M) of a plurality of outputs y (1) , ..., y (M) ;
Forming a common marginal likelihood function p (Y (1) , ..., Y (M) | X, X ', H (1) , ..., H (M) ), where X' is virtual pad data points and H (1) , ..., H (M) correspond to model parameters for each of the Gaussian process models to be created;
- Optimize (S3) the common marginal likelihood function p (Y (1) , ..., Y (M) | X, X ', H (1) , ..., H (M) ) by a set of the virtual pad data points and the model parameters H (1) , ..., H (M) for each of the Gaussian process models to be created.

Figure DE102014225039A1_0001
Figure DE102014225039A1_0001

Description

Technisches GebietTechnical area

Die Erfindung betrifft allgemein Motorsteuergeräte, in denen Funktionsmodelle als datenbasierte Funktionsmodelle implementiert sind. Insbesondere betrifft die vorliegende Erfindung Verfahren, um spärliche Gauß-Prozess-Modelle aus bereitgestellten Stützstellendaten zu bestimmen.The invention relates generally to engine control devices in which functional models are implemented as data-based functional models. In particular, the present invention relates to methods for determining sparse Gaussian process models from provided node data.

Stand der TechnikState of the art

Zur Implementierung von Funktionsmodellen in Steuergeräten, insbesondere Motorsteuergeräten für Verbrennungsmotoren, ist die Verwendung von datenbasierten Funktionsmodellen vorgesehen. Häufig werden parameterfreie datenbasierte Funktionsmodelle verwendet, da diese ohne spezifische Vorgaben aus Trainingsdaten, d. h. einer Menge von Trainingsdatenpunkten, erstellt werden können. For the implementation of functional models in control units, in particular engine control units for internal combustion engines, the use of data-based functional models is provided. Frequently, parameter-free data-based function models are used, since these are generated without specific specifications from training data, ie. H. a set of training data points that can be created.

Ein Beispiel für ein datenbasiertes Funktionsmodell stellt das so genannte Gauß-Prozess-Modell dar, das auf der Gauß-Prozess-Regression basiert. Die Gauß-Prozess-Regression ist eine vielseitige Methode zur datenbasierten Modellierung komplexer physikalischer Systeme. Die zugrunde liegende Regressionsanalyse basiert auf üblicherweise großen Mengen an Trainingsdaten, so dass es sinnvoll ist, approximative Lösungsansätze zu verwenden, die effizienter ausgewertet werden können. An example of a data-based function model is the so-called Gaussian process model, which is based on the Gaussian process regression. Gaussian Process Regression is a versatile method for data-based modeling of complex physical systems. The underlying regression analysis is based on usually large amounts of training data, so it makes sense to use approximate solutions that can be evaluated more efficiently.

Für das Gauß-Prozess-Modell existiert die Möglichkeit einer spärlichen Gauß-Prozess-Regression, bei der zur Erstellung des datenbasierten Funktionsmodells lediglich eine repräsentative Menge an Stützstellendaten genutzt wird. Dazu müssen die Stützstellendaten in geeigneter Weise aus den Trainingsdaten selektiert oder abgeleitet werden. Bei der spärlichen (sparse) Gauß-Prozess-Regression werden also die Trainingspunkte durch eine geringere Anzahl virtueller Stützstellenpunkte ersetzt und dadurch die Berechnung vereinfacht und Speicherplatz und Rechenzeit bei der Vorhersage eingespart.For the Gaussian process model there is the possibility of a sparse Gaussian process regression, in which only a representative amount of support point data is used to create the data-based function model. For this purpose, the support point data must be selected or derived in a suitable manner from the training data. With the sparse Gaussian process regression, the training points are replaced by a smaller number of virtual interpolation points, thereby simplifying the calculation and saving memory and computing time in the prediction.

Die Druckschriften E. Snelson et al., „Sparse Gaussian Processes using Pseudoinputs“, 2006 Neural Information Processing Systems 18 (NIPS) und Csató, Lehel; Opper, Manfred, "Sparse On-Line Gaussian Processes"; Neural Computation 14: S. 641–668, 2002 , offenbaren ein Verfahren zum Ermitteln von Stützstellendaten für ein spärliches Gauß-Prozess-Modell.The pamphlets E. Snelson et al., Sparse Gaussian Processes Using Pseudoinputs, 2006 Neural Information Processing Systems 18 (NIPS) and Csató, Lehel; Opper, Manfred, "Sparse On-Line Gaussian Processes"; Neural Computation 14: pp. 641-668, 2002 , disclose a method for determining support point data for a sparse Gaussian process model.

Andere diesbezügliche Verfahren sind bekannt aus Smola, A. J., Schölkopf, W., "Sparse Greedy Gaussian Process Regression", Advances in Neural Information Processing Systems 13, S. 619–625, 2001 , und Seeger, M., Williams, C. K., Lawrence, N. D., "Fast Forward Selection to Speed up Sparse Gaussian Process Regression", Proceedings of the 9th International Workshop on Artificial Intelligence and Statistics, 2003 .Other related methods are known from Smola, AJ, Schölkopf, W., "Sparse Greedy Gaussian Process Regression", Advances in Neural Information Processing Systems 13, pp. 619-625, 2001 , and Seeger, M., Williams, CK, Lawrence, ND, "Fast Forward Selection to Speed Up Sparse Gaussian Process Regression," Proceedings of the 9th International Workshop on Artificial Intelligence and Statistics, 2003 ,

Aus dem Stand der Technik sind weiterhin Steuerbausteine mit einer Hauptrecheneinheit und einer separaten Modellberechnungseinheit zur Berechnung von datenbasierten Funktionsmodellen in einem Steuergerät bekannt. So offenbart beispielsweise die Druckschrift DE 10 2010 028 259 A1 ein Steuergerät mit einer zusätzlichen Logikschaltung als Modellberechnungseinheit, die zur Berechnung von Exponentialfunktionen ausgebildet ist, um die Durchführung von Bayes-Regressionsverfahren, die insbesondere für die Berechnung von Gauß-Prozess-Modellen benötigt werden, zu unterstützen. Furthermore, control components with a main calculation unit and a separate model calculation unit for calculating data-based function models in a control unit are known from the prior art. For example, the document discloses DE 10 2010 028 259 A1 a control unit with an additional logic circuit as a model calculation unit, which is designed to calculate exponential functions in order to support the performance of Bayes regression methods, which are required in particular for the calculation of Gaussian process models.

Die Modellberechnungseinheit ist insgesamt zur Durchführung mathematischer Prozesse zur Berechnung des datenbasierten Funktionsmodells basierend auf Parametern und Stützstellen bzw. Trainingsdaten ausgelegt. Insbesondere sind die Funktionen der Modellberechnungseinheit zur effizienten Berechnung von Exponential- und Summenfunktionen rein in Hardware realisiert, so dass es ermöglicht wird, Gauß-Prozess-Modelle mit einer höheren Rechengeschwindigkeit zu rechnen, als dies in der softwaregesteuerten Hauptrecheneinheit erfolgen kann. Overall, the model calculation unit is designed to carry out mathematical processes for calculating the data-based function model based on parameters and support points or training data. In particular, the functions of the model calculation unit for efficiently calculating exponential and sum functions are implemented purely in hardware, so that it is possible to calculate Gaussian process models with a higher computing speed than can be done in the software-controlled mainframe.

Offenbarung der ErfindungDisclosure of the invention

Erfindungsgemäß sind ein Verfahren zum Bestimmen von mehreren spärlichen Gauß-Prozess-Modellen gemäß Anspruch 1 sowie eine Modellberechnungseinheit, ein Steuergerät und ein Computerprogramm gemäß den nebengeordneten Ansprüchen vorgesehen.According to the invention, a method for determining a plurality of sparse Gaussian process models according to claim 1 as well as a model calculation unit, a control unit and a computer program according to the independent claims are provided.

Weitere Ausgestaltungen sind in den abhängigen Ansprüchen angegeben. Further embodiments are specified in the dependent claims.

Gemäß einem ersten Aspekt ist ein Verfahren zum Erstellen einer Anzahl M von spärlichen Gauß-Prozess-Modellen zur Ausführung in einer rein hardwarebasierten Modellberechnungseinheit vorgesehen, umfassend die folgenden Schritte:

  • – Bereitstellen von Trainingsdatenpunkten X und zugeordnete Ausgangswerte Y(1), ..., Y(M) von mehreren (Anzahl M) Ausgangsgrößen y(1), ..., y(M);
  • – Bilden einer gemeinsamen Marginal-Likelihood-Funktion p(Y(1), ..., Y(M)|X, X', H(1), ..., H(M)), wobei X' virtuellen Stützstellendatenpunkten und H(1), ..., H(M) Modellparametern für jedes der zu erstellenden Gauß-Prozess-Modelle entsprechen;
  • – Optimieren der gemeinsamen Marginal Likelihood-Funktion p(Y(1), ..., Y(M)|X, X', H(1), ..., H(M)), um eine Menge der virtuellen Stützstellendatenpunkte und die Modellparameter H(1), ..., H(M) für jedes der zu erstellenden Gauß-Prozess-Modelle zu erhalten.
According to a first aspect, there is provided a method of creating a number M of sparse Gaussian process models for execution in a purely hardware-based model calculation unit, comprising the following steps:
  • Providing training data points X and associated output values Y (1) , ..., Y (M) of a plurality (number M) of output quantities y (1) , ..., y (M) ;
  • Forming a common marginal likelihood function p (Y (1) , ..., Y (M) | X, X ', H (1) , ..., H (M) ), where X' is virtual pad data points and H (1) , ..., H (M) correspond to model parameters for each of the Gaussian process models to be created;
  • - Optimizing the common marginal likelihood function p (Y (1) , ..., Y (M) | X, X ', H (1) , ..., H (M) ) to obtain a set of the virtual landmark data points and the model parameters H (1) , ..., H (M) for each of the Gaussian process models to be created.

Das obige Verfahren stellt eine Möglichkeit zur Verfügung, mehrere spärliche Gauß-Prozess-Modelle jeweils basierend auf einer Anzahl von identischen virtuellen Stützstellendatenpunkten in einfacher Weise zu erstellen.The above method provides a way to easily create multiple sparse Gaussian process models based on a number of identical virtual tributary data points, respectively.

Spärliche Gauß-Prozess-Modelle sind wesentlich speichereffizienter als herkömmliche Gauß-Prozess-Modelle, da nur K << N Stützstellendatenpunkte abgespeichert werden müssen (M: Anzahl der virtuellen Stützstellendatenpunkte, N: Anzahl der Trainingsdatenpunkte). Häufig reicht ein Viertel der Stützstellendatenpunkte oder weniger aus. So kann durch die Verwendung der virtuellen Stützstellendatenpunkte häufig bis zu 80% des Speicherbedarfs eingespart werden, da die ursprünglichen Trainingsdatenpunkte nicht gespeichert werden müssen. Folglich können in einer physikalischen Modellberechnungseinheit mehr datenbasierte Funktionsmodelle gespeichert werden. Hinzu kommt, dass die Auswertung der einzelnen, kleineren Gauß-Prozess-Modelle schneller erfolgen kann. Sparse Gaussian process models are much more memory-efficient than conventional Gaussian process models, since only K << N support point data points have to be stored (M: number of virtual support point data points, N: number of training data points). Often a quarter of the node data points or less is sufficient. Thus, the use of the virtual support point data points can often save up to 80% of the memory requirement since the original training data points do not have to be stored. Consequently, more data-based functional models can be stored in a physical model calculation unit. In addition, the evaluation of the individual, smaller Gaussian process models can be done faster.

Häufig stammen jedoch die Trainingsdatenpunkte aus einer Prüfstandsmessung, bei der mehr als nur eine Ausgangsgröße mit denselben Trainingsdatenpunkten vermessen wird. Möchte man mehrere Ausgangsgrößen modellieren, wird nach dem Stand der Technik ein datenbasiertes Funktionsmodell für jede Ausgangsgröße gelernt. Verwendet man herkömmliche Gauß-Prozesse, so fällt auf, dass die Parameter der einzelnen Funktionsmodelle teils übereinstimmen: So sind die Stützstellendatenpunkte im Fall von nichtnormalisierten Daten bei allen einzelnen Funktionsmodellen größtenteils identisch. Dies kann man ausnutzen, um Speicherplatz auf der Hardware-Einheit zu sparen, indem die Stützstellendaten nur einmal gespeichert werden.Frequently, however, the training data points come from a test bench measurement in which more than one output variable is measured with the same training data points. If one wishes to model several output variables, according to the prior art, a data-based functional model is learned for each output variable. Using conventional Gaussian processes, it is noticeable that the parameters of the individual function models partly agree: in the case of non-normalized data, the support point data points are for the most part identical for all individual function models. This can be exploited to save space on the hardware unit by storing the support point data only once.

Dies ist jedoch nicht möglich, wenn spärliche Gauß-Prozess-Modelle verwendet werden. In diesem Fall sind nämlich die virtuellen Stützstellendatenpunkte bei jedem Einzelmodell verschieden. Zwar spart man bei jedem der so ermittelten Einzelmodelle gegenüber dem herkömmlichen Ansatz der Gauß-Prozess-Modelle Speicherplatz, bei mehreren Gauß-Prozess-Modellen kann jedoch der gesamte Speicherplatzbedarf der jeweiligen virtuellen Stützstellendatenpunkte größer sein als der einmalige Speicherplatzbedarf der zugrundeliegenden Trainingsdatenpunkte, die bei herkömmlichen Gauß-Prozess-Modellen für die Berechnung mehrerer Ausgangsgrößen verwendet werden. However, this is not possible when sparse Gaussian process models are used. In this case, namely, the virtual support point data points are different for each individual model. Although saving in each of the individual models determined compared to the conventional approach of the Gaussian process models storage space, with multiple Gaussian process models, however, the total storage space requirements of the respective virtual support point data points may be greater than the unique storage space requirement of the underlying training data points, which in conventional Gaussian process models can be used to calculate multiple output quantities.

Beispielsweise beträgt der Speicherplatzbedarf von sechs einzelnen Funktionsmodellen, die mit Hilfe des spärlichen Gauß-Prozess-Modells auf jeweils 20% des Speicherplatzbedarf eines vergleichbaren nicht-spärlichen Funktionsmodells mit den zugrundeliegenden Trainingsdaten reduziert wurden, 120%. Da die zugrundeliegenden Trainingsdaten für die Berechnung der nicht-spärlichen Gauß-Prozess-Modelle in der Regel nur einmalig gespeichert werden, kann der Speicherplatzbedarf bei der Verwendung von mehreren spärlichen Gauß-Prozess-Modellen höher sein, da diese jeweils verschiedene Stützstellendatenmengen verwenden.For example, the memory footprint of six individual function models, which were reduced to 20% of the memory footprint of a comparable non-sparse function model with the underlying training data using the sparse Gaussian process model, is 120%. Since the underlying training data for the computation of the sparse Gaussian process models is typically stored only once, the storage space requirement can be higher when using several sparse Gaussian process models, since these each use different support point data sets.

Das obige Verfahren sieht daher vor, die Speichervorteile von spärlichen Gauß-Prozess-Modellen mit der Möglichkeit des mehrfachen Nutzens von Stützstellendatenpunkten zu kombinieren. Die wesentliche Idee besteht darin, die virtuellen Stützstellen nicht pro Modell, sondern gemeinsam zu optimieren, so dass sich alle Einzelmodelle dieselben virtuellen Trainingsdaten teilen. Dadurch wird eine Reduktion des für alle Modelle gemeinsam notwendigen Speicherplatzes erzielt.The above method therefore provides for combining the memory advantages of sparse Gaussian process models with the possibility of multiple use of support point data points. The essential idea is not to optimize the virtual support points per model, but together, so that all individual models share the same virtual training data. This achieves a reduction of the common storage space necessary for all models.

Weiterhin kann für das Optimieren der gemeinsamen Marginal Likelihood-Funktion p(Y(1), ..., Y(M)|X, X', H(1), ..., H(M)) bei linear unabhängigen Ausgangsgrößen der Ausdruck p(Y(1)|X, X', H(1))·...·p(Y(M)|X, X', H(M)) optimiert werden.Further, for optimizing the common marginal likelihood function, p (Y (1) , ..., Y (M) | X, X ', H (1) ,..., H (M) ) can be used for linearly independent outputs the expression p (Y (1) | X, X ', H (1) ) ··· p (Y (M) | X, X', H (M) ) be optimized.

Weiterhin kann für das Optimieren der gemeinsamen Marginal Likelihood-Funktion p(Y(1), ..., Y(M)|X, X', H(1), ..., H(M)) bei linear abhängigen Ausgangsgrößen der Ausdruck p(Y(1)|X, X', H(1))·p(Y(2)|Y(1), X, X', H(1), H(2))·... ...·p(Y(M)|Y(1), ..., Y(M-1), X, X', H(1), ..., H(M)) optimiert werden.Further, for optimizing the common marginal likelihood function, p (Y (1) , ..., Y (M) | X, X ', H (1) ,..., H (M) ) can be used for linearly dependent outputs the expression p (Y (1) | X, X ', H (1) ) · p (Y (2) | Y (1) , X, X', H (1) , H (2) ) ···. .. * p (Y (M) | Y (1) , ..., Y (M-1) , X, X ', H (1) , ..., H (M) ) be optimized.

Es kann vorgesehen sein, dass die Trainingsdatenpunkte durch Messung an einem Prüfstand erhalten werden. It can be provided that the training data points are obtained by measurement on a test bench.

Weiterhin kann die gemeinsame Marginal Likelihood-Funktion eine Plausibilität der Modellparameter H(1), ..., H(M) für jedes der zu erstellenden Gauß-Prozess-Modelle für die Ausgangswerte Y(1), ..., Y(M) der Ausgangsgrößen y(1), ..., y(M) angeben, wobei die virtuellen Stützstellendatenpunkte X‘ und die Modellparameter H(1), ..., H(M) durch Maximieren der Plausibilität optimiert werden. Furthermore, the common marginal likelihood function can plausibility the model parameters H (1) , ..., H (M) for each of the Gaussian process models to be created for the output values Y (1) , ..., Y (M ) of the output quantities y (1) , ..., y (M) , whereby the virtual support point data points X 'and the model parameters H (1) , ..., H (M) are optimized by maximizing the plausibility.

Gemäß einem weiteren Aspekt ist eine Modellberechnungseinheit zur Durchführung einer Berechnung von spärlichen Gauß-Prozess-Modellen vorgesehen, wobei die spärlichen Gauß-Prozess-Modelle basierend auf den gemeinsamen virtuellen Stützstellendatenpunkte X‘ ermittelt werden.According to another aspect, a model calculation unit is for performing a calculation of sparse Gaussian process models provided, wherein the sparse Gaussian process models are determined based on the common virtual support point data points X '.

Gemäß einem weiteren Aspekt ist ein Steuergerät mit einer softwaregesteuerten Hauptrecheneinheit und der obigen rein hardwarebasierten Modellberechnungseinheit vorgesehen. According to a further aspect, a control device with a software-controlled main calculation unit and the above purely hardware-based model calculation unit is provided.

Kurzbeschreibung der ZeichnungenBrief description of the drawings

Ausführungsformen werden nachfolgend anhand der beigefügten Zeichnungen näher erläutert. Es zeigen:Embodiments are explained below with reference to the accompanying drawings. Show it:

1 eine schematische Darstellung eines Gesamtsystems zum Ermitteln eines spärlichen Gauß-Prozess-Modells und des Motorsteuergeräts, auf dem das spärliche Gauß-Prozess-Modell implementiert wird; und 1 a schematic representation of an overall system for determining a sparse Gaussian process model and the engine control unit, on which the sparse Gaussian process model is implemented; and

2 ein Flussdiagramm zur Veranschaulichung eines Verfahrens zum Bestimmen von spärlichen Gauß-Prozess-Modellen mit identischen virtuellen Stützstellendatenpunkten. 2 a flowchart for illustrating a method for determining sparse Gaussian process models with identical virtual support point data points.

Beschreibung von AusführungsformenDescription of embodiments

1 zeigt eine Anordnung 1 mit einem Modellierungssystem 2, das basierend auf z. B. in einem (nicht gezeigten) Prüfstand aufgezeichneten Trainingsdaten zur Ermittlung eines datenbasierten Funktionsmodells, insbesondere eines Gauß-Prozess-Modells, in der Lage ist. Die Trainingsdaten stellen Trainingsdatenpunkte von einer oder mehreren Eingangsgrößen sowie einer oder mehreren Ausgangsgrößen zur Verfügung, die ein Verhalten eines physikalischen Systems 3, wie beispielsweise eines Verbrennungsmotors, beschreiben. 1 shows an arrangement 1 with a modeling system 2 based on z. B. in a (not shown) test bench recorded training data for determining a data-based function model, in particular a Gaussian process model, in the situation. The training data provides training data points of one or more input variables as well as one or more output quantities representing the behavior of a physical system 3 , such as an internal combustion engine, describe.

Die Verwendung von nicht parametrischen, datenbasierten Funktionsmodellen basiert auf einem Bayes-Regressionsverfahren. Die Grundlagen der Bayes-Regression sind beispielsweise in C. E. Rasmussen et al., „Gaussian Processes for Machine Learning“, MIT Press 2006 , beschrieben. Bei der Bayes-Regression handelt es sich um ein datenbasiertes Verfahren, das auf einem Modell basiert. Zur Erstellung des Modells sind Messpunkte von Trainingsdaten sowie zugehörige Ausgangsdaten einer Ausgangsgröße erforderlich. Die Erstellung des Modells erfolgt anhand der Verwendung von Stützstellendaten, die den Trainingsdaten ganz oder teilweise entsprechen oder aus diesen generiert werden. Weiterhin werden abstrakte Hyperparameter bestimmt, die den Raum der Modellfunktionen parametrieren und effektiv den Einfluss der einzelnen Messpunkte der Trainingsdaten auf die spätere Modellvorhersage gewichten.The use of non-parametric, data-based function models is based on a Bayes regression method. The basics of Bayesian regression are, for example, in CE Rasmussen et al., Gaussian Processes for Machine Learning, MIT Press 2006 , described. Bayesian regression is a data-based method based on a model. To create the model, measurement points of training data and associated output data of an output variable are required. The creation of the model is based on the use of support point data, which correspond to the training data in whole or in part or are generated from these. Furthermore, abstract hyperparameters are determined which parameterize the space of the model functions and effectively weight the influence of the individual measurement points of the training data on the later model prediction.

Die abstrakten Hyperparameter werden durch ein Optimierungsverfahren bestimmt. Eine Möglichkeit für ein solches Optimierungsverfahren besteht in einer Optimierung einer Marginal Likelihood p(Y|H,X). Die Marginal Likelihood p(Y|H,X) beschreibt die Plausibilität der Modellparameter H, gegeben die gemessenen y-Werte der Trainingsdaten, dargestellt als Vektor Y und die x-Werte der Trainingsdaten, dargestellt als Matrix X. Im Modelltraining wird p(Y|H,X) maximiert, indem geeignete Hyperparameter gesucht werden, die zu einem Verlauf der durch die Hyperparameter und die Trainingsdaten bestimmten Modellfunktion führen und die Trainingsdaten möglichst genau abbilden. Zur Vereinfachung der Berechnung wird häufig der Logarithmus von p(Y|H,X) maximiert, da der Logarithmus die Monotonie der Plausibilitätsfunktion nicht verändert. The abstract hyperparameters are determined by an optimization method. One possibility for such an optimization method is an optimization of a marginal likelihood p (Y | H, X). The marginal likelihood p (Y | H, X) describes the plausibility of the model parameters H, given the measured y-values of the training data, represented as vector Y and the x-values of the training data, represented as matrix X. In model training, p (Y | H, X) is maximized by searching for suitable hyperparameters which lead to a course of the model function determined by the hyperparameters and the training data and which map the training data as accurately as possible. To simplify the calculation, the logarithm of p (Y | H, X) is often maximized because the logarithm does not change the monotony of the plausibility function.

Die Berechnung des Gauß-Prozess-Modells erfolgt entsprechend der nachfolgenden Rechenvorschrift. Die Eingangswerte x ~d für einen Testpunkt x (Eingangsgrößenvektor) werden zunächst normiert und zentriert, und zwar gemäß der folgenden Formel:

Figure DE102014225039A1_0002
The calculation of the Gaussian process model is carried out according to the following calculation rule. The input values x~ d for a test point x (input variable vector) are first normalized and centered, according to the following formula:
Figure DE102014225039A1_0002

Dabei entsprechen mx der Mittelwertfunktion bezüglich eines Mittelwerts der Eingangswerte der Stützstellendaten, sx der Varianz der Eingangswerte der Stützstellendaten und d dem Index für die Dimension D des Testpunkts x. In this case, m x the mean value function with respect to an average value corresponding to the input values of the nodes data, s x the variance of the input values of the nodes data, and d the index for the dimension D of the test point x.

Als Ergebnis der Erstellung des nicht parametrischen, datenbasierten Funktionsmodells erhält man:

Figure DE102014225039A1_0003
As a result of creating the non-parametric, data-based function model you get:
Figure DE102014225039A1_0003

Der so ermittelte Modellwert v wird mithilfe einer Ausgangsnormierung normiert, und zwar gemäß der Formel: ṽ = vsy + my. The thus obtained model value v is normalized by means of an initial normalization, according to the formula: ṽ = vs y + m y .

Dabei entsprechen v einem normierten Modellwert (Ausgangswert) an einem normierten Testpunkt x (Eingangsgrößenvektor der Dimension D), ṽ einem (nicht normierten) Modellwert (Ausgangswert) an einem (nicht normierten) Testpunkt (Eingangsgrößenvektor der Dimension D), xi einer Stützstelle der Stützstellendaten, N der Anzahl der Stützstellen der Stützstellendaten, D der Dimension des Eingangsdaten-/Trainingsdaten-/ Stützstellendatenraums, sowie ld und σf den Modellparametern H aus dem Modelltraining. Der Vektor Qy ist eine aus den Modellparametern und den Trainingsdaten berechnete Größe. Weiterhin entsprechen my der Mittelwertfunktion bezüglich eines Mittelwerts der Ausgangswerte der Stützstellendaten und sy der Varianz der Ausgangswerte der Stützstellendaten. Here, v correspond to a normalized model value (output value) at a normalized test point x (input variable vector of dimension D), ṽ a (non-normalized) model value (output value) at a (non-normalized) test point (input variable vector of dimension D), x i of a sample point Support point data, N the number of nodes of the support point data, D the dimension of the input data / training data / support point data space, and l d and σ f the model parameters H from the model training. The vector Q y is a quantity calculated from the model parameters and the training data. Furthermore, m y correspond to the mean value function with respect to an average value of the output values Support point data and s y of the variance of the output values of the support point data.

Das Modellierungssystem 2 führt weiterhin ein Verfahren zur Verarbeitung der ermittelten bzw. bereitgestellten Trainingsdaten aus, um das datenbasierte Funktionsmodell mithilfe von Hyperparametern und Stützstellendaten, die eine Teilmenge oder abgeleitete Menge der Trainingsdaten darstellen, bereitzustellen. Auf diese Weise kann ein so genanntes spärliches Gauß-Prozess-Modell erstellt werden. The modeling system 2 further executes a method of processing the acquired training data to provide the data-based function model using hyperparameters and node data representing a subset or derived amount of the training data. In this way, a so-called sparse Gaussian process model can be created.

Diese Stützstellendaten und Hyperparameter werden dann in ein Steuergerät 4 übertragen und dort gespeichert. Das Steuergerät 4 steht in Verbindung mit einem physikalischen System 3, z. B. einem Verbrennungsmotor, das mithilfe des datenbasierten Funktionsmodells betrieben wird. These support point data and hyperparameters are then transferred to a controller 4 transferred and stored there. The control unit 4 is related to a physical system 3 , z. B. an internal combustion engine, which is operated using the data-based function model.

1 zeigt weiterhin eine schematische Darstellung einer Hardwarearchitektur für einen integrierten Steuerbaustein, z. B. in Form eines Mikrocontrollers, in dem in integrierter Weise eine Hauptrecheneinheit 42 und eine Modellberechnungseinheit 43 zur rein hardwarebasierten Berechnung eines datenbasierten Funktionsmodells vorgesehen sind. Die z.B. in einer vorausgegangenen Optimierung bestimmten Hyperparameter und Stützstellendaten werden in einer Speichereinheit 41 gespeichert. Die Hauptrecheneinheit 42, die Speichereinheit 41 und die Modellberechnungseinheit 43 stehen über eine interne Kommunikationsverbindung 44, wie z. B. einen Systembus, miteinander in Verbindung. 1 further shows a schematic representation of a hardware architecture for an integrated control block, z. B. in the form of a microcontroller in which integrated in a main computing unit 42 and a model calculation unit 43 are provided for the purely hardware-based calculation of a data-based function model. The hyperparameters and support point data determined, for example, in a previous optimization are stored in a memory unit 41 saved. The main calculator 42 , the storage unit 41 and the model calculation unit 43 are via an internal communication connection 44 , such as As a system bus, with each other.

Die als Mikrocontroller vorgesehene Hauptrecheneinheit 42 ist ausgebildet, um mithilfe eines softwarebestimmten Algorithmus Funktionswerte des bereitgestellten datenbasierten Funktionsmodells zu berechnen. Zur Beschleunigung der Berechnung und zur Entlastung des Mikrocontrollers 42 ist vorgesehen, die Modellberechnungseinheit 43 zu nutzen. Die Modellberechnungseinheit 43 ist vollständig in Hardware ausgebildet und lediglich dazu geeignet, eine bestimmte Rechenvorschrift durchzuführen, die im Wesentlichen auf wiederholten Berechnungen von Additionen und Multiplikationen und einer Exponentialfunktion basiert. Grundsätzlich ist die Modellberechnungseinheit 43 also im Wesentlichen hartverdrahtet und dementsprechend nicht dazu ausgebildet, einen Softwarecode wie bei der Hauptrecheneinheit 42 auszuführen.The intended as a microcontroller main computing unit 42 is designed to calculate function values of the provided data-based function model using a software-determined algorithm. To speed up the calculation and to relieve the microcontroller 42 is provided, the model calculation unit 43 to use. The model calculation unit 43 is fully hardware-based and is only capable of performing a particular calculation rule based essentially on repeated computations of additions and multiplications and an exponential function. Basically, the model calculation unit 43 that is, essentially hardwired and therefore not designed to provide software code as in the main computing unit 42 perform.

Alternativ ist eine Lösung möglich, in der die Modellberechnungseinheit 43 zur Berechnung des datenbasierten Funktionsmodells einen eingeschränkten, hoch spezialisierten Befehlssatz zur Verfügung stellt. In der Modellberechnungseinheit 43 ist jedoch in keiner Ausführungsform ein Prozessor vorgesehen. Dies ermöglicht eine ressourcenoptimierte Realisierung einer solchen Modellberechnungseinheit 43 bzw. einen flächenoptimierten Aufbau in integrierter Bauweise. In einer möglichen Implementierung kann die Modellberechnungseinheit 43 als FPGA insbesondere in einer Einheit in dem Steuergerät 4 ausgebildet sein.Alternatively, a solution is possible in which the model calculation unit 43 to provide a constrained, highly specialized instruction set for computing the data-based function model. In the model calculation unit 43 However, in no embodiment is a processor provided. This enables a resource-optimized implementation of such a model calculation unit 43 or a surface-optimized design in integrated construction. In one possible implementation, the model calculation unit 43 as FPGA in particular in a unit in the control unit 4 be educated.

In einem solchen Steuergerät 4 können neben herkömmlichen Gauß-Prozess-Modellen auch spärliche Gauß-Prozess-Modelle berechnet werden. Dadurch, dass bei spärlichen Gauß-Prozess-Modellen die Menge an Stützstellendaten deutlich geringer ist als bei herkömmlichen Gauß-Prozess-Modellen, kann die bereitzustellende Speicherkapazität der Speichereinheit 41 zum Speichern der Stützstellendaten reduziert werden oder es können mehrere Datensätze von Trainingsdaten von mehreren spärlichen Gauß-Prozess-Modellen in der Speichereinheit 41 gespeichert werden.In such a control unit 4 In addition to conventional Gaussian process models, sparse Gaussian process models can also be calculated. Due to the fact that, in the case of sparse Gaussian process models, the amount of support point data is significantly lower than in the case of conventional Gaussian process models, the storage capacity to be provided can make the memory unit 41 for storing the support point data or it may be several records of training data from several sparse Gaussian process models in the memory unit 41 get saved.

Eine herkömmliche Gauß-Prozess-Regression verwendet die gegebenen Stützstellendatenpunkte/Trainingsdatenpunkte zur Berechnung der Kovarianzmatrix. Man erhält die Modellvorhersage in der Form

Figure DE102014225039A1_0004
wobei k T / x, Qy ∈ RN gilt. Hervorzuheben ist, dass durch k T / x der Kovarianzvektor zwischen dem Abfragepunkt x und den Stützstellendatenpunkten dargestellt wird. Diese berechnet sich durch den „squared exponential“-Kernel als
Figure DE102014225039A1_0005
A conventional Gaussian process regression uses the given support point data points / training data points to compute the covariance matrix. You get the model prediction in the form
Figure DE102014225039A1_0004
in which k T / x, Q y ∈ R N applies. It should be emphasized that through k T / x the covariance vector between the query point x and the support point data points is displayed. This is calculated by the "squared exponential" kernel as
Figure DE102014225039A1_0005

Bei spärlichen Gauß-Prozess-Modellen ist die wesentliche Idee, die gegebenen Stützstellendaten, die durch die „echten“ Stützstellendatenpunkte gebildet werden, durch „virtuelle“, also künstlich generierte Stützstellendatenpunkte zu ersetzen. Dabei werden K künstliche Stützstellendatenpunkte generiert und durch einen Optimierer in geeigneter Weise so positioniert, dass die Modellvorhersage eines spärlichen Gauß-Prozess-Modells mit den virtuellen Stützstellendatenpunkten so exakt wie möglich der des Gauß-Prozess-Modells mit den originalen Stützstellendatenpunkten entspricht. Durch Herausintegrieren der künstlichen y-Daten ist es möglich, K virtuelle X-Positionen x i zu optimieren.With sparse Gaussian process models, the essential idea is to replace the given support point data formed by the "real" support point data points with "virtual", ie artificially generated support point data points. K artificial support point data points are generated and suitably positioned by an optimizer so that the model prediction of a sparse Gaussian process model with the virtual support point data points is as accurate as possible with the Gaussian process model with the original support point data points. By integrating out the artificial y data, it is possible to have K virtual X positions x i to optimize.

Die Modellvorhersage für das spärliche Gauß-Prozess-Modell ergibt sich mit y = k T / *Q –1 / MKMN(Λ – σ 2 / nI)–1Y wobei k T / * ∈ RM, QM ∈ RM×M, KMN ∈ RM×N, Λ eine N-dimensionale Diagonalmatrix und Y der Vektor der y-Werte der originalen Stützstellendatenpunkte ist.The model prediction for the sparse Gaussian process model is given by y = k T / * Q -1 / MK MN (Λ - σ 2 / nI) -1 Y where k T / * ∈ R M , Q M ∈ R M × M , K MN ∈ R M × N , Λ is an N-dimensional diagonal matrix and Y is the vector of the y-values of the original support point data points.

Dabei ist k T / * wieder der Kovarianzvektor, diesmal jedoch berechnet zwischen dem Abfragepunkt x sowie dem M-dimensionalen Vektor der virtuellen Stützstellendatenpunkte x i . Der daran als Skalarprodukt multiplizierte Vektor ist nun jedoch durch den Ausdruck Q * / y = Q –1 / MKMN(Λ – σ 2 / nI)–1Y gegeben.It is k T / * again, the covariance vector, but this time calculated between the query point x and the M-dimensional vector of the virtual support point data points x i , However, the vector multiplied by it as scalar product is now by the expression Q * / y = Q -1 / MK MN (Λ - σ 2 / nI) -1 Y given.

Man erhält also die gleiche Form wie zur Vorhersage von herkömmlichen Gauß-Prozessen:

Figure DE102014225039A1_0006
wenn geeignete Werte für den Parametervektor Q * / y sowie die virtuellen Stützstellendatenpunkte verwendet werden.So you get the same form as for the prediction of conventional Gaussian processes:
Figure DE102014225039A1_0006
if suitable values for the parameter vector Q * / y as well as the virtual support point data points are used.

In 2 ist ein Flussdiagramm zur Veranschaulichung eines Verfahrens zum Bereitstellen von mehreren spärlichen Gauß-Prozess-Modellen mit Hyperparametern und virtuellen Stützstellendaten, die für alle Gauß-Prozess-Modelle identisch sind, schematisch dargestellt.In 2 FIG. 4 is a flowchart illustrating a method for providing a plurality of sparse Gaussian process models with hyperparameters and virtual node data that are identical for all Gaussian process models, shown schematically.

Während des Trainings eines spärlichen Gauß-Prozess-Modells werden die Modellparameter H für jedes der einzelnen Funktionsmodelle, sowie die Lage von einer Anzahl M gemeinsamer virtueller Stützstellendatenpunkte X' festgelegt. Dies geschieht zum Beispiel durch Optimierung der Marginal Likelihood p(Y|H, X, X'). Die Marginal Likelihood p(Y|H, X, X') beschreibt die Plausibilität der Modellparameter H und der virtueller Stützstellendatenpunkte X', wobei die gemessenen y-Werte der Trainingsdaten, dargestellt als Vektor Y, und die x-Werte (Trainingsdatenpunkte) der Trainingsdaten, dargestellt als Matrix X, vorgegeben sind.During the training of a sparse Gaussian process model, the model parameters H are set for each of the individual function models, as well as the location of a number M of common virtual support point data points X '. This is done, for example, by optimizing the marginal likelihood p (Y | H, X, X '). The marginal likelihood p (Y | H, X, X ') describes the plausibility of the model parameters H and the virtual pad data points X', where the measured y values of the training data, represented as vector Y, and the x values (training data points) Training data, shown as matrix X, are given.

Um für alle Ausgangsgrößen, d.h. für jedes Funktionsmodell die Optimierung der Marginal Likelihood getrennt auszuführen, was zu verschiedenen Mengen von virtueller Stützstellendatenpunkten X' und entsprechenden Modellparametern führen würde, werden die einzelnen Optimierungsprobleme nun kombiniert, z.B. indem eine gemeinsame Marginal Likelihood-Funktion für alle Funktionsmodelle aufgestellt und in an sich bekannter Weise optimiert wird.In order for all outputs, i. For each function model, to perform the marginal likelihood optimization separately, which would result in different sets of virtual vertex data points X 'and corresponding model parameters, the individual optimization problems are now combined, e.g. by setting up a common marginal likelihood function for all function models and optimizing them in a manner known per se.

In Schritt S1 werden Messwerte Y(1), Y(2) für mehrere Ausgangsgrößen y(1), y(2) für eine Menge von Trainingsdaten X ermittelt bzw. vorgegeben. In step S1, measured values Y (1) , Y (2) for a plurality of output quantities y (1) , y (2) for a set of training data X are determined or predetermined.

In Schritt S2 wird überprüft, ob die Ausgangsgrößen y, für die jeweils ein Funktionsmodell in Form eines spärlichen Gauß-Prozess-Modells erstellt werden soll, linear abhängig sind oder nicht. Sind die Ausgangsgrößen nicht linear abhängig (Alternative: Nein), so wird in Schritt S3 folgende gemeinsame Marginal Likelihood-Funktion für zwei Ausgangsgrößen optimiert: p(Y(1), Y(2)|X, X', H(1), H(2)) = p(Y(1)|X, X', H(1))·p(Y(2)|X, X', H(2)) In step S2 it is checked whether the output quantities y, for each of which a function model in the form of a sparse Gaussian process model is to be created, are linearly dependent or not. If the output variables are not linearly dependent (alternative: no), the following common marginal likelihood function is optimized for two output variables in step S3: p (Y (1) , Y (2) | X, X ', H (1) , H (2) ) = p (Y (1) | X, X', H (1) ) · p (Y ( 2) | X, X ', H (2) )

Für M Ausgangsgrößen gilt entsprechend: p(Y(1)|X, X', H(1))·p(Y(2)|X, X', H(2))·...·p(Y(M)|X, X', H(M)) wobei Y(i) den gemessenen Ausgangswerten des i-ten Modells, X den ursprünglichen Trainingsdaten, die für alle Ausgangsgrößen y identisch sind, und H(i) den Modellparametern des i-ten Funktionsmodells entsprechen. Dabei entspricht p (Y(i)|X, X', H(i)) der Likelihood-Funktion des i-ten herkömmlichen spärlichen Gauß-Prozess-Modells.For M output quantities, the following applies accordingly: p (Y (1) | X, X ', H (1) ) · p (Y (2) | X, X', H (2) ) ··· p (Y (M) | X, X) ', H (M) ) where Y (i) corresponds to the measured output values of the i-th model, X corresponds to the original training data, which is identical for all outputs y, and H (i) corresponds to the model parameters of the ith function model. Here, p (Y (i) | X, X ', H (i) ) corresponds to the likelihood function of the i-th conventional sparse Gaussian process model.

Als Ergebnis der Optimierung erhält man eine Menge an virtuellen Stützstellendaten X‘ und die Modellparameter H(i) für jedes der M Funktionsmodelle.As a result of the optimization, one obtains a set of virtual support point data X 'and the model parameters H (i) for each of the M function models.

Sind die Ausgangsgrößen nicht linear abhängig (Alternative: Ja), so wird in Schritt S4 folgende gemeinsame Marginal Likelihood-Funktion optimiert:If the output quantities are not linearly dependent (alternative: yes), the following common marginal likelihood function is optimized in step S4:

Für zwei abhängige Ausgangsgrößen gilt: p(Y(1), Y(2)|X, X', H(1), H(2)) = p(Y(1)|X, X', H(1))·p(Y(2)|Y(1), X, X', H(1), H(2)) For two dependent outputs: p (Y (1) , Y (2) | X, X ', H (1) , H (2) ) = p (Y (1) | X, X', H (1) ) · p (Y ( 2) | Y (1) , X, X ', H (1) , H (2) )

Für M abhängige Ausgangsgrößen gilt entsprechend: p(Y(1), ..., Y(M)|X, X', H(1), ..., H(M)) = p(Y(1)|X, X', H(1))·p(Y(2)|Y(1), X, X', H(1), H(2))·... ...·p(Y(M)|Y(1), ..., Y(M-1), X, X', H(1), ..., H(M)) For M dependent output quantities, the following applies accordingly: p (Y (1) , ..., Y (M) | X, X ', H (1) , ..., H (M) ) = p (Y (1) | X, X', H ( 1) ) · p (Y (2) | Y (1) , X, X ', H (1) , H (2) ) ··· · p (Y (M) | Y (1) , ..., Y (M-1) , X, X ', H (1) , ..., H (M) )

Diese Likelihood-Funktionen können analog zu den aus dem Dokument Boyle & Frean: Dependent Gaussian Processes, Advances in Neural Information Processing Systems 17, p 217–224, 2005 bekannten Verfahren optimiert werden.These likelihood functions can be analogous to those from the document Boyle & Frean: Dependent Gaussian Processes, Advances in Neural Information Processing Systems 17, p 217-224, 2005 be optimized known methods.

Als Ergebnis der Optimierung erhält man eine Menge an virtuellen Stützstellendaten X‘ und die Modellparameter H(i) für jedes der M Funktionsmodelle.As a result of the optimization, one obtains a set of virtual support point data X 'and the model parameters H (i) for each of the M function models.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102010028259 A1 [0007] DE 102010028259 A1 [0007]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • E. Snelson et al., „Sparse Gaussian Processes using Pseudoinputs“, 2006 Neural Information Processing Systems 18 (NIPS) [0005] E. Snelson et al., "Sparse Gaussian Processes Using Pseudoinputs", 2006 Neural Information Processing Systems 18 (NIPS) [0005]
  • Csató, Lehel; Opper, Manfred, "Sparse On-Line Gaussian Processes"; Neural Computation 14: S. 641–668, 2002 [0005] Csató, Lehel; Opper, Manfred, "Sparse On-Line Gaussian Processes"; Neural Computation 14: pp. 641-668, 2002 [0005]
  • Smola, A. J., Schölkopf, W., "Sparse Greedy Gaussian Process Regression", Advances in Neural Information Processing Systems 13, S. 619–625, 2001 [0006] Smola, AJ, Schölkopf, W., "Sparse Greedy Gaussian Process Regression", Advances in Neural Information Processing Systems 13, p. 619-625, 2001 [0006]
  • Seeger, M., Williams, C. K., Lawrence, N. D., "Fast Forward Selection to Speed up Sparse Gaussian Process Regression", Proceedings of the 9th International Workshop on Artificial Intelligence and Statistics, 2003 [0006] Seeger, M., Williams, CK, Lawrence, ND, "Fast Forward Selection to Speed up Sparse Gaussian Process Regression," Proceedings of the 9th International Workshop on Artificial Intelligence and Statistics, 2003. [0006]
  • C. E. Rasmussen et al., „Gaussian Processes for Machine Learning“, MIT Press 2006 [0028] CE Rasmussen et al., Gaussian Processes for Machine Learning, MIT Press 2006 [0028]
  • Boyle & Frean: Dependent Gaussian Processes, Advances in Neural Information Processing Systems 17, p 217–224, 2005 [0056] Boyle & Frean: Dependent Gaussian Processes, Advances in Neural Information Processing Systems 17, p 217-224, 2005 [0056]

Claims (10)

Verfahren zum Erstellen einer Anzahl M von spärlichen Gauß-Prozess-Modellen mit dem Ziel der Modellauswertung in einer hardwarebasierten Modellberechnungseinheit (43), umfassend die folgenden Schritte: – Bereitstellen (S1) von Trainingsdatenpunkten X und zugeordnetem Ausgangswerten Y(1), ..., Y(M) von mehreren Ausgangsgrößen y(1), ..., y(M); – Bilden einer gemeinsamen Marginal-Likelihood-Funktion p(Y(1), ..., Y(M)|X, X', H(1), ..., H(M)), wobei X' virtuellen Stützstellendatenpunkten und H(1), ..., H(M) Modellparametern für jedes der zu erstellenden Gauß-Prozess-Modelle entsprechen; – Optimieren (S3) der gemeinsamen Marginal-Likelihood-Funktion p(Y(1), ..., Y(M)|X, X', H(1), ..., H(M)), um eine Menge der virtuellen Stützstellendatenpunkte und die Modellparameter H(1), ..., H(M) für jedes der zu erstellenden Gauß-Prozess-Modelle zu erhalten.Method for creating a number M of sparse Gaussian process models with the aim of model evaluation in a hardware-based model calculation unit ( 43 ), comprising the following steps: - providing (S1) training data points X and associated output values Y (1) , ..., Y (M) of a plurality of output quantities y (1) , ..., y (M) ; Forming a common marginal likelihood function p (Y (1) , ..., Y (M) | X, X ', H (1) , ..., H (M) ), where X' is virtual pad data points and H (1) , ..., H (M) correspond to model parameters for each of the Gaussian process models to be created; - optimizing (S3) the common marginal likelihood function p (Y (1) , ..., Y (M) | X, X ', H (1) , ..., H (M) ) by one To get the set of virtual vertex data points and the model parameters H (1) , ..., H (M) for each of the Gaussian process models to be created. Verfahren nach Anspruch 1, wobei für das Optimieren der gemeinsamen Marginal-Likelihood-Funktion p(Y(1), ..., Y(M)|X, X', H(1), ..., H(M)) bei linear unabhängigen Ausgangsgrößen der Ausdruck p(Y(1)|X, X', H(1))·...·p(Y(M)|X, X', H(M)) optimiert wird.The method of claim 1, wherein for optimizing the common marginal likelihood function p (Y (1) , ..., Y (M) | X, X ', H (1) , ..., H (M) ) for linearly independent output variables the expression p (Y (1) | X, X ', H (1) ) ··· p (Y (M) | X, X', H (M) ) is optimized. Verfahren nach Anspruch 1 oder 2, wobei für das Optimieren der gemeinsamen Marginal-Likelihood-Funktion p(Y(1), ..., Y(M)|X, X', H(1), ..., H(M)) bei linear abhängigen Ausgangsgrößen der Ausdruck p(Y(1)|X, X', H(1))·...·p(Y(M)|Y(1), ..., Y(M-1), X, X', H(1), ...,H(M)) optimiert wird.The method of claim 1 or 2, wherein for optimizing the common marginal likelihood function p (Y (1) , ..., Y (M) | X, X ', H (1) , ..., H ( M) ) for linearly dependent output quantities the expression p (Y (1) | X, X ', H (1) ) · ... · p (Y (M) | Y (1) , ..., Y (M-1) , X, X', H (1) , ..., H (M) ) is optimized. Verfahren nach einem der Ansprüche 1 bis 3, wobei die Trainingsdatenpunkte durch Messung an einem Prüfstand erhalten werden. Method according to one of claims 1 to 3, wherein the training data points are obtained by measurement on a test bench. Verfahren nach einem der Ansprüche 1 bis 4, wobei die gemeinsame Marginal-Likelihood-Funktion eine Plausibilität der Modellparameter H(1), ..., H(M) für jedes der zu erstellenden Gauß-Prozess-Modelle für die Ausgangswerte Y(1), ..., Y(M) der Ausgangsgrößen y(1), ..., y(M) angibt, wobei die virtuellen Stützstellendatenpunkte X‘ und die Modellparameter H(1), ..., H(M) durch Maximieren der Plausibilität optimiert werden.Method according to one of claims 1 to 4, wherein the common marginal likelihood function has a plausibility of the model parameters H (1) , ..., H (M) for each of the Gaussian process models for the output values Y (1 ) , ..., Y (M) indicates the output quantities y (1) ,..., Y (M) , the virtual support point data points X 'and the model parameters H (1) , ..., H (M) Maximizing the plausibility can be optimized. Modellberechnungseinheit (43) zur Durchführung einer Berechnung von spärlichen Gauß-Prozess-Modellen, wobei die spärlichen Gauß-Prozess-Modelle basierend auf den gemeinsamen virtuellen Stützstellendatenpunkten X‘ ermittelt werden.Model calculation unit ( 43 ) for performing a sparse Gaussian process model calculation, wherein the sparse Gaussian process models are determined based on the common virtual tributary data points X '. Steuergerät (4) mit einer softwaregesteuerten Hauptrecheneinheit (42) und einer hardwarebasierten Modellberechnungseinheit (43) nach Anspruch 6. Control unit ( 4 ) with a software-controlled mainframe ( 42 ) and a hardware-based model calculation unit ( 43 ) according to claim 6. Computerprogramm, welches dazu eingerichtet ist, alle Schritte eines Verfahrens nach einem der Ansprüche 1 bis 5 auszuführen.Computer program which is set up to carry out all the steps of a method according to one of Claims 1 to 5. Maschinenlesbares Speichermedium, auf welchem ein Computerprogramm nach Anspruch 8 gespeichert ist.A machine-readable storage medium on which a computer program according to claim 8 is stored. Elektronisches Steuergerät (4), welches dazu eingerichtet ist, alle Schritte eines Verfahrens nach einem der Ansprüche 1 bis 5 auszuführen.Electronic control unit ( 4 ), which is adapted to carry out all the steps of a method according to one of claims 1 to 5.
DE102014225039.0A 2014-12-05 2014-12-05 Method and apparatus for providing sparse Gaussian process models for calculation in an engine control unit Pending DE102014225039A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014225039.0A DE102014225039A1 (en) 2014-12-05 2014-12-05 Method and apparatus for providing sparse Gaussian process models for calculation in an engine control unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014225039.0A DE102014225039A1 (en) 2014-12-05 2014-12-05 Method and apparatus for providing sparse Gaussian process models for calculation in an engine control unit

Publications (1)

Publication Number Publication Date
DE102014225039A1 true DE102014225039A1 (en) 2016-06-09

Family

ID=55974815

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014225039.0A Pending DE102014225039A1 (en) 2014-12-05 2014-12-05 Method and apparatus for providing sparse Gaussian process models for calculation in an engine control unit

Country Status (1)

Country Link
DE (1) DE102014225039A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018001727A1 (en) 2018-03-05 2019-09-05 Mtu Friedrichshafen Gmbh Method for model-based control and regulation of an internal combustion engine
WO2020030481A1 (en) 2018-08-10 2020-02-13 Mtu Friedrichshafen Gmbh Method for the model-based control and regulation of an internal combustion engine
WO2020064566A1 (en) 2018-09-27 2020-04-02 Mtu Friedrichshafen Gmbh Method for the model-based open-loop and closed-loop control of an internal combustion engine with an scr catalytic converter
DE102020000327A1 (en) 2020-01-21 2021-07-22 Mtu Friedrichshafen Gmbh Method for model-based control and regulation of an internal combustion engine
WO2021170761A1 (en) 2020-02-28 2021-09-02 Mtu Friedrichshafen Gmbh Method for the model-based open-loop and closed-loop control of an internal combustion engine

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010028259A1 (en) 2010-04-27 2011-10-27 Robert Bosch Gmbh A microcontroller having a computing unit and a logic circuit and method for performing calculations by a microcontroller for control or in-vehicle control

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010028259A1 (en) 2010-04-27 2011-10-27 Robert Bosch Gmbh A microcontroller having a computing unit and a logic circuit and method for performing calculations by a microcontroller for control or in-vehicle control

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Boyle & Frean: Dependent Gaussian Processes, Advances in Neural Information Processing Systems 17, p 217–224, 2005
C. E. Rasmussen et al., „Gaussian Processes for Machine Learning", MIT Press 2006
E. Snelson et al., „Sparse Gaussian Processes using Pseudoinputs", 2006 Neural Information Processing Systems 18 (NIPS)
Seeger, M., Williams, C. K., Lawrence, N. D., "Fast Forward Selection to Speed up Sparse Gaussian Process Regression", Proceedings of the 9th International Workshop on Artificial Intelligence and Statistics, 2003
Smola, A. J., Schölkopf, W., "Sparse Greedy Gaussian Process Regression", Advances in Neural Information Processing Systems 13, S. 619–625, 2001

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11156183B2 (en) 2018-03-05 2021-10-26 Mtu Friedrichshafen Gmbh Method for the model-based control and regulation of an internal combustion engine
WO2019170492A1 (en) 2018-03-05 2019-09-12 Mtu Friedrichshafen Gmbh Method for the model-based control and regulation of an internal combustion engine
DE102018001727B4 (en) * 2018-03-05 2021-02-11 Mtu Friedrichshafen Gmbh Method for model-based control and regulation of an internal combustion engine
DE102018001727A1 (en) 2018-03-05 2019-09-05 Mtu Friedrichshafen Gmbh Method for model-based control and regulation of an internal combustion engine
WO2020030481A1 (en) 2018-08-10 2020-02-13 Mtu Friedrichshafen Gmbh Method for the model-based control and regulation of an internal combustion engine
DE102018006312A1 (en) * 2018-08-10 2020-02-13 Mtu Friedrichshafen Gmbh Process for model-based control and regulation of an internal combustion engine
DE102018006312B4 (en) 2018-08-10 2021-11-25 Mtu Friedrichshafen Gmbh Method for model-based control and regulation of an internal combustion engine
WO2020064566A1 (en) 2018-09-27 2020-04-02 Mtu Friedrichshafen Gmbh Method for the model-based open-loop and closed-loop control of an internal combustion engine with an scr catalytic converter
US11319888B2 (en) 2018-09-27 2022-05-03 Rolls-Royce Solutions GmbH Method for the model-based open loop and closed loop control of an internal combustion engine
DE102020000327A1 (en) 2020-01-21 2021-07-22 Mtu Friedrichshafen Gmbh Method for model-based control and regulation of an internal combustion engine
WO2021148410A1 (en) 2020-01-21 2021-07-29 Mtu Friedrichshafen Gmbh Method for the model-based open-loop and closed-loop control of an internal combustion engine
US11846245B2 (en) 2020-01-21 2023-12-19 Rolls-Royce Solutions GmbH Method for the model-based open-loop and closed-loop of an internal combustion engine
DE102020001323A1 (en) 2020-02-28 2021-09-02 Mtu Friedrichshafen Gmbh Method for model-based control and regulation of an internal combustion engine
WO2021170761A1 (en) 2020-02-28 2021-09-02 Mtu Friedrichshafen Gmbh Method for the model-based open-loop and closed-loop control of an internal combustion engine
US11846243B2 (en) 2020-02-28 2023-12-19 Rolls-Royce Solutions GmbH Method for the model-based open-loop and closed-loop control of an internal combustion engine

Similar Documents

Publication Publication Date Title
DE102013213397A1 (en) Method and apparatus for providing support point data for a data-based function model
DE112019000336T5 (en) MASSIVELY PARALLEL NEURAL INFERENCE DATA PROCESSING ELEMENTS
DE102017113232A1 (en) TENSOR PROCESSING USING A FORMAT WITH LOW ACCURACY
DE202016107436U1 (en) Neural network processor
DE102017120588A1 (en) Instruction set architecture for neural networks
DE102013213420A1 (en) Model calculation unit, controller and method for computing a data-based function model
DE112016002292T5 (en) STACK PROCESSING IN A NEURONAL NETWORK PROCESSOR
DE112016002298T5 (en) PREVIEW OF WEIGHTS FOR USE IN A NEURONAL NETWORK PROCESSOR
DE202016107443U1 (en) Compute convolutions using a neural network processor
DE102014225039A1 (en) Method and apparatus for providing sparse Gaussian process models for calculation in an engine control unit
DE112019003529T5 (en) Data representation for dynamic accuracy in the cores of neural networks
DE102010028266A1 (en) Control device and method for calculating an output for a controller
DE102013220432A1 (en) Model calculation unit for an integrated control module for the calculation of LOLIMOT
DE112019002981T5 (en) PARALLEL COMPUTATION ARCHITECTURE WITH RECONFIGURABLE CORE LEVEL AND VECTOR LEVEL PARALLELITY
DE112019000676T5 (en) CENTRAL SCHEDULER AND INSTRUCTION ASSIGNMENT FOR A NEURAL INFERENCE PROCESSOR
DE102014207683A1 (en) Method and device for creating a data-based function model
DE102013227183A1 (en) Method and apparatus for providing a sparse Gaussian process model for calculation in an engine control unit
DE202019006019U1 (en) Techniques for analyzing vehicle design deviations using deep learning with neural networks
DE112020007010T5 (en) INFERENCE MACHINE CIRCUIT ARCHITECTURE
DE112020003050T5 (en) ERROR COMPENSATION IN ANALOG NEURAL NETWORKS
DE102013206264A1 (en) Method and apparatus for performing a calculation of a data-based function model
DE102013224698A1 (en) Method and device for determining a data-based function model
DE102017213510A1 (en) Method and apparatus for generating a machine learning system, and virtual sensor device
DE112021005568T5 (en) Data processing device and data processing method
DE102013206304A1 (en) Method and apparatus for creating a non-parametric, data-based function model

Legal Events

Date Code Title Description
R012 Request for examination validly filed