DE202021105192U1 - Apparatus for machine learning from a small number of training data examples - Google Patents

Apparatus for machine learning from a small number of training data examples Download PDF

Info

Publication number
DE202021105192U1
DE202021105192U1 DE202021105192.2U DE202021105192U DE202021105192U1 DE 202021105192 U1 DE202021105192 U1 DE 202021105192U1 DE 202021105192 U DE202021105192 U DE 202021105192U DE 202021105192 U1 DE202021105192 U1 DE 202021105192U1
Authority
DE
Germany
Prior art keywords
machine learning
learning system
variables
computer
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202021105192.2U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Albert Ludwigs Universitaet Freiburg Koerpers De
Original Assignee
Robert Bosch GmbH
Albert Ludwigs Universitaet Freiburg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH, Albert Ludwigs Universitaet Freiburg filed Critical Robert Bosch GmbH
Priority to DE202021105192.2U priority Critical patent/DE202021105192U1/en
Publication of DE202021105192U1 publication Critical patent/DE202021105192U1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Manipulator (AREA)

Abstract

Vorrichtung zum Anlernen eines maschinellen Lernsystems (60),
wobei ein Eingang des maschinellen Lernsystems (60) geeignet ist, zumindest ein Paar von Größen aufzunehmen und zu einer Ausgangsgröße (ypred) des maschinellen Lernsystems (60) zu verarbeiten,
wobei die Vorrichtung ein maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch einen Computer bewirkten, dass der Computer ein Verfahren mit folgenden Schritte ausführt:
Bereitstellen (S11) einer ersten Wahrscheinlichkeitsverteilung (p(f)), welche eine Wahrscheinlichkeitsverteilung einer Mehrzahl von Heuristiken (f) beschreibt, wobei die Heuristiken (f) für eine Sensorgröße Schätzungen einer Kenngröße ausgeben;
Mehrfaches Wiederhohlen der Schritte:
Zufälliges Auswählen (S12) einer der Heuristiken (f) abhängig von der ersten Wahrscheinlichkeitsverteilung (p(f));
Erzeugen (S13) von Trainingsdaten (D) abhängig von der ausgewählten Heuristik (f), wobei einer Mehrzahl von Sensorgrößen mittels der Heuristik (f) jeweils eine Kenngröße zugeordnet wird; und
Anlernen (S14) des maschinellen Lernsystemes (60) anhand der Trainingsdaten (D), wobei die Sensorgrößen und zugehörigen Kenngrößen als Paare dem maschinellen Lernsystem (60) zugeführt werden.

Figure DE202021105192U1_0000
Device for teaching a machine learning system (60),
wherein an input of the machine learning system (60) is suitable for receiving at least one pair of variables and processing them into an output variable (y pred ) of the machine learning system (60),
wherein the device comprises a machine-readable storage medium on which instructions are stored which, when executed by a computer, caused the computer to carry out a method comprising the following steps:
Providing (S11) a first probability distribution (p (f)) which describes a probability distribution of a plurality of heuristics (f), the heuristics (f) outputting estimates of a parameter for a sensor variable;
Repeating the steps multiple times:
Randomly selecting (S12) one of the heuristics (f) as a function of the first probability distribution (p (f));
Generation (S13) of training data (D) as a function of the selected heuristic (f), a parameter being assigned to a plurality of sensor variables by means of the heuristic (f); and
Teaching (S14) the machine learning system (60) on the basis of the training data (D), the sensor variables and associated parameters being fed as pairs to the machine learning system (60).
Figure DE202021105192U1_0000

Description

Die Erfindung betrifft eine Vorrichtung zum Anlernen eines maschinellen Lernsystems sowie zum Betreiben des angelernten maschinellen Lernsystems, sodass das maschinelle Lernsystem aus einer geringen Anzahl von Trainingsdatenbeispielen z.B. eine Klassifikation aus unbekannter Klassen ausgeben kann.The invention relates to a device for teaching a machine learning system and for operating the learned machine learning system so that the machine learning system can output, for example, a classification from unknown classes from a small number of training data examples.

Stand der TechnikState of the art

Shi Xiahan et al. „Relational generalized few-shot learning.“ arXiv preprint arXiv:1907.09557 (2019), online abrufbar: https://arxiv.org/abs/1907.09557, offenbaren eine Methode, welche Beziehungen zwischen gesehenen und neuen Klassen im gemeinsamen Labelraum modelliert und damit ein verallgemeinertes Lernen basierend auf einer geringen Anzahl von Beispielen ermöglicht, auch als ,generalized few-shot learning' bezeichnet.Shi Xiahan, et al. "Relational generalized few-shot learning." ArXiv preprint arXiv: 1907.09557 (2019), available online: https://arxiv.org/abs/1907.09557, reveal a method which models and thus relationships between seen and new classes in the common label space enables generalized learning based on a small number of examples, also known as 'generalized few-shot learning'.

Beispielhaft ist aus der Veröffentlichung Rasmussen, Carl Edward. „Gaussian processes in machine learning.“ Summer school on machine learning. Springer, Berlin, Heidelberg, 2003 ein sog. Gaußprozess (engl. Gaussian Processes) als eine posteriori Methode bekannt, welcher zeitliche, räumliche oder beliebige andere Funktionen darstellen kann, deren Funktionswerte aufgrund unvollständiger Information nur mit bestimmten Unsicherheiten und Wahrscheinlichkeiten modelliert werden können.An example from the publication is Rasmussen, Carl Edward. "Gaussian processes in machine learning." Summer school on machine learning. Springer, Berlin, Heidelberg, 2003 a so-called Gaussian Processes known as a posteriori method, which can represent temporal, spatial or any other functions whose function values can only be modeled with certain uncertainties and probabilities due to incomplete information.

Vorteile der ErfindungAdvantages of the invention

Die Erfindung mit den Merkmalen des unabhängigen Anspruchs 1 erlaubt es gegeben einer Verteilung von Funktionen bzw. Heuristiken, die das zu lösende Lernproblem ungefähr modellieren und die alle zusammengefasst im Folgenden auch als Prior bezeichnet werden, eine Modellierung einer Posteriori-Verteilung, nachdem eine geringe Anzahl von beispielhaften Datenpunkten gesehen wurden, vorherzusagen. Diese posteriori Modellierung hat mehrere Vorteile: (i) Sie hat eine theoretische Grundlage und ist daher korrekt, wenn eine Situation gegeben ist, die einer der Prior Funktionen ähnelt, (ii) sie kann daher die tatsächliche Wahrscheinlichkeit verschiedener Ereignisse besser berücksichtigen, sie ist folglich besser ,kalibriert' und (iii) sie ermöglich ein besonders genaues few-shot learning aufgrund dem Vorteil (i).The invention with the features of independent claim 1 allows, given a distribution of functions or heuristics, which roughly model the learning problem to be solved and which are all collectively referred to below as prior, a modeling of a posteriori distribution after a small number seen from exemplary data points. This posteriori modeling has several advantages: (i) It has a theoretical basis and is therefore correct when there is a situation that resembles one of the prior functions, (ii) it can therefore better take into account the actual probability of various events, it is consequently better "calibrated" and (iii) it enables particularly precise few-shot learning due to the advantage (i).

Weitere Aspekte der Erfindung sind Gegenstand der nebengeordneten Ansprüche. Vorteilhafte Weiterbildungen sind Gegenstand der abhängigen Ansprüche.Further aspects of the invention are the subject of the independent claims. Advantageous further developments are the subject of the dependent claims.

Offenbarung der ErfindungDisclosure of the invention

In einem ersten Aspekt betrifft die Erfindung ein computerimplementiertes Verfahren zum Anlernen eines maschinellen Lernsystems, insbesondere zur Vorhersage einer Ausgangsgröße abhängig von einer Mehrzahl von Eingangsgrößen. Zumindest ein Eingang des maschinellen Lernsystems ist geeignet, zumindest ein Paar von Größen aufzunehmen und zu einer Ausgangsgröße des maschinellen Lernsystems zu verarbeiten. Unter einem Paar von Größen kann verstanden werden, dass zwei, insbesondere unterschiedliche, Größen zueinander zugeordnet sind und damit ein Paar bilden. Die Ausgansgröße des maschinellen Lernsystems ist vorzugsweise ein Vektor für eine Klassifikation oder ähnliches oder eine Größe für eine Regression.In a first aspect, the invention relates to a computer-implemented method for teaching a machine learning system, in particular for predicting an output variable as a function of a plurality of input variables. At least one input of the machine learning system is suitable for receiving at least one pair of variables and processing them into an output variable for the machine learning system. A pair of sizes can be understood to mean that two, in particular different, sizes are assigned to one another and thus form a pair. The output variable of the machine learning system is preferably a vector for a classification or the like or a variable for a regression.

Vorzugsweise weist das maschinelle Lernsystem eine Mehrzahl von Eingängen und einen Ausgang und besonders bevorzugt ein zeitliches Gedächtnis auf, wobei die Eingänge eingerichtet sind, jeweils ein Paar von Größen aufzunehmen. Der Ausgang ist eingerichtet, eine Ausgangsgröße auszugeben, die vorzugweise eine Wahrscheinlichkeitsverteilung oder eine kontinuierliche Zahl ist. Das zeitliche Gedächtnis des maschinellen Lernsystems kann z.B. durch rekurrente Verbindungen der Schichten oder einem Zwischenspeicher, der zumindest ein Zwischenergebnis einer vorhergehenden Berechnung einer vorherhergehenden Eingangsgröße beim Verarbeiten einer aktuellen Eingangsgröße bereitstellt bzw. hinzufügt, gegeben sein. Das zeitliche Gedächtnis ist also eine Form eines Bereitstellen von Informationen, die bei einer (un-)mittelbar vorhergehenden Berechnungen des maschinellen Lernsystems ermittelt wurden.The machine learning system preferably has a plurality of inputs and one output and particularly preferably a temporal memory, the inputs being set up to each receive a pair of variables. The output is set up to output an output variable which is preferably a probability distribution or a continuous number. The temporal memory of the machine learning system can be given, for example, by recurrent connections between the layers or a buffer that provides or adds at least an intermediate result of a previous calculation of a previous input variable when processing a current input variable. The temporal memory is thus a form of providing information that was determined during an (immediately) preceding calculation of the machine learning system.

Das maschinelle Lernsystem ist beispielsweise ein rekurrentes neuronales Netz, oder das maschinelle Lernsystem kann eine Mehrzahl von Paaren gleichzeitig aufnehmen, hier kann ein convolutional neural network denkbar sein, wobei die Filter derart eingerichtet sind, dass diese das zeitliche Gedächtnis erzeugen, indem diese über eine Reihe der Paare angewendet werden. Bevorzugt werden Attention-basierte Netzwerke verwendet, wie ein Transformer (Vaswani et al. / https://arxiv.org/abs/1706.03762). Das zeitliche Gedächtnis des Transformers ist durch seine ,Attentions' gegeben und damit kann der Transformer für jeden Input bzw. für jeden Zeitschritt auf jeden vorherigen Input/Zeitschritt (oder je nach Maske auch in die Zukunft) schauen.The machine learning system is, for example, a recurrent neural network, or the machine learning system can accommodate a plurality of pairs at the same time; a convolutional neural network can be conceivable here, the filters being set up in such a way that they generate the temporal memory by placing them over a row of the couples are applied. Attention-based networks are preferred, such as a transformer (Vaswani et al. / Https://arxiv.org/abs/1706.03762). The transformer's temporal memory is given by its 'attentions' and thus the transformer can look at every previous input / time step (or, depending on the mask, into the future) for each input or for each time step.

Das Verfahren beginnt mit einem Bereitstellen einer ersten Wahrscheinlichkeitsverteilung (auch als Prior p(f) bezeichnet), welche eine Wahrscheinlichkeitsverteilung einer Mehrzahl von Heuristiken (f) beschreibt. Die Heuristiken können vorgegeben sein und sind insbesondere Funktionen, welche vereinfachte bzw. mutmaßliche Schlussfolgerungen über ein System darstellen. Allgemein gesagt, die Heuristik ordnet einer Eingangsgröße eine Ausgangsgröße zu. Die Eingangsgröße und zugeordnete Ausgangsgröße können ein Paar bilden. Alternativ ist denkbar, dass der Prior p(D, x, y) die Paare direkt beschreibt. Die Eingangsgröße ist vorzugsweise eine Sensorgröße, die z.B.an einem technischen System erfasst wurde. Die Ausgangsgröße ist vorzugsweise eine Kenngröße, insbesondere des technischen Systems oder der Sensorgröße. Die Heuristiken (f) können für eine erfasste Sensorgröße auf unterschiedliche Weise oder anhand von unterschiedlichen Kriterien Schätzungen einer zuzuordnenden Kenngröße ausgeben.The method begins with providing a first probability distribution (also referred to as prior p (f)), which describes a probability distribution of a plurality of heuristics (f). The heuristics can be predetermined and are, in particular, functions which present simplified or presumptive conclusions about a system. Generally speaking, the heuristic assigns an output variable to an input variable. The input variable and the assigned output variable can form a pair. Alternatively, it is conceivable that the prior p (D, x, y) describes the pairs directly. The input variable is preferably a sensor variable that was recorded, for example, on a technical system. The output variable is preferably a parameter, in particular of the technical system or the sensor variable. The heuristics (f) can output estimates of a parameter to be assigned for a detected sensor variable in different ways or on the basis of different criteria.

Anschließend wird ein mehrfaches Wiederhohlen der nachfolgenden Schritte a) bis c) ausgeführt. Es sei angemerkt, dass hier die Wiederholungen z.B. nach einer vorgebbaren maximalen Anzahl von Wiederholungen abgebrochen werden kann. Jedoch je mehr Wiederholungen ausgeführt werden, desto besser wird das maschinelle Lernsystem.

  1. a) Zufälliges Auswählen einer der Heuristiken (f) abhängig von der ersten Wahrscheinlichkeitsverteilung.
  2. b) Erzeugen von Trainingsdaten (D) abhängig von der ausgewählten Heuristik (f), wobei einer Mehrzahl von Sensorgrößen mittels der Heuristik (f) jeweils eine Kenngröße zugeordnet wird. Die Sensorgrößen können reale, erfasste Größen mittels eines Sensors oder künstlich erzeugte Größen, z.B. mittels eines virtuellen Sensors, sein.
  3. c) Anlernen des maschinellen Lernsystemes anhand der Trainingsdaten (D), wobei die Sensorgrößen und zugehörigen Kenngrößen als Paare dem maschinellen Lernsystem zugeführt werden, wobei das Anlernen derart erfolgt, dass der Ausgang des maschinellen Lernsystems im Wesentlichen die Kenngröße ausgibt. Unter im Wesentlichen kann hier eine zu erzielenden Genauigkeit, die mit dem jeweiligen vorliegenden Trainingsalgorithmus und Datensatz realisierbar ist, verstanden werden. Es sei angemerkt, dass für den Schritt des Anlernens jedes beliebiges Trainingsverfahren verwendet werden kann, z.B. bekannte Gradientenabstiegsverfahren.
The following steps a) to c) are then repeated several times. It should be noted that here the repetitions can be canceled, for example, after a specifiable maximum number of repetitions. However, the more repetitions that are performed, the better the machine learning system becomes.
  1. a) Randomly selecting one of the heuristics (f) as a function of the first probability distribution.
  2. b) Generation of training data (D) as a function of the selected heuristic (f), a parameter being assigned to a plurality of sensor variables by means of the heuristic (f). The sensor variables can be real, recorded variables by means of a sensor or artificially generated variables, for example by means of a virtual sensor.
  3. c) Teaching the machine learning system on the basis of the training data (D), the sensor variables and associated parameters being fed to the machine learning system as pairs, the teaching being carried out in such a way that the output of the machine learning system essentially outputs the characteristic. Essentially, an accuracy to be achieved that can be achieved with the respective training algorithm and data set that is present can be understood here. It should be noted that any desired training method can be used for the learning step, for example known gradient descent methods.

Vor dem Anlernen werden eine Mehrzahl der Paaren erzeugt. In einer bevorzugten Ausführungsform wird diese Mehrzahl der Paaren in einen ersten Teil von Paaren und einen zweiten Teil eingeteilt. Der zweite Teil wird als Abfragepunkte (engl. querry points) verwendet, bei denen dann jeweils nur die Sensorgröße dem maschinellen Lernsystem zugeführt wird, wobei am Ausgang die jeweils zugeordnete Kenngröße des jeweiligen Paars erwartet wird, wobei das maschinelle Lernsystem dann zusätzlich entsprechend angepasst wird, dass es die zugeordneten Kenngrößen gemäß den jeweiligen Paaren ausgibt.A majority of the pairs are generated before the teaching. In a preferred embodiment, this plurality of pairs is divided into a first part of pairs and a second part. The second part is used as query points (querry points), at which only the sensor variable is then fed to the machine learning system, with the associated parameter of the respective pair expected at the output, with the machine learning system then also being adapted accordingly, that it outputs the assigned parameters according to the respective pairs.

Ein Vorteil des Verfahrens ist, dass die Heuristiken flexibel gewählt und mit diesen kostengünstig Trainingsdaten erzeugt werden können. Interessanterweise können sehr einfache Heuristiken gewählt werden und das angelernte maschinelle Lernsystem kann in einer Inferenzphase trotzdem eine gute Performance aufweisen.One advantage of the method is that the heuristics can be selected flexibly and training data can be generated with them at low cost. Interestingly, very simple heuristics can be selected and the learned machine learning system can still perform well in an inference phase.

Der Schritt des Anlernens kann zumindest folgende Unterschritte umfassen: Berechnen einer Kostenfunktion (lθ), wobei die Kostenfunktion durch eine Summe über jeweils einen angewendeten Logarithmus auf die ermittelten Ausgangsgrößen (qθ(y|x,D)) des maschinellen Lernsystems gegeben den Paaren aus dem Trainingsdatensatz (D) gewichtet mit der Wahrscheinlichkeit (p(y,x,D)) der jeweiligen Paaren aus dem Trainingsdatensatz (D) ermittelt wird, und Anpassen von Parametern des maschinellen Lernsystems derart, dass die Kostenfunktion (lθ) optimiert wird, insbesondere durch Gradientenabstiegsverfahren, sodass die Kostenfunktion (lθ) durch Anpassen von Parametern des maschinellen Lernsystems maximiert oder minimiert wird.The learning step can include at least the following sub-steps: Calculating a cost function (l θ ), the cost function being given to the pairs by a sum of a respective logarithm applied to the determined output variables (q θ (y | x, D)) of the machine learning system is determined from the training data set (D) weighted with the probability (p (y, x, D)) of the respective pairs from the training data set (D), and adjusting parameters of the machine learning system in such a way that the cost function (l θ ) is optimized , in particular by gradient descent methods, so that the cost function (l θ ) is maximized or minimized by adapting parameters of the machine learning system.

Formell kann die Kostenfunktion lθ definiert werden: l θ = D , x , y p ( y , x , D ) log q θ ( y | x , D )

Figure DE202021105192U1_0001
wobei p(y,x,D) eine Wahrscheinlichkeit ist, welche charakterisiert, wie wahrscheinlich die vorliegende Kombination der Größen x und y aus Trainingsdaten D ist. Vorzugweise wird diese Wahrscheinlichkeit durch eine Unifromverteilung (auch als Gleichverteilung bezeichnet) modelliert. Der zweite Term der Kostenfunktion log qθ(y|x,D) entspricht einem Logarithmus angewendet auf die Ausgabe des maschinellen Lernsystems, wobei dann die Ausgabe des maschinellen Lernsystems eine Wahrscheinlichkeitsverteilung beschreibt.The cost function l θ can be defined formally: l θ = D. , x , y p ( y , x , D. ) log q θ ( y | x , D. )
Figure DE202021105192U1_0001
where p (y, x, D) is a probability which characterizes how probable the present combination of the quantities x and y from training data D is. This probability is preferably modeled by a uniform distribution (also referred to as uniform distribution). The second term of the cost function log q θ (y | x, D) corresponds to a logarithm applied to the output of the machine learning system, the output of the machine learning system then describing a probability distribution.

Es wird vorgeschlagen, dass beim Berechnen einer Kostenfunktion (lθ), die ermittelten Ausgangsgrößen (qθ(y|x,D)) des maschinellen Lernsystems mit der Wahrscheinlichkeit p(x,D), dass die jeweilige Sensorgröße aus dem Trainingsdatensatz (D) gezogen wird, gewichtet wird. Formell kann die Kostenfunktion (lθ) hier definiert werden: l θ = D , x , y p ( y , x , d ) log ( q θ ( y | x , D ) p ( x , D ) )

Figure DE202021105192U1_0002
wobei p(x,D) eine Wahrscheinlichkeit charakterisiert, dass der Datenpunkt x aus dem Trainingsdatensatz D gezogen wird. Vorzugweise wird diese Wahrscheinlichkeit durch eine Unifromverteilung modelliert. In anderen Worten kann gesagt werden, dass die Kostenfunktion eine cross-entropy über die Samples des Priors und den Vorhersagen des maschinellen Lernsystems ist.It is proposed that when calculating a cost function (l θ ), the determined output variables (q θ (y | x, D)) of the machine learning system with the probability p (x, D) that the respective sensor variable from the training data set (D ) is drawn, is weighted. Formally, the cost function (l θ ) can be defined here: l θ = D. , x , y p ( y , x , d ) log ( q θ ( y | x , D. ) p ( x , D. ) )
Figure DE202021105192U1_0002
where p (x, D) characterizes a probability that the data point x will be drawn from the training data set D. This probability is preferably modeled by a uniform distribution. In In other words, it can be said that the cost function is a cross-entropy over the samples of the prior and the predictions of the machine learning system.

Diese geringfüge Manipulation der Kostenfunktion hat den vorteilhaften Effekt, dass das Anlernen feingranularer die Verteilung der Sensorgrößen im Trainingsdatensatz berücksichtigt, was sich später in einer präziseren Vorhersage der Kenngröße positiv äußert.This slight manipulation of the cost function has the advantageous effect that the fine-grained learning takes into account the distribution of the sensor variables in the training data set, which is later expressed positively in a more precise prediction of the characteristic variable.

Weiterhin wird vorgeschlagen, dass die Heuristiken basierend auf Zufallsgrößen fiktive Sensorgrößen erzeugen und deren zugeordneten Kenngrößen ausgeben. Unter fiktiven Sensorgrößen kann verstanden werden, dass diese nicht durch einen physikalischen Sensor erfasst wurden, sondern künstlich simuliert oder berechnet wurden.It is also proposed that the heuristics generate fictitious sensor variables based on random variables and output their assigned parameters. Fictitious sensor variables can be understood to mean that they were not recorded by a physical sensor, but rather simulated or calculated artificially.

Die Heuristiken können Annahmen über das vorliegende zu lernende Problem darstellen. Beispielsweise kann für eine Klassifikation des MNIST Datensatzes die Heuristik simple schwarz/weiß Bilder mit einer oder einer Mehrzahl von zufällig verlaufenden Geraden erzeugen, wobei abhängig von den erzeugen Geraden eine Klassifikation der der künstlich erzeugen Bildern erfolgt, bspw. eine Klassifikation hinsichtlich einer Anzahl der abgebildeten Geraden. Eine andere Heuristik des Priors kann anstatt der Geraden gebogene Linien erzeugen und eine wiederum andere Heuristik des Priors kann eine Kombination aus beiden eben genannten Heuristiken sein. Das überraschende Ergebnis hierbei ist, dass das maschinelle Lernsystem nach einer Sichtung einer Mehrzahl von echten MNIST Bildern und deren Klassifikation in der Lage ist, die MNIST Bilder zu klassifizieren, obwohl das maschinelle Lernsystem auf diesen Bildern nicht angelernt wurde.The heuristics can represent assumptions about the problem at hand to be learned. For example, for a classification of the MNIST data set, the heuristic can generate simple black / white images with one or a plurality of randomly running straight lines, whereby the artificially generated images are classified as a function of the generated straight lines, for example a classification with regard to a number of the mapped ones Straight lines. Another heuristic of the prior can produce curved lines instead of straight lines, and yet another heuristic of the prior can be a combination of both of the aforementioned heuristics. The surprising result here is that after viewing a plurality of real MNIST images and classifying them, the machine learning system is able to classify the MNIST images, although the machine learning system has not been trained on these images.

Vorteilhaft hieran ist, dass das maschinelle Lernsystem ohne reale Trainingsdaten angelernt wird, da reale Trainingsdaten meist aufwändig zu erstellen sind.The advantage here is that the machine learning system is taught without real training data, since real training data are usually complex to create.

Ein zweiter Aspekt der Erfindung betrifft ein Verfahren zum Betreiben des maschinellen Lernsystems, welches z.B. nach dem ersten Aspekt angelernt wurde. Das Verfahren des zweiten Aspektes beginnt mit einem Bereitstellen von mindestens einem Paar einer Sensorgröße und zugeordneten Kenngröße und einer weiteren Sensorgröße deren Kenngröße vorhergesagt werden soll. Die Paare stellen Stichproben dar, die z.B. stichprobenartig beim Betreiben eines technischen Systems erfasst werden, insbesondere werden jeweils auch deren zugehörige Kenngrößen beim Betreiben des technischen Systems miterfasst. Vorzugsweise handelt es sich bei diesen Paaren um reale Sensorgrößen. Die zugehörigen Kenngrößen können ebenfalls real sein, oder manuell zu den Sensorgrößen hinzugefügt werden, im Folgenden auch als Label bezeichnet. Vorteilhaft hierbei ist, dass bereits ab einem Datenpaar eine Vorhersage getroffen werden kann.A second aspect of the invention relates to a method for operating the machine learning system, which was learned, for example, according to the first aspect. The method of the second aspect begins with the provision of at least one pair of a sensor variable and assigned characteristic variable and a further sensor variable whose characteristic variable is to be predicted. The pairs represent samples that are, for example, recorded on a random basis when operating a technical system; in particular, their associated parameters are also recorded when operating the technical system. These pairs are preferably real sensor variables. The associated parameters can also be real, or they can be added manually to the sensor variables, also referred to below as labels. The advantage here is that a prediction can be made from one data pair onwards.

Daraufhin folgt ein iteratives Verarbeiten der Mehrzahl der Paare durch das maschinelle Lernsystem. Unter einem iterativen Verarbeiten kann verstanden werden, dass die Eingangsgrößen und zugeordneten Ausgangsgrößen der Paare den Eingängen des maschinellen Lernsystems zugeführt werden, wobei je Iteration jeweils ein Paar verarbeitet und/oder eine Ausgangsgröße ausgegeben wird. Unter einem iterativen Verarbeiten kann aber auch verstanden werden, dass die Paare gleichzeitig dem maschinellen Lernsystem zugeführt werden und das maschinelle Lernsystem z.B. iterativ bzw. sequenziell eine Ausgangsgröße zu den einzelnen Paaren ausgibt. Es sei angemerkt, dass eine Reihenfolge des iterativen Verarbeitens der Paare nicht relevant ist, d.h. dass entweder das nachfolgende Paar oder ein beliebiges Paar je Verarbeitungsschritt verarbeitet werden kann.This is followed by iterative processing of the majority of the pairs by the machine learning system. Iterative processing can be understood to mean that the input variables and assigned output variables of the pairs are fed to the inputs of the machine learning system, with one pair being processed and / or one output variable being output for each iteration. However, iterative processing can also be understood to mean that the pairs are fed to the machine learning system at the same time and the machine learning system, for example, iteratively or sequentially outputs an output variable for the individual pairs. It should be noted that the order of the iterative processing of the pairs is not relevant, i.e. that either the following pair or any other pair can be processed per processing step.

Denkbar ist, dass das Verarbeiten der Datenpaare als eine Form eines Nachanlernens des maschinellen Lernsystems aufgefasst werden kann. Eine Besonderheit dieses Nachanlernens ist, dass die Parameter des maschinellen Lernsystems hier nicht mehr optimiert werden müssen. Denn Experimente haben überraschenderweise aufgezeigt, dass das maschinelle Lernsystem in der Lage ist, den korrekten Prior ,auszuwählen', um den Posteriori zu schätzen. Optional kann dennoch im Schritt des sog. Nachanlernens die Parameter optimiert werden, sodass die Ausgaben des maschinellen Lernsystems für die bereitgestellten Paar die Ausgangsgrößen der Paare entsprechen.It is conceivable that the processing of the data pairs can be understood as a form of re-learning the machine learning system. A special feature of this re-learning is that the parameters of the machine learning system no longer have to be optimized here. Because experiments have surprisingly shown that the machine learning system is able to 'select' the correct prior in order to estimate the posteriori. Optionally, however, the parameters can be optimized in the step of so-called post-learning, so that the outputs of the machine learning system for the pairs provided correspond to the output variables of the pairs.

Nach dem Nachtrainieren wird das Verarbeiten der einzelnen Eingangsgröße, deren Ausgangsgröße vorhergesagt werden soll, durch das maschinelle Lernsystem ausgeführt. Dieser Schritt kann auch als eine Inferenz bezeichnet werden. After retraining, the processing of the individual input variable, the output variable of which is to be predicted, is carried out by the machine learning system. This step can also be referred to as an inference.

Denkbar ist, dass der Schritt der Inferenz mehrmals wiederholt wird, z.B. mit dem gleichen oder mit unterschiedlichen Datenpunkten.It is conceivable that the inference step is repeated several times, e.g. with the same or with different data points.

Demnach werden die Paare iterativ durch das maschinelle Lernsystem verarbeitet und anschließend wird die letzte Eingangsgröße von dem maschinellen Lernsystem verarbeitet, wobei das maschinelle Lernsystem dann die Ausgangsgröße der letzten Eingangsgröße vorhersagt.Accordingly, the pairs are iteratively processed by the machine learning system and then the last input variable is processed by the machine learning system, the machine learning system then predicting the output variable of the last input variable.

Ein Vorteil des Verfahrens des zweiten Aspektes der Erfindung ist, dass durch das besondere Betreiben des angelernten maschinellen Lernsystems dieses in der Lage ist, bereits mit sehr wenigen Paaren von Eingangsgrößen die Ausgangsgröße zu ermitteln. Es ist damit besonders dateneffizient.One advantage of the method of the second aspect of the invention is that, due to the special operation of the learned machine learning system, it is able to do so with very few Pairs of input variables to determine the output variable. It is therefore particularly data efficient.

Vorzugsweise sind die Eingangsgrößen des ersten und zweiten Aspektes Sensorgrößen eines technischen Systeme und die zugeordneten oder ermittelten Ausgangsgrößen Kenngrößen des technischen Systems.The input variables of the first and second aspects are preferably sensor variables of a technical system and the assigned or determined output variables are parameters of the technical system.

Ferner sei angemerkt, dass das maschinelle Lernsystem des ersten und zweiten Aspektes eingerichtet ist, sodass es bei seiner Vorhersage der Ausgangsgröße eine Verteilung über eine vorgegebene Menge von Ausgangsgrößen ermittelt.It should also be noted that the machine learning system of the first and second aspects is set up so that, when it predicts the output variable, it determines a distribution over a predetermined set of output variables.

Für den ersten und zweiten Aspekt der Erfindung wird vorgeschlagen, dass das maschinelle Lernsystem ein Transfomer ist, wobei der Eingang des Transformers eingerichtet ist, eine Mehrzahl von Paaren aufzunehmen. Neuronale Netze als Transformer sind z.B. aus der Offenbarung bekannt: Ashish Vaswani et al: „Attention is all you need“. In Advances in Neural Information Processing Systems, volume 30. Curran Associates, Inc., 2017 . URL https://proceedings.neurips.cc/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf. Es sei angemerkt, dass im Allgemeinen jedes beliebige neuronale Netz für den ersten und zweiten Aspekt der Erfindung denkbar ist, welches ein zeitliches Gedächtnis aufweiset, bspw. rekurrente neuronale Netz. Jedoch hat sich herausgestellt, dass Transformer zu besonders guten Ergebnissen führen.For the first and second aspect of the invention it is proposed that the machine learning system is a transformer, the input of the transformer being set up to receive a plurality of pairs. Neural networks as transformers are known, for example, from the disclosure: Ashish Vaswani et al: "Attention is all you need". In Advances in Neural Information Processing Systems, volume 30. Curran Associates, Inc., 2017 . URL https://proceedings.neurips.cc/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf. It should be noted that in general any neural network is conceivable for the first and second aspect of the invention which has a temporal memory, for example a recurrent neural network. However, it has been found that transformers produce particularly good results.

Vorzugsweise ist eine Attention Maske (engl. Attention Mask.) des Transformers derart aufgebaut, dass eine Aufmerksamkeit von jedem Paar auf jedes andere Paar, sowie die Aufmerksamkeit von der letzten Sensorgröße, deren Kenngröße vorhergesagt werden soll, auf die vorhergehenden Paare gegeben ist. In anderen Worten, die „Attentions“ des Transformers werden so angepasst, dass die Darstellung jedes Eintrags im Datensatz von jedem anderen abhängen kann und die Darstellung des abgefragten Inputs von sich selbst und von den Darstellungen des Datensatzes abhängen kann.An attention mask of the transformer is preferably constructed in such a way that attention is given from each pair to every other pair, as well as attention from the last sensor variable, the characteristic variable of which is to be predicted, to the preceding pairs. In other words, the transformer's “attentions” are adjusted in such a way that the representation of each entry in the data set can depend on each other and the representation of the queried input can depend on itself and on the representations of the data set.

Um den Transformer invariant gegenüber der Reihenfolge der Paare zu machen, wird vorgeschlagen:

  • i) Beide Größen der Paare werden jeweils durch einen Encoder komprimiert, der vorzugsweise eine affine Projektion ausführt, wobei beide komprimierten Größen der Paare zusammenaddiert werden und die Summe durch den Transformer verarbeitet wird, und
  • ii) Vorzugweise werden keine „Positional Encodings“ verwendet.
To make the transformer invariant to the order of the pairs, it is suggested:
  • i) Both sizes of the pairs are each compressed by an encoder, which preferably carries out an affine projection, the two compressed sizes of the pairs being added together and the sum being processed by the transformer, and
  • ii) Preferably no “positional encodings” are used.

Weiterhin wird vorgeschlagen, dass die Ausgangsgrößen des maschinellen Lernsystems diskret sind und das maschinelle Lernsystem den möglichen Ausgangsgrößen Wahrscheinlichkeiten zuordnet, wobei eine kleinste und größte Ausgangsgröße eine entsprechend skalierte Hälfte einer Normalverteilung zugeordnet ist.It is also proposed that the output variables of the machine learning system are discrete and that the machine learning system assigns probabilities to the possible output variables, with a smallest and largest output variable being assigned to a correspondingly scaled half of a normal distribution.

Dies hat den Vorteil, dass eine mögliche Darstellung einer kontinuierlichen multimodalen Wahrscheinlichkeitsverteilung durch sog. ,bars' möglich ist, und durch die skalierte Normalverteilung an beiden Enden auch eine Wahrscheinlichkeit außerhalb der vorgegebenen Werte gegeben ist. Das verhindert ein Steigen einer Kostenfunktion (engl. loss) ins Unendliche, insbesondere für Regressionen in denen sehr große Werte auftreten. In anderen Worten, anhand diesem Vorgehen kann das maschinelle Lernsystem auch als Regressor verwendet werden.This has the advantage that a possible representation of a continuous multimodal probability distribution by so-called "bars" is possible, and the scaled normal distribution at both ends also gives a probability outside the specified values. This prevents a cost function (loss) from increasing to infinity, especially for regressions in which very large values occur. In other words, based on this approach, the machine learning system can also be used as a regressor.

Weiterhin wird vorgeschlagen, dass das angelernte maschinelle Lernsystem gemäß dem ersten Aspekt der Erfindung zur Klassifizierung von Sensorsignalen gemäß dem zweiten Aspekt verwendet wird. Die Ausgansgrößen des maschinellen Lernsystem charakterisieren dann eine Klassifizierung der Sensorgrößen. Vorzugweise sind die Sensorgrößen Bilder und die Ausgangsgrößen sind zumindest Klassifikationen der Bilder. Das maschinelle Lernsystem ist dann also ein Bildklassifikator. Der Bildklassifikator ordnet ein Eingabebild einer oder mehreren Klassen einer vorgegebenen Klassifikation zu. Als Eingabebilder können beispielsweise Bilder von in Serie gefertigten, nominell identischen Produkten verwendet werden. Der Bildklassifikator kann beispielsweise darauf trainiert sein, die Eingabebilder einer oder mehreren von mindestens zwei möglichen Klassen zuzuordnen, die eine Qualitätsbeurteilung des jeweiligen Produkts repräsentieren. Der Begriff des Bildes umfasst grundsätzlich jede in einem zwei- oder mehrdimensionalen Raster angeordnete Verteilung von Informationen. Diese Informationen können beispielsweise Intensitätswerte von Bildpixeln sein, die mit einer beliebigen Abbildungsmodalität, wie etwa mit einer optischen Kamera, mit einer Wärmebildkamera oder mit Ultraschall, aufgenommen wurden. Es können jedoch auch beliebige andere Daten, wie beispielsweise Audiodaten, Radardaten oder LIDAR-Daten, in Bilder übersetzt und dann gleichermaßen klassifiziert werden.It is further proposed that the learned machine learning system according to the first aspect of the invention is used to classify sensor signals according to the second aspect. The output variables of the machine learning system then characterize a classification of the sensor variables. The sensor variables are preferably images and the output variables are at least classifications of the images. The machine learning system is then an image classifier. The image classifier assigns an input image to one or more classes of a predetermined classification. For example, images of serially manufactured, nominally identical products can be used as input images. The image classifier can, for example, be trained to assign the input images to one or more of at least two possible classes that represent a quality assessment of the respective product. The concept of the image basically encompasses any distribution of information arranged in a two- or multi-dimensional grid. This information can be, for example, intensity values of image pixels that were recorded with any desired imaging modality, such as with an optical camera, with a thermal imaging camera or with ultrasound. However, any other data, such as audio data, radar data or LIDAR data, can also be translated into images and then classified in the same way.

Denkbar ist aber auch, dass die Sensorgrößen und vorzugsweise auch die Ausgangsgrößen Messungen sind, insbesondere eines metallischen Bauteils bei einer Wärmebehandlung. D.h. die Sensorgrößen können auch erfasste Systemzustände eines technischen Systems sein, die z.B. mittels eines Sensors erfasst wurden. Und die Ausgansgrößen sind bspw. Kenngrößen und/oder Folgezustände des technischen Systems, elektrischen oder mechanischem Bauteil. Beispielsweise sind die Ausgangsgrößen Werte einer Kennlinie oder eines Kennfeldes.It is also conceivable, however, that the sensor variables and preferably also the output variables are measurements, in particular of a metallic component during a heat treatment. That is to say, the sensor variables can also be recorded system states of a technical system that were recorded, for example, by means of a sensor. And the output variables are, for example, parameters and / or subsequent states of the technical system, electrical or mechanical component. For example, the output variables are values of a characteristic curve or a characteristic diagram.

Weiterhin wird vorgeschlagen, dass das maschinelle Lernsystem, welches gemäß dem zweiten Aspekt betrieben wurde, abhängig von einer erfassten Sensorgröße eines Sensors eine Ausgangsgröße ermittelt, abhängig von welcher daraufhin eine Steuergröße mittels z.B. einer Steuereinheit ermittelt wird.It is further proposed that the machine learning system, which was operated according to the second aspect, determines an output variable as a function of a detected sensor variable of a sensor, depending on which a control variable is then determined by means of, for example, a control unit.

Die Steuergröße kann zum Steuern eines Aktors eines technischen Systems verwendet werden. Das technische System kann zum Beispiel eine zumindest teilautonome Maschine, ein zumindest teilautonomes Fahrzeug, ein Roboter, ein Werkzeug, eine Werkmaschine oder ein Flugobjekt wie eine Drohne sein. Die Eingangsgröße kann bspw. abhängig von erfassten Sensordaten ermittelt und dem maschinellen Lernsystem bereitgestellt werden. Die Sensordaten können von einem Sensor, wie z.B. einer Kamera, des technischen Systems erfasst oder alternativ von extern empfangen werden.The control variable can be used to control an actuator of a technical system. The technical system can be, for example, an at least partially autonomous machine, an at least partially autonomous vehicle, a robot, a tool, a work machine or a flying object such as a drone. The input variable can, for example, be determined as a function of the recorded sensor data and made available to the machine learning system. The sensor data can be recorded by a sensor, such as a camera, of the technical system or, alternatively, can be received externally.

In weiteren Aspekten betrifft die Erfindung eine Vorrichtung sowie ein Computerprogramm, die jeweils eingerichtet sind, die obigen Verfahren auszuführen und ein maschinenlesbares Speichermedium, auf dem dieses Computerprogramm gespeichert ist.In further aspects, the invention relates to a device and a computer program, each of which is set up to carry out the above methods, and a machine-readable storage medium on which this computer program is stored.

Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. In den Zeichnungen zeigen:

  • 1 schematisch ein Flussdiagramm einer Ausführungsform der Erfindung;
  • 2 schematisch ein Mehrzahl von Funktionen und Stichproben einer der Funktionen sowie exemplarische Darstellungen von Ausgaben eines maschinellen Lernsystems;
  • 3 schematisch ein Ausführungsbeispiel zur Steuerung eines wenigstens teilautonomen Roboters;
  • 4 schematisch ein Ausführungsbeispiel zur Steuerung eines Fertigungssystems;
  • 5 schematisch ein Ausführungsbeispiel zur Steuerung eines Zugangssystems;
  • 6 schematisch ein Ausführungsbeispiel zur Steuerung eines Überwachungssystems;
  • 7 schematisch ein Ausführungsbeispiel zur Steuerung eines persönlichen Assistenten;
  • 8 schematisch ein Ausführungsbeispiel zur Steuerung eines medizinisch bildgebenden Systems;
  • 9 schematisch eine Trainingsvorrichtung.
Embodiments of the invention are explained in more detail below with reference to the accompanying drawings. In the drawings show:
  • 1 schematically, a flow diagram of an embodiment of the invention;
  • 2 schematically a plurality of functions and samples of one of the functions as well as exemplary representations of outputs of a machine learning system;
  • 3 schematically an embodiment for controlling an at least partially autonomous robot;
  • 4th schematically an embodiment for controlling a manufacturing system;
  • 5 schematically an embodiment for controlling an access system;
  • 6th schematically an embodiment for controlling a monitoring system;
  • 7th schematically an embodiment for controlling a personal assistant;
  • 8th schematically an embodiment for controlling a medical imaging system;
  • 9 schematically a training device.

Beschreibung der AusführungsbeispieleDescription of the exemplary embodiments

1 zeigt ein Flussdiagramm eines Verfahrens zum Anlernen eines maschinellen Lernsystems, sodass das angelernte maschinelle Lernsystem zum „fewshot Learning“ weiterverwendet werden kann. Der Begriff „few-shot Learning“ bezieht sich auf ein Lernparadigma, bei welchem nur eine sehr kleine Menge von Trainingsdaten vorhanden ist, was im Gegensatz zu den üblich verwendeten, großen Datenmengen für z.B. Deep Learning steht. Ferner zeigt 1 optional nachgelagerte Schritte zum Betreiben des angelernten maschinellen Lernsystems zum „few-shot Learning“. 1 shows a flowchart of a method for teaching a machine learning system so that the machine learning system that has been taught can be used for “fewshot learning”. The term “few-shot learning” refers to a learning paradigm in which only a very small amount of training data is available, which is in contrast to the large amounts of data commonly used for deep learning, for example. Also shows 1 optional downstream steps to operate the learned machine learning system for “few-shot learning”.

Das Verfahren beginnt mit Schritt S11, einem Bereitstellen des maschinellen Lernsystems und eines Priors p(ƒ), welcher eine Wahrscheinlichkeitsverteilung einer Mehrzahl von Funktionen / beschreibt, wobei die Funktionen / ausgeben, welche Ausgangsgröße den Eingangsgrößen jeweils zugeordnet sind. Die Funktionen können Heuristiken implementieren, die eine wahrscheinliche Aussage über die Eingangsgrößen ausgeben.The procedure begins with step S11 , providing the machine learning system and a prior p (ƒ), which describes a probability distribution of a plurality of functions /, the functions / outputting which output variable is assigned to the input variables. The functions can implement heuristics that output a probable statement about the input variables.

Das maschinelle Lernsystem ist geeignet, abhängig von einer Eingangsgröße und einer der Eingangsgröße zugeordneten Ausgangsgröße am Eingang/Eingängen aufzunehmen und zu einer Ausgangsgröße des maschinellen Lernsystems zu verarbeiten. Vorzugsweise gibt das maschinelle Lernsystem eine Wahrscheinlichkeitsverteilung über die möglichen Ausgangsgrößen aus. Dies ist beispielhaft in 2 mittels der Darstellungen 200-202 exemplarisch dargestellt.The machine learning system is suitable for receiving input / inputs as a function of an input variable and an output variable assigned to the input variable and processing it into an output variable of the machine learning system. The machine learning system preferably outputs a probability distribution over the possible output variables. This is exemplified in 2 by means of the representations 200-202 shown as an example.

In einer bevorzugten Ausführungsform des Verfahrens nach 1 ist das maschinelle Lernsystem durch einen Transformer gegeben. Bekannterweise unterscheiden sich Transformer gegenüber (tiefen) neuronalen Netzen dadurch, dass Transfomer zumindest eine zusätzliche Schicht aufweisen, die eine „sef-attention“ beim Propagieren der Informationen durch den Transformer durchführen.In a preferred embodiment of the method according to 1 the machine learning system is given by a transformer. It is known that transformers differ from (deep) neural networks in that transformers have at least one additional layer that perform “sef-attention” when the information is propagated through the transformer.

Eine Attention Maske des Transformers beschreibt welche Inputs zueinander berücksichtigt werden. Vorzugweise ist die Attention Maske derart aufgebaut, dass die Aufmerksamkeit aller verarbeiteten Paare zueinander und eine Aufmerksamkeit der letzten Sensorgröße zu allen verarbeiteten Paare zueinander charakterisiert. Die Attention Maske Mm,n kann beispielhaft für m Paare von Eingangs-/ und Ausgangsgröße des Transformers und n Abfragepunkte für z.B. das ,few-shot Learning' gegeben sein, hier m,n = 4,2: M 4,2 = [ 1 1 1 1 0 0 1 1 1 1 0 0 1 1 1 1 0 0 1 1 1 1 0 0 1 1 1 1 1 0 1 1 1 1 0 1 ]

Figure DE202021105192U1_0003
An attention mask of the transformer describes which inputs are taken into account in relation to each other. The attention mask is preferably constructed in such a way that the attention of all processed pairs to one another and an attention of the last sensor variable to all processed pairs to one another characterizes. The attention mask M m, n can be given, for example, for m pairs of input and output variables of the transformer and n query points for e.g. 'few-shot learning', here m, n = 4.2: M. 4.2 = [ 1 1 1 1 0 0 1 1 1 1 0 0 1 1 1 1 0 0 1 1 1 1 0 0 1 1 1 1 1 0 1 1 1 1 0 1 ]
Figure DE202021105192U1_0003

Die Vorhersage des Transformers kann nach dem letzten Verarbeitungsschritt des Transformers ausgegeben werden. Vorzugweise wird während dem Training eine Gesamtgröße M = m + n und eine Stichprobenmenge m festgelegt, so dass der Transformer in der Lage ist, mit verschiedenen großen Datensätzen arbeiten zu können. Da für kleinere Datensätze m mehr Abfragepunkte (engl. querry points) vorliegen, kann bei größeren Datensätzen eine häufigeres Ziehen (engl. over-sample) durchgeführt werden. Das heißt, jeder m e {0, ... M - 1} wird abhängig von einem Gewicht 1 n = 1 M m

Figure DE202021105192U1_0004
gezogen.The forecast of the transformer can be output after the last processing step of the transformer. A total size M = m + n and a sample set m are preferably established during the training so that the transformer is able to work with different large data sets. Since there are more query points (querry points) for smaller data sets, more frequent pulling (over-sample) can be carried out for larger data sets. That means, every me {0, ... M - 1} becomes dependent on a weight 1 n = 1 M. - m
Figure DE202021105192U1_0004
drawn.

Nach Schritt S11 folgt ein mehrfaches Wiederhohlen der nachfolgenden Schritte S12 bis S14:

  • In Schritt S12 wird ein zufälliges Auswählen einer der Funktionen / aus dem Prior p(ƒ) durchgeführt.
After step S11 the following steps are repeated several times S12 until S14 :
  • In step S12 a random selection of one of the functions / from the prior p (ƒ) is carried out.

Nach Schritt S12 folgt Schritt S13. Hierin wird ein Erzeugen von Trainingsdaten D abhängig von der Funktion / aus Schritt S12 ausgeführt. Dies wird beispielsweise dadurch ausgeführt, dass einer Mehrzahl von zufällig erzeugten Eingangsgrößen x mittels der Funktion / aus Schritt S12 jeweils den Eingangsgrößen eine Ausgangsgröße y zugeordnet wird. Dies ist beispielhaft in 2 durch den Plot 20 veranschaulicht, in welchem die Funktionen 21a,21b den x-Werten ein y-Wert zuordnen.After step S12 follow step S13 . This is where training data D is generated depending on the function / from step S12 executed. This is carried out, for example, in that a plurality of randomly generated input variables x by means of the function / from step S12 an output variable y is assigned to each of the input variables. This is exemplified in 2 through the plot 20th illustrates in which the functions 21a , 21b assign a y-value to the x-values.

Nach dem Erzeugen der Trainingsdaten D nach Schritt S13 wird Schritt S14 ausgeführt. Hierin wird das maschinelle Lernsystem anhand der Trainingsdaten D angelernt. Die Trainingsdaten werden durch das maschinelle Lernsystem propagiert, wobei abhängig von den ermittelten Ausgangsgrößen durch das maschinelle Lernsystem und den Ausgangsgrößen der Trainingsdaten D eine Kostenfunktion ermittelt wird, die anschließend durch ein Gradientenabstiegsverfahren hinsichtlich der Parameter des maschinellen Lernsystems optimiert wird. Die Kostenfunktion kann eine cross-entropy zwischen den Ausgangsgrößen der Trainingsdaten D und den ermittelten Ausgangsgrößen durch das maschinelle Lernsystem sein. Vorzugsweise wird die Kostenfunktion für ein Batch von Trainingsdaten D ermittelt, wobei der Schritt S14 für eine Vielzahl von Batches ausgeführt wird.After generating the training data D after step S13 will step S14 executed. The machine learning system is taught in here on the basis of the training data D. The training data are propagated by the machine learning system, a cost function being determined depending on the output variables determined by the machine learning system and the output variables of the training data D, which is then optimized by a gradient descent method with regard to the parameters of the machine learning system. The cost function can be a cross-entropy between the output variables of the training data D and the output variables determined by the machine learning system. The cost function is preferably determined for a batch of training data D, with the step S14 running for a variety of batches.

Wenn Schritt S14 beendet wurde, kann eine Wiederholung der Schritte S12 bis S14 erneut ausgeführt werden oder das Verfahren zum Anlernen des maschinellen Lernsystems wird beendet, wenn ein Abbruchkriterium erfüllt wurde.When step S14 finished, the steps can be repeated S12 until S14 be carried out again or the method for teaching the machine learning system is ended if a termination criterion has been met.

Optional kann nach Beendigung des Schrittes S14 das angelernte maschinelle Lernsystem gemäß den nachfolgend erläuterten Schritte betrieben werden. Hierzu wird in Schritt S15 eine Mehrzahl von Paaren von Eingangsgrößen und zugeordneten Ausgangsgrößen und eine letzte Eingangsgröße deren Ausgangsgröße vorhergesagt werden soll, bereitgestellt.Optionally, after completion of the step S14 the learned machine learning system can be operated in accordance with the steps explained below. This is done in step S15 a plurality of pairs of input variables and assigned output variables and a last input variable whose output variable is to be predicted is provided.

Daraufhin wird im nachfolgenden Schritt S16 iterativ die Paare aus Schritt S15 durch das maschinelle Lernsystem verarbeitet. D.h. die Paare werden den Eingängen des maschinellen Lernsystems zugeführt und durch dieses propagiert. Es sei angemerkt, dass die hierauf ermittelten Ausgansgrößen des maschinellen Lernsystems nicht relevant sind und verworfen werden können.Then the next step S16 iteratively the pairs from step S15 processed by the machine learning system. In other words, the pairs are fed to the inputs of the machine learning system and propagated through it. It should be noted that the output variables of the machine learning system determined on this basis are not relevant and can be discarded.

Daraufhin wird in Schritt S17 die letzte Eingangsgröße, die keine zugeordnete Ausgangsgröße aufweist, einem der Eingänge, insbesondere demjenigen Eingang, dessen Dimensionalität mit der letzten Eingangsgröße kompatibel ist, zugeführt. Das maschinelle Lernsystem gibt daraufhin eine Vorhersage einer möglichen zugeordneten Ausgansgröße aus. Ein Darstellung 200-202 der Vorhersage ist in 2 beispielhaft abgebildet.Then step S17 the last input variable, which does not have an assigned output variable, is fed to one of the inputs, in particular to that input whose dimensionality is compatible with the last input variable. The machine learning system then outputs a prediction of a possible assigned output variable. A representation 200-202 the prediction is in 2 shown as an example.

Nachdem Schritt S17 beendet wurde, ist das Verfahren zum Betreiben beendet. Wenn neue Paare bereitgestellt werden, können die Schritte S15 bis S17 erneut ausgeführt werden. Wenn eine weitere Eingangsgröße, die keine zugeordnete Ausgangsgröße aufweist, bereitgestellt wird, kann auch nur Schritt S17 ausgeführt werden.After step S17 has ended, the procedure for operating is ended. As new pairs are deployed, the steps can S15 until S17 to be run again. If a further input variable, which does not have an assigned output variable, is provided, only step can also be used S17 are executed.

2 zeigt schematisch eine Darstellung 200-202 einer Vorhersage des maschinellen Lernsystems sowie einen Plot 20 einer Mehrzahl von Funktionen 21b sowie einer hervorgehobenen Funktion 21a. Die Funktionen 21a,21b werden durch den Prior p beschrieben. 2 shows schematically a representation 200-202 a prediction of the machine learning system and a plot 20th a variety of functions 21b as well as a highlighted function 21a . The functions 21a , 21b are described by the prior p.

Die erste Darstellung 200 einer Vorhersage ypred des maschinellen Lernsystems zeigt beispielhaft, dass das maschinelle Lernsystem den Eingangsgrößen Werte zwischen -3 und 3 zuordnet, wobei der Wertebereich von -3 bis 3 in Intervalle aufgeteilt ist und den einzelnen Intervallen jeweils eine Wahrscheinlichkeit (prob.) zugeordnet wird. Die erste Darstellung 200 ist dadurch gekennzeichnet, dass die Intervalle im Wesentlichen gleich groß sind. Praktischerweise kann das maschinelle Lernsystem für diese Darstellung 200 einen Vektor ausgeben, dessen Einträge jeweils einem Intervall zugeordnet sind und die Einträge die Wahrscheinlichkeiten (prob.) sind.The first representation 200 a prediction y pred of the machine learning system shows, for example, that the machine learning system assigns values between -3 and 3 to the input variables, the value range from -3 to 3 being divided into intervals and each interval being assigned a probability (prob.). The first representation 200 is characterized in that the intervals are essentially the same. Conveniently, the machine learning system for this representation 200 output a vector whose Entries are each assigned to an interval and the entries are the probabilities (prob.).

Die zweite Darstellung 201 unterscheidet sich gegenüber der ersten Darstellung 201 dadurch, dass die einzelnen Intervalle zueinander unterschiedlich breit sind.The second representation 201 differs from the first illustration 201 in that the individual intervals are of different widths from one another.

Die dritte Darstellung 202 unterscheidet sich gegenüber der ersten und zweiten Darstellung 202 im Wesentlichen darin, dass die beiden äußersten Intervalle, die die beiden Enden des Wertebereichs abdecken, durch skalierte, halbierte Normalverteilungen ersetzt wurden.The third representation 202 differs from the first and second representation 202 essentially that the two outermost intervals, which cover the two ends of the value range, have been replaced by scaled, halved normal distributions.

Plot 20 zeigt schematisch den Betrieb des maschinellen Lernsystems gemäß 1. Stichproben 22 werden von der der hervorgehobenen Funktion 21a ermittelt, wobei die Stichproben 22 jeweils durch einen x und y Wert definiert sind. Diese Stichproben werden dann gemäß Schritt S16 durch das maschinelle Lernsystem verarbeitet. Anhand der Stichproben 23, die nur einen xq Wert aufweist, soll der zugehörige y Wert vorhergesagt werden. Hierzu wird die Stichprobe 23 gemäß Schritt S17 durch das maschinelle Lernsystem verarbeitet, wobei das maschinelle Lernsystem dann den zugehörigen y Wert ausgibt, bzw. gemäß einer der Darstellungen 200-202.plot 20th schematically shows the operation of the machine learning system according to FIG 1 . Spot checks 22nd are different from that of the highlighted function 21a determined, taking the samples 22nd are each defined by an x and y value. These samples are then taken according to step S16 processed by the machine learning system. Based on the samples 23 which has only one x q value, the corresponding y value is to be predicted. For this purpose, the sample 23 according to step S17 processed by the machine learning system, the machine learning system then outputting the associated y value, or according to one of the representations 200-202 .

In einer bevorzugten Ausführungsform der Erfindung wird das Verfahren nach 1 für einen Wärmebehandlungsprozess zum Härten von metallischen Materialien angewendet. Beispielsweise werden bei der induktiven Wärmebehandlung mithilfe eines Induktors ein Wechsel-Magnetfeld erzeugt. Das Wechsel-Magnetfeld induziert im zu härtenden Werkstück Wirbelströme, die lokal zu einer Erhöhung der Temperatur im Werkstück führen. Der Induktionshärteprozess ermöglicht eine Anpassung von Bauteileigenschaften, wie beispielsweise der Härtetiefe, SHD und dergleichen. Zum einen führen Streuungen der Legierungszusammensetzung und unterschiedliche Gefügeausprägungen des Ausgangswerkstoffes von Werkstücken aufgrund der resultierenden Verteilung des lokalen elektrischen Widerstandes zu Schwankungen und Variationen der Prozesstemperaturen und dadurch zu teils erheblichen Streuungen der finalen Bauteileigenschaften. Zum anderen ist bei einer Änderung des Werkstoffs, der Bauteilgeometrie und/oder der bearbeitenden Werkzeuge eine umfangreiche Neuparametrierung des Wärmebehandlungsprozesses notwendig.In a preferred embodiment of the invention, the method is according to 1 used for a heat treatment process for hardening metallic materials. For example, in inductive heat treatment, an alternating magnetic field is generated with the aid of an inductor. The alternating magnetic field induces eddy currents in the workpiece to be hardened, which locally lead to an increase in the temperature in the workpiece. The induction hardening process enables component properties, such as the hardening depth, SHD and the like, to be adjusted. On the one hand, variations in the alloy composition and different structural characteristics of the starting material of workpieces due to the resulting distribution of the local electrical resistance lead to fluctuations and variations in the process temperatures and thus to sometimes considerable variations in the final component properties. On the other hand, if the material, the component geometry and / or the processing tools are changed, extensive re-parameterization of the heat treatment process is necessary.

Zur Parametrierung eines Wärmebehandlungsprozesses werden für jede Bauteilgeometrie und Werkstoff umfangreiche Eingangstests durchgeführt, um ein stabiles Prozessfenster für die Prozessparameter des Wärmebehandlungsprozesses zu bestimmen. Erfahrungen aus früheren Vermessungen anderer Werkstückgeometrien und Werkstoffe können dabei nur teilweise berücksichtigt werden. Dies erhöht den zeitlichen Aufwand für die Parametrierung des Wärmebehandlungsprozesses für einen Bauteiltyp, da eine einzelne Vermessung eines Werkstücks sehr aufwendig ist. Es ist bekannt, dass zum Bestimmen von Prozessparametern für einen Wärmebehandlungsprozess eines Bauteils, insbesondere zum Härten des Bauteils, die Prozessparameter mithilfe eines Bayes'schen Optimierungsverfahrens ermittelt werden.To parameterize a heat treatment process, extensive input tests are carried out for each component geometry and material in order to determine a stable process window for the process parameters of the heat treatment process. Experience from previous measurements of other workpiece geometries and materials can only be partially taken into account. This increases the time required to parameterize the heat treatment process for a component type, since a single measurement of a workpiece is very complex. It is known that, in order to determine process parameters for a heat treatment process of a component, in particular for hardening the component, the process parameters are determined with the aid of a Bayesian optimization method.

Es wird nun vorgeschlagen, dass anstatt einem Gaußprozessmodell für die Bayes'sche Optimierung zur Vorhersage der Güte der behandelten Bauteile das angelernte maschinelle Lernsystem gemäß 1 verwendet wird. Zum Anlernen des maschinellen Lernsystems kann ein Prior verwendet werden, der in Form von physikalischen Heuristiken die Eingangsgrößen auf Qualitätsmaße abbilden. So kann der Prior eine Qualität eines Bauteils hinsichtlich einer oder mehrerer Bauteileigenschaften und/oder Prozesseigenschaften angeben.It is now proposed that instead of a Gaussian process model for Bayesian optimization for predicting the quality of the treated components, the learned machine learning system should be used 1 is used. A prior can be used to train the machine learning system, which maps the input variables to quality measures in the form of physical heuristics. The prior can thus specify a quality of a component in terms of one or more component properties and / or process properties.

Nach einem Vermessen von Bauteilen, die entsprechend Test-Prozessparameter einem Wärmebehandlungsprozess unterzogen werden, hinsichtlich der einen oder den mehreren Bauteileigenschaften, muss nun nicht ein Optimieren des Gaußprozessmodell durchgeführt werden, denn gemäß den Schritten S15 bis S17 nach 1 ist es ausreichend, wenn die Messungen durch das angelernte maschinelle Lernsystem propagiert werden.After measuring components that are subjected to a heat treatment process in accordance with test process parameters with regard to the one or more component properties, the Gaussian process model does not have to be optimized, because according to the steps S15 until S17 after 1 it is sufficient if the measurements are propagated by the learned machine learning system.

Gemäß der Bayes'schen Optimierung wird eine Akquisitionsfunktion erstellt, um jeweils einen nächsten Test-Prozessparametersatz zur Vermessung der einen oder der mehreren Bauteileigenschaften eines entsprechend hergestellten Bauteils zu erhalten. Eine Ausgabe der Akquisitionsfunktion kann dann nach Schritt S17 durch das maschinelle Lernsystem verarbeitet werden, um vorhersagen, ob die ausgewählten der Prozessparameter zu einer verbesserten Qualität führen. Die Akquisitionsfunktion wird hierbei anhand des maschinellen Lernsystem implementiert. Die Akquisitionsfunktion kann hier frei ausgewählt werden. Im speziellen sei jedoch zu erläutern, dass die sehr beliebte Akquisitionsfunktion Erwartete Verbesserung sehr einfach zu implementieren ist mit Hilfe der Bar Distribution, wie in 2 dargestellt, und sich letztlich zu einer einfach Summe über die Bars vereinfacht.According to Bayesian optimization, an acquisition function is created in order to obtain a next test process parameter set for measuring the one or more component properties of a correspondingly manufactured component. The acquisition function can then be output after step S17 processed by the machine learning system in order to predict whether the selected one of the process parameters lead to an improved quality. The acquisition function is implemented using the machine learning system. The acquisition function can be freely selected here. In particular, however, it should be explained that the very popular acquisition function Expected Improvement is very easy to implement with the help of the bar distribution, as in 2 and ultimately simplified to a simple sum across the bars.

Ein Wärmebehandlungsprozess sieht in der Regel eine Wärmebehandlung eines Werkstücks über eine Gesamtzeitdauer vor, wobei der Temperaturverlauf während der Gesamtzeitdauer einer vorgegebenen Trajektorie folgt. Die Temperaturtrajektorie ist so gewählt, dass bestimmte Bauteileigenschaften erreicht werden sollen. Die Parametrierung der Prozessparameter zum Einstellen der Temperaturtrajektorie erfolgt gemäß einem Ergebnis eines Bayes'schen Optimierungsverfahrens, das auf einer trainierbaren Qualitätsfunktion in Form eines Gauß-Prozesses basiert. Die Qualitätsfunktion bildet die Prozessparameter des Wärmebehandlungsprozesses auf ein relevantes Qualitätsmaß, das Bauteilparameter wie z.B. die Gefügezusammensetzung und/oder Prozesseigenschaften (wie z.B. die Prozessdauer) des Herstellungsprozesses kennzeichnet, ab. Zusätzlich können Anforderungen an das Prozessergebnis, wie beispielsweise eine Mindesthärte des zu härtenden Bauteils, als Nebenbedingung berücksichtigt werden. Diese Nebenbedingungen werden jeweils mit weiteren Gauß-Prozess-Modellen in dem Optimierungsverfahren berücksichtigt.A heat treatment process generally provides for a heat treatment of a workpiece over a total period of time, the temperature profile following a predetermined trajectory during the entire period of time. The temperature trajectory is chosen so that certain component properties are to be achieved. The parameterization the process parameter for setting the temperature trajectory takes place according to a result of a Bayesian optimization method, which is based on a trainable quality function in the form of a Gaussian process. The quality function maps the process parameters of the heat treatment process to a relevant quality measure, which characterizes component parameters such as the structural composition and / or process properties (such as the process duration) of the manufacturing process. In addition, requirements for the process result, such as a minimum hardness of the component to be hardened, can be taken into account as secondary conditions. These secondary conditions are taken into account in the optimization process with further Gaussian process models.

Weiterhin kann der Wärmebehandlungsprozess in mehrere zeitlich aufeinanderfolgende Bearbeitungsphasen unterteilt sein, wobei die Prozessparameter einen oder mehrere der folgenden Parameter angeben:

  • - eine Zeitdauer für eine Bearbeitungsphase;
  • - einen Zeitpunkt des Wechselns zwischen Bearbeitungsphasen;
  • - eine Bearbeitungstemperatur in einer Bearbeitungsphase; und
  • - eine Leistungszufuhr zum Erwärmen des Bauteils in einer Bearbeitungsphase.
Furthermore, the heat treatment process can be divided into several successive processing phases, the process parameters specifying one or more of the following parameters:
  • - a period of time for a processing phase;
  • - a point in time of switching between processing phases;
  • a machining temperature in a machining phase; and
  • - A power supply for heating the component in a processing phase.

In einer bevorzugten Ausführungsform der Erfindung wird das Verfahren nach 1 für eine Hyperparameteroptimierung beim Anlernen eines weiteren maschinellen Lernsystems verwendet. Hierbei können die Eingangsgrößen die Hyperparameter wie z.B. eine Lernrate o.ä. sein, für welche dann eine Performance des Weiteren maschinellen Lernsystems mit diesen Hyperparametern vorhergesagt wird.In a preferred embodiment of the invention, the method is according to 1 used for a hyperparameter optimization when teaching another machine learning system. Here, the input variables can be the hyperparameters such as a learning rate or the like, for which a performance of the additional machine learning system is then predicted with these hyperparameters.

In einer weiteren Ausführungsform des Verfahrens nach 1 wird das maschinelle Lernsystem für ein Aktor-Steuerungssystem verwendet.In a further embodiment of the method according to 1 the machine learning system is used for an actuator control system.

3 zeigt schematisch einen Aktor mit einem Steuerungssystem 40. In vorzugsweise regelmäßigen zeitlichen Abständen wird eine Umgebung 20 des Aktors 10 mit einem Sensor 30, insbesondere einem bildgebenden Sensor wie einem Videosensor, erfasst, der auch durch eine Mehrzahl von Sensoren gegeben sein kann, beispielsweise eine Stereokamera. Auch andere bildgebende Sensoren sind denkbar, wie beispielsweise Radar, Ultraschall oder Lidar. Auch eine Wärmebildkamera ist denkbar. Das Sensorsignal S - bzw. im Fall mehrerer Sensoren je ein Sensorsignal S - des Sensors 30 wird an das Steuerungssystem 40 übermittelt. Das Steuerungssystem 40 empfängt somit eine Folge von Sensorsignalen S. Das Steuerungssystem 40 ermittelt hieraus Ansteuersignale A, welche an einen Aktuator 10 übertragen werden. Der Aktuator 10 kann empfangene Steuerbefehle in mechanische Bewegungen oder Änderungen von physikalischen Größen umsetzt. Der Aktuator 10 kann z. B. den Steuerbefehl A in eine elektrische, hydraulische, pneumatische, thermische, magnetische und/oder mechanische Bewegung umsetzen oder Veränderung hervorrufen. Spezifische, aber nicht einschränkende Beispiele sind Elektromotoren, elektroaktive Polymere, Hydraulikzylinder, piezoelektrische Aktoren, pneumatische Aktoren, Servomechanismen, Solenoide, Schrittmotoren usw. 3 shows schematically an actuator with a control system 40 . An environment is created at preferably regular time intervals 20th of the actuator 10 with a sensor 30th , in particular an imaging sensor such as a video sensor, which can also be provided by a plurality of sensors, for example a stereo camera. Other imaging sensors are also conceivable, such as, for example, radar, ultrasound or lidar. A thermal imaging camera is also conceivable. The sensor signal S - or, in the case of several sensors, one sensor signal S - of the sensor 30th is attached to the control system 40 transmitted. The control system 40 thus receives a sequence of sensor signals S. The control system 40 determines control signals A from this, which are sent to an actuator 10 be transmitted. The actuator 10 can convert received control commands into mechanical movements or changes in physical quantities. The actuator 10 can e.g. B. convert the control command A into an electrical, hydraulic, pneumatic, thermal, magnetic and / or mechanical movement or cause a change. Specific but non-limiting examples are electric motors, electroactive polymers, hydraulic cylinders, piezoelectric actuators, pneumatic actuators, servomechanisms, solenoids, stepper motors, etc.

Das Steuerungssystem 40 empfängt die Folge von Sensorsignalen S des Sensors 30 in einer optionalen Empfangseinheit 50, die die Folge von Sensorsignalen S in eine Folge von Eingangsbildern x umwandelt (alternativ kann auch unmittelbar je das Sensorsignal S als Eingangsbild x übernommen werden). Das Eingangsbild x kann beispielsweise ein Ausschnitt oder eine Weiterverarbeitung des Sensorsignals S sein. Das Eingangsbild x umfasst einzelne Frames einer Videoaufzeichnung. Mit anderen Worten wird Eingangsbild x abhängig von Sensorsignal S ermittelt. Die Folge von Eingangsbildern x wird demnach 1 angelernten maschinellen Lernsystem 60, zugeführt.The control system 40 receives the sequence of sensor signals S from the sensor 30th in an optional receiving unit 50 , which converts the sequence of sensor signals S into a sequence of input images x (alternatively, the sensor signal S can also be directly adopted as the input image x). The input image x can be a section or further processing of the sensor signal S, for example. The input image x comprises individual frames of a video recording. In other words, the input image x is determined as a function of the sensor signal S. The sequence of input images is therefore x 1 learned machine learning system 60 , fed.

Gemäß den Schritten S15-S17 ermittelt das maschinelle Lernsystem 60 aus den Eingangsbildern x eine Ausgangsgröße y. Diese Ausgangsgrößen y können insbesondere eine Klassifikation und/oder semantische Segmentierung der Eingangsbilder x umfassen. Ausgangsgrößen y werden einer optionalen Umformeinheit 80 zugeführt, die hieraus Ansteuersignale A ermittelt, welche dem Aktuator 10 zugeführt werden, um den Aktuator 10 entsprechend anzusteuern. Ausgangsgröße y umfasst Informationen über Objekte, die der Sensor 30 erfasst hat.According to the steps S15-S17 determines the machine learning system 60 an output variable y from the input images x. These output variables y can in particular include a classification and / or semantic segmentation of the input images x. Output variables y are an optional forming unit 80 supplied, which determines from this control signals A, which the actuator 10 be fed to the actuator 10 to be controlled accordingly. Output variable y includes information about objects that the sensor 30th has captured.

Der Aktuator 10 empfängt die Ansteuersignale A, wird entsprechend angesteuert und führt eine entsprechende Aktion aus. Der Aktuator 10 kann hierbei eine (nicht notwendigerweise baulich integrierte) Ansteuerlogik umfassen, welches aus dem Ansteuersignal A ein zweites Ansteuersignal ermittelt, mit dem dann der Aktuator 10 angesteuert wird.The actuator 10 receives the control signals A, is controlled accordingly and carries out a corresponding action. The actuator 10 can in this case comprise a control logic (not necessarily structurally integrated) which determines a second control signal from the control signal A, with which the actuator is then 10 is controlled.

In weiteren Ausführungsformen umfasst das Steuerungssystem 40 den Sensor 30. In noch weiteren Ausführungsformen umfasst das Steuerungssystem 40 alternativ oder zusätzlich auch den Aktuator 10.In further embodiments, the control system comprises 40 the sensor 30th . In still further embodiments, the control system comprises 40 alternatively or additionally also the actuator 10 .

In weiteren bevorzugten Ausführungsformen umfasst das Steuerungssystem 40 eine Ein- oder Mehrzahl von Prozessoren 45 und wenigstens ein maschinenlesbares Speichermedium 46, auf dem Anweisungen gespeichert sind, die dann, wenn sie auf den Prozessoren 45 ausgeführt werden, das Steuerungssystem 40 veranlassen, das erfindungsgemäße Verfahren auszuführen.In further preferred embodiments, the control system comprises 40 a single or multiple processors 45 and at least one machine-readable storage medium 46 , on which instructions are stored, which then when they are on the processors 45 run that Control system 40 cause to carry out the method according to the invention.

In alternativen Ausführungsformen ist alternativ oder zusätzlich zum Aktuator 10 eine Anzeigeeinheit 10a vorgesehen, welche eine Ausgangsgröße des Steuerungssystems 40 anzeigen kann.In alternative embodiments it is an alternative or in addition to the actuator 10 a display unit 10a provided, which is an output variable of the control system 40 can display.

In anderen Ausführungsformen kann die Anzeigeeinheit 10a eine Ausgabeschnittstelle zu einer Wiedergabevorrichtung sein, wie z. B. ein Display, eine Lichtquelle, ein Lautsprecher, ein Vibrationsmotor usw., die zur Erzeugung eines sensorisch wahrnehmbaren Ausgangssignals verwendet werden kann, das auf der Grundlage der Ausgabe des maschinellen Lernsystems 60 erzeugt werden kann.In other embodiments, the display unit 10a be an output interface to a playback device, such as e.g. B. a display, a light source, a loudspeaker, a vibration motor, etc., which can be used to generate a sensory perceptible output signal based on the output of the machine learning system 60 can be generated.

In einer bevorzugten Ausführungsform der 2 wird das Steuerungssystem 40 zur Steuerung des Aktors, welcher hier ein eines wenigstens teilautonomen Roboters, hier eines wenigstens teilautonomen Kraftfahrzeugs 100, ist, eingesetzt. Bei dem Sensor 30 kann es sich beispielsweise um einen vorzugsweise im Kraftfahrzeug 100 angeordneten Videosensor handeln.In a preferred embodiment of the 2 becomes the control system 40 to control the actuator, which here is an at least partially autonomous robot, here an at least partially autonomous motor vehicle 100 , is, used. With the sensor 30th it can be, for example, one preferably in the motor vehicle 100 act arranged video sensor.

Bei dem vorzugsweise im Kraftfahrzeug 100 angeordneten Aktuator 10 kann es sich beispielsweise um eine Bremse, einen Antrieb oder eine Lenkung des Kraftfahrzeugs 100 handeln. Das Ansteuersignal A kann dann derart ermittelt werden, dass der Aktor oder die Aktoren 10 derart angesteuert wird, dass das Kraftfahrzeug 100 beispielsweise eine Kollision mit dem maschinellen Lernsystem 60 sicher identifizierten Objekte verhindert, insbesondere, wenn es sich um Objekte bestimmter Klassen, z.B. um Fußgänger, handelt.Preferably in the motor vehicle 100 arranged actuator 10 it can for example be a brake, a drive or a steering of the motor vehicle 100 Act. The control signal A can then be determined in such a way that the actuator or actuators 10 is controlled in such a way that the motor vehicle 100 for example a collision with the machine learning system 60 safely identified objects are prevented, especially if they are objects of certain classes, for example pedestrians.

Alternativ kann es sich bei dem wenigstens teilautonomen Roboter auch um einen anderen mobilen Roboter (nicht abgebildet) handeln, beispielsweise um einen solchen, der sich durch Fliegen, Schwimmen, Tauchen oder Schreiten fortbewegt. Bei dem mobilen Roboter kann es sich beispielsweise auch um einen wenigstens teilautonomen Rasenmäher oder einen wenigstens teilautonomen Putzroboter handeln. Auch in diesen Fällen kann das Ansteuersignal A derart ermittelt werden, dass Antrieb und/oder Lenkung des mobilen Roboters derart angesteuert werden, dass der wenigstens teilautonome Roboter beispielsweise eine Kollision mit vom künstlichen neuronalen Netz 60 identifizierten Objekten verhindert.Alternatively, the at least partially autonomous robot can also be another mobile robot (not shown), for example one that moves by flying, swimming, diving or walking. The mobile robot can also be, for example, an at least partially autonomous lawnmower or an at least partially autonomous cleaning robot. In these cases too, the control signal A can be determined in such a way that the drive and / or steering of the mobile robot are controlled in such a way that the at least partially autonomous robot, for example, has a collision with the artificial neural network 60 identified objects.

4 zeigt ein Ausführungsbeispiel, in dem das Steuerungssystem 40 zur Ansteuerung einer Fertigungsmaschine 11 eines Fertigungssystems 200 verwendet wird, indem ein diese Fertigungsmaschine 11 steuernder Aktuator 10 angesteuert wird. Bei der Fertigungsmaschine 11 kann es sich beispielsweise um eine Maschine zum Stanzen, Sägen, Bohren, Fräßen und/oder Schneiden handeln. 4th shows an embodiment in which the control system 40 for controlling a production machine 11 of a manufacturing system 200 is used by a this manufacturing machine 11 controlling actuator 10 is controlled. At the manufacturing machine 11 it can be, for example, a machine for punching, sawing, drilling, milling and / or cutting.

Bei dem Sensor 30 kann es sich dann beispielsweise um einen optischen Sensor handeln, der z.B. Eigenschaften von Fertigungserzeugnissen 12a, 12b erfasst. Es ist möglich, dass diese Fertigungserzeugnisse 12a, 12b beweglich sind. Es ist möglich, dass der die Fertigungsmaschine 11 steuernde Aktuator 10 abhängig von einer Zuordnung der erfassten Fertigungserzeugnisse 12a, 12b angesteuert wird, damit die Fertigungsmaschine 11 entsprechend einen nachfolgenden Bearbeitungsschritt des richtigen der Fertigungserzeugnisses 12a, 12b ausführt. Es ist auch möglich, dass durch Identifikation der richtigen Eigenschaften desselben der Fertigungserzeugnisse 12a, 12b (d.h. ohne eine Fehlzuordnung) die Fertigungsmaschine 11 entsprechend den gleichen Fertigungsschritt für eine Bearbeitung eines nachfolgenden Fertigungserzeugnisses anpasst.With the sensor 30th it can then be, for example, an optical sensor which, for example, measures the properties of manufactured products 12a , 12b recorded. It is possible that these manufactured articles 12a , 12b are movable. It is possible that the the manufacturing machine 11 controlling actuator 10 depending on an assignment of the recorded production products 12a , 12b is controlled so that the production machine 11 corresponding to a subsequent processing step of the correct one of the manufactured product 12a , 12b executes. It is also possible that by identifying the correct properties of the same of the manufactured products 12a , 12b (ie without a misallocation) the manufacturing machine 11 accordingly adjusts the same production step for processing a subsequent production product.

5 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines Zugangssystems 300 eingesetzt wird. Das Zugangssystem 300 kann eine physische Zugangskontrolle, beispielsweise eine Tür 401 umfassen. Videosensor 30 ist eingerichtet ist, eine Person zu erfassen. Mittels des Objektidentifikationssystem 60 kann dieses erfasste Bild interpretiert werden. Sind mehrere Personen gleichzeitig erfasst, kann durch eine Zuordnung der Personen (also der Objekte) zueinander beispielweise die Identität der Personen besonders zuverlässig ermittelt werden, beispielsweise durch eine Analyse ihrer Bewegungen. Der Aktuator 10 kann ein Schloss sein, dass abhängig vom Ansteuersignal A die Zugangskontrolle freigibt, oder nicht, beispielsweise die Tür 401 öffnet, oder nicht. Hierzu kann das Ansteuersignal A abhängig von der der Interpretation des Objektidentifikationssystem 60 gewählt werden, beispielsweise abhängig von der ermittelten Identität der Person. An Stelle der physischen Zugangskontrolle kann auch eine logische Zugangskontrolle vorgesehen sein. 5 shows an embodiment in which the control system 40 to control an access system 300 is used. The access system 300 can be a physical access control, for example a door 401 include. Video sensor 30th is set up to capture a person. Using the object identification system 60 this captured image can be interpreted. If several people are recorded at the same time, the identity of the people can be determined particularly reliably by assigning the people (that is to say the objects) to one another, for example by analyzing their movements. The actuator 10 can be a lock that releases the access control depending on the control signal A, or not, for example the door 401 opens or not. For this purpose, the control signal A can be dependent on the interpretation of the object identification system 60 be selected, for example depending on the identified identity of the person. Instead of the physical access control, a logical access control can also be provided.

6 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines Überwachungssystems 400 verwendet wird. Von dem in 5 dargestellten Ausführungsbeispiel unterscheidet sich dieses Ausführungsbeispiel dadurch, dass an Stelle des Aktors 10 die Anzeigeeinheit 10a vorgesehen ist, die vom Steuerungssystem 40 angesteuert wird. Beispielsweise kann vom maschinellen Lernsystem 60 zuverlässig eine Identität der vom Videosensor 30 aufgenommenen Gegenstände ermittelt werden, um abhängig davon z.B. darauf zu schließen, welche verdächtig werden, und das Ansteuersignal A dann derart gewählt werden, dass dieser Gegenstand von der Anzeigeeinheit 10a farblich hervorgehoben dargestellt wird. 6th shows an embodiment in which the control system 40 for controlling a monitoring system 400 is used. From the in 5 The illustrated embodiment differs from this embodiment in that instead of the actuator 10 the display unit 10a is provided by the control system 40 is controlled. For example, from the machine learning system 60 reliably identifies the identity of the video sensor 30th recorded objects are determined in order to infer, for example, as a function of this which are suspect, and the control signal A is then selected in such a way that this object is shown by the display unit 10a highlighted in color.

7 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines persönlichen Assistenten 250 eingesetzt wird. Der Sensor 30 ist bevorzugt ein optischer Sensor, der Bilder einer Geste eines Nutzers 249 empfängt. 7th shows an embodiment in which the control system 40 to control a personal assistant 250 is used. The sensor 30th is preferably an optical sensor, the images of a gesture by a user 249 receives.

Abhängig von den Signalen des Sensors 30 ermittelt das Steuerungssystem 40 ein Ansteuersignal A des persönlichen Assistenten 250, beispielsweise, indem das neuronale Netz eine Gestenerkennung durchführt. Dem persönlichen Assistenten 250 wird dann dieses ermittelte Ansteuersignal A übermittelt und er somit entsprechend angesteuert. Dieses ermittelte Ansteuersignal A ist kann insbesondere derart gewählt werden, dass es einer vermuteten gewünschten Ansteuerung durch den Nutzer 249 entspricht. Diese vermutete gewünschte Ansteuerung kann abhängig von der vom künstlichen neuronalen Netz 60 erkannten Geste ermittelt werden. Das Steuerungssystem 40 kann dann abhängig von der vermuteten gewünschten Ansteuerung das Ansteuersignal A zur Übermittlung an den persönlichen Assistenten 250 wählen und/oder das Ansteuersignal A zur Übermittlung an den persönlichen Assistenten entsprechend der vermuteten gewünschten Ansteuerung 250 wählen.Depending on the signals from the sensor 30th determines the control system 40 a control signal A of the personal assistant 250 , for example, by the neural network performing gesture recognition. The personal assistant 250 this determined control signal A is then transmitted and it is thus controlled accordingly. This determined control signal A act can in particular be selected in such a way that it is a presumed desired control by the user 249 is equivalent to. This presumed desired control can depend on the artificial neural network 60 recognized gesture can be determined. The control system 40 can then, depending on the presumed desired control, the control signal A for transmission to the personal assistant 250 and / or the control signal A for transmission to the personal assistant according to the presumed desired control 250 Select.

Diese entsprechende Ansteuerung kann beispielsweise beinhalten, dass der persönliche Assistent 250 Informationen aus einer Datenbank abruft und sie für den Nutzer 249 rezipierbar wiedergibt.This corresponding control can include, for example, that the personal assistant 250 Retrieves information from a database and makes it available to the user 249 reproduces in a receivable manner.

Anstelle des persönlichen Assistenten 250 kann auch ein Haushaltsgerät (nicht abgebildet), insbesondere eine Waschmaschine, ein Herd, ein Backofen, eine Mikrowelle oder eine Spülmaschine vorgesehen sein, um entsprechend angesteuert zu werden.Instead of the personal assistant 250 A household appliance (not shown), in particular a washing machine, a stove, an oven, a microwave or a dishwasher, can also be provided in order to be controlled accordingly.

8 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines medizinischen bildgebenden System 500, beispielsweise eines MRT-, Röntgen- oder Ultraschallgeräts, verwendet wird. Der Sensor 30 kann beispielsweise durch einen bildgebenden Sensor gegeben sein, durch das Steuerungssystem 40 wird die Anzeigeeinheit 10a angesteuert. Beispielsweise kann vom neuronalen Netz 60 ermittelt werden, ob ein vom bildgebenden Sensor aufgenommener Bereich auffällig ist, und das Ansteuersignal A dann derart gewählt werden, dass dieser Bereich von der Anzeigeeinheit 10a farblich hervorgehoben dargestellt wird. 8th shows an embodiment in which the control system 40 for controlling a medical imaging system 500 , for example an MRI, X-ray or ultrasound machine is used. The sensor 30th can for example be given by an imaging sensor, by the control system 40 becomes the display unit 10a controlled. For example, from the neural network 60 it can be determined whether an area recorded by the imaging sensor is conspicuous, and the control signal A can then be selected in such a way that this area is detected by the display unit 10a highlighted in color.

9 zeigt schematisch eine Trainingsvorrichtung 500 umfasst einen Bereitsteller 51, der aus dem Erzeugen Trainingsdatensatz nach Schritt S13 die Trainingsdaten bereitstellt. Diese Trainingsdaten werden dem maschinellen Lernsystem 52 zugeführt, das hieraus Ausgangsgrößen ermittelt. Ausgangsgrößen und Eingangsbilder werden einem Beurteiler 53 zugeführt, der hieraus aktualisierte Parameter nach Schritt S14 ermittelt, die dem Parameterspeicher P übermittelt werden und dort die gegenwärtigen Parameter ersetzen. 9 shows schematically a training device 500 includes a provider 51 , which is generated from the training data set according to step S13 provides the training data. These training data are used by the machine learning system 52 supplied, which determines output variables therefrom. Output variables and input images become an assessor 53 supplied, the parameter updated from this after step S14 determined, which are transmitted to the parameter memory P and replace the current parameters there.

Die vom Trainingsvorrichtung 500 ausgeführten Verfahren können als Computerprogramm implementiert auf einem maschinenlesbaren Speichermedium 54 hinterlegt sein und von einem Prozessor 55 ausgeführt werden.The one from the training device 500 The methods carried out can be implemented as a computer program on a machine-readable storage medium 54 be stored and by a processor 55 are executed.

Der Begriff „Computer“ umfasst beliebige Geräte zur Abarbeitung vorgebbarer Rechenvorschriften. Diese Rechenvorschriften können in Form von Software vorliegen, oder in Form von Hardware, oder auch in einer Mischform aus Software und Hardware.The term “computer” encompasses any device for processing specifiable arithmetic rules. These calculation rules can be in the form of software, or in the form of hardware, or also in a mixed form of software and hardware.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte Nicht-PatentliteraturNon-patent literature cited

  • Ashish Vaswani et al: „Attention is all you need“. In Advances in Neural Information Processing Systems, volume 30. Curran Associates, Inc., 2017 [0029]Ashish Vaswani et al: "Attention is all you need". In Advances in Neural Information Processing Systems, volume 30. Curran Associates, Inc., 2017 [0029]

Claims (11)

Vorrichtung zum Anlernen eines maschinellen Lernsystems (60), wobei ein Eingang des maschinellen Lernsystems (60) geeignet ist, zumindest ein Paar von Größen aufzunehmen und zu einer Ausgangsgröße (ypred) des maschinellen Lernsystems (60) zu verarbeiten, wobei die Vorrichtung ein maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch einen Computer bewirkten, dass der Computer ein Verfahren mit folgenden Schritte ausführt: Bereitstellen (S11) einer ersten Wahrscheinlichkeitsverteilung (p(f)), welche eine Wahrscheinlichkeitsverteilung einer Mehrzahl von Heuristiken (f) beschreibt, wobei die Heuristiken (f) für eine Sensorgröße Schätzungen einer Kenngröße ausgeben; Mehrfaches Wiederhohlen der Schritte: Zufälliges Auswählen (S12) einer der Heuristiken (f) abhängig von der ersten Wahrscheinlichkeitsverteilung (p(f)); Erzeugen (S13) von Trainingsdaten (D) abhängig von der ausgewählten Heuristik (f), wobei einer Mehrzahl von Sensorgrößen mittels der Heuristik (f) jeweils eine Kenngröße zugeordnet wird; und Anlernen (S14) des maschinellen Lernsystemes (60) anhand der Trainingsdaten (D), wobei die Sensorgrößen und zugehörigen Kenngrößen als Paare dem maschinellen Lernsystem (60) zugeführt werden.Apparatus for teaching a machine learning system (60), wherein an input of the machine learning system (60) is suitable for receiving at least one pair of variables and processing them into an output variable (y pred ) of the machine learning system (60), the apparatus being a machine-readable one Storage medium comprises, on which instructions are stored which, when executed by a computer, caused the computer to carry out a method with the following steps: providing (S11) a first probability distribution (p (f)) which contains a probability distribution of a plurality of heuristics (f ) describes, the heuristics (f) outputting estimates of a parameter for a sensor variable; Repeating the steps several times: randomly selecting (S12) one of the heuristics (f) as a function of the first probability distribution (p (f)); Generation (S13) of training data (D) as a function of the selected heuristic (f), a parameter being assigned to a plurality of sensor variables by means of the heuristic (f); and teaching (S14) the machine learning system (60) on the basis of the training data (D), the sensor variables and associated parameters being fed as pairs to the machine learning system (60). Vorrichtung nach Anspruch 1, wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass der Schritt des Anlernens (S14) zumindest folgende Unterschritte umfasst: Berechnen einer Kostenfunktion (lθ), wobei die Kostenfunktion als eine Summe über jeweils einen angewendeten Logarithmus auf die ermittelten Ausgangsgrößen (qθ(y|x,D)) des maschinellen Lernsystems (60) gegeben den Paaren aus dem Trainingsdatensatz (D) gewichtet mit der Wahrscheinlichkeit (p(y,x,D)) der jeweiligen Paaren aus dem Trainingsdatensatz (D) ermittelt wird, und Anpassen von Parametern des maschinellen Lernsystems derart, dass die Kostenfunktion (lθ) optimiert wird.Device according to Claim 1 , the stored commands being designed in such a way that the method that the computer executes when these commands are executed on the computer runs in such a way that the learning step (S14) comprises at least the following substeps: Calculating a cost function (l θ ) , where the cost function is a sum of an applied logarithm to the determined output variables (q θ (y | x, D)) of the machine learning system (60) given the pairs from the training data set (D) weighted with the probability (p (y , x, D)) of the respective pairs is determined from the training data set (D), and adapting parameters of the machine learning system in such a way that the cost function (l θ ) is optimized. Vorrichtung nach Anspruch 2, wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass beim Berechnen einer Kostenfunktion (lθ), die ermittelten Ausgangsgrößen (qθ(y|x,D)) des maschinellen Lernsystems (60) mit einer Wahrscheinlichkeit (p(x,D)), dass die jeweilige Sensorgröße (x) aus dem Trainingsdatensatz (D) gezogen wird, gewichtet wird.Device according to Claim 2 , the stored commands being designed in such a way that the method that the computer executes when these commands are executed on the computer runs in such a way that when calculating a cost function (l θ ), the determined output variables (q θ (y | x , D)) of the machine learning system (60) is weighted with a probability (p (x, D)) that the respective sensor variable (x) is drawn from the training data set (D). Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass die Heuristiken basierend auf Zufallsgrößen fiktive Sensorgrößen erzeugen und deren zugeordneten Kenngrößen ausgeben.Device according to one of the preceding claims, wherein the stored commands are designed such that the method that the computer executes when these commands are executed on the computer runs in such a way that the heuristics based on random variables generate fictitious sensor variables and output their assigned characteristic variables . Vorrichtung zum Betreiben des maschinellen Lernsystems (60), welches nach einem der vorhergehenden Ansprüche angelernt wurde, wobei die Vorrichtung ein maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch einen Computer bewirkten, dass der Computer ein Verfahren mit folgenden Schritte ausführt: Bereitstellen (S15) eines Paares oder einer Mehrzahl von Paaren von Sensorgrößen und zugeordneten Kenngrößen und einer weiteren Sensorgröße deren Kenngröße vorhergesagt werden soll; Verarbeiten (S16) des Paares oder der Mehrzahl der Paare durch das maschinelle Lernsystem (60); Verarbeiten (S17) der weiteren Sensorgröße durch das maschinelle Lernsystem (60) und Ausgeben der ermittelten Kenngröße durch das maschinelle Lernsystem.Device for operating the machine learning system (60), which has been trained according to one of the preceding claims, wherein the device comprises a machine-readable storage medium on which instructions are stored which, when executed by a computer, caused the computer to execute a method with the following steps : Providing (S15) a pair or a plurality of pairs of sensor variables and associated parameters and a further sensor variable whose characteristic is to be predicted; Processing (S16) the pair or the plurality of pairs by the machine learning system (60); Processing (S17) the further sensor variable by the machine learning system (60) and outputting the determined parameter by the machine learning system. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass das maschinelle Lernsystem (60) ein Transfomer ist, wobei der Eingang des Transformers eingerichtet ist, eine Mehrzahl von Paaren aufzunehmen.Device according to one of the preceding claims, wherein the stored commands are designed such that the method that the computer executes when these commands are executed on the computer runs in such a way that the machine learning system (60) is a transformer, the input of the transformer is arranged to receive a plurality of pairs. Vorrichtung nach Anspruch 6, wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass eine Maske des Transformers eine Aufmerksamkeit aller verarbeiteten Paare zueinander und eine Aufmerksamkeit der weiteren Sensorgröße zu allen verarbeiteten Paare zueinander charakterisiert.Device according to Claim 6 The stored commands are designed in such a way that the method that the computer executes when these commands are executed on the computer runs in such a way that a mask of the transformer processed an attention of all processed pairs to each other and an attention of the further sensor variable to all Couples characterized to one another. Vorrichtung nach Anspruch 6 oder 7, wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass beide Größen der Paare jeweils durch einen Encoder komprimiert werden, wobei beide komprimierten Größen der Paare jeweils zusammenaddiert werden und die Summe durch den Transformer verarbeitet wird.Device according to Claim 6 or 7th , wherein the stored commands are designed such that the method that the Computer executes, when these commands are executed on the computer, the sequence is that both sizes of the pairs are compressed by an encoder, the two compressed sizes of the pairs being added together and the sum being processed by the transformer. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass die Ausgangsgrößen des maschinellen Lernsystems diskret sind und das maschinelle Lernsystem den möglichen Ausgangsgrößen Wahrscheinlichkeiten zuordnet, wobei die kleineste und größte mögliche Ausgangsgröße eine skalierte Hälfte einer Normalverteilung zugeordnet ist.Device according to one of the preceding claims, wherein the stored commands are designed such that the method that the computer executes when these commands are executed on the computer runs in such a way that the output variables of the machine learning system are discrete and the machine learning system is the possible Assigns output variables to probabilities, with the smallest and largest possible output variable being assigned to a scaled half of a normal distribution. Computerprogrammprodukt umfassend Programmcode, welcher auf einem computerlesbaren Medium gespeichert sind, umfassend: Programmcode zum Bereitstellen (S11) einer ersten Wahrscheinlichkeitsverteilung (p(f)), welche eine Wahrscheinlichkeitsverteilung einer Mehrzahl von Heuristiken (f) beschreibt, wobei die Heuristiken (f) für eine Sensorgröße Schätzungen einer Kenngröße ausgeben; Programmcode zum Mehrfaches Wiederhohlen der Schritte: Programmcode zum Zufälliges Auswählen (S12) einer der Heuristiken (ƒ) abhängig von der ersten Wahrscheinlichkeitsverteilung (p(f)); Programmcode zum Erzeugen (S13) von Trainingsdaten (D) abhängig von der ausgewählten Heuristik (f), wobei einer Mehrzahl von Sensorgrößen mittels der Heuristik (f) jeweils eine Kenngröße zugeordnet wird; und Programmcode zum Anlernen (S14) des maschinellen Lernsystems (60) anhand der Trainingsdaten (D), wobei die Sensorgrößen und zugehörigen Kenngrößen als Paare dem maschinellen Lernsystem (60) zugeführt werden.Computer program product comprising program code, which is stored on a computer-readable medium, comprising: Program code for providing (S11) a first probability distribution (p (f)) which describes a probability distribution of a plurality of heuristics (f), the heuristics (f) outputting estimates of a characteristic variable for a sensor variable; Program code for repeating the steps multiple times: Program code for randomly selecting (S12) one of the heuristics (ƒ) as a function of the first probability distribution (p (f)); Program code for generating (S13) training data (D) as a function of the selected heuristic (f), a characteristic variable being assigned to a plurality of sensor variables by means of the heuristic (f); and Program code for teaching (S14) the machine learning system (60) on the basis of the training data (D), the sensor variables and associated parameters being fed as pairs to the machine learning system (60). Computerprogrammprodukt nach Anspruch 10, wobei der Programmcode zusätzlich oder alternativ umfasst: Programmcode zum Bereitstellen (S15) eines Paares oder einer Mehrzahl von Paaren von Sensorgrößen und zugeordneten Kenngrößen und einer weiteren Sensorgröße deren Kenngröße vorhergesagt werden soll; Programmcode zum Verarbeiten (S16) des Paares oder der Mehrzahl der Paare durch das maschinelle Lernsystem (60); Programmcode zum Verarbeiten (S17) der weiteren Sensorgröße durch das maschinelle Lernsystem (60) und Ausgeben der ermittelten Kenngröße durch das maschinelle Lernsystem.Computer program product according to Claim 10 wherein the program code additionally or alternatively comprises: program code for providing (S15) a pair or a plurality of pairs of sensor variables and associated parameters and a further sensor variable whose characteristic is to be predicted; Program code for processing (S16) the pair or the plurality of pairs by the machine learning system (60); Program code for processing (S17) the further sensor variable by the machine learning system (60) and outputting the determined parameter by the machine learning system.
DE202021105192.2U 2021-09-27 2021-09-27 Apparatus for machine learning from a small number of training data examples Active DE202021105192U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202021105192.2U DE202021105192U1 (en) 2021-09-27 2021-09-27 Apparatus for machine learning from a small number of training data examples

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202021105192.2U DE202021105192U1 (en) 2021-09-27 2021-09-27 Apparatus for machine learning from a small number of training data examples

Publications (1)

Publication Number Publication Date
DE202021105192U1 true DE202021105192U1 (en) 2021-10-25

Family

ID=78509447

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202021105192.2U Active DE202021105192U1 (en) 2021-09-27 2021-09-27 Apparatus for machine learning from a small number of training data examples

Country Status (1)

Country Link
DE (1) DE202021105192U1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022207326A1 (en) 2022-07-19 2024-01-25 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for monitoring a hydraulic system for the entry of foreign fluids

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Ashish Vaswani et al: „Attention is all you need". In Advances in Neural Information Processing Systems, volume 30. Curran Associates, Inc., 2017

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022207326A1 (en) 2022-07-19 2024-01-25 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for monitoring a hydraulic system for the entry of foreign fluids
DE102022207326B4 (en) 2022-07-19 2024-05-08 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for monitoring a hydraulic system for the entry of foreign fluids

Similar Documents

Publication Publication Date Title
EP3785177B1 (en) Method and device for determining a network-configuration of a neural network
EP3853778B1 (en) Method and device for operating a control system
DE102020210352A1 (en) Method and device for transfer learning between modified tasks
DE202019105282U1 (en) Device for optimizing a machine learning system
DE202020101012U1 (en) Device for predicting a suitable configuration of a machine learning system for a training data set
DE112020003343T5 (en) SYSTEM AND PROCESS USING A ROBUST DEEP GENERATIVE MODEL
DE102020212515A1 (en) Method and device for training a machine learning system
WO2021008836A1 (en) Device and computer-implemented method for the processing of digital sensor data and training method for same
DE202021105192U1 (en) Apparatus for machine learning from a small number of training data examples
WO2020064211A1 (en) Method and device for determining a control signal
DE102019209566A1 (en) Method and device for training a machine learning system
DE102020208828A1 (en) Method and device for creating a machine learning system
DE102020211262A1 (en) Method and device for compressing a neural network
DE202020104238U1 (en) Device for learning a strategy and operating the strategy
EP3785178B1 (en) Method and device for determining a network-configuration of a neural network
DE102021210775A1 (en) Method and device for machine learning from a small number of training data samples
DE102019202523A1 (en) Method and device for operating a control system
DE102022206063A1 (en) SYSTEM AND METHOD OF SUPPLYING ROBUSTIFIERS FOR PRE-TRAINED MODELS AGAINST ENEMY ATTACKS
DE102018211875A1 (en) Method and device for operating a control system
DE102022201679A1 (en) Method and device for training a neural network
DE102021208724A1 (en) Method and device for the automated creation of a machine learning system for multi-sensor data fusion
DE102020212108A1 (en) Method and device for training a machine learning system
DE202020104005U1 (en) Device for creating a system for the automated creation of machine learning systems
DE102019207911A1 (en) Method, device and computer program for predicting a learning curve
DE202019103046U1 (en) Device for predicting a learning curve

Legal Events

Date Code Title Description
R207 Utility model specification
R081 Change of applicant/patentee

Owner name: ALBERT-LUDWIGS-UNIVERSITAET FREIBURG, KOERPERS, DE

Free format text: FORMER OWNERS: ALBERT-LUDWIGS-UNIVERSITAET FREIBURG, 79098 FREIBURG, DE; ROBERT BOSCH GESELLSCHAFT MIT BESCHRAENKTER HAFTUNG, 70469 STUTTGART, DE

R082 Change of representative