DE202021105192U1 - Apparatus for machine learning from a small number of training data examples - Google Patents
Apparatus for machine learning from a small number of training data examples Download PDFInfo
- Publication number
- DE202021105192U1 DE202021105192U1 DE202021105192.2U DE202021105192U DE202021105192U1 DE 202021105192 U1 DE202021105192 U1 DE 202021105192U1 DE 202021105192 U DE202021105192 U DE 202021105192U DE 202021105192 U1 DE202021105192 U1 DE 202021105192U1
- Authority
- DE
- Germany
- Prior art keywords
- machine learning
- learning system
- variables
- computer
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 123
- 238000012549 training Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 claims abstract description 65
- 230000006870 function Effects 0.000 claims abstract description 58
- 238000009826 distribution Methods 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims abstract description 26
- 238000003860 storage Methods 0.000 claims abstract description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 description 33
- 238000010438 heat treatment Methods 0.000 description 14
- 238000004519 manufacturing process Methods 0.000 description 12
- 230000001276 controlling effect Effects 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 8
- 230000002123 temporal effect Effects 0.000 description 7
- 238000005457 optimization Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 230000000875 corresponding effect Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000000644 propagated effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000011478 gradient descent method Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000002604 ultrasonography Methods 0.000 description 3
- 238000009827 uniform distribution Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000009187 flying Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000003754 machining Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000009183 running Effects 0.000 description 2
- 238000001931 thermography Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 239000000956 alloy Substances 0.000 description 1
- 229910045601 alloy Inorganic materials 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 238000005553 drilling Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 239000007769 metal material Substances 0.000 description 1
- 238000003801 milling Methods 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007858 starting material Substances 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 230000009184 walking Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Manipulator (AREA)
Abstract
Vorrichtung zum Anlernen eines maschinellen Lernsystems (60),
wobei ein Eingang des maschinellen Lernsystems (60) geeignet ist, zumindest ein Paar von Größen aufzunehmen und zu einer Ausgangsgröße (ypred) des maschinellen Lernsystems (60) zu verarbeiten,
wobei die Vorrichtung ein maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch einen Computer bewirkten, dass der Computer ein Verfahren mit folgenden Schritte ausführt:
Bereitstellen (S11) einer ersten Wahrscheinlichkeitsverteilung (p(f)), welche eine Wahrscheinlichkeitsverteilung einer Mehrzahl von Heuristiken (f) beschreibt, wobei die Heuristiken (f) für eine Sensorgröße Schätzungen einer Kenngröße ausgeben;
Mehrfaches Wiederhohlen der Schritte:
Zufälliges Auswählen (S12) einer der Heuristiken (f) abhängig von der ersten Wahrscheinlichkeitsverteilung (p(f));
Erzeugen (S13) von Trainingsdaten (D) abhängig von der ausgewählten Heuristik (f), wobei einer Mehrzahl von Sensorgrößen mittels der Heuristik (f) jeweils eine Kenngröße zugeordnet wird; und
Anlernen (S14) des maschinellen Lernsystemes (60) anhand der Trainingsdaten (D), wobei die Sensorgrößen und zugehörigen Kenngrößen als Paare dem maschinellen Lernsystem (60) zugeführt werden.
Device for teaching a machine learning system (60),
wherein an input of the machine learning system (60) is suitable for receiving at least one pair of variables and processing them into an output variable (y pred ) of the machine learning system (60),
wherein the device comprises a machine-readable storage medium on which instructions are stored which, when executed by a computer, caused the computer to carry out a method comprising the following steps:
Providing (S11) a first probability distribution (p (f)) which describes a probability distribution of a plurality of heuristics (f), the heuristics (f) outputting estimates of a parameter for a sensor variable;
Repeating the steps multiple times:
Randomly selecting (S12) one of the heuristics (f) as a function of the first probability distribution (p (f));
Generation (S13) of training data (D) as a function of the selected heuristic (f), a parameter being assigned to a plurality of sensor variables by means of the heuristic (f); and
Teaching (S14) the machine learning system (60) on the basis of the training data (D), the sensor variables and associated parameters being fed as pairs to the machine learning system (60).
Description
Die Erfindung betrifft eine Vorrichtung zum Anlernen eines maschinellen Lernsystems sowie zum Betreiben des angelernten maschinellen Lernsystems, sodass das maschinelle Lernsystem aus einer geringen Anzahl von Trainingsdatenbeispielen z.B. eine Klassifikation aus unbekannter Klassen ausgeben kann.The invention relates to a device for teaching a machine learning system and for operating the learned machine learning system so that the machine learning system can output, for example, a classification from unknown classes from a small number of training data examples.
Stand der TechnikState of the art
Shi Xiahan et al. „Relational generalized few-shot learning.“ arXiv preprint arXiv:1907.09557 (2019), online abrufbar: https://arxiv.org/abs/1907.09557, offenbaren eine Methode, welche Beziehungen zwischen gesehenen und neuen Klassen im gemeinsamen Labelraum modelliert und damit ein verallgemeinertes Lernen basierend auf einer geringen Anzahl von Beispielen ermöglicht, auch als ,generalized few-shot learning' bezeichnet.Shi Xiahan, et al. "Relational generalized few-shot learning." ArXiv preprint arXiv: 1907.09557 (2019), available online: https://arxiv.org/abs/1907.09557, reveal a method which models and thus relationships between seen and new classes in the common label space enables generalized learning based on a small number of examples, also known as 'generalized few-shot learning'.
Beispielhaft ist aus der Veröffentlichung Rasmussen, Carl Edward. „Gaussian processes in machine learning.“ Summer school on machine learning. Springer, Berlin, Heidelberg, 2003 ein sog. Gaußprozess (engl. Gaussian Processes) als eine posteriori Methode bekannt, welcher zeitliche, räumliche oder beliebige andere Funktionen darstellen kann, deren Funktionswerte aufgrund unvollständiger Information nur mit bestimmten Unsicherheiten und Wahrscheinlichkeiten modelliert werden können.An example from the publication is Rasmussen, Carl Edward. "Gaussian processes in machine learning." Summer school on machine learning. Springer, Berlin, Heidelberg, 2003 a so-called Gaussian Processes known as a posteriori method, which can represent temporal, spatial or any other functions whose function values can only be modeled with certain uncertainties and probabilities due to incomplete information.
Vorteile der ErfindungAdvantages of the invention
Die Erfindung mit den Merkmalen des unabhängigen Anspruchs 1 erlaubt es gegeben einer Verteilung von Funktionen bzw. Heuristiken, die das zu lösende Lernproblem ungefähr modellieren und die alle zusammengefasst im Folgenden auch als Prior bezeichnet werden, eine Modellierung einer Posteriori-Verteilung, nachdem eine geringe Anzahl von beispielhaften Datenpunkten gesehen wurden, vorherzusagen. Diese posteriori Modellierung hat mehrere Vorteile: (i) Sie hat eine theoretische Grundlage und ist daher korrekt, wenn eine Situation gegeben ist, die einer der Prior Funktionen ähnelt, (ii) sie kann daher die tatsächliche Wahrscheinlichkeit verschiedener Ereignisse besser berücksichtigen, sie ist folglich besser ,kalibriert' und (iii) sie ermöglich ein besonders genaues few-shot learning aufgrund dem Vorteil (i).The invention with the features of
Weitere Aspekte der Erfindung sind Gegenstand der nebengeordneten Ansprüche. Vorteilhafte Weiterbildungen sind Gegenstand der abhängigen Ansprüche.Further aspects of the invention are the subject of the independent claims. Advantageous further developments are the subject of the dependent claims.
Offenbarung der ErfindungDisclosure of the invention
In einem ersten Aspekt betrifft die Erfindung ein computerimplementiertes Verfahren zum Anlernen eines maschinellen Lernsystems, insbesondere zur Vorhersage einer Ausgangsgröße abhängig von einer Mehrzahl von Eingangsgrößen. Zumindest ein Eingang des maschinellen Lernsystems ist geeignet, zumindest ein Paar von Größen aufzunehmen und zu einer Ausgangsgröße des maschinellen Lernsystems zu verarbeiten. Unter einem Paar von Größen kann verstanden werden, dass zwei, insbesondere unterschiedliche, Größen zueinander zugeordnet sind und damit ein Paar bilden. Die Ausgansgröße des maschinellen Lernsystems ist vorzugsweise ein Vektor für eine Klassifikation oder ähnliches oder eine Größe für eine Regression.In a first aspect, the invention relates to a computer-implemented method for teaching a machine learning system, in particular for predicting an output variable as a function of a plurality of input variables. At least one input of the machine learning system is suitable for receiving at least one pair of variables and processing them into an output variable for the machine learning system. A pair of sizes can be understood to mean that two, in particular different, sizes are assigned to one another and thus form a pair. The output variable of the machine learning system is preferably a vector for a classification or the like or a variable for a regression.
Vorzugsweise weist das maschinelle Lernsystem eine Mehrzahl von Eingängen und einen Ausgang und besonders bevorzugt ein zeitliches Gedächtnis auf, wobei die Eingänge eingerichtet sind, jeweils ein Paar von Größen aufzunehmen. Der Ausgang ist eingerichtet, eine Ausgangsgröße auszugeben, die vorzugweise eine Wahrscheinlichkeitsverteilung oder eine kontinuierliche Zahl ist. Das zeitliche Gedächtnis des maschinellen Lernsystems kann z.B. durch rekurrente Verbindungen der Schichten oder einem Zwischenspeicher, der zumindest ein Zwischenergebnis einer vorhergehenden Berechnung einer vorherhergehenden Eingangsgröße beim Verarbeiten einer aktuellen Eingangsgröße bereitstellt bzw. hinzufügt, gegeben sein. Das zeitliche Gedächtnis ist also eine Form eines Bereitstellen von Informationen, die bei einer (un-)mittelbar vorhergehenden Berechnungen des maschinellen Lernsystems ermittelt wurden.The machine learning system preferably has a plurality of inputs and one output and particularly preferably a temporal memory, the inputs being set up to each receive a pair of variables. The output is set up to output an output variable which is preferably a probability distribution or a continuous number. The temporal memory of the machine learning system can be given, for example, by recurrent connections between the layers or a buffer that provides or adds at least an intermediate result of a previous calculation of a previous input variable when processing a current input variable. The temporal memory is thus a form of providing information that was determined during an (immediately) preceding calculation of the machine learning system.
Das maschinelle Lernsystem ist beispielsweise ein rekurrentes neuronales Netz, oder das maschinelle Lernsystem kann eine Mehrzahl von Paaren gleichzeitig aufnehmen, hier kann ein convolutional neural network denkbar sein, wobei die Filter derart eingerichtet sind, dass diese das zeitliche Gedächtnis erzeugen, indem diese über eine Reihe der Paare angewendet werden. Bevorzugt werden Attention-basierte Netzwerke verwendet, wie ein Transformer (Vaswani et al. / https://arxiv.org/abs/1706.03762). Das zeitliche Gedächtnis des Transformers ist durch seine ,Attentions' gegeben und damit kann der Transformer für jeden Input bzw. für jeden Zeitschritt auf jeden vorherigen Input/Zeitschritt (oder je nach Maske auch in die Zukunft) schauen.The machine learning system is, for example, a recurrent neural network, or the machine learning system can accommodate a plurality of pairs at the same time; a convolutional neural network can be conceivable here, the filters being set up in such a way that they generate the temporal memory by placing them over a row of the couples are applied. Attention-based networks are preferred, such as a transformer (Vaswani et al. / Https://arxiv.org/abs/1706.03762). The transformer's temporal memory is given by its 'attentions' and thus the transformer can look at every previous input / time step (or, depending on the mask, into the future) for each input or for each time step.
Das Verfahren beginnt mit einem Bereitstellen einer ersten Wahrscheinlichkeitsverteilung (auch als Prior p(f) bezeichnet), welche eine Wahrscheinlichkeitsverteilung einer Mehrzahl von Heuristiken (f) beschreibt. Die Heuristiken können vorgegeben sein und sind insbesondere Funktionen, welche vereinfachte bzw. mutmaßliche Schlussfolgerungen über ein System darstellen. Allgemein gesagt, die Heuristik ordnet einer Eingangsgröße eine Ausgangsgröße zu. Die Eingangsgröße und zugeordnete Ausgangsgröße können ein Paar bilden. Alternativ ist denkbar, dass der Prior p(D, x, y) die Paare direkt beschreibt. Die Eingangsgröße ist vorzugsweise eine Sensorgröße, die z.B.an einem technischen System erfasst wurde. Die Ausgangsgröße ist vorzugsweise eine Kenngröße, insbesondere des technischen Systems oder der Sensorgröße. Die Heuristiken (f) können für eine erfasste Sensorgröße auf unterschiedliche Weise oder anhand von unterschiedlichen Kriterien Schätzungen einer zuzuordnenden Kenngröße ausgeben.The method begins with providing a first probability distribution (also referred to as prior p (f)), which describes a probability distribution of a plurality of heuristics (f). The heuristics can be predetermined and are, in particular, functions which present simplified or presumptive conclusions about a system. Generally speaking, the heuristic assigns an output variable to an input variable. The input variable and the assigned output variable can form a pair. Alternatively, it is conceivable that the prior p (D, x, y) describes the pairs directly. The input variable is preferably a sensor variable that was recorded, for example, on a technical system. The output variable is preferably a parameter, in particular of the technical system or the sensor variable. The heuristics (f) can output estimates of a parameter to be assigned for a detected sensor variable in different ways or on the basis of different criteria.
Anschließend wird ein mehrfaches Wiederhohlen der nachfolgenden Schritte a) bis c) ausgeführt. Es sei angemerkt, dass hier die Wiederholungen z.B. nach einer vorgebbaren maximalen Anzahl von Wiederholungen abgebrochen werden kann. Jedoch je mehr Wiederholungen ausgeführt werden, desto besser wird das maschinelle Lernsystem.
- a) Zufälliges Auswählen einer der Heuristiken (f) abhängig von der ersten Wahrscheinlichkeitsverteilung.
- b) Erzeugen von Trainingsdaten (D) abhängig von der ausgewählten Heuristik (f), wobei einer Mehrzahl von Sensorgrößen mittels der Heuristik (f) jeweils eine Kenngröße zugeordnet wird. Die Sensorgrößen können reale, erfasste Größen mittels eines Sensors oder künstlich erzeugte Größen, z.B. mittels eines virtuellen Sensors, sein.
- c) Anlernen des maschinellen Lernsystemes anhand der Trainingsdaten (D), wobei die Sensorgrößen und zugehörigen Kenngrößen als Paare dem maschinellen Lernsystem zugeführt werden, wobei das Anlernen derart erfolgt, dass der Ausgang des maschinellen Lernsystems im Wesentlichen die Kenngröße ausgibt. Unter im Wesentlichen kann hier eine zu erzielenden Genauigkeit, die mit dem jeweiligen vorliegenden Trainingsalgorithmus und Datensatz realisierbar ist, verstanden werden. Es sei angemerkt, dass für den Schritt des Anlernens jedes beliebiges Trainingsverfahren verwendet werden kann, z.B. bekannte Gradientenabstiegsverfahren.
- a) Randomly selecting one of the heuristics (f) as a function of the first probability distribution.
- b) Generation of training data (D) as a function of the selected heuristic (f), a parameter being assigned to a plurality of sensor variables by means of the heuristic (f). The sensor variables can be real, recorded variables by means of a sensor or artificially generated variables, for example by means of a virtual sensor.
- c) Teaching the machine learning system on the basis of the training data (D), the sensor variables and associated parameters being fed to the machine learning system as pairs, the teaching being carried out in such a way that the output of the machine learning system essentially outputs the characteristic. Essentially, an accuracy to be achieved that can be achieved with the respective training algorithm and data set that is present can be understood here. It should be noted that any desired training method can be used for the learning step, for example known gradient descent methods.
Vor dem Anlernen werden eine Mehrzahl der Paaren erzeugt. In einer bevorzugten Ausführungsform wird diese Mehrzahl der Paaren in einen ersten Teil von Paaren und einen zweiten Teil eingeteilt. Der zweite Teil wird als Abfragepunkte (engl. querry points) verwendet, bei denen dann jeweils nur die Sensorgröße dem maschinellen Lernsystem zugeführt wird, wobei am Ausgang die jeweils zugeordnete Kenngröße des jeweiligen Paars erwartet wird, wobei das maschinelle Lernsystem dann zusätzlich entsprechend angepasst wird, dass es die zugeordneten Kenngrößen gemäß den jeweiligen Paaren ausgibt.A majority of the pairs are generated before the teaching. In a preferred embodiment, this plurality of pairs is divided into a first part of pairs and a second part. The second part is used as query points (querry points), at which only the sensor variable is then fed to the machine learning system, with the associated parameter of the respective pair expected at the output, with the machine learning system then also being adapted accordingly, that it outputs the assigned parameters according to the respective pairs.
Ein Vorteil des Verfahrens ist, dass die Heuristiken flexibel gewählt und mit diesen kostengünstig Trainingsdaten erzeugt werden können. Interessanterweise können sehr einfache Heuristiken gewählt werden und das angelernte maschinelle Lernsystem kann in einer Inferenzphase trotzdem eine gute Performance aufweisen.One advantage of the method is that the heuristics can be selected flexibly and training data can be generated with them at low cost. Interestingly, very simple heuristics can be selected and the learned machine learning system can still perform well in an inference phase.
Der Schritt des Anlernens kann zumindest folgende Unterschritte umfassen: Berechnen einer Kostenfunktion (lθ), wobei die Kostenfunktion durch eine Summe über jeweils einen angewendeten Logarithmus auf die ermittelten Ausgangsgrößen (qθ(y|x,D)) des maschinellen Lernsystems gegeben den Paaren aus dem Trainingsdatensatz (D) gewichtet mit der Wahrscheinlichkeit (p(y,x,D)) der jeweiligen Paaren aus dem Trainingsdatensatz (D) ermittelt wird, und Anpassen von Parametern des maschinellen Lernsystems derart, dass die Kostenfunktion (lθ) optimiert wird, insbesondere durch Gradientenabstiegsverfahren, sodass die Kostenfunktion (lθ) durch Anpassen von Parametern des maschinellen Lernsystems maximiert oder minimiert wird.The learning step can include at least the following sub-steps: Calculating a cost function (l θ ), the cost function being given to the pairs by a sum of a respective logarithm applied to the determined output variables (q θ (y | x, D)) of the machine learning system is determined from the training data set (D) weighted with the probability (p (y, x, D)) of the respective pairs from the training data set (D), and adjusting parameters of the machine learning system in such a way that the cost function (l θ ) is optimized , in particular by gradient descent methods, so that the cost function (l θ ) is maximized or minimized by adapting parameters of the machine learning system.
Formell kann die Kostenfunktion lθ definiert werden:
Es wird vorgeschlagen, dass beim Berechnen einer Kostenfunktion (lθ), die ermittelten Ausgangsgrößen (qθ(y|x,D)) des maschinellen Lernsystems mit der Wahrscheinlichkeit p(x,D), dass die jeweilige Sensorgröße aus dem Trainingsdatensatz (D) gezogen wird, gewichtet wird. Formell kann die Kostenfunktion (lθ) hier definiert werden:
Diese geringfüge Manipulation der Kostenfunktion hat den vorteilhaften Effekt, dass das Anlernen feingranularer die Verteilung der Sensorgrößen im Trainingsdatensatz berücksichtigt, was sich später in einer präziseren Vorhersage der Kenngröße positiv äußert.This slight manipulation of the cost function has the advantageous effect that the fine-grained learning takes into account the distribution of the sensor variables in the training data set, which is later expressed positively in a more precise prediction of the characteristic variable.
Weiterhin wird vorgeschlagen, dass die Heuristiken basierend auf Zufallsgrößen fiktive Sensorgrößen erzeugen und deren zugeordneten Kenngrößen ausgeben. Unter fiktiven Sensorgrößen kann verstanden werden, dass diese nicht durch einen physikalischen Sensor erfasst wurden, sondern künstlich simuliert oder berechnet wurden.It is also proposed that the heuristics generate fictitious sensor variables based on random variables and output their assigned parameters. Fictitious sensor variables can be understood to mean that they were not recorded by a physical sensor, but rather simulated or calculated artificially.
Die Heuristiken können Annahmen über das vorliegende zu lernende Problem darstellen. Beispielsweise kann für eine Klassifikation des MNIST Datensatzes die Heuristik simple schwarz/weiß Bilder mit einer oder einer Mehrzahl von zufällig verlaufenden Geraden erzeugen, wobei abhängig von den erzeugen Geraden eine Klassifikation der der künstlich erzeugen Bildern erfolgt, bspw. eine Klassifikation hinsichtlich einer Anzahl der abgebildeten Geraden. Eine andere Heuristik des Priors kann anstatt der Geraden gebogene Linien erzeugen und eine wiederum andere Heuristik des Priors kann eine Kombination aus beiden eben genannten Heuristiken sein. Das überraschende Ergebnis hierbei ist, dass das maschinelle Lernsystem nach einer Sichtung einer Mehrzahl von echten MNIST Bildern und deren Klassifikation in der Lage ist, die MNIST Bilder zu klassifizieren, obwohl das maschinelle Lernsystem auf diesen Bildern nicht angelernt wurde.The heuristics can represent assumptions about the problem at hand to be learned. For example, for a classification of the MNIST data set, the heuristic can generate simple black / white images with one or a plurality of randomly running straight lines, whereby the artificially generated images are classified as a function of the generated straight lines, for example a classification with regard to a number of the mapped ones Straight lines. Another heuristic of the prior can produce curved lines instead of straight lines, and yet another heuristic of the prior can be a combination of both of the aforementioned heuristics. The surprising result here is that after viewing a plurality of real MNIST images and classifying them, the machine learning system is able to classify the MNIST images, although the machine learning system has not been trained on these images.
Vorteilhaft hieran ist, dass das maschinelle Lernsystem ohne reale Trainingsdaten angelernt wird, da reale Trainingsdaten meist aufwändig zu erstellen sind.The advantage here is that the machine learning system is taught without real training data, since real training data are usually complex to create.
Ein zweiter Aspekt der Erfindung betrifft ein Verfahren zum Betreiben des maschinellen Lernsystems, welches z.B. nach dem ersten Aspekt angelernt wurde. Das Verfahren des zweiten Aspektes beginnt mit einem Bereitstellen von mindestens einem Paar einer Sensorgröße und zugeordneten Kenngröße und einer weiteren Sensorgröße deren Kenngröße vorhergesagt werden soll. Die Paare stellen Stichproben dar, die z.B. stichprobenartig beim Betreiben eines technischen Systems erfasst werden, insbesondere werden jeweils auch deren zugehörige Kenngrößen beim Betreiben des technischen Systems miterfasst. Vorzugsweise handelt es sich bei diesen Paaren um reale Sensorgrößen. Die zugehörigen Kenngrößen können ebenfalls real sein, oder manuell zu den Sensorgrößen hinzugefügt werden, im Folgenden auch als Label bezeichnet. Vorteilhaft hierbei ist, dass bereits ab einem Datenpaar eine Vorhersage getroffen werden kann.A second aspect of the invention relates to a method for operating the machine learning system, which was learned, for example, according to the first aspect. The method of the second aspect begins with the provision of at least one pair of a sensor variable and assigned characteristic variable and a further sensor variable whose characteristic variable is to be predicted. The pairs represent samples that are, for example, recorded on a random basis when operating a technical system; in particular, their associated parameters are also recorded when operating the technical system. These pairs are preferably real sensor variables. The associated parameters can also be real, or they can be added manually to the sensor variables, also referred to below as labels. The advantage here is that a prediction can be made from one data pair onwards.
Daraufhin folgt ein iteratives Verarbeiten der Mehrzahl der Paare durch das maschinelle Lernsystem. Unter einem iterativen Verarbeiten kann verstanden werden, dass die Eingangsgrößen und zugeordneten Ausgangsgrößen der Paare den Eingängen des maschinellen Lernsystems zugeführt werden, wobei je Iteration jeweils ein Paar verarbeitet und/oder eine Ausgangsgröße ausgegeben wird. Unter einem iterativen Verarbeiten kann aber auch verstanden werden, dass die Paare gleichzeitig dem maschinellen Lernsystem zugeführt werden und das maschinelle Lernsystem z.B. iterativ bzw. sequenziell eine Ausgangsgröße zu den einzelnen Paaren ausgibt. Es sei angemerkt, dass eine Reihenfolge des iterativen Verarbeitens der Paare nicht relevant ist, d.h. dass entweder das nachfolgende Paar oder ein beliebiges Paar je Verarbeitungsschritt verarbeitet werden kann.This is followed by iterative processing of the majority of the pairs by the machine learning system. Iterative processing can be understood to mean that the input variables and assigned output variables of the pairs are fed to the inputs of the machine learning system, with one pair being processed and / or one output variable being output for each iteration. However, iterative processing can also be understood to mean that the pairs are fed to the machine learning system at the same time and the machine learning system, for example, iteratively or sequentially outputs an output variable for the individual pairs. It should be noted that the order of the iterative processing of the pairs is not relevant, i.e. that either the following pair or any other pair can be processed per processing step.
Denkbar ist, dass das Verarbeiten der Datenpaare als eine Form eines Nachanlernens des maschinellen Lernsystems aufgefasst werden kann. Eine Besonderheit dieses Nachanlernens ist, dass die Parameter des maschinellen Lernsystems hier nicht mehr optimiert werden müssen. Denn Experimente haben überraschenderweise aufgezeigt, dass das maschinelle Lernsystem in der Lage ist, den korrekten Prior ,auszuwählen', um den Posteriori zu schätzen. Optional kann dennoch im Schritt des sog. Nachanlernens die Parameter optimiert werden, sodass die Ausgaben des maschinellen Lernsystems für die bereitgestellten Paar die Ausgangsgrößen der Paare entsprechen.It is conceivable that the processing of the data pairs can be understood as a form of re-learning the machine learning system. A special feature of this re-learning is that the parameters of the machine learning system no longer have to be optimized here. Because experiments have surprisingly shown that the machine learning system is able to 'select' the correct prior in order to estimate the posteriori. Optionally, however, the parameters can be optimized in the step of so-called post-learning, so that the outputs of the machine learning system for the pairs provided correspond to the output variables of the pairs.
Nach dem Nachtrainieren wird das Verarbeiten der einzelnen Eingangsgröße, deren Ausgangsgröße vorhergesagt werden soll, durch das maschinelle Lernsystem ausgeführt. Dieser Schritt kann auch als eine Inferenz bezeichnet werden. After retraining, the processing of the individual input variable, the output variable of which is to be predicted, is carried out by the machine learning system. This step can also be referred to as an inference.
Denkbar ist, dass der Schritt der Inferenz mehrmals wiederholt wird, z.B. mit dem gleichen oder mit unterschiedlichen Datenpunkten.It is conceivable that the inference step is repeated several times, e.g. with the same or with different data points.
Demnach werden die Paare iterativ durch das maschinelle Lernsystem verarbeitet und anschließend wird die letzte Eingangsgröße von dem maschinellen Lernsystem verarbeitet, wobei das maschinelle Lernsystem dann die Ausgangsgröße der letzten Eingangsgröße vorhersagt.Accordingly, the pairs are iteratively processed by the machine learning system and then the last input variable is processed by the machine learning system, the machine learning system then predicting the output variable of the last input variable.
Ein Vorteil des Verfahrens des zweiten Aspektes der Erfindung ist, dass durch das besondere Betreiben des angelernten maschinellen Lernsystems dieses in der Lage ist, bereits mit sehr wenigen Paaren von Eingangsgrößen die Ausgangsgröße zu ermitteln. Es ist damit besonders dateneffizient.One advantage of the method of the second aspect of the invention is that, due to the special operation of the learned machine learning system, it is able to do so with very few Pairs of input variables to determine the output variable. It is therefore particularly data efficient.
Vorzugsweise sind die Eingangsgrößen des ersten und zweiten Aspektes Sensorgrößen eines technischen Systeme und die zugeordneten oder ermittelten Ausgangsgrößen Kenngrößen des technischen Systems.The input variables of the first and second aspects are preferably sensor variables of a technical system and the assigned or determined output variables are parameters of the technical system.
Ferner sei angemerkt, dass das maschinelle Lernsystem des ersten und zweiten Aspektes eingerichtet ist, sodass es bei seiner Vorhersage der Ausgangsgröße eine Verteilung über eine vorgegebene Menge von Ausgangsgrößen ermittelt.It should also be noted that the machine learning system of the first and second aspects is set up so that, when it predicts the output variable, it determines a distribution over a predetermined set of output variables.
Für den ersten und zweiten Aspekt der Erfindung wird vorgeschlagen, dass das maschinelle Lernsystem ein Transfomer ist, wobei der Eingang des Transformers eingerichtet ist, eine Mehrzahl von Paaren aufzunehmen. Neuronale Netze als Transformer sind z.B. aus der Offenbarung bekannt:
Vorzugsweise ist eine Attention Maske (engl. Attention Mask.) des Transformers derart aufgebaut, dass eine Aufmerksamkeit von jedem Paar auf jedes andere Paar, sowie die Aufmerksamkeit von der letzten Sensorgröße, deren Kenngröße vorhergesagt werden soll, auf die vorhergehenden Paare gegeben ist. In anderen Worten, die „Attentions“ des Transformers werden so angepasst, dass die Darstellung jedes Eintrags im Datensatz von jedem anderen abhängen kann und die Darstellung des abgefragten Inputs von sich selbst und von den Darstellungen des Datensatzes abhängen kann.An attention mask of the transformer is preferably constructed in such a way that attention is given from each pair to every other pair, as well as attention from the last sensor variable, the characteristic variable of which is to be predicted, to the preceding pairs. In other words, the transformer's “attentions” are adjusted in such a way that the representation of each entry in the data set can depend on each other and the representation of the queried input can depend on itself and on the representations of the data set.
Um den Transformer invariant gegenüber der Reihenfolge der Paare zu machen, wird vorgeschlagen:
- i) Beide Größen der Paare werden jeweils durch einen Encoder komprimiert, der vorzugsweise eine affine Projektion ausführt, wobei beide komprimierten Größen der Paare zusammenaddiert werden und die Summe durch den Transformer verarbeitet wird, und
- ii) Vorzugweise werden keine „Positional Encodings“ verwendet.
- i) Both sizes of the pairs are each compressed by an encoder, which preferably carries out an affine projection, the two compressed sizes of the pairs being added together and the sum being processed by the transformer, and
- ii) Preferably no “positional encodings” are used.
Weiterhin wird vorgeschlagen, dass die Ausgangsgrößen des maschinellen Lernsystems diskret sind und das maschinelle Lernsystem den möglichen Ausgangsgrößen Wahrscheinlichkeiten zuordnet, wobei eine kleinste und größte Ausgangsgröße eine entsprechend skalierte Hälfte einer Normalverteilung zugeordnet ist.It is also proposed that the output variables of the machine learning system are discrete and that the machine learning system assigns probabilities to the possible output variables, with a smallest and largest output variable being assigned to a correspondingly scaled half of a normal distribution.
Dies hat den Vorteil, dass eine mögliche Darstellung einer kontinuierlichen multimodalen Wahrscheinlichkeitsverteilung durch sog. ,bars' möglich ist, und durch die skalierte Normalverteilung an beiden Enden auch eine Wahrscheinlichkeit außerhalb der vorgegebenen Werte gegeben ist. Das verhindert ein Steigen einer Kostenfunktion (engl. loss) ins Unendliche, insbesondere für Regressionen in denen sehr große Werte auftreten. In anderen Worten, anhand diesem Vorgehen kann das maschinelle Lernsystem auch als Regressor verwendet werden.This has the advantage that a possible representation of a continuous multimodal probability distribution by so-called "bars" is possible, and the scaled normal distribution at both ends also gives a probability outside the specified values. This prevents a cost function (loss) from increasing to infinity, especially for regressions in which very large values occur. In other words, based on this approach, the machine learning system can also be used as a regressor.
Weiterhin wird vorgeschlagen, dass das angelernte maschinelle Lernsystem gemäß dem ersten Aspekt der Erfindung zur Klassifizierung von Sensorsignalen gemäß dem zweiten Aspekt verwendet wird. Die Ausgansgrößen des maschinellen Lernsystem charakterisieren dann eine Klassifizierung der Sensorgrößen. Vorzugweise sind die Sensorgrößen Bilder und die Ausgangsgrößen sind zumindest Klassifikationen der Bilder. Das maschinelle Lernsystem ist dann also ein Bildklassifikator. Der Bildklassifikator ordnet ein Eingabebild einer oder mehreren Klassen einer vorgegebenen Klassifikation zu. Als Eingabebilder können beispielsweise Bilder von in Serie gefertigten, nominell identischen Produkten verwendet werden. Der Bildklassifikator kann beispielsweise darauf trainiert sein, die Eingabebilder einer oder mehreren von mindestens zwei möglichen Klassen zuzuordnen, die eine Qualitätsbeurteilung des jeweiligen Produkts repräsentieren. Der Begriff des Bildes umfasst grundsätzlich jede in einem zwei- oder mehrdimensionalen Raster angeordnete Verteilung von Informationen. Diese Informationen können beispielsweise Intensitätswerte von Bildpixeln sein, die mit einer beliebigen Abbildungsmodalität, wie etwa mit einer optischen Kamera, mit einer Wärmebildkamera oder mit Ultraschall, aufgenommen wurden. Es können jedoch auch beliebige andere Daten, wie beispielsweise Audiodaten, Radardaten oder LIDAR-Daten, in Bilder übersetzt und dann gleichermaßen klassifiziert werden.It is further proposed that the learned machine learning system according to the first aspect of the invention is used to classify sensor signals according to the second aspect. The output variables of the machine learning system then characterize a classification of the sensor variables. The sensor variables are preferably images and the output variables are at least classifications of the images. The machine learning system is then an image classifier. The image classifier assigns an input image to one or more classes of a predetermined classification. For example, images of serially manufactured, nominally identical products can be used as input images. The image classifier can, for example, be trained to assign the input images to one or more of at least two possible classes that represent a quality assessment of the respective product. The concept of the image basically encompasses any distribution of information arranged in a two- or multi-dimensional grid. This information can be, for example, intensity values of image pixels that were recorded with any desired imaging modality, such as with an optical camera, with a thermal imaging camera or with ultrasound. However, any other data, such as audio data, radar data or LIDAR data, can also be translated into images and then classified in the same way.
Denkbar ist aber auch, dass die Sensorgrößen und vorzugsweise auch die Ausgangsgrößen Messungen sind, insbesondere eines metallischen Bauteils bei einer Wärmebehandlung. D.h. die Sensorgrößen können auch erfasste Systemzustände eines technischen Systems sein, die z.B. mittels eines Sensors erfasst wurden. Und die Ausgansgrößen sind bspw. Kenngrößen und/oder Folgezustände des technischen Systems, elektrischen oder mechanischem Bauteil. Beispielsweise sind die Ausgangsgrößen Werte einer Kennlinie oder eines Kennfeldes.It is also conceivable, however, that the sensor variables and preferably also the output variables are measurements, in particular of a metallic component during a heat treatment. That is to say, the sensor variables can also be recorded system states of a technical system that were recorded, for example, by means of a sensor. And the output variables are, for example, parameters and / or subsequent states of the technical system, electrical or mechanical component. For example, the output variables are values of a characteristic curve or a characteristic diagram.
Weiterhin wird vorgeschlagen, dass das maschinelle Lernsystem, welches gemäß dem zweiten Aspekt betrieben wurde, abhängig von einer erfassten Sensorgröße eines Sensors eine Ausgangsgröße ermittelt, abhängig von welcher daraufhin eine Steuergröße mittels z.B. einer Steuereinheit ermittelt wird.It is further proposed that the machine learning system, which was operated according to the second aspect, determines an output variable as a function of a detected sensor variable of a sensor, depending on which a control variable is then determined by means of, for example, a control unit.
Die Steuergröße kann zum Steuern eines Aktors eines technischen Systems verwendet werden. Das technische System kann zum Beispiel eine zumindest teilautonome Maschine, ein zumindest teilautonomes Fahrzeug, ein Roboter, ein Werkzeug, eine Werkmaschine oder ein Flugobjekt wie eine Drohne sein. Die Eingangsgröße kann bspw. abhängig von erfassten Sensordaten ermittelt und dem maschinellen Lernsystem bereitgestellt werden. Die Sensordaten können von einem Sensor, wie z.B. einer Kamera, des technischen Systems erfasst oder alternativ von extern empfangen werden.The control variable can be used to control an actuator of a technical system. The technical system can be, for example, an at least partially autonomous machine, an at least partially autonomous vehicle, a robot, a tool, a work machine or a flying object such as a drone. The input variable can, for example, be determined as a function of the recorded sensor data and made available to the machine learning system. The sensor data can be recorded by a sensor, such as a camera, of the technical system or, alternatively, can be received externally.
In weiteren Aspekten betrifft die Erfindung eine Vorrichtung sowie ein Computerprogramm, die jeweils eingerichtet sind, die obigen Verfahren auszuführen und ein maschinenlesbares Speichermedium, auf dem dieses Computerprogramm gespeichert ist.In further aspects, the invention relates to a device and a computer program, each of which is set up to carry out the above methods, and a machine-readable storage medium on which this computer program is stored.
Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. In den Zeichnungen zeigen:
-
1 schematisch ein Flussdiagramm einer Ausführungsform der Erfindung; -
2 schematisch ein Mehrzahl von Funktionen und Stichproben einer der Funktionen sowie exemplarische Darstellungen von Ausgaben eines maschinellen Lernsystems; -
3 schematisch ein Ausführungsbeispiel zur Steuerung eines wenigstens teilautonomen Roboters; -
4 schematisch ein Ausführungsbeispiel zur Steuerung eines Fertigungssystems; -
5 schematisch ein Ausführungsbeispiel zur Steuerung eines Zugangssystems; -
6 schematisch ein Ausführungsbeispiel zur Steuerung eines Überwachungssystems; -
7 schematisch ein Ausführungsbeispiel zur Steuerung eines persönlichen Assistenten; -
8 schematisch ein Ausführungsbeispiel zur Steuerung eines medizinisch bildgebenden Systems; -
9 schematisch eine Trainingsvorrichtung.
-
1 schematically, a flow diagram of an embodiment of the invention; -
2 schematically a plurality of functions and samples of one of the functions as well as exemplary representations of outputs of a machine learning system; -
3 schematically an embodiment for controlling an at least partially autonomous robot; -
4th schematically an embodiment for controlling a manufacturing system; -
5 schematically an embodiment for controlling an access system; -
6th schematically an embodiment for controlling a monitoring system; -
7th schematically an embodiment for controlling a personal assistant; -
8th schematically an embodiment for controlling a medical imaging system; -
9 schematically a training device.
Beschreibung der AusführungsbeispieleDescription of the exemplary embodiments
Das Verfahren beginnt mit Schritt
Das maschinelle Lernsystem ist geeignet, abhängig von einer Eingangsgröße und einer der Eingangsgröße zugeordneten Ausgangsgröße am Eingang/Eingängen aufzunehmen und zu einer Ausgangsgröße des maschinellen Lernsystems zu verarbeiten. Vorzugsweise gibt das maschinelle Lernsystem eine Wahrscheinlichkeitsverteilung über die möglichen Ausgangsgrößen aus. Dies ist beispielhaft in
In einer bevorzugten Ausführungsform des Verfahrens nach
Eine Attention Maske des Transformers beschreibt welche Inputs zueinander berücksichtigt werden. Vorzugweise ist die Attention Maske derart aufgebaut, dass die Aufmerksamkeit aller verarbeiteten Paare zueinander und eine Aufmerksamkeit der letzten Sensorgröße zu allen verarbeiteten Paare zueinander charakterisiert. Die Attention Maske Mm,n kann beispielhaft für m Paare von Eingangs-/ und Ausgangsgröße des Transformers und n Abfragepunkte für z.B. das ,few-shot Learning' gegeben sein, hier m,n = 4,2:
Die Vorhersage des Transformers kann nach dem letzten Verarbeitungsschritt des Transformers ausgegeben werden. Vorzugweise wird während dem Training eine Gesamtgröße M = m + n und eine Stichprobenmenge m festgelegt, so dass der Transformer in der Lage ist, mit verschiedenen großen Datensätzen arbeiten zu können. Da für kleinere Datensätze m mehr Abfragepunkte (engl. querry points) vorliegen, kann bei größeren Datensätzen eine häufigeres Ziehen (engl. over-sample) durchgeführt werden. Das heißt, jeder m e {0, ... M - 1} wird abhängig von einem Gewicht
Nach Schritt
- In Schritt
S12 wird ein zufälliges Auswählen einer der Funktionen / aus dem Prior p(ƒ) durchgeführt.
- In step
S12 a random selection of one of the functions / from the prior p (ƒ) is carried out.
Nach Schritt
Nach dem Erzeugen der Trainingsdaten D nach Schritt
Wenn Schritt
Optional kann nach Beendigung des Schrittes
Daraufhin wird im nachfolgenden Schritt
Daraufhin wird in Schritt
Nachdem Schritt
Die erste Darstellung
Die zweite Darstellung
Die dritte Darstellung
Plot
In einer bevorzugten Ausführungsform der Erfindung wird das Verfahren nach
Zur Parametrierung eines Wärmebehandlungsprozesses werden für jede Bauteilgeometrie und Werkstoff umfangreiche Eingangstests durchgeführt, um ein stabiles Prozessfenster für die Prozessparameter des Wärmebehandlungsprozesses zu bestimmen. Erfahrungen aus früheren Vermessungen anderer Werkstückgeometrien und Werkstoffe können dabei nur teilweise berücksichtigt werden. Dies erhöht den zeitlichen Aufwand für die Parametrierung des Wärmebehandlungsprozesses für einen Bauteiltyp, da eine einzelne Vermessung eines Werkstücks sehr aufwendig ist. Es ist bekannt, dass zum Bestimmen von Prozessparametern für einen Wärmebehandlungsprozess eines Bauteils, insbesondere zum Härten des Bauteils, die Prozessparameter mithilfe eines Bayes'schen Optimierungsverfahrens ermittelt werden.To parameterize a heat treatment process, extensive input tests are carried out for each component geometry and material in order to determine a stable process window for the process parameters of the heat treatment process. Experience from previous measurements of other workpiece geometries and materials can only be partially taken into account. This increases the time required to parameterize the heat treatment process for a component type, since a single measurement of a workpiece is very complex. It is known that, in order to determine process parameters for a heat treatment process of a component, in particular for hardening the component, the process parameters are determined with the aid of a Bayesian optimization method.
Es wird nun vorgeschlagen, dass anstatt einem Gaußprozessmodell für die Bayes'sche Optimierung zur Vorhersage der Güte der behandelten Bauteile das angelernte maschinelle Lernsystem gemäß
Nach einem Vermessen von Bauteilen, die entsprechend Test-Prozessparameter einem Wärmebehandlungsprozess unterzogen werden, hinsichtlich der einen oder den mehreren Bauteileigenschaften, muss nun nicht ein Optimieren des Gaußprozessmodell durchgeführt werden, denn gemäß den Schritten
Gemäß der Bayes'schen Optimierung wird eine Akquisitionsfunktion erstellt, um jeweils einen nächsten Test-Prozessparametersatz zur Vermessung der einen oder der mehreren Bauteileigenschaften eines entsprechend hergestellten Bauteils zu erhalten. Eine Ausgabe der Akquisitionsfunktion kann dann nach Schritt
Ein Wärmebehandlungsprozess sieht in der Regel eine Wärmebehandlung eines Werkstücks über eine Gesamtzeitdauer vor, wobei der Temperaturverlauf während der Gesamtzeitdauer einer vorgegebenen Trajektorie folgt. Die Temperaturtrajektorie ist so gewählt, dass bestimmte Bauteileigenschaften erreicht werden sollen. Die Parametrierung der Prozessparameter zum Einstellen der Temperaturtrajektorie erfolgt gemäß einem Ergebnis eines Bayes'schen Optimierungsverfahrens, das auf einer trainierbaren Qualitätsfunktion in Form eines Gauß-Prozesses basiert. Die Qualitätsfunktion bildet die Prozessparameter des Wärmebehandlungsprozesses auf ein relevantes Qualitätsmaß, das Bauteilparameter wie z.B. die Gefügezusammensetzung und/oder Prozesseigenschaften (wie z.B. die Prozessdauer) des Herstellungsprozesses kennzeichnet, ab. Zusätzlich können Anforderungen an das Prozessergebnis, wie beispielsweise eine Mindesthärte des zu härtenden Bauteils, als Nebenbedingung berücksichtigt werden. Diese Nebenbedingungen werden jeweils mit weiteren Gauß-Prozess-Modellen in dem Optimierungsverfahren berücksichtigt.A heat treatment process generally provides for a heat treatment of a workpiece over a total period of time, the temperature profile following a predetermined trajectory during the entire period of time. The temperature trajectory is chosen so that certain component properties are to be achieved. The parameterization the process parameter for setting the temperature trajectory takes place according to a result of a Bayesian optimization method, which is based on a trainable quality function in the form of a Gaussian process. The quality function maps the process parameters of the heat treatment process to a relevant quality measure, which characterizes component parameters such as the structural composition and / or process properties (such as the process duration) of the manufacturing process. In addition, requirements for the process result, such as a minimum hardness of the component to be hardened, can be taken into account as secondary conditions. These secondary conditions are taken into account in the optimization process with further Gaussian process models.
Weiterhin kann der Wärmebehandlungsprozess in mehrere zeitlich aufeinanderfolgende Bearbeitungsphasen unterteilt sein, wobei die Prozessparameter einen oder mehrere der folgenden Parameter angeben:
- - eine Zeitdauer für eine Bearbeitungsphase;
- - einen Zeitpunkt des Wechselns zwischen Bearbeitungsphasen;
- - eine Bearbeitungstemperatur in einer Bearbeitungsphase; und
- - eine Leistungszufuhr zum Erwärmen des Bauteils in einer Bearbeitungsphase.
- - a period of time for a processing phase;
- - a point in time of switching between processing phases;
- a machining temperature in a machining phase; and
- - A power supply for heating the component in a processing phase.
In einer bevorzugten Ausführungsform der Erfindung wird das Verfahren nach
In einer weiteren Ausführungsform des Verfahrens nach
Das Steuerungssystem
Gemäß den Schritten
Der Aktuator
In weiteren Ausführungsformen umfasst das Steuerungssystem
In weiteren bevorzugten Ausführungsformen umfasst das Steuerungssystem
In alternativen Ausführungsformen ist alternativ oder zusätzlich zum Aktuator
In anderen Ausführungsformen kann die Anzeigeeinheit
In einer bevorzugten Ausführungsform der
Bei dem vorzugsweise im Kraftfahrzeug
Alternativ kann es sich bei dem wenigstens teilautonomen Roboter auch um einen anderen mobilen Roboter (nicht abgebildet) handeln, beispielsweise um einen solchen, der sich durch Fliegen, Schwimmen, Tauchen oder Schreiten fortbewegt. Bei dem mobilen Roboter kann es sich beispielsweise auch um einen wenigstens teilautonomen Rasenmäher oder einen wenigstens teilautonomen Putzroboter handeln. Auch in diesen Fällen kann das Ansteuersignal A derart ermittelt werden, dass Antrieb und/oder Lenkung des mobilen Roboters derart angesteuert werden, dass der wenigstens teilautonome Roboter beispielsweise eine Kollision mit vom künstlichen neuronalen Netz
Bei dem Sensor
Abhängig von den Signalen des Sensors
Diese entsprechende Ansteuerung kann beispielsweise beinhalten, dass der persönliche Assistent
Anstelle des persönlichen Assistenten
Die vom Trainingsvorrichtung
Der Begriff „Computer“ umfasst beliebige Geräte zur Abarbeitung vorgebbarer Rechenvorschriften. Diese Rechenvorschriften können in Form von Software vorliegen, oder in Form von Hardware, oder auch in einer Mischform aus Software und Hardware.The term “computer” encompasses any device for processing specifiable arithmetic rules. These calculation rules can be in the form of software, or in the form of hardware, or also in a mixed form of software and hardware.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte Nicht-PatentliteraturNon-patent literature cited
-
Ashish Vaswani et al: „Attention is all you need“. In Advances in Neural Information Processing Systems, volume 30. Curran Associates, Inc., 2017 [0029]Ashish Vaswani et al: "Attention is all you need". In Advances in Neural Information Processing Systems,
volume 30. Curran Associates, Inc., 2017 [0029]
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202021105192.2U DE202021105192U1 (en) | 2021-09-27 | 2021-09-27 | Apparatus for machine learning from a small number of training data examples |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202021105192.2U DE202021105192U1 (en) | 2021-09-27 | 2021-09-27 | Apparatus for machine learning from a small number of training data examples |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202021105192U1 true DE202021105192U1 (en) | 2021-10-25 |
Family
ID=78509447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202021105192.2U Active DE202021105192U1 (en) | 2021-09-27 | 2021-09-27 | Apparatus for machine learning from a small number of training data examples |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE202021105192U1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022207326A1 (en) | 2022-07-19 | 2024-01-25 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method and device for monitoring a hydraulic system for the entry of foreign fluids |
-
2021
- 2021-09-27 DE DE202021105192.2U patent/DE202021105192U1/en active Active
Non-Patent Citations (1)
Title |
---|
Ashish Vaswani et al: „Attention is all you need". In Advances in Neural Information Processing Systems, volume 30. Curran Associates, Inc., 2017 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022207326A1 (en) | 2022-07-19 | 2024-01-25 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method and device for monitoring a hydraulic system for the entry of foreign fluids |
DE102022207326B4 (en) | 2022-07-19 | 2024-05-08 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method and device for monitoring a hydraulic system for the entry of foreign fluids |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3785177B1 (en) | Method and device for determining a network-configuration of a neural network | |
EP3853778B1 (en) | Method and device for operating a control system | |
DE102020210352A1 (en) | Method and device for transfer learning between modified tasks | |
DE202019105282U1 (en) | Device for optimizing a machine learning system | |
DE202020101012U1 (en) | Device for predicting a suitable configuration of a machine learning system for a training data set | |
DE112020003343T5 (en) | SYSTEM AND PROCESS USING A ROBUST DEEP GENERATIVE MODEL | |
DE102020212515A1 (en) | Method and device for training a machine learning system | |
WO2021008836A1 (en) | Device and computer-implemented method for the processing of digital sensor data and training method for same | |
DE202021105192U1 (en) | Apparatus for machine learning from a small number of training data examples | |
WO2020064211A1 (en) | Method and device for determining a control signal | |
DE102019209566A1 (en) | Method and device for training a machine learning system | |
DE102020208828A1 (en) | Method and device for creating a machine learning system | |
DE102020211262A1 (en) | Method and device for compressing a neural network | |
DE202020104238U1 (en) | Device for learning a strategy and operating the strategy | |
EP3785178B1 (en) | Method and device for determining a network-configuration of a neural network | |
DE102021210775A1 (en) | Method and device for machine learning from a small number of training data samples | |
DE102019202523A1 (en) | Method and device for operating a control system | |
DE102022206063A1 (en) | SYSTEM AND METHOD OF SUPPLYING ROBUSTIFIERS FOR PRE-TRAINED MODELS AGAINST ENEMY ATTACKS | |
DE102018211875A1 (en) | Method and device for operating a control system | |
DE102022201679A1 (en) | Method and device for training a neural network | |
DE102021208724A1 (en) | Method and device for the automated creation of a machine learning system for multi-sensor data fusion | |
DE102020212108A1 (en) | Method and device for training a machine learning system | |
DE202020104005U1 (en) | Device for creating a system for the automated creation of machine learning systems | |
DE102019207911A1 (en) | Method, device and computer program for predicting a learning curve | |
DE202019103046U1 (en) | Device for predicting a learning curve |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification | ||
R081 | Change of applicant/patentee |
Owner name: ALBERT-LUDWIGS-UNIVERSITAET FREIBURG, KOERPERS, DE Free format text: FORMER OWNERS: ALBERT-LUDWIGS-UNIVERSITAET FREIBURG, 79098 FREIBURG, DE; ROBERT BOSCH GESELLSCHAFT MIT BESCHRAENKTER HAFTUNG, 70469 STUTTGART, DE |
|
R082 | Change of representative |