DE102019207911A1 - Method, device and computer program for predicting a learning curve - Google Patents
Method, device and computer program for predicting a learning curve Download PDFInfo
- Publication number
- DE102019207911A1 DE102019207911A1 DE102019207911.3A DE102019207911A DE102019207911A1 DE 102019207911 A1 DE102019207911 A1 DE 102019207911A1 DE 102019207911 A DE102019207911 A DE 102019207911A DE 102019207911 A1 DE102019207911 A1 DE 102019207911A1
- Authority
- DE
- Germany
- Prior art keywords
- learning
- value
- machine learning
- curve
- learning curve
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
Abstract
Die Erfindung betrifft ein Verfahren (30) zur Vorhersage einer Lernkurve eines iterativen Anlernverfahrens. Das Verfahren (30) umfasst die Schritte des Erhaltens der Hyperparameters θ des Anlerverfahrens und zumindest eines vorhergehenden Wertes der Kostenfunktion und den Schritt des Vorhersagens, mittels eines zweiten maschinellen Lernsystems (12), der Lernkurve abhängig von dem Hyperparameter θ und abhängig von dem zumindest einen vorhergehenden Wert der Lernkurve. Die Erfindung betrifft ferner ein Computerprogramm und eine Vorrichtung zum Ausführen des Verfahrens (30) und ein maschinenlesbares Speicherelement, auf dem das Computerprogramm gespeichert ist.The invention relates to a method (30) for predicting a learning curve of an iterative learning process. The method (30) comprises the steps of obtaining the hyperparameters θ of the training method and at least one previous value of the cost function and the step of predicting, by means of a second machine learning system (12), the learning curve depending on the hyperparameter θ and depending on the at least one previous value of the learning curve. The invention also relates to a computer program and a device for carrying out the method (30) and a machine-readable memory element on which the computer program is stored.
Description
Technisches GebietTechnical area
Die Erfindung betrifft ein Verfahren zur Vorhersage einer Lernkurve bei einem iterativen Anlernverfahren eines maschinellen Lernsystems. Ebenso betrifft die Erfindung eine Vorrichtung und ein Computerprogramm, die jeweils eingerichtet sind, das Verfahren auszuführen.The invention relates to a method for predicting a learning curve in an iterative learning method of a machine learning system. The invention also relates to a device and a computer program which are each set up to carry out the method.
Stand der TechnikState of the art
Die Autoren T. Elsken, J. Metzen, und F. Hutter geben in ihrer Veröffentlichung „Neural architecture search: A survey.“ arXiv preprint arXiv:1808.05377 (2018) einen Überblick über Verfahren zur Optimierung einer Architektur von maschinellen Lernsystemen.The authors T. Elsken, J. Metzen, and F. Hutter give in their publication "Neural architecture search: A survey." ArXiv preprint arXiv: 1808.05377 (2018) an overview of methods for optimizing the architecture of machine learning systems.
Die Autoren A. Klein, S. Falkner, J. T. Springenberg, und F. Hutter offenbaren in ihrer Veröffentlichung „Learning curve prediction with Bayesian neural networks“ International Conference on Learning Representations (ICLR'17) ein Verfahren zur Vorhersage von Lernkurven maschineller Lernsysteme.The authors A. Klein, S. Falkner, J. T. Springenberg, and F. Hutter disclose in their publication "Learning curve prediction with Bayesian neural networks" International Conference on Learning Representations (ICLR'17) a method for predicting learning curves of machine learning systems.
Vorteile der ErfindungAdvantages of the invention
Das Anlernen von maschinellen Lernsystemen ist sehr rechenintensiv und deshalb selbst auf leistungsstarken Rechnern extrem zeitintensiv. Dieses Problem verschärft sich, wenn das maschinelle Lernsystem viele Parameter (z.B. <100 bis >1Mio Parameter) aufweist und viele Trainingsdaten beim Anlernen benötigt werden, da diese beim Anlernen jeweils durch das maschinelle Lernsystem verarbeitet werden müssen. Ein Hyperparameter des Anlernverfahrens kann durch Ausprobieren angepasst werden, um die Lernkurve positiv zu beeinflussen. Das Ausprobieren ist jedoch extrem ineffizient, da hierfür jedes Mal alle Berechnungen durchgeführt werden müssen, ohne vorhersehen zu können, ob dieser angepasste Hyperparameter des Anlernverfahrens anschließend zu einer besseren Lernkurve führt.Teaching machine learning systems is very computationally intensive and therefore extremely time-consuming even on powerful computers. This problem is exacerbated when the machine learning system has many parameters (e.g. <100 to> 1 million parameters) and a lot of training data is required for teaching, as these have to be processed by the machine learning system during teaching. A hyperparameter of the learning process can be adjusted by trial and error in order to positively influence the learning curve. Trying it out is extremely inefficient, however, since all calculations have to be carried out every time without being able to foresee whether this adapted hyperparameter of the teaching process will subsequently lead to a better learning curve.
Die Erfindung hat zum Ziel, den Anlernprozess von maschinellen Lernsystemen zu vereinfachen, indem gezielt ein geeigneter Wert des Hyperparameters des Anlernverfahrens bestimmt wird, sodass insgesamt weniger Anlernschritte benötigt werden, wodurch das Anlernverfahren computerressourcen-effizienter wird.The aim of the invention is to simplify the learning process of machine learning systems by specifically determining a suitable value of the hyperparameters of the learning process, so that overall fewer learning steps are required, whereby the learning process becomes more efficient in terms of computer resources.
Es wird vorgeschlagen, dass die Lernkurve kostengünstig vorhergesagt wird. Abhängig von der Vorhersage kann dann entschieden werden, ob das Anlernen mit dem gewählten Hyperparameter des Anlernverfahrens zielführend sein wird, also beibehalten wird, oder ob der Hyperparameter geändert werden soll. Damit kann dann selektiv der Hyperparameter des Lernverfahrens beim Anlernen des maschinellen Lernsystems verwendet werden, um schneller und damit computerressourcen-sparsamer das maschinelle Lernsystem anzulernen, ohne unnötig viele, nicht-zielführende Werte des Hyperparameters zu verwenden, insbesondere zu testen.It is suggested that the learning curve be predicted inexpensively. Depending on the prediction, a decision can then be made as to whether the teaching with the selected hyperparameter of the teaching method will be expedient, that is, will be retained, or whether the hyperparameter should be changed. The hyperparameter of the learning method can then be used selectively when teaching the machine learning system in order to train the machine learning system more quickly and thus more economically with computer resources, without using unnecessarily many, non-targeting values of the hyperparameters, in particular testing them.
Ferner erlaubt die Erfindung auch einen Hyperparameter des Anlernverfahrens zu finden, die es ermöglicht präziser ein Optimum der Kostenfunktion beim Anlernen zu finden und damit eine höhere Leistungsfähigkeit des maschinellen Lernsystems zu erreichen.Furthermore, the invention also allows a hyperparameter of the learning method to be found, which makes it possible to find an optimum of the cost function during the learning process more precisely and thus to achieve a higher efficiency of the machine learning system.
Offenbarung der ErfindungDisclosure of the invention
In einem ersten Aspekt wird ein, insbesondere computerimplementiertes, Verfahren gemäß dem unabhängigen Anspruch 1 zur Vorhersage einer Lernkurve eines iterativen Anlernverfahrens eines ersten maschinellen Lernsystems vorgestellt. Die Lernkurve ist eine, insbesondere sequenzielle Zeit-, Reihe einer Mehrzahl von Werten, die jeweils einem Wert einer Kostenfunktion des iterativen Anlernverfahrens entsprechen oder die jeweils eine Leistungsfähigkeit (engl. performance) des ersten maschinellen Lernsystems auf Trainingsdaten charakterisieren. Unter Trainingsdaten werden alle bereitgestellten Daten verstanden, die jeweils ein Paar aus Eingangsgrößen und zugeordneten Ausgangsgrößen umfassen und zum Anlernen und Evaluieren des ersten maschinellen Lernsystem verwendet werden. Vorzugsweise wird zum Evaluieren der Leistungsfähigkeit ein Validierungsdatensatz verwendet.In a first aspect, a, in particular computer-implemented, method according to
Vorzugsweise sind die Werte der Lernkurve jeweils einem Iterationsschritt des Anlernverfahrens zugeordnet. Die Lernkurve beschreibt einen Verlauf, bzw. einen Fortschritt des Anlernverfahrens, also eine zeitliche Entwicklung der Werte der Kostenfunktion oder der Leistungsfähigkeit entlang der Iterationsschritte des Anlernens des ersten maschinellen Lernsystems. Unter der Leistungsfähigkeit kann verstanden werden, in wie weit das erste maschinelle Lernsystem, angewendet auf die Trainingsdaten, bereits seiner Aufgabe nachkommt, gemäß welcher das erste maschinelle Lernsystem angelernt wird, diese Aufgabe zu lösen. Die Leistungsfähigkeit ist bspw. eine Klassifikationsgenauigkeit der Trainingsdaten, die zum Anlernen des ersten maschinellen Lernsystem verwendet werden. Das iterative Anlernverfahren wird zum Anlernen des ersten maschinellen Lernsystems verwendet und ist durch eine Parametrisierung parametrisiert. Das Verfahren zur Vorhersage der Lernkurve umfasst die Schritte: Erhalten der Parametrisierung des iterativen Anlernverfahrens und zumindest eines vorhergehenden Wertes der Lernkurve, der nach zumindest einem vorhergehend ausgeführten, vorzugsweise aktuellsten, Iterationsschritt des Anlernverfahrens ermittelt wurde. D.h. der vorhergehende Wert der Lernkurve entspricht im Wesentlichen einem vorhergehenden Wert der Kostenfunktion dieses Iterationsschrittes oder charakterisiert die Leistungsfähigkeit nachdem dieser Iterationsschritt ausgeführt wurde. Daraufhin folgt ein Vorhersagen, mittels eines zweiten maschinellen Lernsystems, eines nachfolgenden Wertes der Lernkurve abhängig von der Parametrisierung und abhängig von dem zumindest einem vorhergehenden Wert der Lernkurve. D.h. der nachfolgende Wert der Lernkurve entspricht im Wesentlichen einem Wert der Kostenfunktion, den die Kostenfunktion zu einem nachfolgenden Iterationsschritt des Anlernverfahrens ermitteln würde oder charakterisiert die Leistungsfähigkeit nachdem der nachfolgende Iterationsschritt ausgeführt worden wäre. Daraufhin folgt ein Entscheiden abhängig von dem vorhergesagten Wert der Lernkurve, ob die Parametrisierung des iterativen Anlernverfahren beibehalten wird. Denkbar ist auch, dass die Schritte des Verfahrens mehrfach wiederholt werden und abhängig von einer Mehrzahl von vorhergesagten Werten der Lernkurve entschieden wird, ob die Parametrisierung des iterativen Anlernverfahren beibehalten wird.The values of the learning curve are preferably each assigned to an iteration step of the learning method. The learning curve describes a course or a progress of the learning process, that is, a development over time of the values of the cost function or the performance along the iteration steps of the learning of the first machine learning system. The performance can be understood to mean the extent to which the first machine learning system, applied to the training data, is already performing its task, according to which the first machine learning system is trained to solve this task. The performance is, for example, a classification accuracy of the training data that is used to teach the first machine learning system. The iterative teaching method is used to train the first machine learning system and is parameterized by a parameterization. The method for predicting the learning curve comprises the following steps: Obtaining the parameterization of the iterative learning process and at least one previous value of the learning curve, which is based on at least one previously executed, preferably most current, Iteration step of the learning process was determined. In other words, the previous value of the learning curve essentially corresponds to a previous value of the cost function of this iteration step or characterizes the performance after this iteration step has been carried out. This is followed by a prediction, by means of a second machine learning system, of a subsequent value of the learning curve depending on the parameterization and depending on the at least one previous value of the learning curve. That is to say, the subsequent value of the learning curve essentially corresponds to a value of the cost function that the cost function would determine for a subsequent iteration step of the learning method or characterizes the performance after the subsequent iteration step would have been carried out. This is followed by a decision as a function of the predicted value of the learning curve as to whether the parameterization of the iterative learning method is retained. It is also conceivable that the steps of the method are repeated a number of times and, depending on a plurality of predicted values of the learning curve, a decision is made as to whether the parameterization of the iterative learning method is retained.
Der Vorteil des Verfahrens ist, dass dieses besonders effizient und zuverlässig den Verlauf der Lernkurve vorhersagt. Da die Parametrisierung des iterativen Anlernverfahrens die Lernkurve und damit den Erfolg des Anlernens des ersten maschinellen Lernsystems beeinflusst, kann mithilfe dieses Verfahrens vorhergesagt werden, wie erfolgsversprechend die Parametrisierung sein wird. Unter der Parametrisierung kann eine oder eine Mehrzahl von Hyperparametern verstanden werden. Ein Hyperparameter ist ein Parameter, dessen Wert(e) zu Beginn eines Lernverfahrens gewählt wird und bis zu einer Beendigung des iterativen Anlerverfahrens unverändert bleibt.The advantage of the method is that it predicts the course of the learning curve particularly efficiently and reliably. Since the parameterization of the iterative learning process influences the learning curve and thus the success of the learning of the first machine learning system, this process can be used to predict how promising the parameterization will be. The parameterization can be understood to mean one or a plurality of hyperparameters. A hyperparameter is a parameter whose value (s) is selected at the beginning of a learning process and remains unchanged until the iterative learning process is ended.
Es sei angemerkt, dass zu jedem Iterationsschritt des Anlernverfahrens die Kostenfunktion ausgewertet werden kann und abhängig von der Kostenfunktion eine Parametrisierung des ersten maschinellen Lernsystems angepasst wird. Die Parametrisierung des ersten maschinellen Lernsystems kann mehr als 100 Parameter, oder mehr als 1 Mio. Parameter umfassen.It should be noted that the cost function can be evaluated for each iteration step of the learning method and a parameterization of the first machine learning system is adapted depending on the cost function. The parameterization of the first machine learning system can include more than 100 parameters or more than 1 million parameters.
Unter einem iterativen Anlernverfahren wird ein (Trainings-)Verfahren verstanden, dass die Parametrisierung des ersten maschinellen Lernsystems derart anpasst, dass die Kostenfunktion hinsichtlich eines vorgebbaren Kriteriums optimal wird. Das Anpassen der Parametrisierung des ersten maschinellen Lernsystems erfolgt hierbei iterativ. Alternierend wird die Parametrisierung des ersten maschinellen Lernsystems abhängig von der Kostenfunktion angepasst und die Kostenfunktion wird dann abhängig von der angepassten Parametrisierung ermittelt. D.h. die Parametrisierung wird angepasst, woraufhin die Kostenfunktion aktualisiert wird und die Parametrisierung abhängig von der aktualisierten Kostenfunktion erneut angepasst wird. Dies kann mehrfach hintereinander ausgeführt werden, bis ein vorgebbares Abbruchkriterium erreicht wird. Beispielsweise kann das iterative Anlernverfahren ein Gradientenabstiegsverfahren, wie zum Beispiel Adam, sein. Das erste maschinelle Lernsystem kann jede Art von lernfähigen Systemen sein, wie zum Beispiel ein neuronales Netzwerk oder ein Gaußprozess oder eine Support Vector Machine, etc.. Das erste maschinelle Lernsystem kann zur Klassifikation oder Segmentierung von Bildern, Videosequenzen und/oder Audiosignale verwendet werden. Ferner sei angemerkt, dass das maschinelle Lernsystem auch für weitere Aufgaben, wie z.B. eine Regression, verwendet werden kann.An iterative learning process is understood to mean a (training) process that adapts the parameterization of the first machine learning system in such a way that the cost function becomes optimal with regard to a specifiable criterion. The parameterization of the first machine learning system is adapted iteratively. The parameterization of the first machine learning system is alternately adapted depending on the cost function and the cost function is then determined depending on the adapted parameterization. I.e. the parameterization is adapted, whereupon the cost function is updated and the parameterization is adapted again depending on the updated cost function. This can be done several times in succession until a predefinable termination criterion is reached. For example, the iterative learning process can be a gradient descent process such as Adam. The first machine learning system can be any type of adaptive system, such as a neural network or a Gaussian process or a support vector machine, etc. The first machine learning system can be used for the classification or segmentation of images, video sequences and / or audio signals. It should also be noted that the machine learning system can also be used for other tasks, such as a regression, can be used.
Unter einer Kostenfunktion kann eine Differenz bzw. eine Abweichung zwischen wenigstens einer ermittelten Ausgangsgröße des ersten maschinellen Lernsystems abhängig von einer Trainingseingangsgröße und einer Trainingsausgangsgröße, die der Trainingseingangsgröße zugeordnet ist, sein. Die Kostenfunktion kann beispielsweise eine Kreuzentropie oder Ähnliches sein.A cost function can be a difference or a deviation between at least one determined output variable of the first machine learning system as a function of a training input variable and a training output variable that is assigned to the training input variable. The cost function can for example be a cross entropy or the like.
Es wird vorgeschlagen, dass das zweite maschinelle Lernsystem ein Random Forest ist. Der Random Forest sagt abhängig von einer Mehrzahl von vorhergehenden Werten der Lernkurve den nachfolgenden Wert der Lernkurve vorher. Ein jeder Entscheidungsbaum (engl. tree) des Random Forest gibt zumindest eine erste Größe und eine zweite Größe aus. Die Vorhersage des nachfolgenden Wertes der Lernkurve wird abhängig von einem Mittelwert über die ersten Größen und abhängig von einem Mittelwert über die zweiten Größen ermittelt.It is suggested that the second machine learning system is a random forest. The random forest predicts the subsequent value of the learning curve as a function of a plurality of previous values of the learning curve. Each decision tree of the random forest outputs at least a first size and a second size. The prediction of the subsequent value of the learning curve is determined as a function of an average value over the first variables and as a function of an average value over the second variables.
Der Mittelwert der ersten und zweiten Größe kann verwendet werden, um eine Wahrscheinlichkeitsverteilung, vorzugsweise eine Gauß-Verteilung, zu parametrisieren, wobei der vorhergesagte Wert der Lernkurve dann zufällig aus dieser Wahrscheinlichkeitsverteilung gezogen wird.The mean value of the first and second variables can be used to parameterize a probability distribution, preferably a Gaussian distribution, the predicted value of the learning curve then being randomly drawn from this probability distribution.
Ein Random Forest ist ein Regressions-/Klassifikationsverfahren, das aus mehreren unkorrelierten Entscheidungsbäumen besteht. Alle Entscheidungsbäume wurden während eines Lernprozesses erstellt. Für eine Klassifikation darf jeder Baum in diesem „Wald“ eine Entscheidung treffen. Die endgültige Klassifikation wird dann abhängig von allen Entscheidungen der Bäume getroffen. Die erste und zweite Größe des Random Forest charakterisieren vorzugsweise ein erstes und zweites Moment einer Wahrscheinlichkeitsverteilung, bspw. einer Gauß Verteilung. Der Vorteil des Random Forest liegt darin, dass diese Art von maschinellen Lernsystemen mit wenigen Trainingsdaten zurechtkommen und daher effizient erstellt und betrieben werden können.A random forest is a regression / classification method that consists of several uncorrelated decision trees. All decision trees were created during a learning process. For a classification, each tree in this "forest" can make a decision. The final classification is then made based on all decisions made by the trees. The first and second variables of the random forest preferably characterize a first and second moment of a probability distribution, for example a Gaussian distribution. The advantage of the Random Forest is that this type of machine learning system has cope with little training data and can therefore be efficiently created and operated.
Weiterhin wird vorgeschlagen, dass das zweite maschinelle Lernsystem ein Bayes'sches rekurrentes neuronales Netz ist, auch bekannt unter der englischen Bezeichnung Variational Recurrent Neural Network (VRNN). Ferner wird vorgeschlagen, dass das Bayes'sche rekurrente neuronale Netz eine Mehrzahl von LongShortTermMemory-Module (LSTM) umfasst, die nach einer vorgegebenen Reihenfolge miteinander verbundenen sind.It is further proposed that the second machine learning system is a Bayesian recurrent neural network, also known under the English name Variational Recurrent Neural Network (VRNN). It is further proposed that the Bayesian recurrent neural network comprises a plurality of LongShortTermMemory modules (LSTM) which are connected to one another in a predetermined sequence.
Der Vorteil von rekurrenten neuronalen Netzen liegt darin, dass diese beim Betreiben nur einen vorhergehenden Wert der Lernkurve benötigen und sich anhand ihres internen Kurz-/Lang-zeitgedächtnisses an erhaltene Werte der Lernkurve von vorhergehenden Berechnungen erinnern können. Damit kommen die rekurrenten neuronalen Netze im Betrieb mit wenigen Daten aus, um eine besonders zuverlässige Vorhersage treffen zu können. Der Vorteil des Bayes'schen rekurrenten neuronalen Netzes ist, dass dieses eine Aussage über eine Verlässlichkeit der Vorhersage treffen kann.The advantage of recurrent neural networks is that they only need a previous value of the learning curve during operation and can use their internal short / long-term memory to remember values of the learning curve obtained from previous calculations. This means that the recurrent neural networks manage with little data during operation in order to be able to make a particularly reliable forecast. The advantage of the Bayesian recurrent neural network is that it can make a statement about the reliability of the prediction.
Weiterhin wird vorgeschlagen, dass die Parametrisierung jeweils mittels einer Mehrzahl von vollvermaschten neuronalen Netzen (engl. fully connected neural networks) verarbeitet wird und jeweils die verarbeiteten Parametrisierungen zusätzlich als Eingangsgröße jeweils einem der LSTM bereitgestellt werden. Zusätzlich können die verarbeiteten Parametrisierungen abhängig von einer zufällig gezogenen Größe, insbesondere aus einer Bernoulli-Verteilung, gewichtet werden. Dies erlaubt eine Gewichtung der Parametrisierung des Anlernverfahrens, wodurch die Parametrisierung nach ihrer Verlässlichkeit den LSTM zugeführt werden. Ein weiterer Vorteil der vollvermaschten neuronalen Netze besteht in ihrer Differenzierbarkeit, die die Optimierung von neuen Parametrisierungen erleichtert. Außerdem können (vollvermaschte) neuronale Netze mit viel mehr Daten trainiert werden, was die Vorhersagen verbessert.It is also proposed that the parameterization is processed by means of a plurality of fully connected neural networks and that the processed parameterizations are additionally provided as an input variable to one of the LSTMs. In addition, the processed parameterizations can be weighted depending on a randomly drawn variable, in particular from a Bernoulli distribution. This allows the parameterization of the learning process to be weighted, as a result of which the parameterization is fed to the LSTM according to its reliability. Another advantage of the fully meshed neural networks is their differentiability, which facilitates the optimization of new parameterizations. In addition, (fully meshed) neural networks can be trained with much more data, which improves the predictions.
Weiterhin wird vorgeschlagen, dass vor Beginn des iterativen Anlernverfahrens die Mehrzahl der LSTM des Bayes'schen rekurrenten neuronalen Netzes und die Lernkurve initialisiert werden. Beim Initialisieren der Lernkurve wird ein erster Wert gleich Null gesetzt. Der erste Wert muss nicht unbedingt Null sein, beliebige Werte sind denkbar, solange beim Ausführen des Verfahrens der gleiche Wert verwendet wird.It is also proposed that the majority of the LSTM of the Bayesian recurrent neural network and the learning curve are initialized before the start of the iterative learning process. When the learning curve is initialized, a first value is set equal to zero. The first value does not necessarily have to be zero; any values are possible as long as the same value is used when executing the method.
Das zweite maschinelle Lernsystem sagt abhängig von der Parametrisierung und dem auf Null gesetzten Wert der Lernkurve den nachfolgenden Wert der Lernkurve vorher, insbesondere ohne dass ein Iterationsschritt des Anlernverfahrens ausgeführt werden muss. Es sei angemerkt, dass dieser nachfolgende Wert der Lernkurve einem Wert der Lernkurve entspricht und erwartet wird, dass dieser nach einem Ausführen des ersten Iterationsschrittes des Anlernverfahrens vorliegen würde. Der Vorteil liegt darin, dass das iterative Anlernverfahren nicht ausgeführt werden muss, dennoch kann eine Vorhersage der Lernkurve durchgeführt werden. Dies erlaubt ein besonders effizientes Anlernverfahren welches mit einer minimalen Anzahl von Iterationsschritten des Anlernverfahrens auskommt. Unter Initialisieren des Bayes'schen rekurrenten neuronalen Netzes kann verstanden werden, dass alle internen Zustände des rekurrenten neuronalen Netzes auf einen vorgegebenen Wert, beispielsweise auf den Wert Null, gesetzt werden.Depending on the parameterization and the value of the learning curve set to zero, the second machine learning system predicts the subsequent value of the learning curve, in particular without an iteration step of the learning process having to be carried out. It should be noted that this subsequent value of the learning curve corresponds to a value of the learning curve and it is expected that this would be present after the first iteration step of the learning method has been carried out. The advantage is that the iterative learning process does not have to be carried out, but a prediction of the learning curve can still be carried out. This allows a particularly efficient learning process which manages with a minimal number of iteration steps of the learning process. Initializing the Bayesian recurrent neural network can be understood to mean that all internal states of the recurrent neural network are set to a predetermined value, for example to the value zero.
Weiterhin wird vorgeschlagen, dass dann, wenn das zweite maschinelle Lernsystem den nachfolgenden Wert der Lernkurve vorhergesagt hat, das zweite maschinelle Lernsystem den vorhergesagten Wert der Lernkurve als vorhergehenden Wert der Lernkurve erhält, und dieser Schritt mehrmals wiederholt wird, bis eine vorgebbare Mehrzahl von Werten der Lernkurve vorhergesagt wurde. Vorteilhaft hieran ist, dass damit eine Konvergenz des Anlernverfahrens, insbesondere der Lernkurve, vorhergesagt werden kann.It is also proposed that when the second machine learning system has predicted the subsequent value of the learning curve, the second machine learning system receives the predicted value of the learning curve as the previous value of the learning curve, and this step is repeated several times until a predeterminable plurality of values of the Learning curve was predicted. The advantage here is that a convergence of the learning process, in particular the learning curve, can be predicted.
Weiterhin wird vorgeschlagen, dass das iterative Anlernverfahren zum Anlernen des ersten maschinellen Lernsystem abhängig von der Vorhersage der Lernkurve durchgeführt, insbesondere fortgesetzt, wird. Denkbar ist auch, dass abhängig von der Vorhersage der Lernkurve das Anlernverfahren mit einer anderen Parametrisierung parametrisiert und vorzugsweise dann mit der anderen Parametrisierung das erste maschinelle Lernsystem angelernt wird, oder für die andere Parametrisierung eine Lernkurve vorhergesagt wird. Erreicht bspw. die Lernkurve nicht einen vorgebbaren Schwellwert, dann kann die Parametrisierung verworfen und eine neue Parametrisierung gewählt werden. Überschreitet die vorhergesagte Lernkurve den vorgebbaren Schwellwert, dann wird das iterative Anlernverfahren gemäß der Parametrisierung parametrisiert und daraufhin das erste maschinelle Lernsystem mit diesem parametrisierten Anlernverfahren angelernt.It is further proposed that the iterative teaching method for teaching the first machine learning system is carried out, in particular continued, as a function of the prediction of the learning curve. It is also conceivable that, depending on the prediction of the learning curve, the learning method is parameterized with a different parameterization and the first machine learning system is then preferably learned with the other parameterization, or a learning curve is predicted for the other parameterization. If, for example, the learning curve does not reach a predefinable threshold value, then the parameterization can be discarded and a new parameterization selected. If the predicted learning curve exceeds the predefinable threshold value, then the iterative learning process is parameterized according to the parameterization and the first machine learning system is then learned with this parameterized learning process.
Weiterhin wird vorgeschlagen, dass die Schritte des Verfahrens jeweils für eine Mehrzahl unterschiedlicher Parametrisierungen durchgeführt werden, und dass das Anlernverfahren zum Anlernen des ersten maschinellen Lernsystem abhängig von den Vorhersagen parametrisiert wird. Dieses Vorgehen erlaubt es, eine optimale Parametrisierung des iterativen Anlernverfahrens auszuloten.It is further proposed that the steps of the method are each carried out for a plurality of different parameterizations, and that the teaching method for teaching the first machine learning system is parameterized as a function of the predictions. This procedure allows an optimal parameterization of the iterative learning process to be explored.
Weiterhin wird vorgeschlagen, dass das zweite maschinelle Lernsystem abhängig von einer Mehrzahl von Trainingsdaten angelernt wird und die Trainingsdaten eine Mehrzahl von Trainingslernkurven und zu jeder Trainingslernkurve zugeordnete Parametrisierung umfassen. Die Trainingslernkurven können unterschiedlich lang sein.It is also proposed that the second machine learning system depends on a A plurality of training data is learned and the training data comprise a plurality of training learning curves and parameterization assigned to each training learning curve. The training learning curves can be of different lengths.
Es sei angemerkt, dass die Trainingsdaten vorzugsweise aus vorhergehenden Anlernverfahren mit ähnlichen Anlernverfahren und/oder Kostenfunktion stammen. Unterschiedlich lang bedeutet, dass die Trainingslernkurven unterschiedlich viele Werte umfassen. Denkbar ist, dass parallel zum Anlernen des ersten maschinellen Lernsystems das zweite maschinelle Lernsystem angelernt wird. Dies hat den Vorteil, dass die bereits erzeugten Lernkurven des ersten maschinellen Lernsystems als Trainingsdaten für das Anlernen des zweiten maschinellen Lernsystems verwendet werden können.It should be noted that the training data preferably originate from previous learning processes with similar learning processes and / or cost functions. Different length means that the training learning curves contain different numbers of values. It is conceivable that the second machine learning system is taught in parallel to the teaching of the first machine learning system. This has the advantage that the already generated learning curves of the first machine learning system can be used as training data for teaching the second machine learning system.
Weiterhin wird vorgeschlagen, dass die Trainingsdaten Daten aufweisen, die beim Anlernen maschineller Lernsysteme für unterschiedliche Aufgaben bzw. Anwendungen erfasst wurden.It is also proposed that the training data have data that were recorded when machine learning systems were trained for different tasks or applications.
Vorzugsweise werden alternativ oder zusätzlich zu der Parametrisierung des Anlernverfahrens Meta-Daten der Trainingsdaten verwendet. Der Vorteil hierbei ist, dass dies ein direktes Lernen über unterschiedliche Trainingsdaten hinweg ermöglicht. Meta-Daten können z.B. Größen sein, die eine Argumentierung der Trainingsdaten charakterisieren (Rotation/Translation, usw.). Alternativ kann anstatt der Meta-Daten ein latenter Vektor gelernt werden, der für die Aufgabe charakteristisch ist, welche das erste maschinelle Lernsystem nach dem Anlernen lösen soll. Es wird vorgeschlagen, dass dieser Vektor dann auf der Grundlage von wenigen beobachteten Datenpunkten der Lernkurve auf dem neuen Datensatz geschätzt werden kann. Hierzu können u.a. Methoden aus dem Bereich „Variational Inference“ (z.B. Markov-Chain-Monte-Carlo-Verfahren - kurz MCMC - oder Stochastic Variational Infence - kurz SVI) benutzt werden.As an alternative or in addition to the parameterization of the training method, metadata of the training data are preferably used. The advantage here is that this enables direct learning across different training data. Metadata can e.g. Be variables that characterize an argumentation of the training data (rotation / translation, etc.). Alternatively, instead of the metadata, a latent vector can be learned which is characteristic of the task which the first machine learning system is to solve after the learning. It is suggested that this vector can then be estimated based on a few observed data points of the learning curve on the new data set. For this purpose, i.a. Methods from the field of "Variational Inference" (e.g. Markov Chain Monte Carlo Method - MCMC for short - or Stochastic Variational Infence - SVI for short) can be used.
Die Erfindung des ersten Aspektes kann auch für „bandit-based hyperparameter optimizers“, wie z.B. BOHB, verwendet werden, um diese sinnvoll zu initialisieren.The invention of the first aspect can also be used for "bandit-based hyperparameter optimizers", e.g. BOHB, can be used to initialize this sensibly.
Da die Erfindung des ersten Aspektes anhand ihrer Vorteile (wie der zuverlässigen, besonders kostengünstigen Vorhersagen der Lernkurve und einem Ausgeben probabilistischer Verlässlichkeiten der Vorhersagen), ist die Erfindung auch in „exploitation-exploration paradigm“ Szenarios einsetzbar, z.B. in reinforcement-learning Anwendungen. Hierbei kann bspw. der Wert der Lernkurve eine Belohnung sein. Dies hat den Vorteil, dass bei aufwändig zu beobachtenden oder zu messenden Belohnungen diese mittels des zweiten maschinellen Lernsystem einfach vorhergesagt werden können.Since the invention of the first aspect is based on its advantages (such as the reliable, particularly inexpensive predictions of the learning curve and the outputting of probabilistic reliabilities of the predictions), the invention can also be used in "exploitation-exploration paradigm" scenarios, e.g. in reinforcement learning applications. Here, for example, the value of the learning curve can be a reward. This has the advantage that, in the case of rewards that are complex to observe or measure, they can easily be predicted using the second machine learning system.
In einem zweiten Aspekt der Erfindung wird das erste maschinelle Lernsystem unter Verwendung des ersten Aspektes der Erfindung angelernt. Daraufhin kann das erste maschinelle Lernsystem zum Steuern eines technischen Systems verwendet werden. Das technische System kann zum Beispiel eine zumindest teilautonome Maschine, ein zumindest teilautonomes Fahrzeug, ein Roboter, ein Werkzeug, eine Werkmaschine oder ein Flugobjekt wie eine Drohne sein. Die Eingangsgröße des ersten maschinellen Lernsystems kann eine Größe sein, welche mittels eines Sensors erfasst wurde. Abhängig von einer Ausgangsgröße des maschinellen Lernsystems kann eine Steuergröße ermittelt werden.In a second aspect of the invention, the first machine learning system is trained using the first aspect of the invention. The first machine learning system can then be used to control a technical system. The technical system can be, for example, an at least partially autonomous machine, an at least partially autonomous vehicle, a robot, a tool, a work machine or a flying object such as a drone. The input variable of the first machine learning system can be a variable that was recorded by means of a sensor. A control variable can be determined as a function of an output variable of the machine learning system.
Die Steuergröße kann zum Steuern eines Aktors eines technischen Systems verwendet werden.The control variable can be used to control an actuator of a technical system.
In einem weiteren Aspekt wird ein Computerprogramm vorgeschlagen. Das Computerprogramm ist eingerichtet, eines der vorherigen genannten Verfahren auszuführen. Das Computerprogramm umfasst Anweisungen, die einen Computer veranlassen, eines dieser genannten Verfahren mit all seinen Schritten auszuführen, wenn das Computerprogramm auf dem Computer abläuft. Ferner wird ein maschinenlesbares Speichermodul vorgeschlagen, auf welchem das Computerprogramm gespeichert ist. Des Weiteren wird eine Vorrichtung vorgeschlagen, die eingerichtet ist eines der Verfahren auszuführen. In a further aspect, a computer program is proposed. The computer program is set up to carry out one of the aforementioned methods. The computer program comprises instructions which cause a computer to carry out one of these named methods with all of its steps when the computer program runs on the computer. Furthermore, a machine-readable memory module is proposed, on which the computer program is stored. Furthermore, a device is proposed which is set up to carry out one of the methods.
Ausführungsbeispiele der oben genannten Aspekte sind in den beiliegenden Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Dabei zeigen:Exemplary embodiments of the above-mentioned aspects are shown in the accompanying drawings and explained in more detail in the description below. Show:
FigurenlisteFigure list
-
1 eine schematische Darstellung eines ersten maschinellen Lernsystems und eines zweiten maschinellen Lernsystems;1 a schematic representation of a first machine learning system and a second machine learning system; -
2 eine schematische Darstellung einer Architektur des zweiten maschinellen Lernsystems;2 a schematic representation of an architecture of the second machine learning system; -
3 eine schematische Darstellung eines Flussdiagrammes einer Ausführungsform des Verfahrens zum Vorhersagen einer Lernkurve;3 a schematic representation of a flow chart of an embodiment of the method for predicting a learning curve; -
4 eine schematische Darstellung einer Ausführungsform einer Vorrichtung, welche zum Anlernen des ersten oder zweiten maschinellen Lernsystems verwendet werden kann.4th a schematic representation of an embodiment of a device which can be used for teaching the first or second machine learning system.
Dieser Wert yt-1 kann daraufhin verwendet werden, um mittels eines iterativen Anlernverfahrens eine Parametrisierung des ersten maschinellen Lernsystems (
Das iterative Anlernverfahren kann mehrmals hintereinander ausgeführt werden. Dabei kann jeweils der Wert der Kostenfunktion bei jedem Iterationsschritt in einem Schaubild eingetragen werden, um den Verlauf des Anlernverfahrens abzubilden. Das Bezugszeichen
Alternativ kann der Wert yt-1 auch eine Leistungsfähigkeit (engl. performance) des ersten maschinellen Lernsystems (
Da das iterative Anlernverfahren parametrisierbar ist, beispielsweise durch eine Lernrate, Gradientenschrittweite oder Ähnliches, kann anhand dieser Parametrisierung θ eine Konvergenzeigenschaft der Lernkurve (
Es wird deshalb vorgeschlagen, ein zweites maschinelles Lernsystem (
Im Folgenden wird die Lernkurve (
Der vorhergesagte Wert (yt) der Lernkurve (
Das zweite maschinelle Lernsystem (
In der ersten Ausführungsform erhält der Random Forest insgesamt K nacheinander ermittelte Werte (yt-K-1, ...,yt-1) der Lernkurve (
Für ein einziges Rollout wird der vorhergesagte Wert (yt+1) aus der ermittelten Gauß-Verteilung Ψ gezogen und zu den ermittelten Werten der Lernkurve hinzugefügt oder ersetzt einen der ermittelten Werten der Lernkurve. Dieses Vorgehen kann mehrmals wiederholt werden, bis eine Sequenz mit vorgebbarer Länge erreicht wurde.For a single rollout, the predicted value (y t + 1 ) is drawn from the determined Gaussian distribution Ψ and added to the determined values of the learning curve or replaces one of the determined values of the learning curve. This procedure can be repeated several times until a sequence with a predefinable length has been achieved.
In einer Weiterentwicklung der ersten Ausführungsform können mehrere Rollouts für die insgesamt K nacheinander ermittelten Werte (yt-K-1, ...,yt-1) der Lernkurve ausgeführt werden. Daraufhin kann über alle Rollouts gemittelt werden, bspw.:
In einer zweiten Ausführungsform des zweiten maschinellen Lernsystems (
Zusätzlich kann das Bayes'sche rekurrente neuronale Netz (
Zusätzlich kann die zu h1 verarbeite Parametrisierung θ mittels des weiteren vollvermaschten neuronalen Netz (
Ebenso, wie bereits in der ersten Ausführungsform erläutert, kann hier ein Rollout durchgeführt werden. Abhängig von dem vorhergesagten Wert yt kann mittels des Bayes'schen rekurrenten neuronalen Netzes (
Das Verfahren (
Nachdem das zweite maschinelle Lernsystem (
Im nachfolgenden Schritt
Alternativ kann in Schritt
In dem nachfolgenden Schritt
Optional wird der nachfolgende Schritt
Im darauffolgenden Schritt
Nachdem Schritt
Nachdem Schritt
In einer alternativen Ausführungsform des Verfahrens (
Der zumindest teilautonome Roboter kann durch ein zumindest teilautonomes Fahrzeug gegeben sein. In einem weiteren Ausführungsbeispiel kann der zumindest teilautonome Roboter ein Service-, Montage- oder stationärer Produktionsroboter, alternativ ein autonomes Flugobjekt, wie eine Drohne, sein.The at least partially autonomous robot can be an at least partially autonomous vehicle. In a further exemplary embodiment, the at least partially autonomous robot can be a service, assembly or stationary production robot, alternatively an autonomous flying object such as a drone.
Das zumindest teilautonome Fahrzeug kann eine Erfassungseinheit umfassen. Die Erfassungseinheit kann zum Beispiel eine Kamera sein, welche eine Umgebung des Fahrzeugs erfasst. Die Erfassungseinheit kann mit dem ersten maschinellen Lernsystem (
Die Steuerungseinheit steuert in Abhängigkeit der Ausgangsgröße des maschinellen Lernsystem einen Aktor, vorzugsweise steuert diese den Aktor derart, dass das Fahrzeug ein kollisionsfreies Manöver ausführt. Im ersten Ausführungsbeispiel kann der Aktor ein Motor oder ein Bremssystem des Fahrzeugs sein. In einem weiteren Ausführungsbeispiel kann der teilautonome Roboter ein Werkzeug, eine Werkmaschine oder ein Fertigungsroboter sein. Ein Material eines Werkstückes kann mittels des ersten maschinellen Lernsystem klassifiziert werden. Der Aktor kann hierbei z.B. ein Motor, der einen Schleifkopf betreibt, sein.The control unit controls an actuator as a function of the output variable of the machine learning system; it preferably controls the actuator in such a way that the vehicle executes a collision-free maneuver. In the first exemplary embodiment, the actuator can be a motor or a braking system of the vehicle. In a further exemplary embodiment, the partially autonomous robot can be a tool, a machine tool or a production robot. A material of a workpiece can be classified using the first machine learning system. The actuator can e.g. a motor that drives a grinding head.
Die Vorrichtung kann eine Recheneinheit (
Claims (15)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019207911.3A DE102019207911A1 (en) | 2019-05-29 | 2019-05-29 | Method, device and computer program for predicting a learning curve |
CN202010482101.2A CN112016695A (en) | 2019-05-29 | 2020-05-28 | Method, apparatus and computer program for predicting a learning curve |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019207911.3A DE102019207911A1 (en) | 2019-05-29 | 2019-05-29 | Method, device and computer program for predicting a learning curve |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019207911A1 true DE102019207911A1 (en) | 2020-12-03 |
Family
ID=73264704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019207911.3A Pending DE102019207911A1 (en) | 2019-05-29 | 2019-05-29 | Method, device and computer program for predicting a learning curve |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112016695A (en) |
DE (1) | DE102019207911A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020202392A1 (en) | 2020-02-25 | 2021-08-26 | Albert-Ludwigs-Universität Freiburg | Method, device and computer program for predicting a suitable configuration of a machine learning system for a training data set |
-
2019
- 2019-05-29 DE DE102019207911.3A patent/DE102019207911A1/en active Pending
-
2020
- 2020-05-28 CN CN202010482101.2A patent/CN112016695A/en active Pending
Non-Patent Citations (3)
Title |
---|
BAKER, Bowen [et al.]: Accelerating neural architecture search using performance prediction. Stand vom 08.11.2017. URL: https://arxiv.org/pdf/1705.10823 [abgerufen am 09.04.2020] * |
ELSKEN, Thomas ; METZEN, Jan Hendrik ; HUTTER, Frank; Cornell University Library (Hrsg.): Neural architecture search: A survey. Version 2. 05-09-2018. S. 1-17. URL: https://arxiv.org/pdf/1808.05377v2 [abgerufen am 2019-08-16]. - arXiv:1808.05377v2 * |
KLEIN, Aaron [u.a.]: Learning curve prediction with Bayesian neural networks. In: International Conference on Learning Representations (ICLR), 2017, S. 1-16. * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020202392A1 (en) | 2020-02-25 | 2021-08-26 | Albert-Ludwigs-Universität Freiburg | Method, device and computer program for predicting a suitable configuration of a machine learning system for a training data set |
Also Published As
Publication number | Publication date |
---|---|
CN112016695A (en) | 2020-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3785177B1 (en) | Method and device for determining a network-configuration of a neural network | |
DE102018200724A1 (en) | Method and device for improving the robustness against "Adversarial Examples" | |
DE102020210352A1 (en) | Method and device for transfer learning between modified tasks | |
EP3748551A1 (en) | Method, device and computer program for adjusting a hyperparameter | |
DE102019214625A1 (en) | Method, device and computer program for creating an artificial neural network | |
DE102019210507A1 (en) | Device and computer-implemented method for processing digital sensor data and training methods therefor | |
EP3748453B1 (en) | Method and device for automatically executing a control function of a vehicle | |
EP3748454B1 (en) | Method and device for automatically executing a control function of a vehicle | |
DE102020211262A1 (en) | Method and device for compressing a neural network | |
DE102019207911A1 (en) | Method, device and computer program for predicting a learning curve | |
DE202019103046U1 (en) | Device for predicting a learning curve | |
DE202019105304U1 (en) | Device for creating an artificial neural network | |
DE102019212912A1 (en) | Compressing a deep neural network | |
DE202019102260U1 (en) | Device for creating a neural network | |
EP3467722A1 (en) | Configuration of a motor vehicle driver assisting device using a neural network in ongoing operation | |
DE102020205962B3 (en) | Device and method for operating a test bench | |
DE202020104238U1 (en) | Device for learning a strategy and operating the strategy | |
DE102021202813A1 (en) | Method, device and computer program for an uncertainty assessment of an image classification | |
DE102021204040A1 (en) | Method, device and computer program for creating training data in the vehicle | |
DE202019103323U1 (en) | Device for creating a machine learning system | |
DE202019103233U1 (en) | Device for setting a hyperparameter | |
DE102020205964B3 (en) | Device and method for operating a test bench | |
DE202019103924U1 (en) | Device for processing digital sensor data | |
EP3956820B1 (en) | Method, device and computer program for creating a neuronal network | |
DE102021125306A1 (en) | Method and device for providing a precise and robust neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |