DE202019103924U1 - Device for processing digital sensor data - Google Patents

Device for processing digital sensor data Download PDF

Info

Publication number
DE202019103924U1
DE202019103924U1 DE202019103924.8U DE202019103924U DE202019103924U1 DE 202019103924 U1 DE202019103924 U1 DE 202019103924U1 DE 202019103924 U DE202019103924 U DE 202019103924U DE 202019103924 U1 DE202019103924 U1 DE 202019103924U1
Authority
DE
Germany
Prior art keywords
training
neural network
artificial neural
gradient
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202019103924.8U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Albert Ludwigs Universitaet Freiburg
Original Assignee
Robert Bosch GmbH
Albert Ludwigs Universitaet Freiburg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH, Albert Ludwigs Universitaet Freiburg filed Critical Robert Bosch GmbH
Priority to DE202019103924.8U priority Critical patent/DE202019103924U1/en
Publication of DE202019103924U1 publication Critical patent/DE202019103924U1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

Vorrichtung für die Verarbeitung digitaler Sensordaten, wobei die Vorrichtung ein maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch einen Computer bewirken, dass der Computer ein Verfahren ausführt, das dadurch gekennzeichnet ist, dass eine Vielzahl Trainingsaufgaben aus einer Verteilung von Trainingsaufgaben bereitgestellt wird (302), wobei die Trainingsaufgaben die Verarbeitung von digitalen Sensordaten charakterisieren, wobei ein Parametersatz für eine Architektur und für Gewichte eines künstlichen neuronalen Netzwerks abhängig von wenigstens einer ersten Trainingsaufgabe aus der Verteilung der Trainingsaufgaben mit einem ersten Gradienten-basierten Lern-Algorithmus und einem zweiten Gradienten-basierten Lern-Algorithmus bestimmt wird (304), wobei das künstliche neuronale Netzwerk abhängig vom Parametersatz und abhängig von einer zweiten Trainingsaufgabe mit dem ersten Gradienten-basierten Lern-Algorithmus trainiert wird (306), wobei digitale Sensordaten abhängig vom künstlichen neuronalen Netzwerk (200) verarbeitet werden.

Figure DE202019103924U1_0000
A device for processing digital sensor data, the device comprising a machine-readable storage medium having stored thereon instructions which, when executed by a computer, cause the computer to perform a method characterized by performing a plurality of training tasks from a distribution of training tasks (302), wherein the training tasks characterize the processing of digital sensor data, wherein a parameter set for an artificial neural network architecture and weights depends on at least a first training task from the distribution of the training tasks with a first gradient based learning algorithm and a second gradient-based learning algorithm is determined (304), wherein the artificial neural network is trained according to the parameter set and depending on a second training task with the first gradient-based learning algorithm ( 306), wherein digital sensor data is processed depending on the artificial neural network (200).
Figure DE202019103924U1_0000

Description

Stand der TechnikState of the art

Künstliche neuronale Netzwerke eignen sich zur Verarbeitung digitaler Sensordaten. Zum Training der künstlichen neuronalen Netzwerke sind große Mengen dieser Daten und ein hoher Zeit- und Rechenaufwand erforderlich.Artificial neural networks are suitable for processing digital sensor data. To train the artificial neural networks large amounts of this data and a high time and computational effort are required.

Wünschenswert ist es, ein demgegenüber verbessertes Vorgehen anzugeben.It is desirable to specify an improved procedure.

Offenbarung der ErfindungDisclosure of the invention

Dies wird durch den Gegenstand der unabhängigen Ansprüche erreicht.This is achieved by the subject matter of the independent claims.

Ein computerimplementiertes Verfahren für die Verarbeitung digitaler Sensordaten sieht vor, dass eine Vielzahl Trainingsaufgaben aus einer Verteilung von Trainingsaufgaben bereitgestellt wird, wobei die Trainingsaufgaben die Verarbeitung von digitalen Sensordaten charakterisieren, wobei ein Parametersatz für eine Architektur und für Gewichte eines künstlichen neuronalen Netzwerks abhängig von wenigstens einer ersten Trainingsaufgabe aus der Verteilung der Trainingsaufgaben mit einem ersten Gradienten-basierten Lern-Algorithmus und einem zweiten Gradienten-basierten Lern-Algorithmus bestimmt wird, wobei das künstliche neuronale Netzwerk abhängig vom Parametersatz und abhängig von einer zweiten Trainingsaufgabe mit dem ersten Gradienten-basierten Lern-Algorithmus trainiert wird, wobei digitale Sensordaten abhängig vom künstlichen neuronalen Netzwerk verarbeitet werden. Die Trainingsaufgaben, die die digitale Sensordaten charakterisieren, können für offline Training zuvor aufgenommen, simuliert oder berechnet werden. Sowohl die Architektur als auch die Gewichte des künstlichen neuronalen Netzwerks sind damit mit der wenigstens einen ersten Trainingsaufgaben in einer ersten Trainingsphase für eine konkrete Anwendung oder unabhängig von einer konkreten Anwendung trainierbar. Für die konkrete Anwendung kann damit in einer zweiten Trainingsphase ein Training mit nur einer zweiten Trainingsaufgabe durchgeführt werden. Dies verringert den Aufwand für das Training bei einer Anpassung erheblich, insbesondere wenn die zweiten Trainingsaufgaben mit den ersten Trainingsaufgaben gut korrelieren. Beispielsweise ist damit mit geringem Trainingsaufwand eine Anpassung des künstlichen neuronalen Netzwerks an einen neuen Sensor möglich, der in einem System für einen vorherigen Sensor eingesetzt wird. Dadurch wird ein Modell für Maschinenlernen das bereits für bestimmte Trainingsaufgaben optimiert wurde bereitgestellt. Insbesondere für deep neural networks besteht die Möglichkeit, ein derartiges a-priori optimiertes Modell für Maschinenlernen einfach an eine neue Trainingsaufgabe anzupassen. Schnell bedeutet hierbei, beispielsweise unter Verwendung sehr weniger neuer gekennzeichneter Trainingsdaten, in kurzer Zeit und/oder mit geringem Rechenaufwand gegenüber dem Training, das für die a-priori Optimierung nötig war.A computer-implemented method for processing digital sensor data provides that a plurality of training tasks is provided from a distribution of training tasks, wherein the training tasks characterize the processing of digital sensor data, wherein a parameter set for an artificial neural network architecture and weights depends on at least one first training task is determined from the distribution of the training tasks with a first gradient-based learning algorithm and a second gradient-based learning algorithm, the artificial neural network depending on the parameter set and depending on a second training task with the first gradient-based learning Algorithm is trained, whereby digital sensor data is processed depending on the artificial neural network. The training tasks that characterize the digital sensor data may be prerecorded, simulated or calculated for offline training. Both the architecture and the weights of the artificial neural network can be trained with the at least one first training tasks in a first training phase for a specific application or independent of a specific application. For the specific application can thus be carried out in a second training phase training with only a second training task. This considerably reduces the training effort during an adaptation, in particular if the second training tasks correlate well with the first training tasks. For example, it is possible with little training effort to adapt the artificial neural network to a new sensor, which is used in a system for a previous sensor. This provides a machine learning model that has already been optimized for specific training tasks. In particular for deep neural networks, it is possible to easily adapt such an a priori optimized model for machine learning to a new training task. Fast means, for example, using very less newly identified training data, in a short time and / or with little computational effort compared to the training that was necessary for the a-priori optimization.

Vorzugsweise ist das künstliche neuronale Netzwerk durch eine Vielzahl Layer definiert ist, wobei Elemente der Vielzahl der Layer einen gemeinsamen Eingang aufweisen und einen gemeinsamen Ausgang definieren, wobei die Architektur des künstlichen neuronalen Netzwerks zusätzlich zu den Gewichten für Neuronen in den Elementen durch Parameter definiert ist, wobei jeder der Parameter einen Beitrag eines der Elemente der Vielzahl Layer zum Ausgang charakterisiert. Die Elemente sind beispielsweise parallel angeordnet. Die Parameter geben durch ihre Werte beispielsweise an, welchen Beitrag ein Element, dem ein Parameter zugeordnet ist, zum Ausgang leistet. Die Ausgänge einzelner Elemente werden durch die Werte zusätzlich zu den Gewichten, die das künstliche neuronale Netzwerk für die Neuronen in den Elementen vorsieht, gewichtet.Preferably, the artificial neural network is defined by a plurality of layers, wherein elements of the plurality of layers share a common input and define a common output, wherein the architecture of the artificial neural network is defined by parameters in addition to the weights for neurons in the elements. wherein each of the parameters characterizes a contribution of one of the elements of the plurality of layers to the output. For example, the elements are arranged in parallel. For example, the parameters use their values to indicate the contribution of an element to which a parameter is assigned to the output. The outputs of individual elements are weighted by the values in addition to the weights provided by the artificial neural network for the neurons in the elements.

Vorzugsweise wird das künstlichen neuronalen Netzwerk in einer ersten Phase abhängig von einer Vielzahl erster Trainingsaufgaben mit dem ersten Gradienten-basierten Lernalgorithmus und dem zweiten Gradienten-basierten Lern-Algorithmus trainiert, wobei das künstliche neuronale Netzwerk in einer zweiten Phase abhängig von einer zweiten Trainingsaufgabe und abhängig vom ersten Gradienten-basierten Lern-Algorithmus und unabhängig vom zweiten Gradienten-basierten Lern-Algorithmus trainiert wird. Die erste Phase erfolgt beispielsweise mit ersten Trainingsaufgaben, die von einer generischen Anwendung stammen insbesondere offline. Die zweite Phase erfolgt beispielsweise zur Anpassung an eine konkrete Anwendung mit zweiten Trainingsaufgaben, die aus einem Betrieb einer konkreten Anwendung stammen. Die zweite Trainingsphase wird beispielsweise im Betrieb der Anwendung ausgeführt.Preferably, the artificial neural network is trained in a first phase depending on a plurality of first training tasks with the first gradient-based learning algorithm and the second gradient-based learning algorithm, wherein the artificial neural network in a second phase depending on a second training task and dependent is trained by the first gradient-based learning algorithm and independent of the second gradient-based learning algorithm. The first phase takes place, for example, with first training tasks that originate from a generic application, in particular offline. The second phase takes place, for example, to adapt to a specific application with second training tasks, which originate from an operation of a specific application. The second training phase is executed, for example, during operation of the application.

Bevorzugt wird das künstliche neuronale Netzwerk in einer ersten Phase abhängig von einer Mehrzahl erster Trainingsaufgaben trainiert, wobei das künstliche neuronale Netzwerk in einer zweiten Phase abhängig von einem Bruchteil der Trainingsdaten aus der zweiten Trainingsaufgabe, trainiert wird. Dadurch wird ein zuvor vortrainiertes künstliches neuronales Netzwerk hinsichtlich der Architektur und der Gewichte mit geringem Aufwand an eine neue Anwendung angepasst.Preferably, the artificial neural network is trained in a first phase depending on a plurality of first training tasks, wherein the artificial neural network is trained in a second phase depending on a fraction of the training data from the second training task. This will be a before Pre-trained artificial neural network in terms of architecture and weights adapted to a new application with little effort.

Vorzugsweise werden mit dem zweiten Gradienten-basierten Lern-Algorithmus wenigstens die Parameter des künstlichen neuronalen Netzwerks trainiert, die die Architektur des künstlichen neuronalen Netzwerks definieren.Preferably, the second gradient-based learning algorithm trains at least the parameters of the artificial neural network that define the architecture of the artificial neural network.

Ferner wird eine Vorrichtung vorgeschlagen, die eingerichtet ist, eines der oben genannten Verfahren auszuführen.Furthermore, a device is proposed, which is set up to carry out one of the above-mentioned methods.

Bevorzugt ist ein Verfahren zum Ansteuern einer computergesteuerten Maschine, insbesondere eines wenigstens teilautonomen Roboters, eines Fahrzeugs, einer Heimanwendung, eines angetriebenen Werkzeugs, eines persönlichen Hilfssystems, eines Zugangskontrollsystems, vorgesehen, wobei Trainingsdaten für Trainingsaufgaben abhängig von digitalen Sensordaten erzeugt werden, wobei eine Vorrichtung für maschinelles Lernen, insbesondere für Regression und/oder für Klassifikation, und/oder eine andere Anwendung, die ein künstliches neuronales Netzwerk umfasst, mittels Trainingsaufgaben gemäß dem beschriebenen Verfahren trainiert wird, wobei die computergesteuerte Maschine abhängig von einem Ausgangssignal der so trainierten Vorrichtung angesteuert wird. Die Trainingsdaten werden für die konkrete Anwendung erfasst und insbesondere in der zweiten Trainingsphase zum Training eingesetzt. Dies erleichtert die Anpassung des künstlichen neuronalen Netzwerks und ermöglicht den sofortigen Einsatz.Preferably, a method for controlling a computer-controlled machine, in particular an at least semi-autonomous robot, a vehicle, a home application, a power tool, a personal support system, an access control system is provided, wherein training data for training tasks depending on digital sensor data generated, wherein an apparatus for machine learning, in particular for regression and / or for classification, and / or another application comprising an artificial neural network, is trained by means of training tasks according to the described method, wherein the computer-controlled machine is driven in response to an output signal of the thus-trained device. The training data are recorded for the specific application and used in particular in the second training phase for training. This facilitates adaptation of the artificial neural network and allows for immediate deployment.

Vorzugsweise umfassen die Trainingsdaten Bilddaten, Videodaten und/oder digitale Sensordaten eines Sensors, insbesondere von einer Kamera, einer Wärmebildkamera, einem LiDAR Sensor, einem Radar-Sensor einem akustischen Sensor, einem Ultraschallsensor, einem Empfänger für ein Satellitennavigationssystem, einem Drehzahlfühler, einem Drehmomentfühler, einem Beschleunigungssensor und/oder einem Lagesensor. Diese eignen sich besonders für die Automatisierung.The training data preferably comprise image data, video data and / or digital sensor data of a sensor, in particular from a camera, a thermal imaging camera, a LiDAR sensor, a radar sensor, an acoustic sensor, an ultrasonic sensor, a receiver for a satellite navigation system, a rotational speed sensor, a torque sensor, an acceleration sensor and / or a position sensor. These are particularly suitable for automation.

Ein computerimplementiertes Verfahren zum Trainieren einer Vorrichtung für maschinelles Lernen, Klassifikation oder Ansteuerung einer computergesteuerten Maschine sieht vor, dass eine Vielzahl Trainingsaufgaben aus einer Verteilung von Trainingsaufgaben bereitgestellt wird, wobei die Trainingsaufgaben die Verarbeitung von digitalen Sensordaten charakterisieren, wobei ein Parametersatz für eine Architektur und für Gewichte eines künstlichen neuronalen Netzwerks abhängig von wenigstens einer ersten Trainingsaufgabe aus der Verteilung der Trainingsaufgaben mit einem ersten Gradienten-basierten Lern-Algorithmus und einem zweiten Gradienten-basierten Lern-Algorithmus bestimmt wird. Damit wird diese Vorrichtung unabhängig von der konkreten Anwendung und vor dem Einsatz anschließend abhängig von der konkreten Vorrichtung trainiert und damit für den Einsatz in einer konkreten Anwendung vorbereitet.A computer-implemented method for training a machine learning, classification, or computer-controlled machine apparatus provides that a plurality of training tasks are provided from a distribution of training tasks, the training tasks characterizing the processing of digital sensor data using a parameter set for an architecture and for a computer Weights of an artificial neural network depending on at least a first training task from the distribution of training tasks with a first gradient-based learning algorithm and a second gradient-based learning algorithm is determined. Thus, this device is trained regardless of the specific application and before use then depending on the specific device and thus prepared for use in a specific application.

Vorzugsweise ist vorgesehen, dass das künstliche neuronale Netzwerk abhängig vom Parametersatz und abhängig von einer zweiten Trainingsaufgabe mit dem ersten Gradienten-basierten Lern-Algorithmus trainiert wird. Damit kann eine Anpassung auf neue Trainingsaufgaben effizient umgesetzt werden.Preferably, it is provided that the artificial neural network is trained depending on the parameter set and dependent on a second training task with the first gradient-based learning algorithm. Thus, an adaptation to new training tasks can be efficiently implemented.

Eine Vorrichtung zur Verarbeitung digitaler Sensordaten insbesondere für maschinelles Lernen, Klassifikation oder Ansteuerung einer computergesteuerten Maschine umfasst einen Prozessor, und einen Speicher für wenigstens ein künstliches neuronales Netzwerk, die ausgebildet sind das Verfahren auszuführen. Diese Vorrichtung kann unabhängig von der konkreten Anwendung vorbereitet sein und anschließend abhängig von der konkreten Anwendung trainiert werden.A device for processing digital sensor data, in particular for machine learning, classification or control of a computer-controlled machine, comprises a processor, and a memory for at least one artificial neural network, which are designed to execute the method. This device can be prepared independently of the specific application and then trained depending on the specific application.

Weitere vorteilhafte Ausführungsformen ergeben sich aus der folgenden Beschreibung und der Zeichnung.Further advantageous embodiments will become apparent from the following description and the drawings.

In der Zeichnung zeigt

  • 1 eine schematische Darstellung von Teilen einer Vorrichtung für die Verarbeitung digitaler Sensordaten,
  • 2 eine schematische Darstellung von Teilen eines künstlichen neuronalen Netzwerks,
  • 3 Schritte in einem computerimplementierten Verfahren für die Verarbeitung digitaler Sensordaten,
  • 4 Schritte in einem Verfahren zum Ansteuern einer computergesteuerten Maschine,
  • 5 Schritte in einem computerimplementierten Verfahren zum Trainieren.
In the drawing shows
  • 1 a schematic representation of parts of a device for processing digital sensor data,
  • 2 a schematic representation of parts of an artificial neural network,
  • 3 Steps in a computer-implemented method for the processing of digital sensor data,
  • 4 Steps in a method for driving a computer-controlled machine,
  • 5 Steps in a computer-implemented method for training.

In 1 ist eine Vorrichtung 100 zur Verarbeitung digitaler Sensordaten schematisch dargestellt. Die Vorrichtung 100 umfasst einen Prozessor 102, und einen Speicher 104. Zur Erfassung digitaler Sensordaten ist im Beispiel ein Sensor 106 vorgesehen. Die Vorrichtung 100 ist im Beispiel zur Ansteuerung eine computergesteuerten Maschine 108 ausgebildet. Die Vorrichtung 100 kann auch für maschinelles Lernen oder eine Klassifikation ausgebildet sein. In 1 is a device 100 for the processing of digital sensor data shown schematically. The device 100 includes a processor 102 , and a memory 104 , To capture digital sensor data in the example is a sensor 106 intended. The device 100 is in the example for controlling a computer-controlled machine 108 educated. The device 100 can also be designed for machine learning or a classification.

Der Sensor 106 ist im Beispiel über eine Signalleitung 110 mit dem Prozessor 102 verbindbar. Der Prozessor 102 ist im Beispiel ausgebildet, digitale Signale des Sensors 106 zu empfangen und in den Speicher 104 als Trainingsdaten zu speichern. Die Trainingsdaten umfassen beispielsweise Bilddaten, Videodaten und/oder andere digitale Sensordaten des Sensors 106. Die Trainingsdaten können zumindest teilweise in einem Betrieb der Vorrichtung 100 mit dem Sensor 106 erfasst werden. Trainingsdaten können auch unabhängig vom Sensor 106 erfasste oder unabhängig vom Sensor 106 bereitgestellt digitale Signale sein.The sensor 106 is in the example via a signal line 110 with the processor 102 connectable. The processor 102 is formed in the example, digital signals of the sensor 106 to receive and into the store 104 save as training data. The training data include, for example, image data, video data, and / or other sensor digital sensor data 106 , The training data may be at least partially in an operation of the device 100 with the sensor 106 be recorded. Training data can also be independent of the sensor 106 detected or independent of the sensor 106 be provided digital signals.

Der Sensor 106 kann insbesondere eine Kamera, eine Wärmebildkamera, ein LiDAR Sensor, ein Radar-Sensor, ein akustischer Sensor, einem Ultraschallsensor, ein Empfänger für ein Satellitennavigationssystem, ein Drehzahlfühler, ein Drehmomentfühler, ein Beschleunigungssensor und/oder ein Lagesensor sein. Es können mehrere dieser Sensoren vorgesehen sein.The sensor 106 In particular, a camera, a thermal imaging camera, a LiDAR sensor, a radar sensor, an acoustic sensor, an ultrasonic sensor, a receiver for a satellite navigation system, a speed sensor, a torque sensor, an acceleration sensor and / or a position sensor. Several of these sensors can be provided.

Die computergesteuerte Maschine 108 ist im Beispiel über eine Signalleitung für ein Ausgangssignal 112 mit dem Prozessor 102 verbunden. Der Prozessor 102 ist im Beispiel zum Ansteuern der computergesteuerten Maschine 108 abhängig von den digitalen Signalen ausgebildet.The computer-controlled machine 108 is in the example via a signal line for an output signal 112 with the processor 102 connected. The processor 102 is in the example for driving the computer-controlled machine 108 formed depending on the digital signals.

Die computergesteuerte Maschine 108 ist insbesondere ein wenigstens teilautonomer Roboter, ein Fahrzeug, eine Heimanwendung, ein angetriebenes Werkzeug, ein persönliches Hilfssystem, oder ein Zugangskontrollsystem.The computer-controlled machine 108 In particular, it is an at least partially autonomous robot, a vehicle, a home application, a powered tool, a personal support system, or an access control system.

Der Speicher 104 und der Prozessor 102 sind im Beispiel mit einer Signalleitung 114 verbunden. Diese Komponenten können in einer Server-Infrastruktur insbesondere verteilt realisiert sein. Die Vorrichtung 100 kann auch ein Steuergerät sein, das diese Komponenten integriert in einen Mikroprozessor umfasst.The memory 104 and the processor 102 are in the example with a signal line 114 connected. These components can be implemented distributed in a server infrastructure in particular. The device 100 may also be a controller that includes these components integrated into a microprocessor.

Die Vorrichtung 100 ist ausgebildet die oder eines der im folgenden beschriebenen Verfahren auszuführen.The device 100 is configured to perform the or one of the methods described below.

Die Vorrichtung 100 umfasst wenigstens ein künstliches neuronales Netzwerk. Ein exemplarisches künstliches neuronales Netzwerk 200 ist in 2 schematisch dargestellt.The device 100 includes at least one artificial neural network. An exemplary artificial neural network 200 is in 2 shown schematically.

Das künstliche neuronale Netzwerk 200 ist durch eine Vielzahl Layer 202-1, ..., 202-m definiert. Im Beispiel ist ein Eingang 202-1 und ein Ausgang 202-m durch je einen der Vielzahl Layer 202-1, ..., 202-m definiert. Der Eingang 202-1 kann die Eingangsschicht des künstlichen neuronalen Netzwerks 200 oder eine verborgene Schicht des künstlichen neuronalen Netzwerks 200 sein. Der Ausgang 202-m kann eine Ausgangsschicht des künstlichen neuronalen Netzwerks 200 oder eine verborgene Schicht des künstlichen neuronalen Netzwerks 200 sein.The artificial neural network 200 is through a variety of layers 202 - 1 , ..., 202-m Are defined. In the example is an input 202 - 1 and an exit 202-m through one of the many layers 202 - 1 , ..., 202-m Are defined. The entrance 202 - 1 can be the input layer of the artificial neural network 200 or a hidden layer of the artificial neural network 200 his. The exit 202-m may be an output layer of the artificial neural network 200 or a hidden layer of the artificial neural network 200 his.

Bestimmte Elemente 202-k, ..., 202-l der Vielzahl der Layer 202-1, ..., 202-m weisen den Eingang 202-1 als gemeinsamen Eingang auf. Die Elemente 202-k, ..., 202-l definieren im Beispiel den Ausgang 202-m als gemeinsamen Ausgang der Elemente 202-k, ..., 202-l. Das bedeutet, die Elemente 202-k, ..., 202-l sind im künstlichen neuronalen Netzwerk 200 bezüglich ihres gemeinsamen Eingangs und bezüglich ihres gemeinsamen Ausgangs parallel angeordnet.Certain elements 202-k , ..., 202-l the multitude of layers 202 - 1 , ..., 202-m have the entrance 202 - 1 as a common entrance. The Elements 202-k , ..., 202-l define the output in the example 202-m as a common output of the elements 202-k , ..., 202-l , That means the elements 202-k , ..., 202-l are in the artificial neural network 200 arranged in parallel with respect to their common input and with respect to their common output.

Das künstliche neuronalen Netzwerk 200 umfasst beispielsweise nur einen einzigen verborgenen Layer. Dieser verborgene Layer umfasst mehrere parallele Elemente. Beispielsweise ist ein erstes Element 202-k vorgesehen, das als eine 3x3 Convolution ausgebildet ist. Beispielsweise ist ein in 2 nicht dargestelltes zweites Element vorgesehen, des als eine 5×5 Convolution ausgebildet ist. Beispielsweise ist ein drittes Element 202-l vorgesehen, das als MaxPooling ausgebildet ist. Diese drei Elemente sind parallel angeordnet und bilden einen Suchraum bestehend aus den drei Elementen {Conv3x3, Conv5x5, MaxPool}.The artificial neural network 200 For example, it covers only a single hidden layer. This hidden layer contains several parallel elements. For example, a first element 202-k provided, which is designed as a 3x3 convolution. For example, an in 2 not shown second element provided, which is designed as a 5 × 5 convolution. For example, a third element 202-l provided, which is designed as MaxPooling. These three elements are arranged in parallel and form a search space consisting of the three elements {Conv3x3, Conv5x5, MaxPool}.

Eine mathematische Funktion, die für jedes dieser drei Elemente seinen Ausgang „output“ abhängig von einem gemeinsamen Eingang „input“ beschreibt, ist beispielsweise wie folgt angebbar: output = Conv 3 x 3 ( input ) ,

Figure DE202019103924U1_0001
output = Conv5x5 ( input ) ,
Figure DE202019103924U1_0002
output = MaxPool ( input ) .
Figure DE202019103924U1_0003
A mathematical function describing for each of these three elements its output "output" dependent on a common input "input" is, for example, as follows: output = Conv 3 x 3 ( input ) .
Figure DE202019103924U1_0001
output = Conv5x5 ( input ) .
Figure DE202019103924U1_0002
output = maxpool ( input ) ,
Figure DE202019103924U1_0003

Eine mathematische Funktion, die einen gemeinsamen Ausgang „output“ dieser drei Elemente abhängig von dem gemeinsamen Eingang „input“ beschreibt, ist beispielsweise wie folgt angebbar: output = α 1 * Conv3x 3 ( input ) + α 2 * Conv 5 x 5 ( input ) + α 3 * MaxPool ( input )

Figure DE202019103924U1_0004
A mathematical function that describes a common output "output" of these three elements depending on the common input "input" is, for example, as follows: output = α 1 * Conv3x 3 ( input ) + α 2 * Conv 5 x 5 ( input ) + α 3 * maxpool ( input )
Figure DE202019103924U1_0004

Allgemeiner ist die Architektur des künstlichen neuronalen Netzwerks 200 zusätzlich zu den Gewichten wa , ..., wj für Neuronen 204-i, ..., 204-j in den Elementen 202-k, ..., 202-l durch Parameter α1 , ...,αn definiert. Jeder der Parameter α1 , ..., αn charakterisiert einen Beitrag eines der Elemente 202-k, ..., 202-1 zum gemeinsamen Ausgang. Im Beispiel sind für n = I-k Elemente die Parameter α1 ,..., αn definiert. Im Beispiel bestimmt einer der die Parameter α1 , ..., αn in einer Multiplikation für alle Ausgänge eines einzelnen Elements dessen Beitrag zum Ausgang des Layers.More general is the architecture of the artificial neural network 200 in addition to the weights w a , ..., w j for neurons 204-i , ..., 204-j in the elements 202-k , ..., 202-l through parameters α 1 , ..., α n Are defined. Each of the parameters α 1 , ..., α n characterizes a contribution of one of the elements 202-k , ..., 202 - 1 to the common exit. In the example, the parameters are for n = Ik elements α 1 , ..., α n Are defined. In the example, one of the parameters determines α 1 , ..., α n in a multiplication for all outputs of a single element its contribution to the output of the layer.

Durch entsprechende Bestimmung der Parameter α1 , ..., αn ist möglich, dass konkret eines der Elemente 202-k, ..., 202-l alleine das Ergebnis am Ausgang des Layers bestimmt. Im Beispiel wäre dies durch nur einen von Null verschiedenen Wert genau eines der Parameter α1 , ..., αn erreichbar. Von den beispielhaft beschriebenen drei Elementen {Conv3x3, Conv5x5, MaxPool} bedeutet beispielsweise α1 = 0, α2 = 1 und α3 = 0, dass nur der Ausgang des Conv5x5 berücksichtigt wird, d.h. eine Architektur mit dem Conv5x5 Layer. Für den Fall α1 = 1, α2 = 0 und α3 = 0 ergibt sich eine Architektur mit dem Conv3x3 Layer. Allgemein wird der Parameter für jedes der Elemente 202-k, ..., 202-l mit einem im Folgenden beschriebenen Vorgehen bestimmt, indem das künstliche neuronale Netzwerk 200 bestimmt wird, in dem alle Elemente 202-k, ..., 202-l parallel zueinander vorhanden sind. Jedes Element 202-k, ..., 202-l ist dabei durch einen reelwertigen Parameter α1 , ..., αn gewichtet.By appropriate determination of the parameters α 1 , ..., α n is possible that specifically one of the elements 202-k , ..., 202-l alone the result at the output of the layer determined. In the example, this would be just one of the parameters due to a non-zero value α 1 , ..., α n reachable. For example, of the three elements {Conv3x3, Conv5x5, MaxPool} described by way of example, α 1 = 0, α 2 = 1 and α 3 = 0 mean that only the output of the Conv5x5 is considered, ie an architecture with the Conv5x5 layer. For the case α 1 = 1, α 2 = 0 and α 3 = 0, this results in an architecture with the Conv3x3 layer. Generally, the parameter for each of the elements 202-k , ..., 202-l determined by a procedure described below by the artificial neural network 200 it is determined in which all elements 202-k , ..., 202-l are present parallel to each other. Every element 202-k , ..., 202-l is by a real-valued parameter α 1 , ..., α n weighted.

Die Parameter α1 , ..., αn müssen nicht zwangsläufig 0 oder 1 sein, sondern können beliebige reelwertige Zahlen annehmen, bspw. α1 = 0,7, α2 = 0,2 und α3 = 0,1. Dies stellt eine Relaxation des Suchraums dar. Beispielsweise wird für die Parameter α1 ,...,αn eine Randbedingung so gewählt, dass eine Summe der Parameter α1 , ..., αn den Wert Eins ergibt. Dies ist beispielsweise durch eine Bestimmung reelwertiger Werte für die Parameter α1, ..., αn und eine Normierung der Werte für die Parameter α1 , ..., αn mit der Summe aller Werte möglich. Diese Relaxation stellt eine Gewichtung der einzelnen Elemente 202-k, ..., 202-l in der durch alle dieser Elemente 202-k, ..., 202-l definierten Architektur des künstlichen neuronalen Netzwerks 200 dar.The parameters α 1 , ..., α n do not necessarily have to be 0 or 1, but can take on any real-valued numbers, for example α 1 = 0.7, α 2 = 0.2 and α 3 = 0.1. This represents a relaxation of the search space. For example, for the parameters α 1 , ..., α n a boundary condition chosen so that a sum of the parameters α 1 , ..., α n gives the value one. This is for example by a determination of real valued values for the parameters α 1, ..., α n and a normalization of the values for the parameters α 1 , ..., α n with the sum of all values possible. This relaxation represents a weighting of the individual elements 202-k , ..., 202-l in by all these elements 202-k , ..., 202-l defined architecture of the artificial neural network 200 represents.

Mit diesen, insbesondere reelwertigen Parametern α1 , ..., αn , ist eine einfache Optimierung der Architektur möglich. Die Optimierung verwendet beispielsweise einen Gradienten-basierten Algorithmus. Vorzugsweise wird ein stochastic gradient descent eingesetzt. Besonders bevorzugt wird die gleiche Art von Algorithmen eingesetzt, der für die Optimierung der Gewichte wa , ..., w j für Neuronen 204-i, ..., 204-j in den Elementen 202-k, ..., 202-1 verwendet wird.With these, in particular real-valued parameters α 1 , ..., α n , a simple optimization of the architecture is possible. For example, optimization uses a gradient-based algorithm. Preferably, a stochastic gradient descent is used. Particularly preferred is the same kind of algorithms used for optimizing the weights w a , ..., w j for neurons 204-i , ..., 204-j in the elements 202-k , ..., 202-1 is used.

Das künstliche neuronale Netzwerk 200 in 2 stellt ein Beispiel für eine derartige Anordnung paralleler Elemente 202-k, ..., 202-1 dar. Allgemein kann ein künstliches neuronales Netzwerk eine beliebige Anzahl derartiger paralleler Elemente insbesondere in unterschiedlichen, aufeinanderfolgenden verborgenen Schichten aufweisen. Es kann auch vorgesehen sein, wenigstens eines der Elemente parallel zu einem anderen Element oder zu mehreren seriell angeordneten Elementen anzuordnen.The artificial neural network 200 in 2 provides an example of such an arrangement of parallel elements 202-k , ..., 202-1 In general, an artificial neural network can have any number of such parallel elements, in particular in different, successive hidden layers. It can also be provided to arrange at least one of the elements parallel to another element or to a plurality of elements arranged in series.

Derartige, durch die Bestimmung der Parameter α1 , ..., αn optimierbare Elemente des künstlichen neuronalen Netzwerks, sind Teile, die einen gemeinsamen Eingang aufweisen und einen gemeinsamen Ausgang definieren. Es können mehrere derartige Schichten vorgesehen sein, die jeweilige Ein- und Ausgänge aufweisen. Es kann insbesondre jede der verborgenen Schichten derart aufgebaut sein. Für jede dieser Schichten kann ein jeweiliger Ein- und Ausgang vorgesehen sein.Such, by the determination of the parameters α 1 , ..., α n Optimizable elements of the artificial neural network are parts that share a common input and define a common output. Several such layers may be provided which have respective inputs and outputs. In particular, each of the hidden layers may be so constructed. For each of these layers, a respective input and output can be provided.

Ein computerimplementiertes Verfahren für die Verarbeitung digitaler Sensordaten mit einem derartigen künstlichen neuronalen Netzwerk wird anhand der 3 am Beispiel des künstlichen neuronalen Netzwerks 200 beschrieben. A computer-implemented method for processing digital sensor data with such an artificial neural network will be described with reference to FIG 3 using the example of the artificial neural network 200 described.

In einem Schritt 302 wird eine Vielzahl von p Trainingsaufgaben T1 , T2 , ..., Tp aus einer Verteilung p(T) von Trainingsaufgaben T bereitgestellt.In one step 302 will be a variety of p training tasks T 1 . T 2 , ..., T p from a distribution p (T) of training tasks T provided.

Zudem wird im Beispiel für die drei Elemente {Conv3x3, Conv5x5, MaxPool} eine Meta-Architektur αmeta bereitgestellt. Die Meta-Architektur αmeta ist in diesem Beispiel initial definiert als a m e t a = ( 0.7,   0.2,   0.1 )

Figure DE202019103924U1_0005
In addition, the example for the three elements {Conv3x3, Conv5x5, MaxPool} becomes a meta-architecture α meta provided. The meta-architecture α meta is initially defined in this example as a m e t a = ( 0.7, 0.2, 0.1 )
Figure DE202019103924U1_0005

Dies können zufällige insbesondere reellwertige Größen von Null bis Eins sein. Im Beispiel werden auch Meta-Gewichte wmeta initial definiert.These can be random, in particular real-valued quantities from zero to one. The example also includes meta weights w meta initially defined.

Die Trainingsaufgaben T charakterisieren im Beispiel die Verarbeitung von digitalen Sensordaten. Es handelt sich beispielsweise um Daten, die von einem Sensor erfasst wurden, oder abhängig von einem Sensor erfassten Daten bestimmt werden, oder mit diesen korrelieren. Es können Bilddaten, Videodaten und/oder digitale Sensordaten des Sensors 106 zugrunde liegen. Die Trainingsaufgaben T charakterisieren beispielsweise eine Zuordnung der digitalen Sensordaten zu einem Ergebnis der Verarbeitung. Insbesondere kann für digitale Sensordaten von der wenigstens einen Kamera, der Wärmebildkamera, dem LiDAR Sensor, dem Radar-Sensor, dem akustischen Sensor, dem Ultraschallsensor, dem Empfänger für das Satellitennavigationssystem, dem Drehzahlfühler, dem Drehmomentfühler, dem Beschleunigungssensor und/oder dem Lagesensor eine Zuordnung zu einer Klassifikation eines Ereignisses insbesondere für zumindest teilweise autonomes Steuern der Maschine 108 als Trainingsaufgabe definiert sein. Für Maschinenlernen oder Regression können entsprechende Trainingsaufgaben definiert sein.The training tasks T characterize the processing of digital sensor data in the example. For example, these are data acquired by a sensor or determined or correlated with data acquired by a sensor. It may be image data, video data and / or digital sensor data of the sensor 106 underlie. The training tasks T For example, characterizing an association of the digital sensor data with a result of the processing. In particular, for digital sensor data from the at least one camera, the thermal imager, the LiDAR sensor, the radar sensor, the acoustic sensor, the ultrasonic sensor, the satellite navigation system receiver, the speed sensor, the torque sensor, the acceleration sensor and / or the position sensor Assignment to a classification of an event, in particular for at least partially autonomous control of the machine 108 be defined as a training task. For machine learning or regression corresponding training tasks can be defined.

In einem anschließenden Schritt 304 wird wenigstens ein erster Parametersatz W1 , A1 für eine Architektur und für Gewichte eines künstlichen neuronalen Netzwerks abhängig von wenigstens einer ersten Trainingsaufgabe aus der Verteilung der Trainingsaufgaben T mit einem ersten Gradienten-basierten Lern-Algorithmus und einem zweiten Gradienten-basierten Lern-Algorithmus bestimmt. Der erste Parametersatz W1 , A1 umfasst einen ersten Parameterwertesatz A1 für die Parameter α1 ,...,αn und einen ersten Satz W1 für die Gewichte wa , ..., wj . Der erste Satz W1 für die Gewichte kann zudem Werte für alle anderen Gewichte aller anderen Neuronen des künstlichen neuronalen Netzwerks 200 oder eines Teils der Neuronen des künstlichen neuronalen Netzwerks 200 umfassen. Der aus den im Folgenden beschriebenen Gradientenabstiegsverfahren resultierende letzte Parameterwertesatz ai definiert den ersten Parameterwertesatz A1 . Der aus den im Folgenden beschriebenen Gradientenabstiegsverfahren resultierende letzte Satz wi mit den Gewichten definiert den ersten Satz W1 für die Gewichte.In a subsequent step 304 becomes at least a first parameter set W 1 . A 1 for an artificial neural network architecture and weights depending on at least a first training task from the distribution of the training tasks T determined with a first gradient-based learning algorithm and a second gradient-based learning algorithm. The first parameter set W 1 . A 1 includes a first parameter value set A 1 for the parameters α 1 , ..., α n and a first sentence W 1 for the weights w a , ..., w j , The first sentence W 1 For the weights also values for all other weights of all other neurons of the artificial neural network can be added 200 or part of the neurons of the artificial neural network 200 include. The final parameter value set resulting from the gradient descent procedures described below a i defines the first parameter value set A 1 , The last sentence resulting from the gradient descent procedures described below w i with the weights defines the first sentence W 1 for the weights.

Der erste Gradienten-basierten Lern-Algorithmus umfasst für eine bestimmte Trainingsaufgabe Ti , einen Parameterwertesatz αi mit den Parametern α1,i , ..., αn,i , und einen Satz wi mit den Gewichten wa,i , ..., wj,i beispielsweise eine Zuordnung ( w i , a i ) = ϕ ( w m e t a , a m e t a , T i )

Figure DE202019103924U1_0006
Mit αmeta wird die Meta-Architektur bezeichnet. Mit wmeta werden die Meta-Gewichte bezeichnet.The first gradient-based learning algorithm involves for a specific training task T i , a parameter value set α i with the parameters α 1, i , ..., α n, i , and a sentence w i with the weights w a, i , ..., wj, i for example, an assignment ( w i . a i ) = φ ( w m e t a . a m e t a . T i )
Figure DE202019103924U1_0006
With α meta is called the meta-architecture. With w meta are called the meta weights.

Dabei ist $ϕ ein Algorithmus, insbesondere ein Optimierungsalgorithmus, Trainingsalgorithmus oder Lernalgorithmus, der für eine speziellen Trainingsaufgabe sowohl die Gewichte als auch die Architektur eines neuronalen Netzes für diese Trainingsaufgabe optimiert. Beispielsweise werden mit dem Ausführen des Algorithmus ϕ k Schritte Gradientenabstieg ausgeführt, um die Gewichte und die Architektur zu optimieren. Für die Berechnung kann der Algorithmus Φ wie der DARTS Algorithmus ausgebildet sein. DARTS bezeichnet den Algorithmus „Differentiable Architecture Search“, Hanxiao Liu, Karen Simonyan, Yiming Yang; ICLR; 2019; https://arxiv.org/abs/1806.09055.Here, $ φ is an algorithm, in particular an optimization algorithm, training algorithm or learning algorithm, which optimizes both the weights and the architecture of a neural network for a specific training task for this training task. For example, with the execution of the algorithm φk steps gradient descent are performed to optimize the weights and the architecture. For the calculation, the algorithm Φ can be designed like the DARTS algorithm. DARTS refers to the algorithm "Differentiable Architecture Search", Hanxiao Liu, Karen Simonyan, Yiming Yang; ICLR; 2019; https://arxiv.org/abs/1806.09055.

Im Beispiel wird abhängig von dieser Trainingsaufgabe Ti eine optimierte Architektur αi abhängig von der initialen Meta-Architektur αmeta und den initialen Gewichten wmeta bestimmt als a i = ( 0.8,   0.0,   0.2 ) = ( α 1 , α 2 , α 3 )

Figure DE202019103924U1_0007
The example will depend on this training task T i an optimized architecture α i depending on the initial meta-architecture α meta and the initial weights w meta determined as a i = ( 0.8 0.0 0.2 ) = ( α 1 . α 2 . α 3 )
Figure DE202019103924U1_0007

Zudem wird ein optimierter Satz wi für die Gewichte wa,i , ..., wj,i bestimmt.In addition, an optimized sentence w i for the weights w a, i , ..., wj, i certainly.

Der Index i signalisiert das αi aus der i-ten Trainingsaufgabe Ti ermittelt wurde. Das bedeutet, die Parameter α1,i , ..., αn,i hängen von der i-ten Trainingsaufgabe Ti ab und können je nach Trainingsaufgabe Ti variieren.The index i signals that α i from the i-th training task T i was determined. That means the parameters α 1, i , ..., α n, i depend on the i-th training task T i depending on the training task T i vary.

Im Beispiel kann die optimierte Architektur αi abhängig von einer anderen Trainingsaufgabe Ti abhängig von der initialen Meta-Architektur auch bestimmt werden als a i = ( 0.0,  1 .0,   0.0 ) = ( α 1 , α 2 , α 3 )

Figure DE202019103924U1_0008
In the example, the optimized architecture α i depending on another training task T i depending on the initial meta-architecture can also be determined as a i = ( 0.0 1 .0, 0.0 ) = ( α 1 . α 2 . α 3 )
Figure DE202019103924U1_0008

Zudem wird ein optimierter Satz wi für die Gewichte wa,i , ..., wj,i bestimmt.In addition, an optimized sentence w i for the weights w a, i , ..., wj, i certainly.

Abhängig von dem zweiten Gradienten-basierten Lern-Algorithmus wird wenigstens ein Parameter bestimmt, der den Beitrag wenigstens eines der Elemente zum Ausgang definiert. Im Beispiel werden die Parameter α1 , ..., αn bestimmt.Depending on the second gradient-based learning algorithm, at least one parameter is determined that defines the contribution of at least one of the elements to the output. In the example, the parameters become α 1 , ..., α n certainly.

Der zweite Gradienten-basierten Lern-Algorithmus umfasst beispielsweise für die Vielzahl p Trainingsaufgaben T1 , ..., Tp eine Zuordnung ( w m e t a , a m e t a ) = Ψ ( w m e t a , w 1 , , w p , a m e t a , a 1 , , a p , T 1 , , T p )

Figure DE202019103924U1_0009
The second gradient-based learning algorithm includes, for example, the plurality p training tasks T 1 , ..., T p an assignment ( w m e t a . a m e t a ) = Ψ ( w m e t a . w 1 . ... . w p . a m e t a . a 1 . ... . a p . T 1 . ... . T p )
Figure DE202019103924U1_0009

Mit Ψ ist ein meta-learning Algorithmus bezeichnet. Der meta-learning Algorithmus Ψ optimiert abhängig von einer Reihe Trainingsaufgaben T1 , ..., Tp mit zugehörigen optimierten Architekturen α1 ..., αp und zughörigen optimierten Gewichten w1 , ..., wp die Meta-Architektur αmeta zusammen mit den Meta-Gewichten wmeta . Die optimierten Architekturen sind repräsentiert durch die Parameterwertesätze α1 , ..., αp . Die optimierten Gewichte sind repräsentiert durch die Sätze w1 , ..., wp für die Gewichte.With Ψ is called a meta-learning algorithm. The meta-learning algorithm Ψ optimizes training tasks depending on a number of tasks T 1 , ..., T p with associated optimized architectures α 1 ..., α p and associated optimized weights w 1 , ..., w p the meta-architecture α meta along with the meta weights w meta , The optimized architectures are represented by the parameter value sets α 1 , ..., α p , The optimized weights are represented by the sentences w 1 , ..., w p for the weights.

Der Meta-Learning Algorithmus Ψ ist beispielsweise der MAML Algorithmus. Der MAML bezeichnet den Algorithmus Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks, Chelsea Finn, Pieter Abbeel, Sergey Levine; Proceedings of the 34th International Conference on Machine Learning; 2017; https://arxiv.org/pdf/1703.03400.pdf. Im Gegensatz zu Meta-Learning Algorithmen, die iterativ die Gewichte eines neuronalen Netzes meta-lernen, wie beispielsweise der ursprüngliche MAML Algorithmus, in dem nur die Gewichte w eines fixierten neuronalen Netzes meta-gelernt werden, wird dadurch auch die Architektur des neuronalen Netzes 200 meta-gelernt.The meta-learning algorithm Ψ is, for example, the MAML algorithm. The MAML refers to the Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks algorithm, Chelsea Finn, Pieter Abbeel, Sergey Levine; Proceedings of the 34 th International Conference on Machine Learning; 2017; https://arxiv.org/pdf/1703.03400.pdf. In contrast to meta-learning algorithms, which iteratively meta-learn the weights of a neural network, such as the original MAML algorithm, in which only the weights w of a fixed neural network are meta-learned, this also becomes the architecture of the neural network 200 meta-learned.

Für eine reelwertige Repräsentation der Architektur des künstlichen neuronalen Netzwerks werden im Beispiel mit dem MAML Algorithmus Gradienten im Architektur-Raum auch für die Architektur-Parameter berechnet. Mit diesem Gradientenabstiegsverfahren werden sowohl die Gewichte als auch die Architektur optimiert.For a real-valued representation of the architecture of the artificial neural network, in the example with the MAML algorithm, gradients in the architecture space are also calculated for the architecture parameters. This gradient descent process optimizes both the weights and the architecture.

Beispielsweise wird per Gradientenabstiegsverfahren die folgende Gleichung minimiert m i n w m e t a , a m e t a T L o s s ( T , ϕ )

Figure DE202019103924U1_0010
Anschließend wird in einem Schritt 306 geprüft, ob eine erste Phase abgeschlossen ist.For example, the gradient gradient method minimizes the following equation m i n w m e t a . a m e t a Σ T L O s s ( T . φ )
Figure DE202019103924U1_0010
Subsequently, in one step 306 Checked if a first phase has been completed.

Das künstlichen neuronalen Netzwerk 200 wird im Beispiel in der ersten Phase abhängig von der Vielzahl erster Trainingsaufgaben T1 , ..., Tp mit dem ersten Gradienten-basierten Lernalgorithmus und dem zweiten Gradienten-basierten Lern-Algorithmus trainiert.The artificial neural network 200 In the example, in the first phase, it depends on the multitude of first training tasks T 1 , ..., T p trained with the first gradient-based learning algorithm and the second gradient-based learning algorithm.

Der erste Parameterwertesatz A1 für die Parameter α1 ,..., αn und der erste Satz W1 für die Gewichte wa , ..., wj definiert im Beispiel das künstliche neuronale Netzwerk 200 nach einem Training mit dem DARTS und dem MAML Algorithmus.The first parameter value set A 1 for the parameters α 1 , ..., α n and the first sentence W 1 for the weights w a , ..., w j defines in the example the artificial neural network 200 after training with the DARTS and the MAML algorithm.

Die erste Phase ist beispielsweise abgeschlossen, wenn ein Stopp-Kriterium zutrifft. Das Stopp-Kriterium ist beispielsweise das Erreichen einer Zeitschwelle oder eines Ressourcenbudgets. Wenn die erste Phase abgeschlossen ist, wird ein Schritt 308 ausgeführt. Anderenfalls wird der Schritt 304 ausgeführt. The first phase is completed, for example, if a stop criterion applies. The stop criterion is, for example, the achievement of a time threshold or a resource budget. When the first phase is completed, one step becomes 308 executed. Otherwise, the step becomes 304 executed.

Im Schritt 308 wird das künstliche neuronale Netzwerk 200 abhängig vom ersten Parametersatz W1 , A1 und abhängig von einer zweiten Trainingsaufgabe mit dem ersten Gradienten-basierten Lern-Algorithmus trainiert. Der aus dem Training mit dem ersten Gradienten-basierten Lern-Algorithmus resultierende letzte Parameterwertesatz αi definiert einen zweiten Parameterwertesatz A2 . Der aus dem Training mit dem ersten Gradienten-basierten Lern-Algorithmus resultierende letzte Satz wi mit den Gewichten definiert den einen zweiten Satz W2 für die Gewichte.In step 308 becomes the artificial neural network 200 depending on the first parameter set W 1 . A 1 and trained according to a second training task with the first gradient-based learning algorithm. The final parameter value set resulting from training with the first gradient-based learning algorithm α i defines a second parameter value set A 2 , The final sentence resulting from training with the first gradient-based learning algorithm w i with the weights defines the second sentence W 2 for the weights.

Das bedeutet, das künstliche neuronale Netzwerk 200 wird abhängig von einer neuen Trainingsaufgabe und abhängig vom ersten Gradienten-basierten Lern-Algorithmus und unabhängig vom zweiten Gradienten-basierten Lern-Algorithmus trainiert. Der zweite Parameterwertesatz A2 für die Parameter α1 , ..., αn und der zweite Satz W2 für die Gewichte wa ,..., wj definiert im Beispiel das künstliche Neuronale Netzwerk 200 nach dem abschließenden Training nur mit dem DARTS Algorithmus.That means the artificial neural network 200 is trained depending on a new training task and on the first gradient-based learning algorithm and independent of the second gradient-based learning algorithm. The second parameter value set A 2 for the parameters α 1 , ..., α n and the second sentence W 2 for the weights w a , ..., w j defines in the example the artificial neural network 200 after the final training only with the DARTS algorithm.

Anschließend werden in einem Schritt 310 digitale Sensordaten abhängig vom trainierten künstlichen neuronalen Netzwerk 200 verarbeitet.Subsequently, in one step 310 digital sensor data depending on the trained artificial neural network 200 processed.

Anschließend endet das Verfahren.Then the process ends.

In einem Aspekt wird das künstliche neuronale Netzwerk 200 in der ersten Phase abhängig von einer Mehrzahl erster Trainingsaufgaben trainiert und in der zweiten Phase abhängig von einem Bruchteil der Trainingsdaten, insbesondere aus nur einer zweiten Trainingsaufgabe.In one aspect, the artificial neural network becomes 200 trained in the first phase depending on a plurality of first training tasks and in the second phase depending on a fraction of the training data, in particular from only a second training task.

Schritte in einem Verfahren zum Ansteuern der computergesteuerten Maschine 108 werden im Folgenden mit Verweis auf 4 beschrieben.Steps in a method for driving the computer-controlled machine 108 will be referred to below with reference 4 described.

Das Verfahren zum Ansteuern der computergesteuerten Maschine 108 startet beispielsweise, wenn diese trainiert werden soll. In einem Aspekt ist das künstliche neuronale Netzwerk 200 in der ersten Phase wie zuvor beschrieben trainiert, und in der Vorrichtung 100 für maschinelles Lernen, für beispielsweise Regression und/oder für Klassifikation implementiert. Die Vorrichtung 100 steuert die computergesteuerte Maschine 108 gemäß dem Verfahren an. Das Verfahren startet beispielweise nach dem Einschalten der computergesteuerten Maschine 108 in der dieses künstlichen neuronale Netzwerk 200 implementiert ist. Es kann auch ein Ereignis, wie beispielsweise ein Tausch des Sensors 106 oder ein Software-Update für den Sensor 106 oder für die computergesteuerte Maschine 108 den Start auslösen.The method of driving the computer controlled machine 108 starts, for example, when this is to be trained. In one aspect, the artificial neural network is 200 in the first phase as previously described, and in the device 100 for machine learning, for example for regression and / or for classification. The device 100 controls the computer-controlled machine 108 according to the method. The method starts, for example after switching on the computer-controlled machine 108 in the this artificial neural network 200 is implemented. It can also be an event, such as an exchange of the sensor 106 or a software update for the sensor 106 or for the computer-controlled machine 108 trigger the start.

Nach dem Start werden in einem Schritt 402 Trainingsdaten für zweite Trainingsaufgaben abhängig von digitalen Sensordaten 110 erzeugt. Die Trainingsdaten können Bilddaten, Videodaten und/oder digitale Sensordaten des Sensors 106 sein. Beispielsweise werden Bilddaten von der Kamera oder der Wärmebildkamera verwendet. Die Bilddaten können auch vom LiDAR Sensor, dem Radar-Sensor, dem akustischen Sensor oder dem Ultraschallsensor stammen. Die Trainingsdaten können auch Positionen vom Empfänger für das Satellitennavigationssystem, Drehzahlen vom Drehzahlfühler, Drehmomente vom Drehmomentfühler, Beschleunigungen vom Beschleunigungssensor und/oder Lageinformation vom Lagesensor umfassen. Die Trainingsdaten korrelieren im Beispiel mit den Trainingsdaten, die in der ersten Phase für das Training des künstlichen neuronalen Netzwerks 200 verwendet werden. Die Trainingsaufgaben korrelieren ebenfalls. Es können beispielweise beim Tausch des Sensors 106 oder der ersten Inbetriebnahme der computergesteuerten Maschine 108 mit dem Sensor 106 erste Trainingsaufgaben aus der ersten Phase verwendet werden, in denen für die erste Phase verwendete generische Sensordaten durch die tatsächlich vom Sensor 106 bestimmte Sensordaten ersetzt werden.After the start will be in one step 402 Training data for second training tasks depending on digital sensor data 110 generated. The training data may be image data, video data and / or sensor digital sensor data 106 his. For example, image data from the camera or the thermal imager is used. The image data can also come from the LiDAR sensor, the radar sensor, the acoustic sensor or the ultrasonic sensor. The training data may also include positions from the satellite navigation system receiver, rotational speed sensor readings, torque sensor torque, acceleration sensor acceleration and / or position sensor attitude information. The training data correlate in the example with the training data, in the first phase for the training of the artificial neural network 200 be used. The training tasks also correlate. For example, when replacing the sensor 106 or the first commissioning of the computer-controlled machine 108 with the sensor 106 first training tasks used in the first phase, in which generic sensor data used for the first phase by the actual sensor 106 certain sensor data will be replaced.

In einem anschließenden Schritt 404 wird das künstliche neuronale Netzwerk 200 mittels der zweiten Trainingsaufgaben trainiert. In einem Aspekt wird das künstliche neuronale Netzwerk 200 wie zuvor für die zweite Phase beschrieben trainiert. So wird die Vorrichtung 100 trainiert.In a subsequent step 404 becomes the artificial neural network 200 trained by the second training tasks. In one aspect, the artificial neural network becomes 200 trained as described above for the second phase. This is how the device works 100 trained.

In einem anschließenden Schritt 406 wird die computergesteuerte Maschine 108 abhängig von dem Ausgangssignal 112 der so trainierten Vorrichtung 100 angesteuert.In a subsequent step 406 becomes the computer-controlled machine 108 depending on the output signal 112 the so-trained device 100 driven.

Anschließend endet das Verfahren, beispielsweise wenn die computergesteuerte Maschine 108 abgeschaltet wird. Subsequently, the method ends, for example when the computer-controlled machine 108 is switched off.

Schritte in einem computerimplementierten Verfahren zum Trainieren werden im Folgenden anhand 5 beschrieben.Steps in a computer-implemented method of training are described below 5 described.

Nach dem Start wird ein Schritt 502 ausgeführt.After the start, a step 502 is executed.

Im Schritt 502 werden Trainingsdaten für die ersten Trainingsaufgaben gemäß der ersten Phase bereitgestellt. Die Trainingsdaten werden beispielsweise in einer Datenbank bereitgestellt.In step 502 Training data are provided for the first training tasks according to the first phase. The training data is provided for example in a database.

In einem anschließenden Schritt 504 werden die ersten Trainingsaufgaben für die erste Phase bestimmt. Beispielsweise wird für die Verteilung der Trainingsaufgaben p(T) für die erste Phase bestimmt und die ersten Trainingsaufgaben aus der Verteilung p(T) gesampelt. Die zweiten Trainingsaufgaben oder die zweite Trainingsaufgabe müssen zu diesem Zeitpunkt noch nicht gegeben oder bekannt sein.In a subsequent step 504 The first training tasks for the first phase are determined. For example, for the distribution of training tasks p (T) determined for the first phase and the first training tasks from the distribution p (T) sampled. The second training tasks or the second training task need not be given or known at this time.

Anschließend wird das künstliche neuronale Netzwerk 200 in einem Schritt 506 mittels der ersten Trainingsaufgaben gemäß der ersten Phase trainiert.Subsequently, the artificial neural network 200 in one step 506 trained by means of the first training tasks according to the first phase.

Eine beispielhafte Implementierung wird im Folgenden für die Verteilung p(T) der ersten Trainingsaufgaben wiedergegeben:

  • while (<some stopping criterion such as time or resource budget> ):
    • sample tasks T1 , T2 ,..., Tp from p(T)
    • for all Ti :
    • (wi, αi) = ϕ(Wmeta, αmeta, Ti)
    • (wmeta, αmeta) = Ψ(wmeta, w1, ..., wp, αmeta, α1, ..., αp, T1, ..., Tp)
    • return (wmeta, αmeta)
An exemplary implementation is given below for the distribution p (T) of the first training tasks:
  • while (<some stopping criterion such as time or resource budget>):
    • sample tasks T 1 . T 2 , ..., T p from p (T)
    • for all T i :
    • (w i , α i ) = φ (W meta , α meta , T i )
    • (w meta , α meta ) = Ψ (w meta , w 1, ..., w p , α meta , α 1 , ..., α p , T 1 , ..., T p )
    • return (w meta , α meta )

Anschließend endet das Verfahren.Then the process ends.

Optional kann vorgesehen sein, dass das künstliche neuronale Netzwerk 200 mittels der zweiten Trainingsaufgaben oder nur einer zweiten Trainingsaufgabe gemäß der zweiten Phase trainiert wird.Optionally, it can be provided that the artificial neural network 200 is trained by the second training tasks or only a second training task according to the second phase.

In einem Schritt 508 werden Trainingsdaten für die zweiten Trainingsaufgaben oder nur für die zweite Trainingsaufgabe gemäß der zweiten Phase bereitgestellt.In one step 508 training data are provided for the second training tasks or only for the second training task according to the second phase.

Anschließend wird in einem Schritt 510 wenigstens eine zweite Trainingsaufgabe für die zweite Phase bestimmt.Subsequently, in one step 510 determined at least a second training task for the second phase.

Anschließend wird das künstliche neuronale Netzwerk 200 abhängig von der wenigstens einen zweiten Trainingsaufgaben gemäß der zweiten Phase trainiert. Eine beispielhafte Implementierung des Schritts 512 wird im Folgenden für eine einzelne zweite Trainingsaufgabe T wiedergegeben:

  • (wT, αT) = ϕ(wmeta, αmeta, T)
  • return (wT, αT)
Subsequently, the artificial neural network 200 trained according to the at least one second training tasks according to the second phase. An exemplary implementation of the step 512 is hereafter for a single second training task T reproduced:
  • (w T , α T ) = φ (w meta , α meta , T)
  • return (w T , α T )

Die Trainingsaufgaben aus den Trainingsaufgaben-Sätzen sind unabhängig voneinander vorgebbar. Ein Ergebnis des Trainings kann abhängig von der ersten Phase der Methode sowie abhängig von nur einer neuen Trainingsaufgabe bestimmt werden. Der Schritt 510 kann bei Bedarf auf verschiedene neue Trainingsaufgaben angewendet werden, diese sind dann unabhängig voneinander.The training tasks from the training assignment sentences are independently definable. A result of the training can be determined depending on the first phase of the method as well as on only one new training task. The step 510 can be applied to various new training tasks as needed, these are then independent of each other.

Die beschriebenen Verfahren können eingesetzt werden, um mit dem künstlichen neuronalen Netzwerk 200 Vorhersagen insbesondere abhängig von empfangenen Sensordaten zu treffen. Es kann auch vorgesehen sein, mit dem künstlichen neuronalen Netzwerk Information über den Sensors 106 aus den empfangenen Sensordaten zu extrahieren.The described methods can be used to work with the artificial neural network 200 Predictions in particular depending on received sensor data. It can also be provided with the artificial neural network information about the sensor 106 extract from the received sensor data.

In der ersten Phase können generische Trainingsdaten für Sensoren einer bestimmten Sensorklasse verwendet werden, zu der beispielsweise der Sensor 106 zählt. Beim Tausch des Sensors 106 kann somit das künstliche neuronalen Netzwerk durch Training in der zweiten Phase einfach an einen Wechsel einer Hard- oder Software Generation angepasst werden.In the first phase, generic training data may be used for sensors of a particular sensor class, such as the sensor 106 counts. When replacing the sensor 106 Thus, the artificial neural network can be easily adapted by training in the second phase to a change of a hardware or software generation.

Eine konkrete andere Anwendung stellt beispielsweise eine Verkehrszeichenerkennung dar. Beispielsweise werden in der ersten Phase länderspezifische Verkehrszeichen verwendet, die nur für wenige Länder, beispielsweise Deutschland oder Österreich vorliegen. Mit ersten Trainingsdaten, die auf diesen länderspezifischen Verkehrszeichen beruhen, wird das künstliche neuronale Netzwerk 200 in der ersten Phase trainiert. Wenn die Verkehrszeichenerkennung in anderen Ländern eingesetzt werden soll, wird das künstliche neuronale Netzwerk 200 in der zweiten Phase mit wenigen zweiten Trainingsdaten mit Verkehrszeichen trainiert, die für diese anderen Länder spezifisch sind.A concrete other application represents, for example, a traffic sign recognition. For example, country-specific traffic signs are used in the first phase, which are available only for a few countries, such as Germany or Austria. The first training data based on these country-specific traffic signs becomes the artificial neural network 200 trained in the first phase. If the traffic sign recognition is to be used in other countries, the artificial neural network becomes 200 trained in the second phase with a few second training data with traffic signs that are specific to these other countries.

Claims (9)

Vorrichtung für die Verarbeitung digitaler Sensordaten, wobei die Vorrichtung ein maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch einen Computer bewirken, dass der Computer ein Verfahren ausführt, das dadurch gekennzeichnet ist, dass eine Vielzahl Trainingsaufgaben aus einer Verteilung von Trainingsaufgaben bereitgestellt wird (302), wobei die Trainingsaufgaben die Verarbeitung von digitalen Sensordaten charakterisieren, wobei ein Parametersatz für eine Architektur und für Gewichte eines künstlichen neuronalen Netzwerks abhängig von wenigstens einer ersten Trainingsaufgabe aus der Verteilung der Trainingsaufgaben mit einem ersten Gradienten-basierten Lern-Algorithmus und einem zweiten Gradienten-basierten Lern-Algorithmus bestimmt wird (304), wobei das künstliche neuronale Netzwerk abhängig vom Parametersatz und abhängig von einer zweiten Trainingsaufgabe mit dem ersten Gradienten-basierten Lern-Algorithmus trainiert wird (306), wobei digitale Sensordaten abhängig vom künstlichen neuronalen Netzwerk (200) verarbeitet werden.Apparatus for processing digital sensor data, the apparatus comprising a machine-readable storage medium having stored thereon instructions which cause, when executed by a computer, causes the computer to execute a method which is characterized in that a plurality of training tasks of a distribution of training tasks (302), wherein the training tasks characterize the processing of digital sensor data, wherein a parameter set for an artificial neural network architecture and weights depends on at least a first training task from the distribution of the training tasks with a first gradient based learning algorithm and a second gradient-based learning algorithm is determined (304), wherein the artificial neural network is trained according to the parameter set and depending on a second training task with the first gradient-based learning algorithm ( 306), wherein digital sensor data is processed depending on the artificial neural network (200). Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, dass der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass das künstliche neuronale Netzwerk (200) durch eine Vielzahl Layer (202-l, ..., 202-m) definiert ist, wobei Elemente (202-k, ..., 202-l) der Vielzahl der Layer (202-l, ..., 202-m) einen gemeinsamen Eingang (202-1) aufweisen und einen gemeinsamen Ausgang (202-m) definieren, wobei die Architektur des künstlichen neuronalen Netzwerks (200) zusätzlich zu den Gewichten (wa, ..., wj) für Neuronen (204-i, ..., 204-j) in den Elementen (202-k, ..., 202-l) durch Parameter (α1, ..., αn) definiert ist, wobei jeder der Parameter (α1, ..., an) einen Beitrag eines der Elemente (202-k, ..., 202-l) der Vielzahl Layer (202-1, ..., 202-m) zum Ausgang charakterisiert.Device after Claim 1 characterized in that the stored instructions are arranged such that the method that the computer performs when executing these instructions on the computer is such that the artificial neural network (200) is defined by a plurality of layers (202-l, ..., 202-m), wherein elements (202-k, ..., 202-l) of the plurality of layers (202-l, ..., 202-m) have a common input (202-1 ) and define a common output (202-m), wherein the architecture of the artificial neural network (200) in addition to the weights (w a , ..., w j ) for neurons (204-i, ..., 204 -j) is defined in the elements (202-k, ..., 202-l) by parameters (α 1 , ..., α n ), each of the parameters (α 1 , ..., an) Contribution of one of the elements (202-k, ..., 202-l) of the plurality of layers (202-1, ..., 202-m) to the output characterized. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, dass der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass das künstliche neuronale Netzwerk (200) in einer ersten Phase abhängig von einer Vielzahl erster Trainingsaufgaben mit dem ersten Gradienten-basierten Lern-Algorithmus und dem zweiten Gradienten-basierten Lern-Algorithmus trainiert wird, wobei das künstliche neuronale Netzwerk (200) in einer zweiten Phase abhängig von einer zweiten Trainingsaufgabe und abhängig vom ersten Gradienten-basierten Lern-Algorithmus und unabhängig vom zweiten Gradienten-basierten Lern-Algorithmus trainiert wird.Device after Claim 1 or 2 characterized in that the stored instructions are arranged such that the method that the computer performs when executing these instructions on the computer is such that the artificial neural network (200) in a first phase depends on a plurality of first Training exercises with the first gradient-based learning algorithm and the second gradient-based learning algorithm is trained, wherein the artificial neural network (200) in a second phase depending on a second training task and depending on the first gradient-based learning algorithm and is trained independently of the second gradient-based learning algorithm. Vorrichtung nach Anspruch 3, dadurch gekennzeichnet, dass die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, dass der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass das künstliche neuronale Netzwerk (200) in der ersten Phase abhängig von einer Mehrzahl erster Trainingsaufgaben trainiert wird, wobei das künstliche neuronale Netzwerk (200) in der zweiten Phase abhängig von einem Bruchteil der Trainingsdaten aus der zweiten Trainingsaufgabe trainiert wird.Device after Claim 3 characterized in that the stored instructions are arranged such that the method that the computer performs when executing these instructions on the computer is such that the artificial neural network (200) in the first phase depends on a plurality of first Training exercises is trained, wherein the artificial neural network (200) is trained in the second phase depending on a fraction of the training data from the second training task. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet, dass die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, dass der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass mit dem zweiten Gradienten-basierten Lern-Algorithmus wenigstens die Parameter (α1, ..., αn) des künstlichen neuronalen Netzwerks (200) trainiert werden, die die Architektur des künstlichen neuronalen Netzwerks (200) definieren.Device after Claim 4 characterized in that the stored instructions are arranged such that the method that the computer carries out when these instructions are executed on the computer is such that at least the parameters (α 1 , ..., α n ) of the artificial neural network (200) that define the architecture of the artificial neural network (200). Vorrichtung zum Ansteuern einer computergesteuerten Maschine (108), insbesondere eines wenigstens teilautonomen Roboters, eines Fahrzeugs, einer Heimanwendung, eines angetriebenen Werkzeugs, eines persönlichen Hilfssystems, eines Zugangskontrollsystems, dadurch gekennzeichnet, dass Trainingsdaten für Trainingsaufgaben abhängig von digitalen Sensordaten (110) erzeugt werden (402), wobei eine Vorrichtung (100), die ein künstliches neuronales Netzwerk (200) umfasst, mittels Trainingsaufgaben gemäß dem Verfahren nach einem der Ansprüche 1 bis 5 trainiert wird (404), wobei die computergesteuerte Maschine (108) abhängig von einem Ausgangssignal (112) der so trainierten Vorrichtung (100) angesteuert wird (406).Device for driving a computer-controlled machine (108), in particular an at least semi-autonomous robot, a vehicle, a home appliance, a power tool, a personal access system, an access control system, characterized in that training data for training tasks depending on digital sensor data (110) are generated (402), wherein a device (100) comprising an artificial neural network (200), by means of training tasks according to the method of the Claims 1 to 5 is trained (404), wherein the computer-controlled machine (108) is driven (406) depending on an output signal (112) of the thus trained device (100). Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Trainingsdaten Bilddaten, Videodaten und/oder digitale Sensordaten eines Sensors (106) insbesondere von wenigstens einer Kamera, einer Wärmebildkamera, einem LiDAR Sensor, einem Radar-Sensor einem akustischen Sensor, einem Ultraschallsensor, einem Empfänger für ein Satellitennavigationssystem, einem Drehzahlfühler, einem Drehmomentfühler, einem Beschleunigungssensor und/oder einem Lagesensor umfassen.Device after Claim 6 , Characterized in that the training data is image data, video data and / or digital sensor data of a sensor (106), in particular of at least one camera, a thermal imaging camera, a LiDAR sensor, a radar sensor an acoustic sensor, an ultrasonic sensor, a receiver for a satellite navigation system, a speed sensor, a torque sensor, an acceleration sensor and / or a position sensor. Vorrichtung zum Trainieren einer Vorrichtung (100) für maschinelles Lernen, Klassifikation oder Ansteuerung einer computergesteuerten Maschine (108), dadurch gekennzeichnet, dass eine Vielzahl Trainingsaufgaben aus einer Verteilung von Trainingsaufgaben bereitgestellt wird (502, 504), wobei die Trainingsaufgaben die Verarbeitung von digitalen Sensordaten charakterisieren, wobei ein Parametersatz für eine Architektur und für Gewichte eines künstlichen neuronalen Netzwerks (200) abhängig von wenigstens einer ersten Trainingsaufgabe aus der Verteilung der Trainingsaufgaben mit einem ersten Gradienten-basierten Lern-Algorithmus und einem zweiten Gradienten-basierten Lern-Algorithmus bestimmt wird (506).Apparatus for training an apparatus (100) for machine learning, classification or control of a computer controlled machine (108), characterized in that a plurality of training tasks is provided from a distribution of training tasks (502, 504), wherein the training tasks are the processing of digital sensor data wherein a parameter set for an artificial neural network architecture and weights (200) is determined from the distribution of training tasks with a first gradient-based learning algorithm and a second gradient-based learning algorithm depending on at least one first training task ( 506). Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass das künstliche neuronale Netzwerk abhängig vom Parametersatz und abhängig von einer zweiten Trainingsaufgabe mit dem ersten Gradienten-basierten Lern-Algorithmus trainiert wird (512).Device after Claim 8 , characterized in that the artificial neural network is trained depending on the parameter set and depending on a second training task with the first gradient-based learning algorithm (512).
DE202019103924.8U 2019-07-16 2019-07-16 Device for processing digital sensor data Active DE202019103924U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202019103924.8U DE202019103924U1 (en) 2019-07-16 2019-07-16 Device for processing digital sensor data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202019103924.8U DE202019103924U1 (en) 2019-07-16 2019-07-16 Device for processing digital sensor data

Publications (1)

Publication Number Publication Date
DE202019103924U1 true DE202019103924U1 (en) 2019-08-06

Family

ID=67702017

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202019103924.8U Active DE202019103924U1 (en) 2019-07-16 2019-07-16 Device for processing digital sensor data

Country Status (1)

Country Link
DE (1) DE202019103924U1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368748A (en) * 2020-03-06 2020-07-03 深圳市商汤科技有限公司 Network training method and device and image recognition method and device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368748A (en) * 2020-03-06 2020-07-03 深圳市商汤科技有限公司 Network training method and device and image recognition method and device
CN111368748B (en) * 2020-03-06 2023-12-01 深圳市商汤科技有限公司 Network training method and device, and image recognition method and device

Similar Documents

Publication Publication Date Title
EP3785177B1 (en) Method and device for determining a network-configuration of a neural network
WO2021008836A1 (en) Device and computer-implemented method for the processing of digital sensor data and training method for same
DE112020000448T5 (en) CAMERA SELF CALIBRATION NETWORK
DE102017218851A1 (en) Method, device and computer program for creating a deep neural network
DE102018008685A1 (en) Method for training an artificial neural network, artificial neural network, use of an artificial neural network and corresponding computer program, machine-readable storage medium and corresponding device
DE102019203634A1 (en) Method and device for controlling a robot
DE102020210352A1 (en) Method and device for transfer learning between modified tasks
DE102018206848A1 (en) Method and apparatus for determining a depth information image from an input image
DE102018206806A1 (en) Method and device for converting an input image of a first domain into an output image of a second domain
DE202019103924U1 (en) Device for processing digital sensor data
WO2021259980A1 (en) Training an artificial neural network, artificial neural network, use, computer program, storage medium, and device
DE102017128082A1 (en) Meta-architecture design for a CNN network
DE102019205359B4 (en) Method and device for controlling a technical device
DE102019207410A1 (en) Method and device for an automated influencing of an actuator
EP3785178A1 (en) Method and device for determining a network configuration of a neural network
DE102020205962B3 (en) Device and method for operating a test bench
DE202021105192U1 (en) Apparatus for machine learning from a small number of training data examples
WO2021009153A1 (en) Component-based processing of input variables
DE102019216184A1 (en) Method for the robustification of a neural network against adversarial disturbances
DE102019207911A1 (en) Method, device and computer program for predicting a learning curve
DE202019103046U1 (en) Device for predicting a learning curve
DE102020205964B3 (en) Device and method for operating a test bench
DE102018209901A1 (en) Computing unit, method and computer program for multiplying at least two multiplicands
DE102021125306A1 (en) Method and device for providing a precise and robust neural network
DE202021103700U1 (en) Device for generating an artificial neural network

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years