DE202019103924U1 - Device for processing digital sensor data - Google Patents
Device for processing digital sensor data Download PDFInfo
- Publication number
- DE202019103924U1 DE202019103924U1 DE202019103924.8U DE202019103924U DE202019103924U1 DE 202019103924 U1 DE202019103924 U1 DE 202019103924U1 DE 202019103924 U DE202019103924 U DE 202019103924U DE 202019103924 U1 DE202019103924 U1 DE 202019103924U1
- Authority
- DE
- Germany
- Prior art keywords
- training
- neural network
- artificial neural
- gradient
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
Vorrichtung für die Verarbeitung digitaler Sensordaten, wobei die Vorrichtung ein maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch einen Computer bewirken, dass der Computer ein Verfahren ausführt, das dadurch gekennzeichnet ist, dass eine Vielzahl Trainingsaufgaben aus einer Verteilung von Trainingsaufgaben bereitgestellt wird (302), wobei die Trainingsaufgaben die Verarbeitung von digitalen Sensordaten charakterisieren, wobei ein Parametersatz für eine Architektur und für Gewichte eines künstlichen neuronalen Netzwerks abhängig von wenigstens einer ersten Trainingsaufgabe aus der Verteilung der Trainingsaufgaben mit einem ersten Gradienten-basierten Lern-Algorithmus und einem zweiten Gradienten-basierten Lern-Algorithmus bestimmt wird (304), wobei das künstliche neuronale Netzwerk abhängig vom Parametersatz und abhängig von einer zweiten Trainingsaufgabe mit dem ersten Gradienten-basierten Lern-Algorithmus trainiert wird (306), wobei digitale Sensordaten abhängig vom künstlichen neuronalen Netzwerk (200) verarbeitet werden. A device for processing digital sensor data, the device comprising a machine-readable storage medium having stored thereon instructions which, when executed by a computer, cause the computer to perform a method characterized by performing a plurality of training tasks from a distribution of training tasks (302), wherein the training tasks characterize the processing of digital sensor data, wherein a parameter set for an artificial neural network architecture and weights depends on at least a first training task from the distribution of the training tasks with a first gradient based learning algorithm and a second gradient-based learning algorithm is determined (304), wherein the artificial neural network is trained according to the parameter set and depending on a second training task with the first gradient-based learning algorithm ( 306), wherein digital sensor data is processed depending on the artificial neural network (200).
Description
Stand der TechnikState of the art
Künstliche neuronale Netzwerke eignen sich zur Verarbeitung digitaler Sensordaten. Zum Training der künstlichen neuronalen Netzwerke sind große Mengen dieser Daten und ein hoher Zeit- und Rechenaufwand erforderlich.Artificial neural networks are suitable for processing digital sensor data. To train the artificial neural networks large amounts of this data and a high time and computational effort are required.
Wünschenswert ist es, ein demgegenüber verbessertes Vorgehen anzugeben.It is desirable to specify an improved procedure.
Offenbarung der ErfindungDisclosure of the invention
Dies wird durch den Gegenstand der unabhängigen Ansprüche erreicht.This is achieved by the subject matter of the independent claims.
Ein computerimplementiertes Verfahren für die Verarbeitung digitaler Sensordaten sieht vor, dass eine Vielzahl Trainingsaufgaben aus einer Verteilung von Trainingsaufgaben bereitgestellt wird, wobei die Trainingsaufgaben die Verarbeitung von digitalen Sensordaten charakterisieren, wobei ein Parametersatz für eine Architektur und für Gewichte eines künstlichen neuronalen Netzwerks abhängig von wenigstens einer ersten Trainingsaufgabe aus der Verteilung der Trainingsaufgaben mit einem ersten Gradienten-basierten Lern-Algorithmus und einem zweiten Gradienten-basierten Lern-Algorithmus bestimmt wird, wobei das künstliche neuronale Netzwerk abhängig vom Parametersatz und abhängig von einer zweiten Trainingsaufgabe mit dem ersten Gradienten-basierten Lern-Algorithmus trainiert wird, wobei digitale Sensordaten abhängig vom künstlichen neuronalen Netzwerk verarbeitet werden. Die Trainingsaufgaben, die die digitale Sensordaten charakterisieren, können für offline Training zuvor aufgenommen, simuliert oder berechnet werden. Sowohl die Architektur als auch die Gewichte des künstlichen neuronalen Netzwerks sind damit mit der wenigstens einen ersten Trainingsaufgaben in einer ersten Trainingsphase für eine konkrete Anwendung oder unabhängig von einer konkreten Anwendung trainierbar. Für die konkrete Anwendung kann damit in einer zweiten Trainingsphase ein Training mit nur einer zweiten Trainingsaufgabe durchgeführt werden. Dies verringert den Aufwand für das Training bei einer Anpassung erheblich, insbesondere wenn die zweiten Trainingsaufgaben mit den ersten Trainingsaufgaben gut korrelieren. Beispielsweise ist damit mit geringem Trainingsaufwand eine Anpassung des künstlichen neuronalen Netzwerks an einen neuen Sensor möglich, der in einem System für einen vorherigen Sensor eingesetzt wird. Dadurch wird ein Modell für Maschinenlernen das bereits für bestimmte Trainingsaufgaben optimiert wurde bereitgestellt. Insbesondere für deep neural networks besteht die Möglichkeit, ein derartiges a-priori optimiertes Modell für Maschinenlernen einfach an eine neue Trainingsaufgabe anzupassen. Schnell bedeutet hierbei, beispielsweise unter Verwendung sehr weniger neuer gekennzeichneter Trainingsdaten, in kurzer Zeit und/oder mit geringem Rechenaufwand gegenüber dem Training, das für die a-priori Optimierung nötig war.A computer-implemented method for processing digital sensor data provides that a plurality of training tasks is provided from a distribution of training tasks, wherein the training tasks characterize the processing of digital sensor data, wherein a parameter set for an artificial neural network architecture and weights depends on at least one first training task is determined from the distribution of the training tasks with a first gradient-based learning algorithm and a second gradient-based learning algorithm, the artificial neural network depending on the parameter set and depending on a second training task with the first gradient-based learning Algorithm is trained, whereby digital sensor data is processed depending on the artificial neural network. The training tasks that characterize the digital sensor data may be prerecorded, simulated or calculated for offline training. Both the architecture and the weights of the artificial neural network can be trained with the at least one first training tasks in a first training phase for a specific application or independent of a specific application. For the specific application can thus be carried out in a second training phase training with only a second training task. This considerably reduces the training effort during an adaptation, in particular if the second training tasks correlate well with the first training tasks. For example, it is possible with little training effort to adapt the artificial neural network to a new sensor, which is used in a system for a previous sensor. This provides a machine learning model that has already been optimized for specific training tasks. In particular for deep neural networks, it is possible to easily adapt such an a priori optimized model for machine learning to a new training task. Fast means, for example, using very less newly identified training data, in a short time and / or with little computational effort compared to the training that was necessary for the a-priori optimization.
Vorzugsweise ist das künstliche neuronale Netzwerk durch eine Vielzahl Layer definiert ist, wobei Elemente der Vielzahl der Layer einen gemeinsamen Eingang aufweisen und einen gemeinsamen Ausgang definieren, wobei die Architektur des künstlichen neuronalen Netzwerks zusätzlich zu den Gewichten für Neuronen in den Elementen durch Parameter definiert ist, wobei jeder der Parameter einen Beitrag eines der Elemente der Vielzahl Layer zum Ausgang charakterisiert. Die Elemente sind beispielsweise parallel angeordnet. Die Parameter geben durch ihre Werte beispielsweise an, welchen Beitrag ein Element, dem ein Parameter zugeordnet ist, zum Ausgang leistet. Die Ausgänge einzelner Elemente werden durch die Werte zusätzlich zu den Gewichten, die das künstliche neuronale Netzwerk für die Neuronen in den Elementen vorsieht, gewichtet.Preferably, the artificial neural network is defined by a plurality of layers, wherein elements of the plurality of layers share a common input and define a common output, wherein the architecture of the artificial neural network is defined by parameters in addition to the weights for neurons in the elements. wherein each of the parameters characterizes a contribution of one of the elements of the plurality of layers to the output. For example, the elements are arranged in parallel. For example, the parameters use their values to indicate the contribution of an element to which a parameter is assigned to the output. The outputs of individual elements are weighted by the values in addition to the weights provided by the artificial neural network for the neurons in the elements.
Vorzugsweise wird das künstlichen neuronalen Netzwerk in einer ersten Phase abhängig von einer Vielzahl erster Trainingsaufgaben mit dem ersten Gradienten-basierten Lernalgorithmus und dem zweiten Gradienten-basierten Lern-Algorithmus trainiert, wobei das künstliche neuronale Netzwerk in einer zweiten Phase abhängig von einer zweiten Trainingsaufgabe und abhängig vom ersten Gradienten-basierten Lern-Algorithmus und unabhängig vom zweiten Gradienten-basierten Lern-Algorithmus trainiert wird. Die erste Phase erfolgt beispielsweise mit ersten Trainingsaufgaben, die von einer generischen Anwendung stammen insbesondere offline. Die zweite Phase erfolgt beispielsweise zur Anpassung an eine konkrete Anwendung mit zweiten Trainingsaufgaben, die aus einem Betrieb einer konkreten Anwendung stammen. Die zweite Trainingsphase wird beispielsweise im Betrieb der Anwendung ausgeführt.Preferably, the artificial neural network is trained in a first phase depending on a plurality of first training tasks with the first gradient-based learning algorithm and the second gradient-based learning algorithm, wherein the artificial neural network in a second phase depending on a second training task and dependent is trained by the first gradient-based learning algorithm and independent of the second gradient-based learning algorithm. The first phase takes place, for example, with first training tasks that originate from a generic application, in particular offline. The second phase takes place, for example, to adapt to a specific application with second training tasks, which originate from an operation of a specific application. The second training phase is executed, for example, during operation of the application.
Bevorzugt wird das künstliche neuronale Netzwerk in einer ersten Phase abhängig von einer Mehrzahl erster Trainingsaufgaben trainiert, wobei das künstliche neuronale Netzwerk in einer zweiten Phase abhängig von einem Bruchteil der Trainingsdaten aus der zweiten Trainingsaufgabe, trainiert wird. Dadurch wird ein zuvor vortrainiertes künstliches neuronales Netzwerk hinsichtlich der Architektur und der Gewichte mit geringem Aufwand an eine neue Anwendung angepasst.Preferably, the artificial neural network is trained in a first phase depending on a plurality of first training tasks, wherein the artificial neural network is trained in a second phase depending on a fraction of the training data from the second training task. This will be a before Pre-trained artificial neural network in terms of architecture and weights adapted to a new application with little effort.
Vorzugsweise werden mit dem zweiten Gradienten-basierten Lern-Algorithmus wenigstens die Parameter des künstlichen neuronalen Netzwerks trainiert, die die Architektur des künstlichen neuronalen Netzwerks definieren.Preferably, the second gradient-based learning algorithm trains at least the parameters of the artificial neural network that define the architecture of the artificial neural network.
Ferner wird eine Vorrichtung vorgeschlagen, die eingerichtet ist, eines der oben genannten Verfahren auszuführen.Furthermore, a device is proposed, which is set up to carry out one of the above-mentioned methods.
Bevorzugt ist ein Verfahren zum Ansteuern einer computergesteuerten Maschine, insbesondere eines wenigstens teilautonomen Roboters, eines Fahrzeugs, einer Heimanwendung, eines angetriebenen Werkzeugs, eines persönlichen Hilfssystems, eines Zugangskontrollsystems, vorgesehen, wobei Trainingsdaten für Trainingsaufgaben abhängig von digitalen Sensordaten erzeugt werden, wobei eine Vorrichtung für maschinelles Lernen, insbesondere für Regression und/oder für Klassifikation, und/oder eine andere Anwendung, die ein künstliches neuronales Netzwerk umfasst, mittels Trainingsaufgaben gemäß dem beschriebenen Verfahren trainiert wird, wobei die computergesteuerte Maschine abhängig von einem Ausgangssignal der so trainierten Vorrichtung angesteuert wird. Die Trainingsdaten werden für die konkrete Anwendung erfasst und insbesondere in der zweiten Trainingsphase zum Training eingesetzt. Dies erleichtert die Anpassung des künstlichen neuronalen Netzwerks und ermöglicht den sofortigen Einsatz.Preferably, a method for controlling a computer-controlled machine, in particular an at least semi-autonomous robot, a vehicle, a home application, a power tool, a personal support system, an access control system is provided, wherein training data for training tasks depending on digital sensor data generated, wherein an apparatus for machine learning, in particular for regression and / or for classification, and / or another application comprising an artificial neural network, is trained by means of training tasks according to the described method, wherein the computer-controlled machine is driven in response to an output signal of the thus-trained device. The training data are recorded for the specific application and used in particular in the second training phase for training. This facilitates adaptation of the artificial neural network and allows for immediate deployment.
Vorzugsweise umfassen die Trainingsdaten Bilddaten, Videodaten und/oder digitale Sensordaten eines Sensors, insbesondere von einer Kamera, einer Wärmebildkamera, einem LiDAR Sensor, einem Radar-Sensor einem akustischen Sensor, einem Ultraschallsensor, einem Empfänger für ein Satellitennavigationssystem, einem Drehzahlfühler, einem Drehmomentfühler, einem Beschleunigungssensor und/oder einem Lagesensor. Diese eignen sich besonders für die Automatisierung.The training data preferably comprise image data, video data and / or digital sensor data of a sensor, in particular from a camera, a thermal imaging camera, a LiDAR sensor, a radar sensor, an acoustic sensor, an ultrasonic sensor, a receiver for a satellite navigation system, a rotational speed sensor, a torque sensor, an acceleration sensor and / or a position sensor. These are particularly suitable for automation.
Ein computerimplementiertes Verfahren zum Trainieren einer Vorrichtung für maschinelles Lernen, Klassifikation oder Ansteuerung einer computergesteuerten Maschine sieht vor, dass eine Vielzahl Trainingsaufgaben aus einer Verteilung von Trainingsaufgaben bereitgestellt wird, wobei die Trainingsaufgaben die Verarbeitung von digitalen Sensordaten charakterisieren, wobei ein Parametersatz für eine Architektur und für Gewichte eines künstlichen neuronalen Netzwerks abhängig von wenigstens einer ersten Trainingsaufgabe aus der Verteilung der Trainingsaufgaben mit einem ersten Gradienten-basierten Lern-Algorithmus und einem zweiten Gradienten-basierten Lern-Algorithmus bestimmt wird. Damit wird diese Vorrichtung unabhängig von der konkreten Anwendung und vor dem Einsatz anschließend abhängig von der konkreten Vorrichtung trainiert und damit für den Einsatz in einer konkreten Anwendung vorbereitet.A computer-implemented method for training a machine learning, classification, or computer-controlled machine apparatus provides that a plurality of training tasks are provided from a distribution of training tasks, the training tasks characterizing the processing of digital sensor data using a parameter set for an architecture and for a computer Weights of an artificial neural network depending on at least a first training task from the distribution of training tasks with a first gradient-based learning algorithm and a second gradient-based learning algorithm is determined. Thus, this device is trained regardless of the specific application and before use then depending on the specific device and thus prepared for use in a specific application.
Vorzugsweise ist vorgesehen, dass das künstliche neuronale Netzwerk abhängig vom Parametersatz und abhängig von einer zweiten Trainingsaufgabe mit dem ersten Gradienten-basierten Lern-Algorithmus trainiert wird. Damit kann eine Anpassung auf neue Trainingsaufgaben effizient umgesetzt werden.Preferably, it is provided that the artificial neural network is trained depending on the parameter set and dependent on a second training task with the first gradient-based learning algorithm. Thus, an adaptation to new training tasks can be efficiently implemented.
Eine Vorrichtung zur Verarbeitung digitaler Sensordaten insbesondere für maschinelles Lernen, Klassifikation oder Ansteuerung einer computergesteuerten Maschine umfasst einen Prozessor, und einen Speicher für wenigstens ein künstliches neuronales Netzwerk, die ausgebildet sind das Verfahren auszuführen. Diese Vorrichtung kann unabhängig von der konkreten Anwendung vorbereitet sein und anschließend abhängig von der konkreten Anwendung trainiert werden.A device for processing digital sensor data, in particular for machine learning, classification or control of a computer-controlled machine, comprises a processor, and a memory for at least one artificial neural network, which are designed to execute the method. This device can be prepared independently of the specific application and then trained depending on the specific application.
Weitere vorteilhafte Ausführungsformen ergeben sich aus der folgenden Beschreibung und der Zeichnung.Further advantageous embodiments will become apparent from the following description and the drawings.
In der Zeichnung zeigt
-
1 eine schematische Darstellung von Teilen einer Vorrichtung für die Verarbeitung digitaler Sensordaten, -
2 eine schematische Darstellung von Teilen eines künstlichen neuronalen Netzwerks, -
3 Schritte in einem computerimplementierten Verfahren für die Verarbeitung digitaler Sensordaten, -
4 Schritte in einem Verfahren zum Ansteuern einer computergesteuerten Maschine, -
5 Schritte in einem computerimplementierten Verfahren zum Trainieren.
-
1 a schematic representation of parts of a device for processing digital sensor data, -
2 a schematic representation of parts of an artificial neural network, -
3 Steps in a computer-implemented method for the processing of digital sensor data, -
4 Steps in a method for driving a computer-controlled machine, -
5 Steps in a computer-implemented method for training.
In
Der Sensor
Der Sensor
Die computergesteuerte Maschine
Die computergesteuerte Maschine
Der Speicher
Die Vorrichtung
Die Vorrichtung
Das künstliche neuronale Netzwerk
Bestimmte Elemente
Das künstliche neuronalen Netzwerk
Eine mathematische Funktion, die für jedes dieser drei Elemente seinen Ausgang „output“ abhängig von einem gemeinsamen Eingang „input“ beschreibt, ist beispielsweise wie folgt angebbar:
Eine mathematische Funktion, die einen gemeinsamen Ausgang „output“ dieser drei Elemente abhängig von dem gemeinsamen Eingang „input“ beschreibt, ist beispielsweise wie folgt angebbar:
Allgemeiner ist die Architektur des künstlichen neuronalen Netzwerks
Durch entsprechende Bestimmung der Parameter
Die Parameter
Mit diesen, insbesondere reelwertigen Parametern
Das künstliche neuronale Netzwerk
Derartige, durch die Bestimmung der Parameter
Ein computerimplementiertes Verfahren für die Verarbeitung digitaler Sensordaten mit einem derartigen künstlichen neuronalen Netzwerk wird anhand der
In einem Schritt
Zudem wird im Beispiel für die drei Elemente {Conv3x3, Conv5x5, MaxPool} eine Meta-Architektur
Dies können zufällige insbesondere reellwertige Größen von Null bis Eins sein. Im Beispiel werden auch Meta-Gewichte
Die Trainingsaufgaben
In einem anschließenden Schritt
Der erste Gradienten-basierten Lern-Algorithmus umfasst für eine bestimmte Trainingsaufgabe
Dabei ist $ϕ ein Algorithmus, insbesondere ein Optimierungsalgorithmus, Trainingsalgorithmus oder Lernalgorithmus, der für eine speziellen Trainingsaufgabe sowohl die Gewichte als auch die Architektur eines neuronalen Netzes für diese Trainingsaufgabe optimiert. Beispielsweise werden mit dem Ausführen des Algorithmus ϕ k Schritte Gradientenabstieg ausgeführt, um die Gewichte und die Architektur zu optimieren. Für die Berechnung kann der Algorithmus Φ wie der DARTS Algorithmus ausgebildet sein. DARTS bezeichnet den Algorithmus „Differentiable Architecture Search“, Hanxiao Liu, Karen Simonyan, Yiming Yang; ICLR; 2019; https://arxiv.org/abs/1806.09055.Here, $ φ is an algorithm, in particular an optimization algorithm, training algorithm or learning algorithm, which optimizes both the weights and the architecture of a neural network for a specific training task for this training task. For example, with the execution of the algorithm φk steps gradient descent are performed to optimize the weights and the architecture. For the calculation, the algorithm Φ can be designed like the DARTS algorithm. DARTS refers to the algorithm "Differentiable Architecture Search", Hanxiao Liu, Karen Simonyan, Yiming Yang; ICLR; 2019; https://arxiv.org/abs/1806.09055.
Im Beispiel wird abhängig von dieser Trainingsaufgabe
Zudem wird ein optimierter Satz
Der Index
Im Beispiel kann die optimierte Architektur
Zudem wird ein optimierter Satz
Abhängig von dem zweiten Gradienten-basierten Lern-Algorithmus wird wenigstens ein Parameter bestimmt, der den Beitrag wenigstens eines der Elemente zum Ausgang definiert. Im Beispiel werden die Parameter
Der zweite Gradienten-basierten Lern-Algorithmus umfasst beispielsweise für die Vielzahl
Mit Ψ ist ein meta-learning Algorithmus bezeichnet. Der meta-learning Algorithmus Ψ optimiert abhängig von einer Reihe Trainingsaufgaben
Der Meta-Learning Algorithmus Ψ ist beispielsweise der MAML Algorithmus. Der MAML bezeichnet den Algorithmus Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks, Chelsea Finn, Pieter Abbeel, Sergey Levine; Proceedings of the 34th International Conference on Machine Learning; 2017; https://arxiv.org/pdf/1703.03400.pdf. Im Gegensatz zu Meta-Learning Algorithmen, die iterativ die Gewichte eines neuronalen Netzes meta-lernen, wie beispielsweise der ursprüngliche MAML Algorithmus, in dem nur die Gewichte w eines fixierten neuronalen Netzes meta-gelernt werden, wird dadurch auch die Architektur des neuronalen Netzes
Für eine reelwertige Repräsentation der Architektur des künstlichen neuronalen Netzwerks werden im Beispiel mit dem MAML Algorithmus Gradienten im Architektur-Raum auch für die Architektur-Parameter berechnet. Mit diesem Gradientenabstiegsverfahren werden sowohl die Gewichte als auch die Architektur optimiert.For a real-valued representation of the architecture of the artificial neural network, in the example with the MAML algorithm, gradients in the architecture space are also calculated for the architecture parameters. This gradient descent process optimizes both the weights and the architecture.
Beispielsweise wird per Gradientenabstiegsverfahren die folgende Gleichung minimiert
Das künstlichen neuronalen Netzwerk
Der erste Parameterwertesatz
Die erste Phase ist beispielsweise abgeschlossen, wenn ein Stopp-Kriterium zutrifft. Das Stopp-Kriterium ist beispielsweise das Erreichen einer Zeitschwelle oder eines Ressourcenbudgets. Wenn die erste Phase abgeschlossen ist, wird ein Schritt
Im Schritt
Das bedeutet, das künstliche neuronale Netzwerk
Anschließend werden in einem Schritt
Anschließend endet das Verfahren.Then the process ends.
In einem Aspekt wird das künstliche neuronale Netzwerk
Schritte in einem Verfahren zum Ansteuern der computergesteuerten Maschine
Das Verfahren zum Ansteuern der computergesteuerten Maschine
Nach dem Start werden in einem Schritt
In einem anschließenden Schritt
In einem anschließenden Schritt
Anschließend endet das Verfahren, beispielsweise wenn die computergesteuerte Maschine
Schritte in einem computerimplementierten Verfahren zum Trainieren werden im Folgenden anhand
Nach dem Start wird ein Schritt 502 ausgeführt.After the start, a
Im Schritt
In einem anschließenden Schritt
Anschließend wird das künstliche neuronale Netzwerk
Eine beispielhafte Implementierung wird im Folgenden für die Verteilung p(T) der ersten Trainingsaufgaben wiedergegeben:
- while (<some stopping criterion such as time or resource budget> ):
- sample tasks
T1 ,T2 ,...,Tp fromp(T) - for all
Ti : - (wi, αi) = ϕ(Wmeta, αmeta, Ti)
- (wmeta, αmeta) = Ψ(wmeta, w1, ..., wp, αmeta, α1, ..., αp, T1, ..., Tp)
- return (wmeta, αmeta)
- sample tasks
- while (<some stopping criterion such as time or resource budget>):
- sample tasks
T 1 .T 2 , ...,T p fromp (T) - for all
T i : - (w i , α i ) = φ (W meta , α meta , T i )
- (w meta , α meta ) = Ψ (w meta , w 1, ..., w p , α meta , α 1 , ..., α p , T 1 , ..., T p )
- return (w meta , α meta )
- sample tasks
Anschließend endet das Verfahren.Then the process ends.
Optional kann vorgesehen sein, dass das künstliche neuronale Netzwerk
In einem Schritt
Anschließend wird in einem Schritt
Anschließend wird das künstliche neuronale Netzwerk
- (wT, αT) = ϕ(wmeta, αmeta, T)
- return (wT, αT)
- (w T , α T ) = φ (w meta , α meta , T)
- return (w T , α T )
Die Trainingsaufgaben aus den Trainingsaufgaben-Sätzen sind unabhängig voneinander vorgebbar. Ein Ergebnis des Trainings kann abhängig von der ersten Phase der Methode sowie abhängig von nur einer neuen Trainingsaufgabe bestimmt werden. Der Schritt
Die beschriebenen Verfahren können eingesetzt werden, um mit dem künstlichen neuronalen Netzwerk
In der ersten Phase können generische Trainingsdaten für Sensoren einer bestimmten Sensorklasse verwendet werden, zu der beispielsweise der Sensor
Eine konkrete andere Anwendung stellt beispielsweise eine Verkehrszeichenerkennung dar. Beispielsweise werden in der ersten Phase länderspezifische Verkehrszeichen verwendet, die nur für wenige Länder, beispielsweise Deutschland oder Österreich vorliegen. Mit ersten Trainingsdaten, die auf diesen länderspezifischen Verkehrszeichen beruhen, wird das künstliche neuronale Netzwerk
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202019103924.8U DE202019103924U1 (en) | 2019-07-16 | 2019-07-16 | Device for processing digital sensor data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202019103924.8U DE202019103924U1 (en) | 2019-07-16 | 2019-07-16 | Device for processing digital sensor data |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202019103924U1 true DE202019103924U1 (en) | 2019-08-06 |
Family
ID=67702017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202019103924.8U Active DE202019103924U1 (en) | 2019-07-16 | 2019-07-16 | Device for processing digital sensor data |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE202019103924U1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368748A (en) * | 2020-03-06 | 2020-07-03 | 深圳市商汤科技有限公司 | Network training method and device and image recognition method and device |
-
2019
- 2019-07-16 DE DE202019103924.8U patent/DE202019103924U1/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368748A (en) * | 2020-03-06 | 2020-07-03 | 深圳市商汤科技有限公司 | Network training method and device and image recognition method and device |
CN111368748B (en) * | 2020-03-06 | 2023-12-01 | 深圳市商汤科技有限公司 | Network training method and device, and image recognition method and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3785177B1 (en) | Method and device for determining a network-configuration of a neural network | |
WO2021008836A1 (en) | Device and computer-implemented method for the processing of digital sensor data and training method for same | |
DE112020000448T5 (en) | CAMERA SELF CALIBRATION NETWORK | |
DE102017218851A1 (en) | Method, device and computer program for creating a deep neural network | |
DE102018008685A1 (en) | Method for training an artificial neural network, artificial neural network, use of an artificial neural network and corresponding computer program, machine-readable storage medium and corresponding device | |
DE102019203634A1 (en) | Method and device for controlling a robot | |
DE102020210352A1 (en) | Method and device for transfer learning between modified tasks | |
DE102018206848A1 (en) | Method and apparatus for determining a depth information image from an input image | |
DE102018206806A1 (en) | Method and device for converting an input image of a first domain into an output image of a second domain | |
DE202019103924U1 (en) | Device for processing digital sensor data | |
WO2021259980A1 (en) | Training an artificial neural network, artificial neural network, use, computer program, storage medium, and device | |
DE102017128082A1 (en) | Meta-architecture design for a CNN network | |
DE102019205359B4 (en) | Method and device for controlling a technical device | |
DE102019207410A1 (en) | Method and device for an automated influencing of an actuator | |
EP3785178A1 (en) | Method and device for determining a network configuration of a neural network | |
DE102020205962B3 (en) | Device and method for operating a test bench | |
DE202021105192U1 (en) | Apparatus for machine learning from a small number of training data examples | |
WO2021009153A1 (en) | Component-based processing of input variables | |
DE102019216184A1 (en) | Method for the robustification of a neural network against adversarial disturbances | |
DE102019207911A1 (en) | Method, device and computer program for predicting a learning curve | |
DE202019103046U1 (en) | Device for predicting a learning curve | |
DE102020205964B3 (en) | Device and method for operating a test bench | |
DE102018209901A1 (en) | Computing unit, method and computer program for multiplying at least two multiplicands | |
DE102021125306A1 (en) | Method and device for providing a precise and robust neural network | |
DE202021103700U1 (en) | Device for generating an artificial neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification | ||
R150 | Utility model maintained after payment of first maintenance fee after three years |