DE102020204544A1 - Computer-implemented method and device for control with an artificial neural network - Google Patents
Computer-implemented method and device for control with an artificial neural network Download PDFInfo
- Publication number
- DE102020204544A1 DE102020204544A1 DE102020204544.5A DE102020204544A DE102020204544A1 DE 102020204544 A1 DE102020204544 A1 DE 102020204544A1 DE 102020204544 A DE102020204544 A DE 102020204544A DE 102020204544 A1 DE102020204544 A1 DE 102020204544A1
- Authority
- DE
- Germany
- Prior art keywords
- activation function
- neural network
- artificial neural
- function
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Abstract
Computerimplementiertes Verfahren zum Betreiben eines Bildklassifikators mit einem künstlichen neuronalen Netzwerk, dadurch gekennzeichnet, dass eine Ausgangsgröße des künstlichen neuronalen Netzwerks bestimmt wird (608), wobei die Ausgangsgröße abhängig von Eingangsdaten für das künstlichen neuronale Netzwerk und abhängig von einer Aktivierungsfunktion des künstlichen neuronalen Netzwerks bestimmt wird (606) und eine Klassifikation der Eingangsdaten charakterisiert, wobei die Aktivierungsfunktion zumindest abschnittsweise kontinuierlich ableitbar und monoton steigend ist, wobei die Aktivierungsfunktion wenigstens drei Fixpunkte aufweist, wobei eine Anzahl der Fixpunkte der Aktivierungsfunktion entweder endlich und ungerade oder abzählbar und diskret ist, und wobei eine Ableitung der Aktivierungsfunktion in Bereichen zwischen benachbarten Fixpunkten abwechselnd monoton steigend und monoton fallend ist.Computer-implemented method for operating an image classifier with an artificial neural network, characterized in that an output variable of the artificial neural network is determined (608), the output variable being determined as a function of input data for the artificial neural network and as a function of an activation function of the artificial neural network (606) and characterizes a classification of the input data, the activation function being continuously derivable and monotonically increasing, at least in sections, the activation function having at least three fixed points, a number of the fixed points of the activation function being either finite and odd or countable and discrete, and one Derivation of the activation function in areas between neighboring fixed points is alternately monotonically increasing and monotonically decreasing.
Description
Stand der TechnikState of the art
Die Erfindung geht aus von einem computerimplementierten Verfahren und einer Vorrichtung zur Ansteuerung mit einem künstlichen neuronalen Netzwerk. In den künstlichen neuronalen Netzwerken ist Information gespeichert, durch die Eingangsgrößen, beispielsweise von Sensoren, auf Ausgangsgrößen für die Ansteuerung abbildbar sind.The invention is based on a computer-implemented method and a device for control with an artificial neural network. Information is stored in the artificial neural networks by means of which input variables, for example from sensors, can be mapped onto output variables for control.
Eine wesentliche Komponente tiefer künstlicher neuronaler Netzwerke sind Aktivierungsfunktionen. Diese führen in bestimmten Architekturen und insbesondere in rekurrenten Architekturen des künstlichen neuronalen Netzwerks zu explodierenden oder verschwindenden Aktivierungen. Explodierende bzw. verschwindende Aktivierung bedeutet in diesem Zusammenhang, dass Zustände einzelner Einheiten, d.h. Neuronen, eines neuronalen Netzwerks Zahlenwerte annehmen die zu numerisch instabilem Verhalten des neuronalen Netzwerks zum einen während des Trainings des Netzwerkes und zum anderen während der Inferenz, d.h. in der Anwendungsphase, des neuronalen Netzes führen. Während des Trainings führen numerisch explodierende bzw. verschwindende Aktivierungen zu numerisch instabilen Gradienten eines Gradientenverfahrens, das zur Bestimmung der Parameter des künstlichen neuronalen Netzwerks verwendet wird. Während des Trainings können diese explodierenden bzw. verschwindenden Gradienten dazu führen, dass das Modell, d.h. die Parameter, die im künstlichen neuronalen Netzwerk gespeichert sind, nicht mehr gelernt werden. Damit wird die im künstlichen neuronalen Netzwerk gespeicherte Information unbrauchbar. Die Folge kann eine unerwünschte Ansteuerung sein. Darüber hinaus können explodierende oder verschwindende Aktivierungen bei der Ansteuerung, d.h. in der Inferenzphase, an sich zu unerwünschtem Verhalten des Systems führen. Dies ist verstärkt der Fall bei rekurrenten neuronalen Netzen, da diese durch ihre wiederholten rückgekoppelten Berechnungen instabiles Verhalten verstärken.
Wünschenswert ist es, eine demgegenüber verbesserte Ansteuerung mit einem künstlichen neuronalen Netzwerk bereit zu stellen.Activation functions are an essential component of deep artificial neural networks. In certain architectures and particularly in recurrent architectures of the artificial neural network, these lead to exploding or disappearing activations. Exploding or disappearing activation in this context means that the states of individual units, i.e. neurons, of a neural network assume numerical values that lead to numerically unstable behavior of the neural network on the one hand during training of the network and on the other hand during inference, i.e. in the application phase, of the neural network. During training, numerically exploding or vanishing activations lead to numerically unstable gradients of a gradient method that is used to determine the parameters of the artificial neural network. During training, these exploding or vanishing gradients can lead to the model, ie the parameters that are stored in the artificial neural network, no longer being learned. This makes the information stored in the artificial neural network unusable. The result can be undesired activation. In addition, exploding or disappearing activations during activation, ie in the inference phase, can in themselves lead to undesired behavior of the system. This is increasingly the case with recurrent neural networks, as these reinforce unstable behavior through their repeated feedback calculations.
It is desirable to provide an improved control with an artificial neural network.
Offenbarung der ErfindungDisclosure of the invention
Dies wird durch den Gegenstand der unabhängigen Ansprüche erreicht.This is achieved through the subject matter of the independent claims.
Ein Computerimplementiertes Verfahren zum Betreiben eines Bildklassifikators mit einem künstlichen neuronalen Netzwerk, insbesondere eine Faltungsnetzwerk (Englisch: „convolutional neural network“, CNN), dadurch gekennzeichnet, dass eine Ausgangsgröße des künstlichen neuronalen Netzwerks bestimmt wird (608), wobei die Ausgangsgröße abhängig von Eingangsdaten für das künstlichen neuronale Netzwerk und abhängig von einer Aktivierungsfunktion des künstlichen neuronalen Netzwerks bestimmt wird und eine Klassifikation der Eingangsdaten charakterisiert,
wobei die Aktivierungsfunktion zumindest abschnittsweise kontinuierlich ableitbar und monoton steigend ist, wobei die Aktivierungsfunktion wenigstens drei Fixpunkte aufweist, wobei eine Anzahl der Fixpunkte der Aktivierungsfunktion entweder endlich und ungerade oder abzählbar und diskret ist, und wobei eine Ableitung der Aktivierungsfunktion in Bereichen zwischen benachbarten Fixpunkten abwechselnd monoton steigend und monoton fallend ist.A computer-implemented method for operating an image classifier with an artificial neural network, in particular a convolutional neural network (CNN), characterized in that an output variable of the artificial neural network is determined (608), the output variable depending on input data is determined for the artificial neural network and depending on an activation function of the artificial neural network and characterizes a classification of the input data,
The activation function can be continuously derived and monotonically increasing, at least in sections, the activation function having at least three fixed points, a number of the fixed points of the activation function being either finite and odd or countable and discrete, and a derivative of the activation function in areas between adjacent fixed points alternately monotonously is increasing and monotonically decreasing.
Die Eingangsdaten können hierbei durch Bilddaten gegeben sein, die beispielsweise Frames eines Ausgangssignals eines Videosensors umfassen können, oder eines Radarsensors, oder eines LiDAR-Sensors, oder eines Ultraschallsensors.The input data can be given by image data, which can include, for example, frames of an output signal from a video sensor, or a radar sensor, or a LiDAR sensor, or an ultrasonic sensor.
Unter einer Klassifikation kann hierbei auch eine semantische Segmentierung als eine bereichsweise, insbesondere pixelweise, Klassifikation verstanden werden, und/oder eine Detektion als eine Klassifikation, ob in einem Bildausschnitt ein Objekt erkannt wurde, oder nicht.A classification can also be understood as a semantic segmentation as a region-wise, in particular pixel-wise, classification, and / or a detection as a classification of whether or not an object was recognized in an image section.
Auch kann ein computerimplementiertes Verfahren zur Ansteuerung abhängig von der ermittelten Ausgangsgröße vorsehen, dass ein Roboter, ein Fahrzeug, ein Hausgerät, ein Werkzeug, eine Fertigungsmaschine, ein Assistenzsystem für einen Menschen, ein Zutrittskontrollsystem oder ein System zur Informationsübermittlung mit einer Ansteuergröße angesteuert wird, wobei die Ansteuergröße abhängig von der Ausgangsgröße bestimmt wird.A computer-implemented method for control, depending on the determined output variable, can also provide that a robot, a vehicle, a household appliance, a tool, a production machine, an assistance system for a person, an access control system or a system for transmitting information is controlled with a control variable, with the control variable is determined depending on the output variable.
Im Falle eines rekurrenten neuronalen Netzwerks, das in einer Schicht Rückkopplungen von einzelnen Einheiten des rekurrenten neuronalen Netzwerks auf sich selbst aufweist, wird die Aktivierungsfunktion iterativ auf den internen Zustand der Schicht angewendet. Insbesondere wenn die Einheiten der Schicht untereinander vollständig verbunden sind und zudem Eingänge von anderen Schichten des rekurrenten neuronalen Netzwerks vorgesehen sind, wird mit dieser Aktivierungsfunktion das Auftreten verschwindender oder explodierender Gradienten vermieden. Unter Fixpunkt wird ein Punkt verstanden, für den die Aktivierungsfunktion einen Wert x aus der Definitionsmenge der Aktivierungsfunktion auf denselben Wert x aus einem Wertebereich der Aktivierungsfunktion abbildet. Beispielsweise weist die Aktivierungsfunktion bei einem ersten Wert x1 der Definitionsmenge der Aktivierungsfunktion einen ersten Fixpunkt
Vorzugsweise ist vorgesehen, dass die Ableitung der Aktivierungsfunktion für Werte der Definitionsmenge der Aktivierungsfunktion, die kleiner sind als der kleinste Wert der Definitionsmenge, für den ein Fixpunkt der Aktivierungsfunktion definiert ist, kleiner als Eins ist, oder dass die Ableitung der Aktivierungsfunktion für Werte der Definitionsmenge der Aktivierungsfunktion, die größer sind als der größte Wert der Definitionsmenge, für den ein Fixpunkt der Aktivierungsfunktion definiert ist, kleiner als Eins ist. Diese Klasse Aktivierungsfunktionen ist besonders für den Ersatz von herkömmlichen Sigmoid Funktionen geeignet.It is preferably provided that the derivation of the activation function for values of the definition set of the activation function that are smaller than the smallest value of the definition set for which a fixed point of the activation function is defined is less than one, or that the derivative of the activation function for values of the definition set of the activation function that are greater than the largest value of the definition set for which a fixed point of the activation function is defined is less than one. This class of activation functions is particularly suitable for replacing conventional sigmoid functions.
Vorzugsweise ist vorgesehen, dass die Ableitung insbesondere im Bereich von Werten der Definitionsmenge, für die kein Fixpunkt der Aktivierungsfunktion definiert ist, größer als Null ist. Diese Klasse von Aktivierungsfunktionen hat gegenüber herkömmlichen Aktivierungsfunktionen den Vorteil, dass der Gradient der Aktivierungsfunktion zumindest außerhalb der Fixpunkte von Null verschieden ist. Dies verbessert die Lerngeschwindigkeit zusätzlich.It is preferably provided that the derivative is greater than zero, in particular in the range of values of the definition set for which no fixed point of the activation function is defined. This class of activation functions has the advantage over conventional activation functions that the gradient of the activation function differs from zero at least outside the fixed points. This additionally improves the learning speed.
Vorzugsweise ist vorgesehen, dass eine Wertemenge der Aktivierungsfunktion durch einen Zahlenbereich zwischen einem unteren Wert und einem oberen Wert definiert ist, insbesondere durch einen Zahlenbereich von einschließlich Null bis einschließlich Eins. Dies ermöglicht einen direkten Einsatz der Aktivierungsfunktion in herkömmlichen künstlichen neuronalen Netzwerken.It is preferably provided that a set of values of the activation function is defined by a number range between a lower value and an upper value, in particular by a number range from zero to one inclusive. This enables the activation function to be used directly in conventional artificial neural networks.
Vorzugsweise ist vorgesehen, dass die Aktivierungsfunktion kontinuierlich ableitbar ist. Dadurch sind Berechnungen in einem Gradientenverfahren besonders effizient durchführbar.It is preferably provided that the activation function can be derived continuously. As a result, calculations can be carried out particularly efficiently using a gradient method.
Vorzugsweise ist vorgesehen, dass die Aktivierungsfunktion eine glatte Funktion oder eine abschnittsweise lineare Funktion ist, wobei der Fixpunkt mit dem kleinsten Wert aller Fixpunkte der Aktivierungsfunktion den Wert Null aufweist, wobei der Fixpunkt mit dem größten Wert aller Fixpunkte den Wert Eins aufweist. Diese Funktion eignet sich besonders gut für den Ersatz einer Sigmoid Funktion.It is preferably provided that the activation function is a smooth function or a linear function in sections, the fixed point with the smallest value of all fixed points of the activation function having the value zero, the fixed point with the largest value of all fixed points having the value one. This function is particularly suitable for replacing a sigmoid function.
Vorzugsweise ist vorgesehen, dass die Aktivierungsfunktion eine abschnittsweise lineare Funktion ist, wobei die Aktivierungsfunktion zwischen zwei zueinander unmittelbar benachbarten Fixpunkten wenigstens zwei Abschnitte mit linearen Funktionen unterschiedlicher Steigung aufweist. Diese Funktion ermöglicht ein Verhalten ähnlich einer Rundung zu einem Fixpunkt, ohne jedoch ein Gradientenverfahren durch einen Gradienten mit dem Wert Null zu beeinträchtigen. Dazu hat die Aktivierungsfunktion in ein einem ersten der Abschnitte eine erste Steigung und ein einem zweiten der Abschnitt eine zweite Steigung. Die erste Steigung ist gegenüber der zweiten Steigung sehr viel kleiner. Der erste Abschnitt ist gegenüber dem zweiten Abschnitt sehr viel größer. Dadurch werden die Werte aus dem Definitionsbereich der Aktivierungsfunktion in dem ersten Abschnitt auf Werte aus dem Wertebereich der Aktivierungsfunktion abgebildet, die sehr nah zueinander und sehr nahe des einen Fixpunkts liegen.It is preferably provided that the activation function is a linear function in sections, the activation function having at least two sections with linear functions of different slopes between two fixed points that are directly adjacent to one another. This function enables a behavior similar to a rounding to a fixed point, but without affecting a gradient method with a gradient with the value zero. For this purpose, the activation function has a first gradient in a first of the sections and a second gradient in a second of the sections. The first slope is very much smaller than the second slope. The first section is much larger than the second section. As a result, the values from the definition range of the activation function in the first section are mapped onto values from the value range of the activation function which are very close to one another and very close to the one fixed point.
Vorzugsweise ist vorgesehen, dass die Werte der Fixpunkte Potenzen von Zwei sind. Dadurch werden insbesondere für den Fall der zwei Abschnitte mit linearen Funktionen unterschiedlicher Steigung besonders geeignete Werte aus dem Wertebereich der Aktivierungsfunktion zugeordnet.It is preferably provided that the values of the fixed points are powers of two. As a result, particularly suitable values from the value range of the activation function are assigned to the case of the two sections with linear functions of different slopes.
Eine Vorrichtung zur Ansteuerung mit einem künstlichen neuronalen Netzwerk sieht vor, dass die Vorrichtung einen Ausgang zur Ansteuerung eines Roboters, eines Fahrzeugs, eines Hausgeräts, eines Werkzeugs, einer Fertigungsmaschine, eines Assistenzsystems für einen Menschen, eines Zutrittskontrollsystems oder eines Systems zur Informationsübermittlung mit einer Ansteuergröße umfasst, wobei die Vorrichtung eine Recheneinrichtung, einen Speicher für das künstliche neuronale Netzwerk und einen Eingang für Eingangsdaten umfasst, wobei die Vorrichtung ausgebildet ist, die Ansteuergröße gemäß dem beschriebenen Verfahren zu bestimmen. Diese Vorrichtung eignet sich zum Training des künstlichen neuronalen Netzwerks und zum Ansteuern nach erfolgtem Training.A device for control with an artificial neural network provides that the device has an output for controlling a robot, a vehicle, a household appliance, a tool, a manufacturing machine, an assistance system for a person, an access control system or a system for transmitting information with a control variable comprises, wherein the device comprises a computing device, a memory for the artificial neural network and an input for input data, wherein the device is designed to set the control variable according to the procedure described. This device is suitable for training the artificial neural network and for controlling it after training has taken place.
Weitere vorteilhafte Ausführungsformen ergeben sich aus der folgenden Beschreibung und der Zeichnung. In der Zeichnung zeigt
-
1 eine schematische Darstellung einer Vorrichtung mit einem künstlichen neuronalen Netzwerk, -
2 eine schematische Darstellung einer ersten Aktivierungsfunktion, -
3 eine schematische Darstellung einer zweiten Aktivierungsfunktion, -
4 eine schematische Darstellung einer dritten Aktivierungsfunktion, -
5 eine schematische Darstellung einer vierten Aktivierungsfunktion, -
6 Schritte in einem Verfahren zur Ansteuerung.
-
1 a schematic representation of a device with an artificial neural network, -
2 a schematic representation of a first activation function, -
3 a schematic representation of a second activation function, -
4th a schematic representation of a third activation function, -
5 a schematic representation of a fourth activation function, -
6 Steps in a method of control.
In
Die Vorrichtung
Die Vorrichtung
Die Vorrichtung
Das künstliche neuronale Netzwerk ist beispielweise ein tiefes künstliches neuronales Netzwerk, deep neural network, insbesondere ein als rekurrentes neuronales Netzwerk, RNN, ausgebildetes künstliches neuronales Netzwerk. Vorzugsweise weist das RNN für manche Schichten Rückkopplungen auf. Das RNN kann als vollständig verbundenes RNN ausgebildet sein. Es kann auch eine Vielzahl Long-Short Term Memory, LSTM oder ein Gated Recurrent Unit module, GRU module, vorgesehen sein.The artificial neural network is, for example, a deep artificial neural network, in particular an artificial neural network designed as a recurrent neural network, RNN. The RNN preferably has feedback for some layers. The RNN can be designed as a fully connected RNN. A large number of long-short term memories, LSTMs or a gated recurrent unit module, GRU module, can also be provided.
Das künstliche neuronale Netzwerk verwendet in Einheiten
Die
Die Aktivierungsfunktionen weisen wenigstens drei Fixpunkte auf. Die Aktivierungsfunktionen sind abschnittsweise kontinuierlich ableitbar und monoton steigend. Eine Anzahl der Fixpunkte der Aktivierungsfunktion ist entweder endlich und ungerade oder abzählbar und diskret.The activation functions have at least three fixed points. The activation functions can be derived continuously in sections and increase monotonically. A number of the fixed points of the activation function is either finite and odd or countable and discrete.
Eine Ableitung der Aktivierungsfunktionen ist in Bereichen zwischen benachbarten Fixpunkten abwechselnd monoton steigend und monoton fallend. A derivation of the activation functions is alternately monotonically increasing and monotonically decreasing in areas between neighboring fixed points.
Unter Fixpunkt wird ein Punkt verstanden, für den die Aktivierungsfunktion einen Wert x aus der Definitionsmenge der Aktivierungsfunktion auf denselben Wert x aus einem Wertebereich der Aktivierungsfunktion abbildet.A fixed point is understood to mean a point for which the activation function maps a value x from the definition set of the activation function to the same value x from a value range of the activation function.
Beispielsweise weist die in
In diesem Beispiel ist der erste Wert x1 im Ursprung des Koordinatensystems sind kleiner als der zweite Wert
Die Ableitung der ersten Aktivierungsfunktion
In diesem Beispiel sind der erste Bereich
Die erste Aktivierungsfunktion
In
Die zweite Aktivierungsfunktion
Vorzugsweise schließt der erste Abschnitt
Die in
In der in
Die Wertemenge der beschriebenen Aktivierungsfunktion ist vorzugsweise durch einen Zahlenbereich zwischen einem unteren Wert und einem oberen Wert definiert. Vorzugsweise ist die Wertemenge durch einen Zahlenbereich von einschließlich Null bis einschließlich Eins definiert.The set of values of the activation function described is preferably defined by a range of numbers between a lower value and an upper value. The set of values is preferably defined by a range of numbers from zero to one inclusive.
Die Ableitung der beschriebenen Aktivierungsfunktionen ist vorzugsweise für Werte der Definitionsmenge der Aktivierungsfunktion, die kleiner sind als der kleinste Wert der Definitionsmenge, für den ein Fixpunkt der Aktivierungsfunktion definiert ist, kleiner als Eins. Die Ableitung der beschriebenen Aktivierungsfunktionen ist vorzugsweise für Werte der Definitionsmenge der Aktivierungsfunktion, die größer sind als der größte Wert der Definitionsmenge, für den ein Fixpunkt der Aktivierungsfunktion definiert ist, kleiner als Eins.The derivation of the described activation functions is preferably less than one for values of the definition set of the activation function that are smaller than the smallest value of the definition set for which a fixed point of the activation function is defined. The derivation of the described activation functions is preferably less than one for values of the definition set of the activation function that are greater than the largest value of the definition set for which a fixed point of the activation function is defined.
Die Ableitung beschriebenen Aktivierungsfunktionen ist insbesondere im Bereich von Werten der Definitionsmenge, für die kein Fixpunkt der Aktivierungsfunktion definiert ist, größer als Null.The derivation of the activation functions described is greater than zero, in particular in the range of values of the definition set for which no fixed point of the activation function is defined.
Anhand der
Das computerimplementierte Verfahren dient dem Training des künstlichen neuronalen Netzwerks oder einer Ansteuerung des Roboters, des Fahrzeugs, des Hausgeräts, des Werkzeugs, der Fertigungsmaschine, des Assistenzsystems für den Menschen, des Zutrittskontrollsystems oder des Systems zur Informationsübermittlung mit der Ansteuergröße
In einem Schritt
In einem Schritt
In einem Schritt
Optional wird in diesem Schritt eine Gradientenverfahren verwendet, um abhängig von der Ableitung der Aktivierungsfunktion Parameterupdates für die Parameter des künstlichen neuronalen Netzwerks zu bestimmen.Optionally, a gradient method is used in this step in order to determine parameter updates for the parameters of the artificial neural network as a function of the derivation of the activation function.
Besonders vorteilhaft ist es, in einem rekurrenten neuronalen Netzwerk den Zustand wenigstens eines Neurons des rekurrenten neuronalen Netzwerks durch wiederholte rückgekoppelte Berechnung des Zustands mit dem Gradientenverfahren und abhängig von der Aktivierungsfunktion zu bestimmen. Sowohl in einer Trainingsphase als auch in einer Interferenzphase, d.h. bei einer Anwendung des künstlichen neuronalen Netzwerks, werden damit explodierende oder verschwindende Gradienten vermieden.It is particularly advantageous to determine the state of at least one neuron of the recurrent neural network in a recurrent neural network by repeated feedback calculation of the state using the gradient method and depending on the activation function. Both in a training phase and in an interference phase, i.e. when using the artificial neural network, exploding or disappearing gradients are avoided.
In einem Schritt
In einem Schritt
Anschließend wird der Schritt
Das Verfahren wird beispielsweise zur Regelung oder Steuerung des Aktors abhängig von Sensordaten gestartet und beendet, wenn die Regelung oder Steuerung abgeschaltet wird.The method is started, for example, to regulate or control the actuator as a function of sensor data and end when the regulation or control is switched off.
Die Sensordaten sind beispielsweise LiDAR, Radar, Raddrehzahlfühler, Video- oder Audiodaten, Daten eines Beschleunigungs- oder Gierratensensors oder Daten mit Information über einen Zustand einer Antriebsmaschine, eines Lenkwinkels oder einer Gaspedalstellung. Beispielsweise wird das künstliche neuronale Netzwerk dafür trainiert, abhängig von den Sensordaten ein teilweise autonomes Kraftfahrzeug anzusteuern.The sensor data are, for example, LiDAR, radar, wheel speed sensors, video or audio data, data from an acceleration or yaw rate sensor or data with information about a state of a prime mover, a steering angle or an accelerator pedal position. For example, the artificial neural network is trained to drive a partially autonomous motor vehicle depending on the sensor data.
Der Aktor ist beispielsweise eine aktive Lenkung, eine Motorsteuerung oder ein Ventil dafür. Der Aktor kann auch eine Zugangskontrolleinrichtung sein, beispielsweise eine Personenvereinzelungseinrichtung oder ein Türschließ- und öffenmechanismus, der abhängig von einer in einem Bild- oder Audiosignal erkannten Person den Zugang freigibt oder nicht.The actuator is, for example, an active steering system, an engine controller or a valve for it. The actuator can also be an access control device, for example a people isolation device or a door closing and opening mechanism which, depending on a person recognized in an image or audio signal, enables access or not.
Die Vorrichtung und das Verfahren ermöglichen das Training besonders effizient zu gestalten. Der Einsatz eines selbstlernenden künstlichen neuronalen Netzwerks ist aufgrund dieser Aktivierungsfunktionen besonders schnell möglich.The device and the method enable the training to be designed particularly efficiently. The use of a self-learning artificial neural network is particularly quick due to these activation functions.
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010331758.9A CN111860762A (en) | 2019-04-26 | 2020-04-24 | Apparatus and computer-implemented method for steering with artificial neural network |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019206046.3 | 2019-04-26 | ||
DE102019206046 | 2019-04-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020204544A1 true DE102020204544A1 (en) | 2020-10-29 |
Family
ID=72840073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020204544.5A Pending DE102020204544A1 (en) | 2019-04-26 | 2020-04-08 | Computer-implemented method and device for control with an artificial neural network |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111860762A (en) |
DE (1) | DE102020204544A1 (en) |
-
2020
- 2020-04-08 DE DE102020204544.5A patent/DE102020204544A1/en active Pending
- 2020-04-24 CN CN202010331758.9A patent/CN111860762A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN111860762A (en) | 2020-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3765927B1 (en) | Method for generating a training data record for training an artificial intelligence module for a control device of a vehicle | |
DE202017102235U1 (en) | training system | |
WO2019206775A1 (en) | Method and device for determining a network configuration of a neural network | |
DE102019209736A1 (en) | Procedure for evaluating possible trajectories | |
WO2020094534A1 (en) | Method for training an artificial neural network, artificial neural network, use of an artificial neural network, corresponding computer program, machine-readable storage medium and corresponding device | |
WO2020187591A1 (en) | Method and device for controlling a robot | |
EP3701433A1 (en) | Method, device and computer program for developing a deep neural network | |
WO2021008836A1 (en) | Device and computer-implemented method for the processing of digital sensor data and training method for same | |
DE102019214625A1 (en) | Method, device and computer program for creating an artificial neural network | |
EP3741518B1 (en) | Method and device for automatically influencing an actuator | |
DE102020204544A1 (en) | Computer-implemented method and device for control with an artificial neural network | |
EP3785178A1 (en) | Method and device for determining a network configuration of a neural network | |
DE102020206913B4 (en) | Method and device for operating a robot | |
DE102021200643B3 (en) | Method for environment recognition for semi-autonomous or autonomous driving functions of a motor vehicle using a neural network | |
EP3748454B1 (en) | Method and device for automatically executing a control function of a vehicle | |
DE102020210376A1 (en) | Apparatus and method for controlling a hardware agent in a multiple hardware agent control situation | |
DE102021204943A1 (en) | META-SCHOOLED EVOLUTIONAL STRATEGY BLACKBOX OPTIMIZATION CLASSIFIER | |
EP4000011A1 (en) | Component-based processing of input variables | |
DE102020213527A1 (en) | Method for optimizing a strategy for a robot | |
DE102020211596A1 (en) | Method for generating a trained neural convolution network with an invariant integration layer for classifying objects | |
WO2021063572A1 (en) | Device and method for processing data from a neural network | |
DE102021208472B3 (en) | Computer-implemented method for training a machine learning model for a vehicle or robot | |
DE102019216184A1 (en) | Method for the robustification of a neural network against adversarial disturbances | |
DE102019209463A1 (en) | Method for determining the trust value of an object of a class | |
DE102019130484A1 (en) | Method and device for training an ensemble of neural networks |