DE102019205657A1 - Method and device for classifying sensor data - Google Patents
Method and device for classifying sensor data Download PDFInfo
- Publication number
- DE102019205657A1 DE102019205657A1 DE102019205657.1A DE102019205657A DE102019205657A1 DE 102019205657 A1 DE102019205657 A1 DE 102019205657A1 DE 102019205657 A DE102019205657 A DE 102019205657A DE 102019205657 A1 DE102019205657 A1 DE 102019205657A1
- Authority
- DE
- Germany
- Prior art keywords
- function
- determined
- neural network
- variable
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/0275—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using fuzzy logic only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
Verfahren zum Klassifizieren von Eingangssignalen (x), welche abhängig von einem Ausgangsignal (S) eines Sensors (30) ermittelt wurden, wobei diese Eingangssignale (x) einem neuronalen Netz (60) zugeführt und mittels diesem klassifiziert werden,wobei in wenigstens einer Schicht (S,S,S) des neuronalen Netzes (60) eine Ausgangsgröße (a) dieser Schicht (S, S, S)abhängig von einem Gewichtsvektor (w) dieser Schicht zugeordneter Gewichte (w) und einer Eingangsgröße (e) dieser Schicht ermittelt wird,wobei die Ausgangsgröße (a) abhängig von einem Abstandsmaß ||w-e|| zwischen Eingangsgröße (e) und Gewichtsvektor (w) ermittelt wird,wobei die Ausgangsgröße (a) aus dem Abstandsmaß ||w-e|| ermittelt wird, indem dieses einer nichtlinearen Aktivierungsfunktion (S) unterworfen wird,dadurch gekennzeichnet, dass das Abstandsmaß |lw-e|| durch eine beidseitig begrenzte Funktion gegeben ist, wobei diese beidseitig begrenzte Funktion durch eine Summe aus Termen gegeben ist, von denen jeder genau einer Komponente (w, e) des Gewichtsvektors (w) und der Eingangsgröße (e) zugeordnet ist, undbewertet, ob diese Komponente (w, e) bei Gewichtsvektor (w) und Eingangsgröße (e) ähnlich ist.Method for classifying input signals (x) which were determined as a function of an output signal (S) of a sensor (30), these input signals (x) being fed to a neural network (60) and classified by means of this, with at least one layer ( S, S, S) of the neural network (60) an output variable (a) of this layer (S, S, S) is determined as a function of a weight vector (w) of weights (w) assigned to this layer and an input variable (e) of this layer , where the output variable (a) depends on a distance dimension || we || between input variable (e) and weight vector (w) is determined, the output variable (a) from the distance || w-e || is determined by subjecting it to a non-linear activation function (S), characterized in that the distance dimension | lw-e || is given by a function that is limited on both sides, this function that is limited on both sides is given by a sum of terms, each of which is assigned to exactly one component (w, e) of the weight vector (w) and the input variable (e), and evaluates whether this is Component (w, e) for weight vector (w) and input variable (e) is similar.
Description
Die Erfindung betrifft ein Verfahren zum Klassifizieren von Eingangssignalen, ein Verfahren zum Bereitstellen eines Ansteuersignals, ein Computerprogramm, ein Maschinenlesbares Speichermedium und ein Aktorsteuerungssystem.The invention relates to a method for classifying input signals, a method for providing a control signal, a computer program, a machine-readable storage medium and an actuator control system.
Stand der TechnikState of the art
Aus „Textual Explanations for Self-Driving Vehicle“, arXiv preprint arXiv: 1807.11546v1, Jinkyu Kim, Anna Rohrbach, Trevor Darrell, John Canny, and Zeynep Akata (2018) ist ein Verfahren zum automatisierten Erzeugen von Textelementen bekannt, die Entscheidungen eines hochautomatisierten Fahrzeugs erläutern.From "Textual Explanations for Self-Driving Vehicle", arXiv preprint arXiv: 1807.11546v1, Jinkyu Kim, Anna Rohrbach, Trevor Darrell, John Canny, and Zeynep Akata (2018) a method for the automated generation of text elements is known, the decisions of a highly automated Explain vehicle.
Vorteile der ErfindungAdvantages of the invention
Beim Nutzen von tiefen neuronalen Netzen, also neuronalen Netzen mit mindestens zwei versteckten Schichten (Englisch: hidden layer) insbesondere in sicherheitskritischen System (aber auch generell in Systemen, in denen die Entscheidung der Steuerung des Systems potenziell eine erhebliche Tragweite hat) ist es wichtig, im Nachhinein feststellen zu können, woran ein Fehler gelegen hat.When using deep neural networks, i.e. neural networks with at least two hidden layers, especially in safety-critical systems (but also generally in systems in which the decision to control the system has potentially significant consequences), it is important to to be able to determine in retrospect what caused the error.
Die Vorrichtung mit den Merkmalen der unabhängigen Ansprüche hat den Vorteil, dass eine Interpretierbarkeit besonders einfach gegeben ist.The device with the features of the independent claims has the advantage that it is particularly easy to interpret.
Vorteilhafte Weiterbildungen sind Gegenstand der abhängigen Ansprüche.Advantageous further developments are the subject of the dependent claims.
Offenbarung der ErfindungDisclosure of the invention
In einem ersten Aspekt betrifft die Erfindung daher ein Verfahren zum Klassifizieren von Eingangssignalen, welche abhängig von einem Ausgangsignal eines Sensors ermittelt wurden, wobei diese Eingangssignale einem neuronalen Netz zugeführt und mittels diesem klassifiziert werden,
wobei in wenigstens einer Schicht des neuronalen Netzes eine Ausgangsgröße dieser Schicht abhängig von einem Gewichtsvektor w dieser Schicht zugeordneter Gewichte wi und einer Eingangsgröße e dieser Schicht ermittelt wird, wobei die Eingangsgröße e insbesondere ebenso viele Komponenten hat wie Gewichtvektor w,
wobei die Ausgangsgröße abhängig von einem Abstandsmaß ||w - e|| zwischen Eingangsgröße e und Gewichtsvektor w ermittelt wird,
wobei die Ausgangsgröße aus dem Abstandsmaß ||w - e|| ermittelt wird, indem dieses einer nichtlinearen Aktivierungsfunktion S unterworfen wird,
wobei das Abstandsmaß ||w - e|| durch eine beidseitig begrenzte Funktion gegeben ist, wobei diese beidseitig begrenzte Funktion durch eine Summe aus Termen gegeben ist, von denen jeder genau einer Komponente wi bzw. ei des Gewichtsvektors w und der Eingangsgröße e zugeordnet ist, und bewertet, ob diese Komponente wi, ei bei Gewichtsvektor w und Eingangsgröße e ähnlich ist.In a first aspect, the invention therefore relates to a method for classifying input signals which were determined as a function of an output signal of a sensor, these input signals being fed to a neural network and being classified by means of this,
wherein in at least one layer of the neural network an output variable of this layer is determined depending on a weight vector w of weights w i assigned to this layer and an input variable e of this layer, the input variable e in particular having as many components as the weight vector w,
where the output variable is dependent on a distance dimension || w - e || is determined between input variable e and weight vector w,
where the output variable from the distance dimension || w - e || is determined by subjecting it to a non-linear activation function S,
where the distance dimension || w - e || is given by a function that is limited on both sides, this function that is limited on both sides is given by a sum of terms, each of which is assigned to exactly one component w i or e i of the weight vector w and the input variable e, and evaluates whether this component w i , e i for weight vector w and input variable e is similar.
Die Aktivierungsfunktion kann beispielsweise durch eine Sigmoid-Funktion, eine ReLU-Funktion oder eine Tanh-Funktion gegeben sein.The activation function can be given, for example, by a sigmoid function, a ReLU function or a Tanh function.
Eine Schicht mit diesen Eigenschaften kann unabhängig von der Topologie des neuronalen Netzes und der eingangs- bzw. ausgangsseitigen Verbindungen dieser Schicht eingesetzt werden, insbesondere kann sie als Faltungsschicht (Englisch: convolution layer) oder als vollvermaschte Schicht (Englisch: fully-connected layer) eingesetzt werden.A layer with these properties can be used regardless of the topology of the neural network and the input or output connections of this layer; in particular, it can be used as a convolution layer or as a fully-connected layer become.
Der Vorteil dieser Schicht ist, dass ihr Verhalten in dem Sinne leicht interpretierbar ist, als sie i.W. die Anzahl der Komponenten zählt, in denen Eingangssignal und Gewichtsvektor ähnliche Werte annehmen.The advantage of this layer is that its behavior is easy to interpret in the sense that it is essentially the number of components counts in which the input signal and weight vector take on similar values.
Ein weiterer Vorteil, insbesondere im Vergleich zu Schichten, die radiale Basisfunktionen RBF (Englisch: radial basis function) als Ähnlichkeitsmaß annehmen ist, dass die hier vorgeschlagene Schicht bei hochdimensionalen Eingangssignalen besser trainierbar ist. Dies liegt darin begründet, dass RBF bei hochdimensionalen Räumen in weiten Teilen des Raums die Ähnlichkeit zwischen Eingangsgröße und Gewichtsvektor als näherungsweise gleich Null quantifizieren und daher die entsprechenden Gradienten sehr flach sind, was eine gradientenbasierte Optimierung sehr schwierig macht. Die hier vorgeschlagene Schicht stellt hingegen in weiteren Teilen des Parameterraums steilere Gradienten bereit, was die Trainierbarkeit und damit (bei gegebenem Trainingsaufwand) die Zuverlässigkeit der Klassifikation verbessert.Another advantage, in particular in comparison to layers that assume radial basis functions RBF (English: radial basis function) as a measure of similarity, is that the layer proposed here can be better trained in the case of high-dimensional input signals. This is due to the fact that RBF quantify the similarity between the input variable and the weight vector in large parts of the room as approximately zero in high-dimensional spaces and therefore the corresponding gradients are very flat, which makes gradient-based optimization very difficult. In contrast, the slice proposed here provides steeper gradients in further parts of the parameter space, which improves the trainability and thus (given the training effort) the reliability of the classification.
Besonders vorteilhaft ist, wenn das neuronale Netz ein deterministisches neuronales Netz ist, d.h. wenn die Klassifikation des neuronalen Netzes nicht von einem (pseudo-)Zufallszahlengenerator abhängt, wie dies bei probabilistischen neuronalen Netzen der Fall ist. Dann ist es auf besonders einfache Weise möglich, die Ursache etwaiger Fehlfunktionen aufzuspüren, beispielsweise, indem dem neuronalen Netz zugeführte Eingangssignale in einem Fehlerspeicher gespeichert werden. Da das neuronale Netz deterministisch ist, lässt sich bei einer Propagation der gespeicherten Eingangssignale durch das neuronale Netz durch Analyse der Merkmalskarten (Englisch: feature map) durch die Interpretierbarkeit nachvollziehen, was die Ursache eines Fehlers ist. Konventionelle neuronale Netze sind einer menschlichen Fehleranalyse hingegen i.d.R. nicht oder nur sehr eingeschränkt zugänglich. Vorzugsweise werden daher sämtliche Faltungs- und/oder vollvermaschte Schichten des neuronalen Netzes wie hier vorgeschlagen ausgebildet.It is particularly advantageous if the neural network is a deterministic neural network, ie if the classification of the neural network does not depend on a (pseudo) random number generator, as is the case with probabilistic neural networks. It is then possible in a particularly simple manner to track down the cause of any malfunctions, for example by storing input signals fed to the neural network in an error memory. Since the neural network is deterministic, when the stored input signals are propagated through the neural network by analyzing the feature map, it is possible to understand what the cause of an error is through the interpretability. Conventional neural networks, on the other hand, are generally not accessible or only accessible to a very limited extent for human error analysis. Preferably, therefore all convolutional and / or fully meshed layers of the neural network are designed as proposed here.
Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. In den Zeichnungen zeigen:
-
1 schematisch einen Aufbau einer Ausführungsform eines Steuerungssystems; -
2 schematisch ein Ausführungsbeispiel zur Steuerung eines wenigstens teilautonomen Roboters; -
3 schematisch ein Ausführungsbeispiel zur Steuerung eines Fertigungssystems; -
4 schematisch ein Ausführungsbeispiel zur Steuerung eines persönlichen Assistenten; -
5 schematisch ein Ausführungsbeispiel zur Steuerung eines Zugangssystems; -
6 schematisch ein Ausführungsbeispiel zur Steuerung eines Überwachungssystems; -
7 schematisch ein Ausführungsbeispiel zur Steuerung eines medizinisch bildgebenden Systems; -
8 schematisch einen Aufbau eines neuronalen Netzes.
-
1 schematically a structure of an embodiment of a control system; -
2 schematically an embodiment for controlling an at least partially autonomous robot; -
3 schematically an embodiment for controlling a manufacturing system; -
4th schematically an embodiment for controlling a personal assistant; -
5 schematically an embodiment for controlling an access system; -
6th schematically an embodiment for controlling a monitoring system; -
7th schematically, an embodiment for controlling a medical imaging system; -
8th schematically a structure of a neural network.
Beschreibung der AusführungsbeispieleDescription of the exemplary embodiments
Der Sensor
Das Steuerungssystem
Das neuronale Netz
Das neuronale Netz
Merkmalskarten z, welche insbesondere auch Eingangssignal x und/oder Ausgangssignal y umfassen können, welche beim Propagieren des Eingangssignals x durch das neuronale Netz
Der Aktor
In weiteren Ausführungsformen umfasst das Steuerungssystem
In weiteren bevorzugten Ausführungsformen umfasst das Steuerungssystem
In alternativen Ausführungsformen ist alternativ oder zusätzlich zum Aktor
Bei dem Sensor
Das neuronale Netz
Bei dem Ausgangssignal y kann es sich um eine Information handeln, die charakterisiert, wo in der Umgebung des wenigstens teilautonomen Roboters Gegenstände vorhanden sind. Das Ausgangssignal A kann dann abhängig von dieser Information und/oder entsprechend dieser Information ermittelt werden.The output signal y can be information that characterizes where objects are present in the vicinity of the at least partially autonomous robot. The output signal A can then be determined as a function of this information and / or in accordance with this information.
Bei dem vorzugsweise im Kraftfahrzeug
Alternativ kann es sich bei dem wenigstens teilautonomen Roboter auch um einen anderen mobilen Roboter (nicht abgebildet) handeln, beispielsweise um einen solchen, der sich durch Fliegen, Schwimmen, Tauchen oder Schreiten fortbewegt. Bei dem mobilen Roboter kann es sich beispielsweise auch um einen wenigstens teilautonomen Rasenmäher oder einen wenigstens teilautonomen Putzroboter handeln. Auch in diesen Fällen kann das Ansteuersignal A derart ermittelt werden, dass Antrieb und/oder Lenkung des mobilen Roboters derart angesteuert werden, dass der wenigstens teilautonome Roboter beispielsweise eine Kollision mit den vom neuronalen Netz
In einer weiteren Alternative kann es sich bei dem wenigstens teilautonomen Roboter auch um einen Gartenroboter (nicht abgebildet) handeln, der mit einem bildgebenden Sensor
In noch weiteren Alternativen kann es sich bei dem wenigstens teilautonomen Roboter auch um ein Haushaltsgerät (nicht abgebildet), insbesondere eine Waschmaschine, einen Herd, einen Backofen, eine Mikrowelle oder eine Spülmaschine handeln. Mit dem Sensor
Bei dem Sensor
Abhängig von den Signalen des Sensors
Diese entsprechende Ansteuerung kann beispielsweise beinhalten, dass der persönliche Assistent
Anstelle des persönlichen Assistenten
Jede der Schichten
Die Ausgangsschicht
Wenigstens eine der Schichten
Es versteht sich, dass das neuronale Netz nicht auf vorwärtsgerichtetete neuronale Netze (Englisch: „feedforward neural network“) beschränkt ist, sondern dass die Erfindung in gleicher Weise auf jegliche Art neuronaler Netze angewendet werden kann, insbesondere rekurrente Netze, Faltungsnetze (Englisch: „convolutional neural network“), Autoencoder, Boltzmann-Maschinen, Perzeptronen oder Kapselnetze (Englisch: „Capsule Neural Network).It goes without saying that the neural network is not limited to forward-looking neural networks (English: "feedforward neural network"), but that the invention can be applied in the same way to any kind of neural networks, in particular recurrent networks, convolution networks (English: " convolutional neural network ”), autoencoder, Boltzmann machines, perceptrons or capsule networks (English:“ Capsule Neural Network).
Der Begriff „Computer“ umfasst beliebige Geräte zur Abarbeitung vorgebbarer Rechenvorschriften. Diese Rechenvorschriften können in Form von Software vorliegen, oder in Form von Hardware, oder auch in einer Mischform aus Software und Hardware.The term “computer” encompasses any device for processing specifiable arithmetic rules. These calculation rules can be in the form of software, or in the form of hardware, or also in a mixed form of software and hardware.
Es versteht sich ferner, dass die Verfahren nicht nur wie beschrieben vollständig in Software implementiert sein können. Sie können auch in Hardware implementiert sein, oder in einer Mischform aus Software und Hardware.It is further understood that the methods can not only be implemented completely in software as described. They can also be implemented in hardware, or in a mixture of software and hardware.
Claims (11)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019202231.6 | 2019-02-19 | ||
DE102019202231 | 2019-02-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019205657A1 true DE102019205657A1 (en) | 2020-08-20 |
Family
ID=71843917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019205657.1A Pending DE102019205657A1 (en) | 2019-02-19 | 2019-04-18 | Method and device for classifying sensor data |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019205657A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5097141A (en) * | 1990-12-12 | 1992-03-17 | Motorola, Inc. | Simple distance neuron |
US5353383A (en) * | 1990-07-09 | 1994-10-04 | Nippon Telegraph And Telephone Corporation | Neural network circuit |
-
2019
- 2019-04-18 DE DE102019205657.1A patent/DE102019205657A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5353383A (en) * | 1990-07-09 | 1994-10-04 | Nippon Telegraph And Telephone Corporation | Neural network circuit |
US5097141A (en) * | 1990-12-12 | 1992-03-17 | Motorola, Inc. | Simple distance neuron |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE202017102381U1 (en) | Device for improving the robustness against "Adversarial Examples" | |
DE102017219282A1 (en) | Method and device for automatically generating an artificial neural network | |
DE202019105282U1 (en) | Device for optimizing a machine learning system | |
DE102020212515A1 (en) | Method and device for training a machine learning system | |
DE202020101012U1 (en) | Device for predicting a suitable configuration of a machine learning system for a training data set | |
WO2020126378A1 (en) | Method for training a neural network | |
DE102019209457A1 (en) | Method for training an artificial neural network, artificial neural network, use of an artificial neural network and a corresponding computer program, machine-readable storage medium and corresponding device | |
DE112020003343T5 (en) | SYSTEM AND PROCESS USING A ROBUST DEEP GENERATIVE MODEL | |
DE102019202523A1 (en) | Method and device for operating a control system | |
WO2020260016A1 (en) | Method and apparatus for training a machine learning system | |
EP3857822A1 (en) | Method and device for determining a control signal | |
DE102018220608A1 (en) | Machine learning system, as well as a method, a computer program and a device for creating the machine learning system | |
DE102019205657A1 (en) | Method and device for classifying sensor data | |
DE102018211875A1 (en) | Method and device for operating a control system | |
DE102020208309A1 (en) | Method and device for creating a machine learning system | |
DE102020208828A1 (en) | Method and device for creating a machine learning system | |
DE102019215120A1 (en) | Method and device for classifying sensor data and for determining a control signal for controlling an actuator | |
EP3701428B1 (en) | Method and apparatus for improving the robustness of a machine learning system | |
DE102020212514A1 (en) | Method for determining an output signal using a machine learning system | |
DE102020203998A1 (en) | Method and device for operating a classifier | |
DE102018216078A1 (en) | Method and device for operating a control system | |
DE102018216295B4 (en) | Method and device for determining a control signal for controlling an actuator | |
DE102018216079A1 (en) | Method and device for operating a control system | |
DE102020204005A1 (en) | Method and apparatus for training an image classifier | |
DE102020203807A1 (en) | Method and apparatus for training an image classifier |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed |