DE102021210566A1 - Quantitative assessment of the uncertainty of statements from a classifier based on measurement data and several processing products of the same - Google Patents

Quantitative assessment of the uncertainty of statements from a classifier based on measurement data and several processing products of the same Download PDF

Info

Publication number
DE102021210566A1
DE102021210566A1 DE102021210566.1A DE102021210566A DE102021210566A1 DE 102021210566 A1 DE102021210566 A1 DE 102021210566A1 DE 102021210566 A DE102021210566 A DE 102021210566A DE 102021210566 A1 DE102021210566 A1 DE 102021210566A1
Authority
DE
Germany
Prior art keywords
measurement data
assignment
evaluation
classifier
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021210566.1A
Other languages
German (de)
Inventor
Julia Rebecca Lust
Alexandru Paul Condurache
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102021210566.1A priority Critical patent/DE102021210566A1/en
Publication of DE102021210566A1 publication Critical patent/DE102021210566A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Abstract

Verfahren (100) zur Bewertung der Unsicherheit, mit der die Zuordnung (3) von Messdaten (2) zu einer oder mehreren Klassen (3a-3c) einer vorgegebenen Klassifikation durch einen Klassifikator (1) behaftet ist, wobei dieser Klassifikator (1) mindestens ein künstliches neuronales Netzwerk, KNN (11), umfasst mit den Schritten:• anhand der Messdaten (2), der für diese Messdaten (2) durch den Klassifikator (1) ermittelten Zuordnung (3) sowie der Klassifikations-Parameter (11a) und Architektur (11b) des KNN (11) wird mindestens eine Abhängigkeit (4, 4b) mindestens einer die Korrektheit dieser Zuordnung (3) bewertenden Kostenfunktion (5), von den Klassifikations-Parametern (11a) ermittelt (110);• die ermittelte Abhängigkeit (4) wird mit mindestens einem trainierbaren Bewertungs-Netzwerk (6) auf mindestens eine Bewertungsgröße (7) abgebildet (120), wobei ausgehend von mehreren verschiedenen Verarbeitungsprodukten (2a, 2a*, 2a**) der Messdaten (2) mehrere Abhängigkeiten (4b, 4b*, 4b**) ermittelt und auf mindestens eine Bewertungsgröße (7) abgebildet werden.Method (100) for evaluating the uncertainty with which the assignment (3) of measurement data (2) to one or more classes (3a-3c) of a given classification by a classifier (1) is afflicted, this classifier (1) at least an artificial neural network, ANN (11), comprising the steps: • using the measurement data (2), the assignment (3) determined for this measurement data (2) by the classifier (1) and the classification parameters (11a) and Architecture (11b) of the ANN (11), at least one dependency (4, 4b) of at least one cost function (5) evaluating the correctness of this assignment (3) is determined (110) from the classification parameters (11a); • the determined dependency (4) is mapped (120) to at least one evaluation variable (7) using at least one trainable evaluation network (6), with several dependencies ( 4b, 4b*, 4b**). and mapped to at least one rating variable (7).

Description

Die vorliegende Erfindung betrifft die automatisierte Klassifikation physikalischer Messdaten, mit der beispielsweise Bilddaten oder andere Beobachtungsdaten auf Objekte analysiert werden können, die in einem beobachteten Bereich vorhanden sind.The present invention relates to the automated classification of physical measurement data, with which, for example, image data or other observation data can be analyzed for objects that are present in an observed area.

Stand der TechnikState of the art

Damit Fahrzeuge ganz oder teilweise automatisiert am Straßenverkehr teilnehmen können, werden Steuerungssysteme benötigt, die verkehrsrelevante Objekte im Fahrzeugumfeld zuverlässig erkennen und eine jeweils angemessene Reaktion einleiten. Derartige Systeme führen Bilddaten oder andere Beobachtungsdaten in der Regel einem Klassifikator zu, der ein künstliches neuronale Netzwerk, KNN, enthält. Ein solcher Klassifikator ordnet die Beobachtungsdaten, etwa das Bild, einer oder mehreren Klassen aus einer vorgegebenen Klassifikation zu. Ist beispielsweise in einem Bild oder Bildbereich ein Fahrzeug zu sehen, wird das Bild, bzw. der Bildbereich, der Klasse „Fahrzeug“ zugeordnet. Dabei sorgt die Kraft von KNNs zur Verallgemeinerung dafür, dass beispielsweise auch Fahrzeuge mit verändertem Design, die erst nach dem Training des KNNs auf den Markt gekommen sind, als Fahrzeuge erkannt werden.In order for vehicles to be able to take part in road traffic fully or partially automatically, control systems are required that reliably recognize traffic-relevant objects in the vehicle's surroundings and initiate an appropriate reaction in each case. Such systems typically feed image data or other observational data to a classifier that includes an artificial neural network, ANN. Such a classifier assigns the observation data, such as the image, to one or more classes from a given classification. For example, if a vehicle can be seen in an image or image area, the image or image area is assigned to the "Vehicle" class. The power of ANNs to generalize ensures that, for example, vehicles with a modified design that only came onto the market after the ANN had been trained are recognized as vehicles.

Für die Betriebssicherheit ist es wichtig zu wissen, ob diese Verallgemeinerung in jedem Fall tatsächlich auf die richtige Klasse führt. Rauschen und andere Störungen in den Beobachtungsdaten können ebenso wie bewusste Manipulationen mit sogenannten „adversarial examples“ zu Fehlklassifikationen führen. Die DE 10 2017 218 889 A1 offenbart ein KNN, dessen Gewichte bei jeder Verwendung aus einer zufälligen Verteilung gezogen werden. Wird diesem KNN ein und dieselbe Eingabe mehrfach zugeführt, kann aus der Streuung der Ausgabe auf die Unsicherheit dieser Ausgabe geschlossen werden.For operational safety, it is important to know whether this generalization actually leads to the correct class in each case. Noise and other disturbances in the observation data as well as deliberate manipulations with so-called "adversarial examples" can lead to misclassifications. The DE 10 2017 218 889 A1 discloses an ANN whose weights are drawn from a random distribution each time it is used. If one and the same input is fed to this ANN several times, the uncertainty of this output can be deduced from the scatter of the output.

Offenbarung der ErfindungDisclosure of Invention

Im Rahmen der Erfindung wurde ein Verfahren zur Bewertung der Unsicherheit, mit der die Zuordnung physikalischer Messdaten zu einer oder mehreren Klassen einer vorgegebenen Klassifikation durch einen Klassifikator behaftet ist, entwickelt.Within the scope of the invention, a method for evaluating the uncertainty associated with the assignment of physical measurement data to one or more classes of a specified classification by a classifier was developed.

Hierbei umfasst der Begriff „Messdaten“ neben physikalischen Messdaten, die in einem physikalischen Messprozess mit mindestens einem Sensor aufgenommen wurden, auch Messdaten, die durch eine teilweise oder vollständige Simulation eines solchen Messprozesses, und/oder durch eine teilweise oder vollständige Simulation eines mit einem solchen Messprozess beobachtbaren technischen Systems, erhalten wurden. Die Messdaten können beispielsweise auch realistische synthetische Messdaten sein, die sich etwa mittels Generative Adversarial Networks, GANs, erzeugen lassen. Derartige synthetische Messdaten werden häufig verwendet, um eine Knappheit an Trainingsdaten zu lindern. Sie lassen sich bei Betrachtung in der Regel nur schwierig von „echten“ Messdaten, die tatsächlich physikalisch mit einem Sensor erfasst wurden, unterscheiden.Here, the term "measurement data" includes not only physical measurement data recorded in a physical measurement process with at least one sensor, but also measurement data that is obtained through a partial or complete simulation of such a measurement process, and/or through a partial or complete simulation of one with such a sensor Measurement process observable technical system were obtained. The measurement data can also be realistic synthetic measurement data, for example, which can be generated using Generative Adversarial Networks, GANs. Such synthetic metrics are often used to alleviate training data shortages. As a rule, it is difficult to distinguish them from "real" measurement data that was actually physically recorded with a sensor.

Der Klassifikator umfasst mindestens ein künstliches neuronales Netzwerk, KNN, dessen Verhalten durch Klassifikations-Parameter charakterisiert ist. Die Klassifikations-Parameter können insbesondere Gewichte umfassen, mit denen Eingaben, die einem Neuron oder einer anderen Verarbeitungseinheit des KNN zugeführt werden, zu einer Aktivierung dieses Neurons bzw. dieser anderen Verarbeitungseinheit verrechnet werden.The classifier includes at least one artificial neural network, ANN, whose behavior is characterized by classification parameters. In particular, the classification parameters can include weights, with which inputs that are supplied to a neuron or another processing unit of the ANN are offset against an activation of this neuron or this other processing unit.

Bei dem Verfahren wird mindestens eine Abhängigkeit mindestens einer die Korrektheit dieser Zuordnung bewertenden Kostenfunktion von den Klassifikations-Parametern ermittelt. Hierbei wird mindestens eine Kostenfunktion gewählt, die sowohl von einer Zuordnung eines Verarbeitungsprodukts der Messdaten zu mehreren Klassen durch das KNN als auch von einer durch den Klassifikator ausgewählten Klasse abhängt. Die ermittelte Abhängigkeit wird mit mindestens einem trainierbaren Bewertungs-Netzwerk, dessen Verhalten durch Bewertungs-Parameter charakterisiert ist, auf mindestens eine Bewertungsgröße abgebildet. Diese Bewertungsgröße ist wiederum ein Maß für die Wahrscheinlichkeit p, dass die durch den Klassifikator ermittelte Zuordnung korrekt ist. Die Bewertungsgröße kann insbesondere mit dieser Wahrscheinlichkeit p identisch sein.In the method, at least one dependency of at least one cost function evaluating the correctness of this assignment on the classification parameters is determined. At least one cost function is selected here, which depends both on an assignment of a processing product of the measurement data to a plurality of classes by the ANN and on a class selected by the classifier. The dependency determined is mapped onto at least one evaluation variable using at least one trainable evaluation network whose behavior is characterized by evaluation parameters. This evaluation variable is in turn a measure of the probability p that the assignment determined by the classifier is correct. In particular, the evaluation variable can be identical to this probability p.

Hierbei werden ausgehend von mehreren verschiedenen Verarbeitungsprodukten der Messdaten mehrere Abhängigkeiten ermittelt und auf mindestens eine Bewertungsgröße abgebildet.Here, based on several different processing products of the measurement data, several dependencies are determined and mapped to at least one evaluation variable.

Die Abhängigkeit der vom Klassifikator gelieferten Zuordnung von den Klassifikations-Parametern kann optional ebenfalls mit berücksichtigt werden.The dependency of the assignment provided by the classifier on the classification parameters can optionally also be taken into account.

In die Abhängigkeit der Zuordnung von den Klassifikations-Parametern gehen die Messdaten selbst, die für diese Messdaten durch den Klassifikator ermittelte Zuordnung, die Architektur des KNN sowie die Klassifikations-Parameter des KNN, auf deren Grundlage der Klassifikator die Zuordnung vorgenommen hat, ein. Mit dem Verfahren kann also die Unsicherheit der Zuordnung nicht nur im fertig trainierten Zustand des KNN mit den finalen Klassifikations-Parametern, sondern auch bei einem beliebigen früheren Trainingsstand bewertet werden.The measurement data itself, the assignment determined for this measurement data by the classifier, the architecture of the ANN and the classification parameters of the ANN, on the basis of which the classifier has made the assignment, go into the dependency of the assignment on the classification parameters. With the method, the uncertainty of the assignment can not only be reduced in the fully trained state of the ANN with the final class sification parameters, but also be evaluated at any earlier level of training.

Es wurde erkannt, dass ein Bewertungs-Netzwerk in der Lage ist, auch eine hoch dimensionale und somit sehr detaillierte Information über die Abhängigkeit der Zuordnung, bzw. der Kostenfunktion, von den Klassifikations-Parametern auf eine sehr niederdimensionale Bewertungsgröße, wie beispielsweise die eindimensionale Wahrscheinlichkeit p, abzubilden. Insbesondere kann die Abhängigkeit, die von dem Bewertungs-Netzwerk verarbeitet wird, beispielsweise nach Schichten eines schichtweise aufgebauten KNN aufgeschlüsselt sein, auf die sich die Klassifikations-Parameter (wie etwa Gewichte) beziehen. Gerade die Verteilung der Abhängigkeit über die Schichten kann qualitative Muster enthalten. Das Bewertungs-Netzwerk kann diese qualitativen Muster erkennen und in eine quantitative Aussage über die Unsicherheit ummünzen.It was recognized that an evaluation network is able to also provide high-dimensional and therefore very detailed information about the dependency of the assignment or the cost function on the classification parameters on a very low-dimensional evaluation variable, such as the one-dimensional probability p, to map. In particular, the dependency that is processed by the evaluation network can be broken down, for example, according to layers of a layered ANN to which the classification parameters (such as weights) relate. It is precisely the distribution of the dependency across the strata that can contain qualitative patterns. The evaluation network can recognize these qualitative patterns and convert them into a quantitative statement about the uncertainty.

Prinzipiell ließe sich die Unsicherheit auch anhand der Abhängigkeit der Zuordnung, bzw. der Kostenfunktion, von den Messdaten selbst ermitteln. Indem jedoch die Klassifikations-Parameter als Variablen gewählt werden, ist die Verteilung der Abhängigkeit über die Schichten besser erfassbar. Die Klassifikations-Parameter sind nicht nur in der Schicht, die die Messdaten entgegengenommen hat, sondern auch in tieferen Schichten transparente und zugängliche Parameter. Die Messdaten selbst wirken hingegen unmittelbar nur auf die erste Schicht, während alle tieferen Schichten mit Verarbeitungsprodukten dieser Messdaten arbeiten.In principle, the uncertainty could also be determined based on the dependency of the assignment or the cost function on the measurement data itself. However, by choosing the classification parameters as variables, the distribution of the dependency over the strata can be better grasped. The classification parameters are transparent and accessible parameters not only in the layer that received the measurement data, but also in deeper layers. The measurement data themselves, on the other hand, only have a direct effect on the first layer, while all the deeper layers work with the processing products of this measurement data.

Der Begriff „Kostenfunktion“ ist nicht dahingehend einschränkend zu verstehen, dass die Korrektheit der Zuordnung grundsätzlich unter Heranziehung von „ground truth“ bewertet werden muss. „Ground truth“ gibt zu konkreten Messdaten an, welche Soll-Klassifikation der Klassifikator diesen konkreten Messdaten idealerweise zuordnen sollte, und kann verwendet werden, sofern sie verfügbar ist. Es ist jedoch auch ohne „ground truth“ möglich, die Korrektheit der Zuordnung zu bewerten oder zumindest abzuschätzen. Beispielsweise kann die Kostenfunktion in beliebiger Weise messen, inwieweit die Zuordnung der Messdaten zu einer oder mehreren Klassen in sich plausibel ist, und/oder inwieweit sie auf einem in sich plausiblen Weg zu Stande gekommen ist.The term "cost function" is not to be understood as restrictive in that the correctness of the assignment must always be evaluated using "ground truth". "Ground truth" indicates for specific measurement data which target classification the classifier should ideally assign to this specific measurement data, and can be used if it is available. However, it is also possible without "ground truth" to evaluate or at least estimate the correctness of the assignment. For example, the cost function can measure in any way to what extent the assignment of the measurement data to one or more classes is inherently plausible and/or to what extent it came about in an inherently plausible way.

Die Auswertung einer Kostenfunktion ist gegenüber einer direkten Auswertung der Zuordnung selbst flexibler. In vielen Anwendungen umfasst die letztendlich vom Klassifikator gelieferte Zuordnung die Angabe einer oder mehrerer diskreter Klassen, die zu den Messdaten passen, und kann schon allein deswegen keine stetige Funktion in den Klassifikations-Parametern sein. Auch die Nutzung unstetiger Aktivierungsfunktionen, wie etwa ReLU, in dem KNN führt dazu, dass die Ausgabe des KNN keine stetige Funktion mehr in den Klassifikations-Parametern ist. Eine Kostenfunktion lässt sich hingegen gezielt als stetige Funktion formulieren, damit beispielsweise ihr Gradient in den Klassifikations-Parametern immer existiert.The evaluation of a cost function is more flexible than a direct evaluation of the assignment itself. In many applications, the assignment ultimately provided by the classifier includes the specification of one or more discrete classes that match the measurement data, and for this reason alone cannot be a continuous function in the classification parameters. The use of discontinuous activation functions, such as ReLU, in the ANN also means that the output of the ANN is no longer a continuous function in the classification parameters. A cost function, on the other hand, can be specifically formulated as a continuous function so that, for example, its gradient always exists in the classification parameters.

In einer besonders vorteilhaften Ausgestaltung umfasst die Abhängigkeit mindestens einen Gradienten der Zuordnung, bzw. der Kostenfunktion, nach mindestens einem der Klassifikations-Parameter. Da bei der Berechnung der Aktivierung eines Neurons oder einer anderen Verarbeitungseinheit im KNN Produkte aus Eingaben und Gewichten aufsummiert werden, liefert der Gradient nach den Klassifikations-Parametern auch eine Aussage darüber, wie empfindlich die Zuordnung, bzw. die Kostenfunktion, von den eingegebenen Messdaten abhängt.In a particularly advantageous embodiment, the dependency includes at least one gradient of the assignment or the cost function according to at least one of the classification parameters. Since products from inputs and weights are summed up when calculating the activation of a neuron or another processing unit in the ANN, the gradient according to the classification parameters also provides information about how sensitively the assignment or the cost function depends on the measurement data entered .

Dabei ist in einer weiteren besonders vorteilhaften Ausgestaltung die Abhängigkeit durch einen Vektor oder eine Matrix repräsentiert. Dabei hängt in diesem Vektor, bzw. in dieser Matrix, jede Zeile oder jede Spalte nur von Klassifikations-Parametern genau einer Schicht des KNN ab. Auf diese Weise lässt sich die Abhängigkeit besonders gut nach Schichten des KNN aufschlüsseln, so dass das Bewertungs-Netzwerk, wie eingangs beschrieben, gerade in der Verteilung der Abhängigkeit über die Schichten Muster erkennen kann. Beispielsweise kann jede Zeile oder Spalte der Matrix die Gradienten der Zuordnung, bzw. der Kostenfunktion, nach allen Klassifikations-Parametern (etwa Gewichten) genau einer Schicht des KNN enthalten.In a further particularly advantageous embodiment, the dependency is represented by a vector or a matrix. In this vector, or in this matrix, each row or each column depends only on the classification parameters of exactly one layer of the ANN. In this way, the dependency can be broken down particularly well according to the layers of the ANN, so that the evaluation network, as described at the beginning, can recognize patterns in the distribution of the dependency across the layers. For example, each row or column of the matrix can contain the gradients of the assignment, or the cost function, according to all classification parameters (e.g. weights) of exactly one layer of the ANN.

In einer weiteren besonders vorteilhaften Ausgestaltung werden Beiträge zu der Abhängigkeit, die von den Klassifikations-Parametern einer jeden Schicht abhängen, zu einem dieser Schicht zugeordneten Skalar in dem Vektor bzw. der Matrix verdichtet werden. Auf diese Weise bleibt die Abhängigkeit nach Schichten des KNN aufgeschlüsselt, während zugleich die Informationsmenge in Bezug auf diese Abhängigkeit deutlich verdichtet wird.In a further particularly advantageous embodiment, contributions to the dependency that depend on the classification parameters of each layer are compressed into a scalar assigned to this layer in the vector or the matrix. In this way, the dependency remains broken down by layers of the ANN, while at the same time the amount of information relating to this dependency is significantly condensed.

Der Skalar kann insbesondere beispielsweise als Norm eines Vektors mit den Beiträgen gebildet werden. In dem zuvor genannten Beispiel kann also die Zeile bzw. Spalte der Matrix, die die Gradienten nach den Klassifikations-Parametern einer Schicht enthält, als Vektor geschrieben und die Norm dieses Vektors (beispielsweise 1-Norm) gebildet werden.In particular, the scalar can be formed, for example, as the norm of a vector with the contributions. In the example mentioned above, the row or column of the matrix, which contains the gradients according to the classification parameters of a slice, can be written as a vector and the norm of this vector (for example 1-norm) can be formed.

Wie zuvor erläutert, wird eine Kostenfunktion gewählt, die sowohl von einer Zuordnung eines Verarbeitungsprodukts der physikalischen Messdaten zu mehreren Klassen durch das KNN als auch von einer durch den Klassifikator ausgewählten Klasse des KNN abhängt. Auf diese Weise kann insbesondere ausgewertet werden, wie stark sich die der Verarbeitung der Messdaten mit dem KNN nachgeschaltete Diskretisierung auf nur noch eine Klasse durch den Klassifikator auf das Endergebnis auswirkt. Dies ist ein Indikator für die Unsicherheit, der keine „ground truth“ hinsichtlich einer Soll-Zuordnung benötigt.As previously explained, a cost function is selected which depends both on an assignment of a processing product of the physical measurement data to a number of classes by the ANN and on a class of the ANN selected by the classifier. In this way, in particular which are evaluated to what extent the discretization downstream of the processing of the measurement data with the ANN to only one class by the classifier affects the final result. This is an indicator of uncertainty that does not require any "ground truth" with regard to a target assignment.

So liefern beispielsweise viele für in Klassifikatoren verwendete KNNs einen vektoriellen „Softmax-Score“ von Wahrscheinlichkeiten, mit denen die eingegebenen Messdaten aus der Sicht des KNN jeder der verfügbaren Klassen angehören. Der Klassifikator kann dann etwa die Klasse mit der höchsten Wahrscheinlichkeit als Zuordnung ausgeben.For example, many ANNs used in classifiers provide a vectorial "softmax score" of probabilities with which the input measurement data belongs to each of the available classes from the ANN's point of view. The classifier can then output the class with the highest probability as an assignment.

Wenn beispielsweise fünf Klassen zur Verfügung stehen und der vom KNN ermittelte Softmax-Score für konkrete Messdaten x der Vektor F(x)=(0,05, 0,05, 0,98, 0,05, 0,05) ist, dann wählt der Klassifikator anhand der Wahrscheinlichkeit von 0,98 für die dritte Klasse diese dritte Klasse für die Zuordnung zu diesen konkreten Messdaten aus. Die Zuordnung kann dann beispielswiese der Vektor y=(0, 0, 1, 0, 0) sein, der nur in seiner dritten Komponente verschieden ist. In diesem Beispiel ist es recht eindeutig, dass die Wahl der dritten Klasse plausibel ist. Wenn für die gleichen Messdaten hingegen F(x)=(0,2, 0,19, 0,21, 0,2, 0,2) als Softmax-Score ermittelt wird, liefert der Klassifikator am Ende als Zuordnung den gleichen Vektor (0, 0, 1, 0,0). Es ist aber dann deutlich weniger plausibel, dass gerade die dritte Klasse ausgezeichnet sein soll.For example, if five classes are available and the softmax score determined by the ANN for specific measurement data x is the vector F(x)=(0.05, 0.05, 0.98, 0.05, 0.05), then the classifier uses the probability of 0.98 for the third class to select this third class for assignment to this specific measurement data. The assignment can then be, for example, the vector y=(0, 0, 1, 0, 0), which only differs in its third component. In this example it is quite clear that the choice of the third class is plausible. If, on the other hand, F(x)=(0.2, 0.19, 0.21, 0.2, 0.2) is determined as the softmax score for the same measurement data, the classifier returns the same vector ( 0, 0, 1, 0,0). But then it is much less plausible that the third class in particular should be awarded.

Dies lässt sich beispielsweise mit einer Kostenfunktion („Loss-Funktion“) L der Form L ( Θ , F ( x ) , y )

Figure DE102021210566A1_0001
ausdrücken. Hierin sind Θ die Klassifikations-Parameter des KNN, die sich wiederum unterteilen lassen in Klassifikations-Parameter θ1, ..., θn, der Schichten 1 bis n des KNN. Die Differenz zwischen dem Softmax-Score F(x) und dem als Zuordnung ausgegebenen Vektor y, der immer eine Eins und vier Nullen enthält, hängt dann direkt mit dem Gradienten θ n L ( Θ , F ( x ) , y )
Figure DE102021210566A1_0002
dieser Kostenfunktion bezüglich der Klassifikations-Parameter θn der letzten Schicht n des KNN zusammen. Ausgehend hiervon lassen sich für die vorherigen Schichten n-1, ..., 1 die Gradienten bezüglich der Klassifikations-Parameter θn-1, ..., θ1 beispielsweise im Wege der Rückpropagation durch das KNN ermitteln. Somit wirkt sich ein großer Unterschied zwischen dem Softmax-Score F(x) einerseits und der letztendlichen Klassenzuordnung y andererseits auf die Gradienten in allen Schichten 1, ..., n des KNN aus.This can be done, for example, with a cost function (“loss function”) L of the form L ( θ , f ( x ) , y )
Figure DE102021210566A1_0001
to express. Here Θ are the classification parameters of the ANN, which in turn can be subdivided into classification parameters θ 1 , . . . , θ n of layers 1 to n of the ANN. The difference between the softmax score F(x) and the vector y output as assignment, which always contains a one and four zeros, is then directly related to the gradient θ n L ( θ , f ( x ) , y )
Figure DE102021210566A1_0002
this cost function with respect to the classification parameters θ n of the last layer n of the ANN. Proceeding from this, the gradients with regard to the classification parameters θ n-1 , . . . Thus, a large difference between the softmax score F(x) on the one hand and the final class assignment y on the other hand affects the gradients in all layers 1, ..., n of the ANN.

An Stelle des Softmax-Scores F(x) für die tatsächlichen Messdaten x kann nun in der Kostenfunktion L ein Softmax-Score F(x̃) genutzt werden, den das KNN für ein Verarbeitungsprodukt x̃ der Messdaten x ermittelt. Insbesondere kann die Klassenzuordnung y nach wie vor auf der Basis von F(x) ermittelt, dann aber mit F(x̃) verglichen werden. Das Verarbeitungsprodukt x̃ kann hierbei insbesondere beispielsweise durch ein beliebiges Entrauschungsverfahren aus den tatsächlichen Messdaten x gebildet werden. Als Entrauschungsverfahren können beispielsweise

  • • eine Glättung mit einem Gaußschen Filterkern mit einer vorgegebenen Standardabweichung, mit einem Wiener-Filter und/oder mit einem Median-Filter, und/oder
  • • Überführung der Messdaten in eine informationsreduzierte Repräsentation mit einem Encoder und anschließende Rekonstruktion des Verarbeitungsprodukts aus dieser Repräsentation mit einem zugehörigen Decoder, und/oder
  • • auf die Messdaten konditionierte Generierung mit einem generativen Modell, und/oder
  • • eine Hochpassfilterung und/oder Tiefpassfilterung in einem Frequenzraum oder Ortsfrequenzraum, und/oder
  • • eine schwellwertbasierte Filterung (Thresholding) einer Repräsentation der Messdaten x in Wavelet-Koeffizienten
verwendet werden.Instead of the softmax score F(x) for the actual measurement data x, a softmax score F(x̃) can now be used in the cost function L, which the ANN determines for a processing product x̃ of the measurement data x. In particular, the class assignment y can still be determined on the basis of F(x), but then compared with F(x̃). In this case, the processing product x - can be formed from the actual measurement data x, for example by any noise reduction method. As a denoising method, for example
  • • smoothing with a Gaussian filter kernel with a predetermined standard deviation, with a Wiener filter and/or with a median filter, and/or
  • • Conversion of the measurement data into an information-reduced representation with an encoder and subsequent reconstruction of the processing product from this representation with an associated decoder, and/or
  • • Generation conditioned on the measurement data with a generative model, and/or
  • • high-pass filtering and/or low-pass filtering in a frequency space or spatial frequency space, and/or
  • • a threshold-based filtering (thresholding) of a representation of the measurement data x in wavelet coefficients
be used.

Eine Anordnung aus einem Encoder und einem Decoder wird auch Autoencoder genannt. Das Training eines derartigen Autoencoders konvergiert auf einen Zustand, in dem der Encoder die wichtigsten Merkmale der Messdaten für die Aufnahme in die informationsreduzierte Repräsentation (auch „latente Repräsentation“ oder „information bottleneck“ genannt) auswählt, während der Decoder diese Repräsentation optimal ausnutzt, um eine möglichst nah an den ursprünglichen Messdaten liegende Rekonstruktion zu bilden.An arrangement of an encoder and a decoder is also called an autoencoder. The training of such an autoencoder converges to a state in which the encoder selects the most important features of the measurement data for inclusion in the information-reduced representation (also called "latent representation" or "information bottleneck"), while the decoder optimally exploits this representation in order to to create a reconstruction that is as close as possible to the original measurement data.

Als generatives Modell kann insbesondere beispielsweise ein Generator verwendet werden, der im Tandem mit einem Diskriminator in einem Generative Adversarial Network, GAN, trainiert wird. Hierbei wird der Diskriminator darauf trainiert, vom Generator erzeugte Messdaten mit einer möglichst guten Genauigkeit von physikalisch erzeugten Messdaten zu unterscheiden, während der Generator darauf trainiert wird, genau diese Genauigkeit zu verschlechtern. Unter „konditionieren“ wird verstanden, dass nicht irgendwelche Messdaten aus der durch die physikalischen Messdaten erklärten Domäne erzeugt werden, sondern solche Messdaten, die einen zu den ursprünglichen Messdaten zumindest ähnlichen semantischen Inhalt aufweisen. Beispielsweise kann ein generiertes Bild darauf konditioniert werden, dass es die gleichen Objekte enthält wie ein vorgegebenes ursprüngliches Bild.In particular, a generator can be used as a generative model, which is trained in tandem with a discriminator in a Generative Adversarial Network, GAN. Here, the discriminator is trained to distinguish measurement data generated by the generator from physically generated measurement data with the best possible accuracy, while the generator is trained to degrade precisely this accuracy. By "conditioning" is meant that not any measurement data from that explained by the physical measurement data Domain are generated, but such measurement data that have a semantic content at least similar to the original measurement data. For example, a generated image can be conditioned to contain the same objects as a given original image.

Der Hintergedanke hierbei ist, dass eine Fehlklassifikation von Messdaten häufig durch kleine Störungen in den Messdaten verursacht wird. Das Entrauschen beseitigt kleine Störungen. Wenn sich hierdurch der Softmax-Score F(x̃) so deutlich ändert, dass eigentlich eine ganz andere Klasse als die zuvor mit dem Vektor y ausgegebene Klasse sachgerecht wäre, kann dies durch die Kostenfunktion entsprechend „bestraft“ werden.The ulterior motive here is that a misclassification of measurement data is often caused by small disturbances in the measurement data. Denoising eliminates small disturbances. If the softmax score F(x̃) changes so significantly that a completely different class than the class previously output with the vector y would actually be appropriate, this can be "punished" accordingly by the cost function.

In diesem Zusammenhang ist es besonders vorteilhaft, dass mehrere verschiedene Abhängigkeiten ausgehend von mehreren verschiedenen Verarbeitungsprodukten ermittelt werden. Es kann dann insbesondere beispielsweise untersucht werden, ob bestimmte Verarbeitungsmethoden eher als andere Verarbeitungsmethoden dazu führen, dass die Klassenzuordnung sich ändert. Die letztendlich ermittelte Bewertungsgröße ist dann nicht mehr nur ein bloßes Maß für die Wahrscheinlichkeit p, dass die durch den Klassifikator ermittelte Zuordnung korrekt ist. Vielmehr können beispielsweise konkrete Arten von Störungen in den Messdaten, deren Behebung in einem bestimmten Verarbeitungsprodukt zu einer Änderung der Klassenzuordnung führt, als Ursache für eine geringe Wahrscheinlichkeit (bzw. für eine größere Unsicherheit) ausgemacht werden. Dieses Wissen kann beispielsweise als Feedback genutzt werden, um den Klassifikator gegen diese konkreten Störungen zu härten.In this context, it is particularly advantageous that a number of different dependencies are determined on the basis of a number of different processing products. In particular, it can then be examined, for example, whether certain processing methods are more likely than other processing methods to lead to the class assignment changing. The ultimately determined evaluation variable is then no longer just a mere measure of the probability p that the assignment determined by the classifier is correct. Rather, for example, specific types of disturbances in the measurement data, the elimination of which in a specific processing product leads to a change in the class assignment, can be identified as the cause of a low probability (or a greater uncertainty). This knowledge can be used as feedback, for example, to harden the classifier against these specific disturbances.

Es kann jeweils immer ein und dieselbe Kostenfunktion verwendet werden, um den Softmax-Score F(x̃) für die verschiedenen Verarbeitungsprodukte x̃ mit der durch den Klassifikator ausgewählten Klasse y zu vergleichen und eventuelle Abweichungen zu bewerten. In einer besonders vorteilhaften Ausgestaltung werden jedoch mehrere verschiedene Kostenfunktionen verwendet, die von unterschiedlichen Verarbeitungsprodukten abhängen. Dann können insbesondere beispielsweise unterschiedliche Störungen, deren Beseitigung im Verarbeitungsprodukt zu einer Änderung der Klassenzuordnung führt, unterschiedlich gewichtet werden.One and the same cost function can always be used to compare the softmax score F(x̃) for the various processing products x̃ with the class y selected by the classifier and to evaluate any deviations. In a particularly advantageous embodiment, however, several different cost functions are used, which depend on different processing products. Then, in particular, for example, different faults whose elimination in the processed product leads to a change in the class assignment can be weighted differently.

Mehrere Abhängigkeiten der Kostenfunktion von den Klassifikationsparametern können gemeinsam von ein und demselben Bewertungsnetzwerk auf die mindestens eine Bewertungsgröße abgebildet werden. Das Bewertungsnetzwerk kann dann beispielsweise lernen, ein aus Untersuchungen bezüglich mehrerer Arten von Störungen zusammengesetztes Gesamtbild der Unsicherheit zu bewerten. So ist es beispielsweise denkbar, dass eine größere Unsicherheit bezüglich einer Störung durch eine geringere Unsicherheit bezüglich einer anderen Störung zumindest teilweise ausgeglichen wird. Es können auch beispielsweise Unsicherheiten bezüglich mehrerer Störungen zusammenwirken, so dass die resultierende Gesamt-Unsicherheit besonders groß wird.Several dependencies of the cost function on the classification parameters can be mapped together by one and the same evaluation network onto the at least one evaluation variable. The evaluation network can then learn, for example, to evaluate an overall picture of the uncertainty composed of investigations into several types of disturbances. It is thus conceivable, for example, that a greater degree of uncertainty with regard to one fault is at least partially offset by a lower degree of uncertainty with regard to another fault. Uncertainties with regard to a number of faults can also interact, for example, so that the resulting overall uncertainty becomes particularly large.

Alternativ oder auch in Kombination hierzu können aus verschiedenen Abhängigkeiten der Kostenfunktion von den Klassifikationsparametern verschiedene Vorschläge für die Bewertungsgröße ermittelt und zu einem Endergebnis der Bewertungsgröße aggregiert werden. Dann kann bei diesem Aggregieren eine Gewichtung der Vorschläge untereinander eingebracht werden.Alternatively or also in combination with this, different proposals for the evaluation variable can be determined from various dependencies of the cost function on the classification parameters and aggregated to form a final result of the evaluation variable. This aggregation can then be used to weight the suggestions among one another.

Wie zuvor erläutert, lassen sich die Gradienten VΘ1 L, ..., VΘn L der Kostenfunktion L bezüglich der Klassifikations-Parameter θ1, ..., θn einer jeden Schicht 1, ..., n des KNN für jede Schicht 1, ..., n mit einer Norm zu einem Skalar aggregieren. Die Abhängigkeit ∇OL(Θ, F(x̃), y) der Kostenfunktion L von den Klassifikations-Parametern Θ lässt sich dann in einem Vektor zusammenfassen: Θ L ( Θ , F ( x ˜ ) , y ) = ( θ 1 L ( Θ , F ( x ˜ ) , y ) 1 θ n L ( Θ , F ( x ˜ ) , y ) 1 )

Figure DE102021210566A1_0003
As previously explained, the gradients V Θ 1 L, ..., V θ n L of the cost function L with respect to the classification parameters θ 1 , ..., θ n of each layer 1, ..., n of the ANN for each layer 1, ..., n with a norm to form a scalar. The dependence ∇ O L(Θ, F(x̃), y) of the cost function L on the classification parameters Θ can then be summarized in a vector: θ L ( θ , f ( x ˜ ) , y ) = ( θ 1 L ( θ , f ( x ˜ ) , y ) 1 θ n L ( θ , f ( x ˜ ) , y ) 1 )
Figure DE102021210566A1_0003

Dieser Vektor kann vom Bewertungs-Netzwerk auf die Bewertungsgröße abgebildet werden.This vector can be mapped to the rating size by the rating network.

In einer besonders vorteilhaften Ausgestaltung umfasst das Bewertungs-Netzwerk mindestens ein logistisches Regressionsnetzwerk, das die Abhängigkeit auf eine Wahrscheinlichkeit p, dass die durch den Klassifikator ermittelte Zuordnung korrekt ist, abbildet. Ein solches logistisches Regressionsnetzwerk ist sehr parametereffizient. In dem zuvor erläuterten Beispiel, in dem die Abhängigkeit ∇ΘL(Θ, F(x̃), y) für ein KNN mit n Schichten durch einen Vektor der Länge n repräsentiert wird, werden nur n+1 Parameter für das logistische Regressionsnetzwerk benötigt. Dementsprechend ist der Raum, in dem beim Training des Regressionsnetzwerks die optimale Konfiguration dieser Parameter zu suchen ist, vergleichsweise niedrigdimensional.In a particularly advantageous embodiment, the evaluation network includes at least one logistic regression network that maps the dependency on a probability p that the assignment determined by the classifier is correct. Such a logistic regression network is very parameter efficient. In the example explained above, in which the dependency ∇ Θ L(Θ, F(x̃), y) for an ANN with n layers is represented by a vector of length n, only n+1 parameters are required for the logistic regression network. Accordingly, the space in which the optimal configuration of these parameters is to be sought when training the regression network is comparatively low-dimensional.

Alternativ oder in Kombination hierzu kann das Bewertungs-Netzwerk mindestens ein Klassifikationsnetzwerk umfassen, das die Abhängigkeit auf mindestens eine Bewertungsstufe für die Wahrscheinlichkeit p abbildet. Die Wahrscheinlichkeit p kann beispielsweise binär (etwa „in Ordnung“/„nicht in Ordnung“) oder korrespondierend zur Bedeutung für das zumindest teilweise automatisierte Fahren (etwa „in Ordnung“ / „Information“ / „Warnung“ / „Alarm“) klassifiziert werden.Alternatively or in combination with this, the evaluation network can comprise at least one classification network which maps the dependency to at least one evaluation level for the probability p. The probability p can, for example, be binary (e.g. “okay”/“not ok”) or correspond to the importance for at least partially automated driving (e.g. "OK" / "Information" / "Warning" / "Alarm").

In einer weiteren besonders vorteilhaften Ausgestaltung wird mindestens ein Bewertungs-Netzwerk anhand der vom Klassifikator ausgegebenen Zuordnung gewählt. Auf diese Weise lässt sich die Genauigkeit der Beurteilung, inwieweit die Zuordnung durch den Klassifikator zutreffend ist, noch weiter verbessern. So müssen beispielsweise in einem Fahrzeugumfeld Objekte vieler unterschiedlicher Typen (etwa Fahrzeuge, Verkehrszeichen, Personen, Fahrbahnbegrenzungen) erkannt werden. Die Beurteilung, ob die jeweilige Zuordnung zu den diesen Typen untergeordneten Klassen (etwa Auto oder Motorrad, Stoppschild oder Tempo-50-Schild) voraussichtlich zutreffend ist, wird dann sinnvollerweise nach Typen aufgeteilt.In a further particularly advantageous embodiment, at least one evaluation network is selected based on the assignment output by the classifier. In this way, the accuracy of the assessment of the extent to which the assignment by the classifier is correct can be improved even further. For example, objects of many different types (such as vehicles, traffic signs, people, lane boundaries) must be recognized in a vehicle environment. The assessment of whether the respective assignment to the classes subordinate to these types (e.g. car or motorcycle, stop sign or 50 km/h sign) is likely to be correct is then sensibly divided according to type.

Wenn die Bewertungsgröße ein vorgegebenes Kriterium erfüllt, also beispielsweise die Wahrscheinlichkeit p für eine korrekte Zuordnung unter einen vorgegebenen Schwellwert sinkt, können verschiedene Maßnahmen getroffen werden. Im Kontext des zumindest teilweise automatisierten Fahrens kann beispielsweise eine Warnung an einen Nutzer des Fahrzeugs ausgegeben werden, der Nutzer kann zur Übernahme der Kontrolle aufgefordert werden, oder das Fahrzeug kann auf der für einen Systemausfall vorgesehenen Notstopp-Trajektorie zum Stehen gebracht werden.If the evaluation variable meets a specified criterion, that is to say, for example, the probability p for a correct assignment falls below a specified threshold value, various measures can be taken. In the context of at least partially automated driving, for example, a warning can be issued to a user of the vehicle, the user can be asked to take control, or the vehicle can be brought to a standstill on the emergency stop trajectory provided for a system failure.

Mit dem Verfahren erkannte auffällige Unsicherheiten können verschiedene Ursachen haben. Beispielsweise kann die von einem Kamerasystem gelieferte Bildqualität auf Grund ungünstiger Witterungsbedingungen zu schlecht für eine verlässliche Klassifikation sein. Es kann auch eine Situation vorliegen, auf die das KNN des Klassifikators nicht hinreichend trainiert wurde. Im Kontext des zumindest teilweise automatisierten Fahrens sind dies beispielsweise „corner cases“, also Verkehrssituationen, die zwar nur selten vorkommen, dann aber mit besonderer Gefährdung verbunden sind. Auch die Neuschöpfung von Verkehrszeichen durch den Gesetzgeber kann einen Anlass zu Unsicherheiten bei der Klassifikation geben.Significant uncertainties identified with the method can have various causes. For example, the image quality provided by a camera system can be too bad for a reliable classification due to unfavorable weather conditions. There may also be a situation for which the classifier's ANN has not been adequately trained. In the context of at least partially automated driving, these are, for example, "corner cases", i.e. traffic situations that only occur rarely but are then associated with a particular risk. The new creation of traffic signs by the legislature can also give rise to uncertainties in the classification.

So wurde beispielsweise bei der Einführung des Verkehrszeichens „Umweltzone“ das Erscheinungsbild des Verkehrszeichens „Tempo-30-Zone“ im Wesentlichen wiederverwendet. Es wurde lediglich die Zahl 30 gegen das Wort „Umwelt“ ausgetauscht. Wenn das KNN in einem Klassifikator eines Fahrzeugs noch nicht das Update erfahren hat, das ihm dieses neue Verkehrszeichen „Umweltzone“ beibringt, sieht dieses Verkehrszeichen aus Sicht des KNN dem Verkehrszeichen „Tempo-30-Zone“ am ähnlichsten und wird daher wahrscheinlich als ein solches klassifiziert werden. Dabei wird sich aber in den Softmax-Scores niederschlagen, dass dies nicht ganz passt, denn der Schriftzug „Umwelt“ sieht doch anders aus als die Zahl „30“, und das Zusatzschild, das die benötigte Farbe der Umweltplakette angibt, passt auch nicht. Wenn infolgedessen eine erhöhte Unsicherheit erkannt wird, kann beispielsweise vermieden werden, dass auf einer Schnellstraße mit erlaubtem Tempo 80, die in eine Umweltzone führt, plötzlich eine starke Bremsung auf Tempo 30 ausgeführt und ein Auffahrunfall ausgelöst wird.For example, with the introduction of the “Umweltzone” traffic sign, the appearance of the “Tempo-30-Zone” traffic sign was essentially reused. Only the number 30 was exchanged for the word "environment". If the ANN in a classifier of a vehicle has not yet received the update that teaches it this new traffic sign "Limum Zone", from the point of view of the ANN this traffic sign looks most similar to the traffic sign "Tempo-30-Zone" and is therefore likely to be classified as such be classified. However, the Softmax scores will show that this does not quite fit, because the lettering "environment" looks different than the number "30", and the additional sign, which indicates the required color of the environmental sticker, does not fit either. If, as a result, increased uncertainty is detected, it is possible, for example, to avoid sudden heavy braking to 30 km/h on an expressway with a permitted speed limit of 80 km/h, which leads to a low-emission zone, and triggering a rear-end collision.

Unsicherheiten können aber auch böswillige Absichten haben. So eröffnet die Kraft von KNNs zur Verallgemeinerung grundsätzlich die Möglichkeit für Angriffe mit Manipulationen des Erscheinungsbildes etwa von Verkehrszeichen, die einem Menschen kaum auffallen, aber zu einer völlig falschen Klassifikation führen. Mit den „richtigen“ Aufklebern lässt sich etwa provozieren, dass ein Stoppschild als Tempo-70-Schild klassifiziert wird. Auch wurde bereits demonstriert, dass eine halbdurchlässige Folie mit dem „richtigen“ Punktmuster auf der Kameralinse einen Klassifikator dazu veranlassen kann, etwa Fußgänger vollständig zu ignorieren.However, uncertainties can also have malicious intentions. The power of ANNs to generalize opens up the possibility of attacks with manipulations of the appearance of traffic signs, for example, which a person hardly notices, but which lead to a completely wrong classification. With the "right" stickers, for example, it can be provoked that a stop sign is classified as a 70 km/h sign. It has also been demonstrated that a semi-transparent film with the "right" dot pattern on the camera lens can cause a classifier to completely ignore pedestrians, for example.

In einer besonders vorteilhaften Ausgestaltung wird daher in Antwort darauf, dass die Bewertungsgröße ein vorgegebenes Kriterium erfüllt, das Verfahren unter Austausch des KNN des Klassifikators gegen ein anderes KNN, das ein anderes Training erfahren hat und/oder das eine andere Architektur aufweist, wiederholt. Wenn hierbei eine Klassifikation mit einer deutlich geringeren Unsicherheit erhalten wird, dann kann diese für die weitere Verarbeitung (etwa für die Trajektorienplanung) genutzt werden. Wenn das andere KNN die gleichen Messdaten zutreffender klassifizieren kann, gibt dies zugleich Hinweise auf die mögliche Fehlerursache. Am wahrscheinlichsten ist es, dass entweder das Training des zuerst verwendeten KNNs nicht aktuell oder nicht ausreichend war, oder dass ein Angriff mit einem „adversarial example“ versucht wurde.In a particularly advantageous embodiment, the method is therefore repeated in response to the fact that the evaluation variable meets a predetermined criterion, replacing the ANN of the classifier with another ANN that has undergone different training and/or has a different architecture. If a classification with a significantly lower uncertainty is obtained, then this can be used for further processing (e.g. for trajectory planning). If the other ANN can classify the same measurement data more accurately, this also provides information about the possible cause of the error. It is most likely that either the training of the ANN used first was not up-to-date or insufficient, or that an attack with an "adversarial example" was attempted.

Alternativ oder auch in Kombination hierzu können weitere Messdaten mit mindestens einem Sensor aufgenommen werden, und das Verfahren kann mit diesen weiteren Messdaten wiederholt werden. Wenn beispielsweise ein Radarsystem ein Objekt, das zuvor auf einem Kamerabild nur mit großer Unsicherheit klassifiziert wurde, mit großer Sicherheit anders klassifiziert, ist die wahrscheinlichste Ursache, dass das Kamerabild zu schlecht war.Alternatively or also in combination with this, further measurement data can be recorded with at least one sensor, and the method can be repeated with this further measurement data. For example, if a radar system classifies an object differently with great certainty that was previously classified on a camera image only with great certainty, the most likely cause is that the camera image was too bad.

Die Messdaten können insbesondere beispielsweise optische Bilddaten, Wärmebilddaten, Videodaten, Radardaten, Ultraschalldaten, und/oder LIDAR-Daten sein. Dies sind die wichtigsten Typen von Messdaten, anhand derer sich zumindest teilweise automatisiert fahrende Fahrzeuge im Verkehrsraum orientieren. Die Messdaten können durch einen physikalischen Messprozess, und/oder durch eine teilweise oder vollständige Simulation eines solchen Messprozesses, und/oder durch eine teilweise oder vollständige Simulation eines mit einem solchen Messprozess beobachtbaren technischen Systems, erhalten werden.The measurement data can be, for example, optical image data, thermal image data, video data, radar data, ultrasound data and/or LIDAR data. These are the most important types of measurement data, on the basis of which at least partially automated vehicles in Ver orientate the traffic area. The measurement data can be obtained by a physical measurement process and/or by a partial or complete simulation of such a measurement process and/or by a partial or complete simulation of a technical system that can be observed with such a measurement process.

Die Anwendung des Verfahrens ist aber nicht auf Fahrzeuge beschränkt. Ganz allgemein kann aus der Zuordnung in Kombination mit der Bewertungsgröße ein Ansteuersignal gebildet werden, und es kann ein Fahrzeug, und/oder ein Klassifikationssystem, und/oder ein System für die Qualitätskontrolle von in Serie gefertigten Produkten, und/oder ein System für die medizinische Bildgebung, und/oder ein Zutrittskontrollsystem, mit diesem Ansteuersignal angesteuert werden.However, the application of the method is not limited to vehicles. In general, a control signal can be formed from the assignment in combination with the evaluation variable, and it can be a vehicle, and/or a classification system, and/or a system for quality control of mass-produced products, and/or a system for medical Imaging, and / or an access control system, are controlled with this control signal.

So kann beispielsweise der Versuch erkannt werden, ein Zutrittskontrollsystem mit einem Foto einer berechtigten Person oder mit einem kopierten Fingerabdruck zu täuschen. Das Foto, bzw. der Fingerabdruck, wird zwar der berechtigten Person zugeordnet, aber in der Unsicherheit, die sich in einer verminderten Wahrscheinlichkeit p für korrekte Klassifikation äußert, spiegelt es sich dann doch wider, dass die Kopie nicht perfekt ist.For example, an attempt to deceive an access control system with a photo of an authorized person or with a copied fingerprint can be detected. The photo or the fingerprint is assigned to the authorized person, but the uncertainty, which is expressed in a reduced probability p for correct classification, reflects the fact that the copy is not perfect.

Die Erfindung bezieht sich auch auf ein Verfahren zum Trainieren eines Bewertungs-Netzwerks, das bei der Durchführung des zuvor beschriebenen Verfahrens eingesetzt werden kann. Bei diesem Verfahren werden ausgehend von Trainingsdaten mit dem zuvor beschriebenen Verfahren eine Zuordnung dieser Trainings-Messdaten zu einer oder mehreren Klassen sowie eine Bewertungsgröße für diese Zuordnung ermittelt. Durch Vergleich der vom Klassifikator ermittelten Zuordnung wird mit einer für die Trainings-Messdaten bekannten Soll-Zuordnung wird ein Ist-Zustand dahingehend ermittelt, inwieweit die Zuordnung korrekt ist. Die Bewertungs-Parameter werden dahingehend optimiert, dass die vom Bewertungs-Netzwerk gelieferte Bewertungsgröße nach Maßgabe einer Bewertungs-Kostenfunktion mit dem Ist-Zustand korreliert.The invention also relates to a method for training an evaluation network, which can be used when carrying out the method described above. In this method, based on training data, an assignment of this training measurement data to one or more classes and an evaluation variable for this assignment are determined using the method described above. By comparing the assignment determined by the classifier with a target assignment known for the training measurement data, an actual state is determined as to the extent to which the assignment is correct. The evaluation parameters are optimized in such a way that the evaluation variable supplied by the evaluation network correlates with the actual state according to an evaluation cost function.

Hierbei kommt es nicht darauf an, das KNN im Klassifikator zu verbessern. Es geht allein darum, dass in den Fällen, in denen der Klassifikator tatsächlich eine falsche Aussage trifft, sich dies in der vom Bewertungs-Netzwerk gelieferten Bewertungsgröße niederschlägt.It is not important to improve the ANN in the classifier. The only thing that matters is that in the cases in which the classifier actually makes a wrong statement, this is reflected in the evaluation variable supplied by the evaluation network.

Die Möglichkeit, die Unsicherheit einer Klassifikation quantitativ zu bestimmen, lässt sich auch nutzen, um Trainingsdaten für Klassifikatoren mit Klassenzuordnungen zu „labeln“. Die Erfindung bezieht sich also auch auf ein Verfahren zum Generieren von Trainingsdaten für Klassifikatoren, die Messdaten zu einer oder mehreren Klassen einer vorgegebenen Klassifikation zuordnen.The possibility of quantitatively determining the uncertainty of a classification can also be used to "label" training data for classifiers with class assignments. The invention also relates to a method for generating training data for classifiers that assign measurement data to one or more classes of a specified classification.

Bei diesem Verfahren werden ausgehend von Messdaten mit dem zuerst beschriebenen Verfahren sowohl eine Zuordnung dieser Messdaten zu einer oder mehreren Klassen als auch eine Bewertungsgröße für diese Zuordnung ermittelt. In Antwort darauf, dass die Bewertungsgröße eine vorgegebene Bedingung erfüllt, werden die Messdaten in Assoziation mit der Zuordnung den Trainingsdaten hinzugefügt.In this method, based on measurement data, both an assignment of this measurement data to one or more classes and an evaluation variable for this assignment are determined using the method described first. In response to the score meeting a predetermined condition, the measurement data associated with the association is added to the training data.

Die Kraft von KNNs zur Verallgemeinerung lebt davon, dass beim Training Trainingsdaten mit hinreichender Variabilität verwendet werden. So muss das KNN beispielsweise viele Bilder von Fahrzeugen verschiedener Typen, die unter vielen unterschiedlichen Bedingungen aufgenommen wurden, verarbeiten, um in die Lage versetzt zu werden, auch neue Fahrzeuge zu erkennen. Größter Kostentreiber für die Beschaffung solcher Bilder ist das manuelle „Labeln“ dieser Bilder mit der Klassenzuordnung, in diesem Beispiel also die Zuordnung zur Klasse „Fahrzeug“. Aus einer großen Menge unsortierter Bilder können mit dem Verfahren nun diejenigen Bilder herausgefiltert werden, die mit einer hinreichend großen Sicherheit in die Klasse „Fahrzeug“ klassifiziert wurden. Diese Bilder können in Assoziation mit dem Label „Fahrzeug“ den Trainingsdaten hinzugefügt werden.The power of ANNs to generalize depends on the fact that training data with sufficient variability are used during training. For example, the ANN has to process many images of vehicles of different types, taken under many different conditions, in order to be able to recognize new vehicles as well. The biggest cost driver for the procurement of such images is the manual "labelling" of these images with the class assignment, in this example the assignment to the "Vehicle" class. From a large amount of unsorted images, the method can now be used to filter out those images that have been classified in the “vehicle” class with a sufficiently high degree of certainty. These images can be added to the training data in association with the label "vehicle".

Die Verfahren können insbesondere ganz oder teilweise computerimplementiert sein. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, eines der beschriebenen Verfahren auszuführen. In diesem Sinne sind auch Steuergeräte für Fahrzeuge und Embedded-Systeme für technische Geräte, die ebenfalls in der Lage sind, maschinenlesbare Anweisungen auszuführen, als Computer anzusehen.In particular, the methods can be fully or partially computer-implemented. The invention therefore also relates to a computer program with machine-readable instructions which, when executed on one or more computers, cause the computer or computers to carry out one of the methods described. In this sense, control devices for vehicles and embedded systems for technical devices that are also able to execute machine-readable instructions are also to be regarded as computers.

Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder auf ein Downloadprodukt mit dem Computerprogramm. Ein Downloadprodukt ist ein über ein Datennetzwerk übertragbares, d.h. von einem Benutzer des Datennetzwerks downloadbares, digitales Produkt, das beispielsweise in einem Online-Shop zum sofortigen Download feilgeboten werden kann.The invention also relates to a machine-readable data carrier and/or a download product with the computer program. A downloadable product is a digital product that can be transmitted over a data network, i.e. can be downloaded by a user of the data network and that can be offered for sale in an online shop for immediate download, for example.

Weiterhin kann ein Computer mit dem Computerprogramm, mit dem maschinenlesbaren Datenträger bzw. mit dem Downloadprodukt ausgerüstet sein.Furthermore, a computer can be equipped with the computer program, with the machine-readable data carrier or with the downloadable product.

Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.Further measures improving the invention are presented in more detail below together with the description of the preferred exemplary embodiments of the invention with the aid of figures.

Figurenlistecharacter list

Es zeigt:

  • 1 Ausführungsbeispiel des Verfahrens 100 zur Bewertung der Unsicherheit einer Zuordnung 3 von Messdaten 2 zu Klassen 3a-3c;
  • 2 Veranschaulichung des Rechengangs von Messdaten 2 bis zur Bewertungsgröße 7 für die Unsicherheit;
  • 3 Ausführungsbeispiel des Verfahrens 200 zum Trainieren eines Bewertungs-Netzwerks 6 zum Einsatz in dem Verfahren 100;
  • 4 Ausführungsbeispiel des Verfahrens 300 zum Generieren von Trainingsdaten 2*.
It shows:
  • 1 Exemplary embodiment of the method 100 for evaluating the uncertainty of an assignment 3 of measurement data 2 to classes 3a-3c;
  • 2 Illustration of the calculation process from measurement data 2 to evaluation variable 7 for the uncertainty;
  • 3 Embodiment of the method 200 for training an evaluation network 6 for use in the method 100;
  • 4 Embodiment of the method 300 for generating training data 2*.

1 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 100. Mit diesem Verfahren wird die Unsicherheit, mit der die Zuordnung 3 von Messdaten 2 zu einer oder mehreren Klassen 3a-3c durch einen Klassifikator behaftet ist, in Form einer Bewertungsgröße 7 bewertet. Als Messdaten 2 können gemäß Schritt 105 optische Bilddaten, Wärmebilddaten, Videodaten, Radardaten, Ultraschalldaten, und/oder LIDAR-Daten, die durch einen physikalischen Messprozess, und/oder durch eine teilweise oder vollständige Simulation eines solchen Messprozesses, und/oder durch eine teilweise oder vollständige Simulation eines mit einem solchen Messprozess beobachtbaren technischen Systems, erhalten wurden, gewählt werden. 1 FIG. 12 is a schematic flowchart of an exemplary embodiment of the method 100. With this method, the uncertainty with which the assignment 3 of measurement data 2 to one or more classes 3a-3c is affected by a classifier is evaluated in the form of an evaluation variable 7. According to step 105, the measurement data 2 can be optical image data, thermal image data, video data, radar data, ultrasound data and/or LIDAR data generated by a physical measurement process and/or by a partial or complete simulation of such a measurement process and/or by a partial or complete simulation of a technical system that can be observed with such a measurement process.

Zunächst werden in Schritt 110 die Messdaten, die für diese Messdaten 2 durch den Klassifikator 1 ermittelte Zuordnung 3 zu Klassen 3a-3c, die Klassifikations-Parameter 11a des KNN 11 des Klassifikators 1 sowie die Architektur 11b dieses KNN 1 zusammengeführt. Es wird mindestens eine Abhängigkeit 4, 4b mindestens einer die Korrektheit dieser Zuordnung 3 bewertenden Kostenfunktion 5 von den Klassifikations-Parametern 11a ermittelt. Hierbei wird gemäß Block 114 mindestens eine Kostenfunktion 5 gewählt, die sowohl von einer Zuordnung 3' eines Verarbeitungsprodukts 2a der Messdaten 2 zu mehreren Klassen 3a-3c durch das KNN 11 als auch von einer durch den Klassifikator 1 ausgewählten Klasse 3a-3c abhängt. Ausgehend von mehreren verschiedenen Verarbeitungsprodukten 2a, 2a*, 2a** der Messdaten 2 werden auf diese Weise mehrere derartige Abhängigkeiten 4b, 4b*, 4b** ermittelt.First, in step 110, the measurement data, the assignment 3 to classes 3a-3c determined for this measurement data 2 by the classifier 1, the classification parameters 11a of the ANN 11 of the classifier 1 and the architecture 11b of this ANN 1 are combined. At least one dependency 4, 4b of at least one cost function 5 evaluating the correctness of this assignment 3 is determined from the classification parameters 11a. Here, according to block 114, at least one cost function 5 is selected, which depends both on an assignment 3' of a processing product 2a of the measurement data 2 to a plurality of classes 3a-3c by the ANN 11 and on a class 3a-3c selected by the classifier 1. Starting from a number of different processing products 2a, 2a*, 2a** of the measurement data 2, a number of such dependencies 4b, 4b*, 4b** are determined in this way.

Die Abhängigkeit 4, 4a der vom Klassifikator 1 gelieferten Zuordnung 3 von den Klassifikations-Parametern 11a kann optional ebenfalls mit berücksichtigt werden.The dependency 4, 4a of the assignment 3 supplied by the classifier 1 on the classification parameters 11a can optionally also be taken into account.

Der Klassifikator 1 kann während der Ausführung des Verfahrens 100 auf die Messdaten 2 angewendet werden. Dies ist jedoch nicht zwingend erforderlich. Das Verfahren 100 kann auch allein auf der Basis von bereits fertigen Ergebnissen des Klassifikators 1 arbeiten.The classifier 1 can be applied to the measurement data 2 while the method 100 is being carried out. However, this is not mandatory. The method 100 can also work solely on the basis of results from the classifier 1 that have already been completed.

In Schritt 120 werden die mehreren ermittelten Abhängigkeiten 4, 4a, 4b, 4b*, 4b** mit mindestens einem trainierbaren Bewertungs-Netzwerk 6 auf mindestens eine Bewertungsgröße 7 abgebildet. Diese Bewertungsgröße 7 ist ein Maß für die Wahrscheinlichkeit p, dass die durch den Klassifikator 1 ermittelte Zuordnung 3 korrekt ist.In step 120, the multiple determined dependencies 4, 4a, 4b, 4b*, 4b** are mapped onto at least one evaluation variable 7 using at least one trainable evaluation network 6. This evaluation variable 7 is a measure of the probability p that the assignment 3 determined by the classifier 1 is correct.

In Antwort darauf, dass die Bewertungsgröße 7 ein vorgegebenes Kriterium 130 erfüllt (also etwa eine zu große Unsicherheit - Wahrheitswert 1), kann das Verfahren gemäß Schritt 140 unter Austausch des KNN 11 des Klassifikators 1 gegen ein anders trainiertes und/oder anders aufgebautes KNN 11' wiederholt werden. Alternativ oder auch in Kombination hierzu können gemäß Schritt 150 weitere Messdaten 2' mit mindestens einem Sensor aufgenommen werden, und das Verfahren kann gemäß Schritt 160 mit diesen weiteren Messdaten wiederholt werden.In response to the fact that the evaluation variable 7 meets a predetermined criterion 130 (i.e. too great an uncertainty - truth value 1), the method can be carried out according to step 140 by replacing the ANN 11 of the classifier 1 with a differently trained and/or differently structured ANN 11 ' be repeated. Alternatively or also in combination with this, further measurement data 2′ can be recorded with at least one sensor according to step 150, and the method can be repeated according to step 160 with this further measurement data.

Aus der Zuordnung 3 in Kombination mit der Bewertungsgröße 7 kann gemäß Schritt 170 ein Ansteuersignal 8 gebildet werden. Gemäß Schritt 180 kann ein Fahrzeug 50, und/oder ein Klassifikationssystem 60, und/oder ein System 70 für die Qualitätskontrolle von in Serie gefertigten Produkten, und/oder ein System 80 für die medizinische Bildgebung, und/oder ein Zutrittskontrollsystem 90, mit diesem Ansteuersignal 8 angesteuert werden.According to step 170, a control signal 8 can be formed from the assignment 3 in combination with the evaluation variable 7 . According to step 180, a vehicle 50, and/or a classification system 60, and/or a system 70 for the quality control of mass-produced products, and/or a system 80 for medical imaging, and/or an access control system 90, with this Control signal 8 are controlled.

Innerhalb des Kastens 110 sind einige beispielhafte Ausgestaltungen für das Ermitteln der Bewertungsgröße 7 dargestellt.A few exemplary configurations for determining the evaluation variable 7 are shown within box 110 .

Gemäß Block 111 kann die Abhängigkeit 4 mindestens einen Gradienten der Zuordnung 3, bzw. der Kostenfunktion 5, nach mindestens einem der Klassifikations-Parameter 11a umfassen.According to block 111, the dependency 4 can include at least one gradient of the assignment 3, or the cost function 5, according to at least one of the classification parameters 11a.

Gemäß Block 112 kann die Abhängigkeit 4 durch einen Vektor oder eine Matrix repräsentiert sein. Dabei hängt in diesem Vektor, bzw. in dieser Matrix, jede Zeile oder jede Spalte nur von Klassifikations-Parametern 11a genau einer Schicht des KNN 11 ab. Es können dann gemäß Block 113 Beiträge zu der Abhängigkeit 4, die von den Klassifikations-Parametern 11a einer jeden Schicht abhängen, zu einem dieser Schicht zugeordneten Skalar in dem Vektor bzw. der Matrix verdichtet werden. Dies wiederum kann gemäß Block 113a durch Bildung einer Norm eines Vektors mit den Beiträgen geschehen.According to block 112, the dependency 4 can be represented by a vector or a matrix. In this case, each row or each column in this vector or in this matrix depends only on classification parameters 11a of exactly one layer of the ANN 11 . According to block 113, contributions to the dependency 4 which depend on the classification parameters 11a of each layer can then be compressed into a scalar assigned to this layer in the vector or the matrix. this in turn can be done according to block 113a by forming a norm of a vector with the contributions.

Gemäß Block 114a können mehrere verschiedene Kostenfunktionen 5 verwendet werden, die von unterschiedlichen Verarbeitungsprodukten 2a, 2a*, 2a** abhängen.According to block 114a, several different cost functions 5 can be used, which depend on different processing products 2a, 2a*, 2a**.

Innerhalb des Kastens 120 sind zwei beispielhafte Ausgestaltungen für das Ermitteln der Bewertungsgröße 7 dargestellt.Box 120 shows two exemplary configurations for determining evaluation variable 7 .

Gemäß Block 121 kann das Bewertungs-Netzwerk 6

  • • mindestens ein logistisches Regressionsnetzwerk, das die Abhängigkeit 4 auf eine Wahrscheinlichkeit p, dass die durch den Klassifikator 1 ermittelte Zuordnung 3 korrekt ist, abbildet, und/oder
  • • mindestens ein Klassifikationsnetzwerk, das die Abhängigkeit auf mindestens eine Bewertungsstufe für diese Wahrscheinlichkeit p abbildet,
umfassen.According to block 121, the evaluation network 6
  • • at least one logistic regression network that maps the dependency 4 to a probability p that the assignment 3 determined by the classifier 1 is correct, and/or
  • • at least one classification network that maps the dependency to at least one evaluation level for this probability p,
include.

Gemäß Block 122 kann mindestens ein Bewertungs-Netzwerk 6 anhand der Zuordnung 3 ausgewählt werden. Es kann also beispielsweise je Klasse 3a-3c ein eigenes Bewertungs-Netzwerk 6 genutzt werden.According to block 122, at least one evaluation network 6 can be selected based on assignment 3. For example, a separate evaluation network 6 can be used for each class 3a-3c.

Gemäß Block 123 können mehrere Abhängigkeiten 4b, 4b*, 4b** gemeinsam von ein und demselben Bewertungs-Netzwerk 6 auf die mindestens eine Bewertungsgröße 7 abgebildet werden.According to block 123, several dependencies 4b, 4b*, 4b** can be mapped together by one and the same evaluation network 6 onto the at least one evaluation variable 7.

Alternativ oder auch in Kombination hierzu können gemäß Block 124 aus verschiedenen Abhängigkeiten 4b, 4b*, 4b** verschiedene Vorschläge 7a-7c für die Bewertungsgröße 7 ermittelt werden. Diese Vorschläge 7a-7c können dann gemäß Block 125 zu einem Endergebnis 7 der Bewertungsgröße aggregiert werden.Alternatively or also in combination with this, according to block 124, different suggestions 7a-7c for the evaluation variable 7 can be determined from different dependencies 4b, 4b*, 4b**. According to block 125, these suggestions 7a-7c can then be aggregated to form a final result 7 of the evaluation variable.

2 veranschaulicht anhand eines Ausführungsbeispiels noch einmal den Rechengang von den Messdaten 2 bis zur Bewertungsgröße 7. 2 uses an exemplary embodiment to illustrate the calculation process from the measurement data 2 to the evaluation variable 7.

Das KNN 11 des Klassifikators 1 wird zunächst auf die Messdaten 2, x in der Vorwärtsrichtung (Pfeil von links nach rechts) angewendet, um eine Zuordnung F(x), 3' dieser Messdaten 2 zu Klassen 3a-3c zu erhalten. Auf der Basis dieser Zuordnung 3' wählt der Klassifikator eine einzige Klasse 3a-3c als endgültige Zuordnung y, 3 aus.The ANN 11 of the classifier 1 is first applied to the measurement data 2, x in the forward direction (arrow from left to right) in order to obtain an assignment F(x), 3' of this measurement data 2 to classes 3a-3c. Based on this assignment 3', the classifier selects a single class 3a-3c as the final assignment y,3.

Von den Messdaten 2, x wird durch Entrauschen mit einer Transformation T1 ein Verarbeitungsprodukt 2a, x̃ erzeugt. Auf dieses Verarbeitungsprodukt 2a, x̃ wird wiederum das KNN 11 in der Vorwärtsrichtung angewendet. Das Ergebnis ist wieder eine Zuordnung 3', F(x̃) des Verarbeitungsprodukts 2a, x̃ zu Klassen 3a-3c.A processing product 2a, x - is generated from the measurement data 2, x by removing noise with a transformation T 1 . The ANN 11 is in turn applied to this processing product 2a, x - in the forward direction. The result is again an assignment 3', F(x̃) of the processing product 2a, x̃ to classes 3a-3c.

Die Kostenfunktion 5 hat die Form L(Θ, F(x̃), y). Ihr Gradient ∇ΘL(Θ, F(x̃), y) wird sukzessive mittels Rückpropagation (Pfeil nach links) durch das KNN 11 berechnet. Dabei werden die Gradienten bezüglich der Parameter θ1, ..., θn einer jeden Schicht 1, ..., n jeweils durch Bildung der 1-Norm verdichtet und in einem Vektor mit einer Komponente je Schicht 1, ..., n zusammengefasst. Dieser Vektor repräsentiert die Abhängigkeit 4, 4b. Er wird dem Bewertungs-Netzwerk 6 zugeführt, das hieraus wiederum die Bewertungsgröße 7 (hier: die Wahrscheinlichkeit p) ermittelt.The cost function 5 has the form L(Θ, F(x̃), y). Its gradient ∇ Θ L(Θ, F(x̃), y) is successively calculated by the ANN 11 by means of back propagation (arrow to the left). The gradients are compressed with respect to the parameters θ 1 , . . . , θ n of each slice 1 , summarized. This vector represents dependency 4, 4b. It is fed to the evaluation network 6, which in turn uses this to determine the evaluation variable 7 (here: the probability p).

Der gleiche Prozess wird parallel auch für weitere Verarbeitungsprodukte 2a*, 2a**, x̃, die durch weitere Transformationen T2 und T3 aus den Messdaten 2, x erhalten werden, durchgeführt. Auf diese Weise entstehen zusätzlich weitere Abhängigkeiten 4b*, 4b**. In dem in 2 gezeigten Beispiel werden alle Abhängigkeiten 4b, 4b*, 4b** von dem Bewertungs-Netzwerk 6 gemeinsam verarbeitet und auf die Bewertungsgröße 7 abgebildet.The same process is also carried out in parallel for further processing products 2a*, 2a**, x - which are obtained from the measurement data 2, x by further transformations T 2 and T 3 . In this way, further dependencies 4b*, 4b** also arise. in the in 2 In the example shown, all dependencies 4b, 4b*, 4b** are processed jointly by the evaluation network 6 and mapped to the evaluation variable 7.

3 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 200 zum Trainieren des Bewertungs-Netzwerks 6. 3 is a schematic flowchart of an embodiment of the method 200 for training the evaluation network 6.

In Schritt 210 werden mit dem im Zusammenhang mit 1 beschriebenen Verfahren 100 eine Zuordnung 3 von Trainings-Messdaten 2* zu einer oder mehreren Klassen und eine Bewertungsgröße 7 für diese Zuordnung 3 ermittelt. In step 210, associated with 1 The method 100 described determines an assignment 3 of training measurement data 2* to one or more classes and an evaluation variable 7 for this assignment 3.

In Schritt 220 wird durch Vergleich der vom Klassifikator 1 ermittelten Zuordnung 3 mit einer für die Trainings-Messdaten 2* bekannten Soll-Zuordnung 3* wird ein Ist-Zustand 7* dahingehend ermittelt, inwieweit die Zuordnung 3 korrekt ist.In step 220, by comparing the assignment 3 determined by the classifier 1 with a target assignment 3* known for the training measurement data 2*, an actual state 7* is determined to the extent to which the assignment 3 is correct.

In Schritt 230 werden die Bewertungs-Parameter 6a werden dahingehend optimiert, dass die vom Bewertungs-Netzwerk 6 gelieferte Bewertungsgröße 7 nach Maßgabe einer Bewertungs-Kostenfunktion 8 mit dem Ist-Zustand 7* korreliert. Das heißt, dass eine der Soll-Zuordnung 3* entsprechende Zuordnung 3 durch die Bewertungsgröße 7 mit einer höheren Wahrscheinlichkeit p des Zutreffens bewertet werden sollte als eine nicht der Soll-Zuordnung 3* entsprechende und somit objektiv falsche Zuordnung 3. Dieses Training kann sich insbesondere über eine große Menge von Trainings-Messdaten 2* erstrecken.In step 230, the evaluation parameters 6a are optimized such that the evaluation variable 7 supplied by the evaluation network 6 correlates with the actual state 7* according to an evaluation cost function 8. This means that an assignment 3 that corresponds to the target assignment 3* should be evaluated by the evaluation variable 7 with a higher probability p of being true than an assignment 3 that does not correspond to the target assignment 3* and is therefore objectively wrong extend over a large amount of training metrics 2*.

Nach jedem Optimierungsschritt der Bewertungs-Parameter 6a wird wieder zum Schritt 210 zurückverzweigt, um die Bewertungsgröße 7 zu aktualisieren. Wenn gemäß eines beliebigen vorgegebenen Abbruchkriteriums die Optimierung beendet ist, liegt der trainierte Zustand 6a* der Bewertungs-Parameter 6a vor.After each optimization step of the evaluation parameters 6a, a branch is made back to step 210 in order to update the evaluation variable 7. If the optimization is terminated according to any given termination criterion, the trained state 6a* of the evaluation parameters 6a is present.

4 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 300 zum Generieren von Trainingsdaten 2* für Klassifikatoren 1. 4 is a schematic flowchart of an embodiment of the method 300 for generating training data 2* for classifiers 1.

In Schritt 310 werden mit dem im Zusammenhang mit 1 beschriebenen Verfahren 100 sowohl eine Zuordnung 3 von Messdaten 2 zu einer oder mehreren Klassen 3a-3c als auch eine Bewertungsgröße 7 für diese Zuordnung 3 ermittelt. In Schritt 320 wird geprüft, ob dieser Bewertungsgröße 7 eine vorgegebene Bedingung erfüllt. Ist dies der Fall (Wahrheitswert 1), werden die Messdaten 2 in Assoziation mit der Zuordnung 3 den Trainingsdaten 2* hinzugefügt.In step 310, associated with 1 The method 100 described above determines both an assignment 3 of measurement data 2 to one or more classes 3a-3c and an evaluation variable 7 for this assignment 3. In step 320 it is checked whether this evaluation variable 7 satisfies a predetermined condition. If this is the case (truth value 1), the measurement data 2 in association with the assignment 3 are added to the training data 2*.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • DE 102017218889 A1 [0003]DE 102017218889 A1 [0003]

Claims (19)

Verfahren (100) zur Bewertung der Unsicherheit, mit der die Zuordnung (3) von Messdaten (2) zu einer oder mehreren Klassen (3a-3c) einer vorgegebenen Klassifikation durch einen Klassifikator (1) behaftet ist, wobei dieser Klassifikator (1) mindestens ein künstliches neuronales Netzwerk, KNN (11), umfasst, dessen Verhalten durch Klassifikations-Parameter (11a) charakterisiert ist, mit den Schritten: • anhand der Messdaten (2), der für diese Messdaten (2) durch den Klassifikator (1) ermittelten Zuordnung (3) sowie der Klassifikations-Parameter (11a) und Architektur (11b) des KNN (11) wird mindestens eine Abhängigkeit (4, 4b) mindestens einer die Korrektheit dieser Zuordnung (3) bewertenden Kostenfunktion (5), von den Klassifikations-Parametern (11a) ermittelt (110), wobei mindestens eine Kostenfunktion (5) gewählt wird (114), die sowohl von einer Zuordnung (3') eines Verarbeitungsprodukts (2a) der Messdaten (2) zu mehreren Klassen (3a-3c) durch das KNN (11) als auch von einer durch den Klassifikator (1) ausgewählten Klasse (3a-3c) abhängt; • die ermittelte Abhängigkeit (4) wird mit mindestens einem trainierbaren Bewertungs-Netzwerk (6), dessen Verhalten durch Bewertungs-Parameter (6a) charakterisiert ist, auf mindestens eine Bewertungsgröße (7) abgebildet (120), die ein Maß ist für die Wahrscheinlichkeit p, dass die durch den Klassifikator (1) ermittelte Zuordnung (3) korrekt ist, wobei ausgehend von mehreren verschiedenen Verarbeitungsprodukten (2a, 2a*, 2a**) der Messdaten (2) mehrere Abhängigkeiten (4b, 4b*, 4b**) ermittelt und auf mindestens eine Bewertungsgröße (7) abgebildet werden.Method (100) for evaluating the uncertainty with which the assignment (3) of measurement data (2) to one or more classes (3a-3c) of a given classification by a classifier (1) is afflicted, this classifier (1) at least an artificial neural network, ANN (11), whose behavior is characterized by classification parameters (11a), with the steps: • Based on the measurement data (2), the assignment (3) determined for this measurement data (2) by the classifier (1) and the classification parameters (11a) and architecture (11b) of the ANN (11), at least one dependency (4 , 4b) at least one cost function (5) evaluating the correctness of this assignment (3), determined (110) from the classification parameters (11a), with at least one cost function (5) being selected (114) which is determined both by an assignment ( 3') a processing product (2a) of the measurement data (2) in a plurality of classes (3a-3c) by the ANN (11) and on a class (3a-3c) selected by the classifier (1); • The dependency (4) determined is mapped (120) to at least one evaluation variable (7) which is a measure of the probability using at least one trainable evaluation network (6), the behavior of which is characterized by evaluation parameters (6a). p that the assignment (3) determined by the classifier (1) is correct, with several dependencies (4b, 4b*, 4b**) based on several different processing products (2a, 2a*, 2a**) of the measurement data (2) ) are determined and mapped to at least one evaluation variable (7). Verfahren (100) nach Anspruch 1, wobei die Abhängigkeit (4) mindestens einen Gradienten der Zuordnung (3), bzw. der Kostenfunktion (5), nach mindestens einem der Klassifikations-Parameter (11a) umfasst (111).Method (100) according to claim 1 , wherein the dependency (4) includes at least one gradient of the assignment (3) or the cost function (5) according to at least one of the classification parameters (11a) (111). Verfahren (100) nach einem der Ansprüche 1 bis 2, wobei die Abhängigkeit (4) durch einen Vektor oder eine Matrix repräsentiert ist, wobei in diesem Vektor, bzw. in dieser Matrix, jede Zeile oder jede Spalte nur von Klassifikations-Parametern (11a) genau einer Schicht des KNN (11) abhängt (112).Method (100) according to any one of Claims 1 until 2 , where the dependency (4) is represented by a vector or a matrix, where in this vector or in this matrix, each row or each column depends only on classification parameters (11a) of exactly one layer of the ANN (11) ( 112). Verfahren (100) nach Anspruch 3, wobei Beiträge zu der Abhängigkeit (4), die von den Klassifikations-Parametern (11a) einer jeden Schicht abhängen, zu einem dieser Schicht zugeordneten Skalar in dem Vektor bzw. der Matrix verdichtet werden (113).Method (100) according to claim 3 , where contributions to the dependency (4), which depend on the classification parameters (11a) of each layer, are compressed (113) into a scalar assigned to this layer in the vector or the matrix. Verfahren (100) nach Anspruch 4, wobei der Skalar als Norm eines Vektors mit den Beiträgen gebildet wird (113a).Method (100) according to claim 4 , where the scalar is formed as the norm of a vector with the contributions (113a). Verfahren (100) nach einem der Ansprüche 1 bis 5, wobei das Bewertungs-Netzwerk (6) • mindestens ein logistisches Regressionsnetzwerk, das die Abhängigkeit (4) auf eine Wahrscheinlichkeit p, dass die durch den Klassifikator (1) ermittelte Zuordnung (3) korrekt ist, abbildet, und/oder • mindestens ein Klassifikationsnetzwerk, das die Abhängigkeit auf mindestens eine Bewertungsstufe für diese Wahrscheinlichkeit p abbildet, umfasst (121).Method (100) according to any one of Claims 1 until 5 , wherein the evaluation network (6) • at least one logistic regression network that maps the dependency (4) to a probability p that the assignment (3) determined by the classifier (1) is correct, and/or • at least one Classification network that maps the dependency to at least one evaluation level for this probability p includes (121). Verfahren (100) nach einem der Ansprüche 1 bis 6, wobei mindestens ein Bewertungs-Netzwerk (6) anhand der Zuordnung (3) ausgewählt wird (122).Method (100) according to any one of Claims 1 until 6 , wherein at least one evaluation network (6) is selected (122) on the basis of the assignment (3). Verfahren (100) nach einem der Ansprüche 1 bis 7, wobei in Antwort darauf, dass die Bewertungsgröße (7) ein vorgegebenes Kriterium erfüllt (130), • das Verfahren unter Austausch des KNN (11) des Klassifikators (1) gegen ein anderes KNN (11'), das ein anderes Training erfahren hat und/oder das eine andere Architektur aufweist, wiederholt wird (140), und/oder • weitere Messdaten (2') mit mindestens einem Sensor aufgenommen werden (150) und das Verfahren mit diesen weiteren Messdaten (2') wiederholt wird (160).Method (100) according to any one of Claims 1 until 7 , wherein in response to the evaluation variable (7) fulfilling a predetermined criterion (130), • the method of exchanging the ANN (11) of the classifier (1) for another ANN (11') that has undergone a different training and/or which has a different architecture is repeated (140), and/or • further measurement data (2') are recorded with at least one sensor (150) and the method is repeated with this further measurement data (2') (160) . Verfahren (100) nach einem der Ansprüche 1 bis 8, wobei optische Bilddaten, Wärmebilddaten, Videodaten, Radardaten, Ultraschalldaten, und/oder LIDAR-Daten, die durch einen physikalischen Messprozess, und/oder durch eine teilweise oder vollständige Simulation eines solchen Messprozesses, und/oder durch eine teilweise oder vollständige Simulation eines mit einem solchen Messprozess beobachtbaren technischen Systems, erhalten wurden, als Messdaten (2) gewählt werden (105).Method (100) according to any one of Claims 1 until 8th , wherein optical image data, thermal image data, video data, radar data, ultrasound data, and/or LIDAR data generated by a physical measurement process, and/or by a partial or full simulation of such a measurement process, and/or by a partial or full simulation of a such a measurement process observable technical system, are selected as measurement data (2) (105). Verfahren (100) nach einem der Ansprüche 1 bis 9, wobei aus der Zuordnung (3) in Kombination mit der Bewertungsgröße (7) ein Ansteuersignal (8) gebildet wird (170) und wobei ein Fahrzeug (50), und/oder ein Klassifikationssystem (60), und/oder ein System (70) für die Qualitätskontrolle von in Serie gefertigten Produkten, und/oder ein System (80) für die medizinische Bildgebung, und/oder ein Zutrittskontrollsystem (90), mit diesem Ansteuersignal (8) angesteuert wird (180).Method (100) according to any one of Claims 1 until 9 , wherein a control signal (8) is formed from the assignment (3) in combination with the evaluation variable (7) (170) and wherein a vehicle (50) and/or a classification system (60) and/or a system (70 ) for the quality control of mass-produced products, and/or a system (80) for medical imaging, and/or an access control system (90), is controlled (180) with this control signal (8). Verfahren (100) nach einem der Ansprüche 1 bis 10, wobei mindestens ein Verarbeitungsprodukt (2a, 2a*, 2a**) der Messdaten (2) durch • eine Glättung der Messdaten (2) mit einem Gaußschen Filterkern mit einer vorgegebenen Standardabweichung, mit einem Wiener-Filter und/oder mit einem Median-Filter, und/oder • Überführung der Messdaten (2) in eine informationsreduzierte Repräsentation mit einem Encoder und anschließende Rekonstruktion des Verarbeitungsprodukts (2a, 2a*, 2a**) aus dieser Repräsentation mit einem zugehörigen Decoder, und/oder • auf die Messdaten (2) konditionierte Generierung mit einem generativen Modell, und/oder • eine Hochpassfilterung und/oder Tiefpassfilterung in einem Frequenzraum oder Ortsfrequenzraum, und/oder • eine schwellwertbasierte Filterung (Thresholding) einer Repräsentation der Messdaten x in Wavelet-Koeffizienten gebildet wird.Method (100) according to any one of Claims 1 until 10 , wherein at least one processing product (2a, 2a*, 2a**) of the measurement data (2) by • smoothing the measurement data (2) with a Gaussian filter core with a predetermined standard deviation, with a Wiener filter and/or with a median filter, and/or • Conversion of the measurement data (2) into an information-reduced representation with an encoder and subsequent reconstruction of the processing product (2a, 2a*, 2a**) from this Representation with an associated decoder, and/or • generation conditioned on the measurement data (2) with a generative model, and/or • high-pass filtering and/or low-pass filtering in a frequency space or spatial frequency space, and/or • threshold-based filtering (thresholding) of a Representation of the measurement data x is formed in wavelet coefficients. Verfahren (100) nach einem der Ansprüche 1 bis 11, wobei mehrere verschiedene Kostenfunktionen (5) verwendet werden (114a), die von unterschiedlichen Verarbeitungsprodukten (2a, 2a*, 2a**) abhängen.Method (100) according to any one of Claims 1 until 11 , using several different cost functions (5) (114a) depending on different processing products (2a, 2a*, 2a**). Verfahren (100) nach einem der Ansprüche 1 bis 12, wobei mehrere Abhängigkeiten (4b, 4b*, 4b**) gemeinsam von ein und demselben Bewertungs-Netzwerk (6) auf die mindestens eine Bewertungsgröße (7) abgebildet werden (123).Method (100) according to any one of Claims 1 until 12 , wherein several dependencies (4b, 4b*, 4b**) are mapped (123) together by one and the same evaluation network (6) to the at least one evaluation variable (7). Verfahren (100) nach einem der Ansprüche 1 bis 13, wobei aus verschiedenen Abhängigkeiten (4b, 4b*, 4b**) verschiedene Vorschläge (7a-7c) für die Bewertungsgröße (7) ermittelt (124) und zu einem Endergebnis (7) der Bewertungsgröße aggregiert (125) werden.Method (100) according to any one of Claims 1 until 13 , wherein different suggestions (7a-7c) for the evaluation parameter (7) are determined (124) from different dependencies (4b, 4b*, 4b**) and are aggregated (125) to form a final result (7) of the evaluation parameter. Verfahren (200) zum Trainieren eines Bewertungs-Netzwerks (6) für die Anwendung in dem Verfahren (100) nach einem der Ansprüche 1 bis 11 mit den Schritten: • ausgehend von Trainings-Messdaten (2*) werden mit dem Verfahren (100) nach einem der Ansprüche 1 bis 14 eine Zuordnung (3) dieser Trainings-Messdaten (2*) zu einer oder mehreren Klassen und eine Bewertungsgröße (7) für diese Zuordnung (3) ermittelt (210); • durch Vergleich der vom Klassifikator (1) ermittelten Zuordnung (3) mit einer für die Trainings-Messdaten (2*) bekannten Soll-Zuordnung (3*) wird ein Ist-Zustand (7*) dahingehend ermittelt (220), inwieweit die Zuordnung (3) korrekt ist; • die Bewertungs-Parameter (6a) werden dahingehend optimiert (230), dass die vom Bewertungs-Netzwerk (6) gelieferte Bewertungsgröße (7) nach Maßgabe einer Bewertungs-Kostenfunktion (8) mit dem Ist-Zustand (7*) korreliert.Method (200) for training an evaluation network (6) for use in the method (100) according to one of Claims 1 until 11 with the steps: • based on training measurement data (2*), the method (100) according to one of Claims 1 until 14 an assignment (3) of this training measurement data (2*) to one or more classes and an evaluation variable (7) for this assignment (3) is determined (210); • By comparing the classifier (1) determined assignment (3) with a training measurement data (2*) known target assignment (3*), an actual state (7*) is determined (220) to what extent the assignment (3) is correct; • The evaluation parameters (6a) are optimized (230) such that the evaluation variable (7) supplied by the evaluation network (6) correlates with the actual state (7*) according to an evaluation cost function (8). Verfahren (300) zum Generieren von Trainingsdaten (2*) für Klassifikatoren (1), die Messdaten (2) zu einer oder mehreren Klassen (3a-3c) einer vorgegebenen Klassifikation zuordnen, mit den Schritten: • ausgehend von Messdaten (2) werden mit dem Verfahren (100) nach einem der Ansprüche 1 bis 14 sowohl eine Zuordnung (3) dieser Messdaten (2) zu einer oder mehreren Klassen (3a-3c) als auch eine Bewertungsgröße (7) für diese Zuordnung (3) ermittelt (310); und • in Antwort darauf, dass die Bewertungsgröße (7) eine vorgegebene Bedingung erfüllt (320), werden die Messdaten (2) in Assoziation mit der Zuordnung (3) den Trainingsdaten (2*) hinzugefügt (330).Method (300) for generating training data (2*) for classifiers (1) that assign measurement data (2) to one or more classes (3a-3c) of a specified classification, with the steps: • starting from measurement data (2). with the method (100) according to one of Claims 1 until 14 both an assignment (3) of these measurement data (2) to one or more classes (3a-3c) and an evaluation variable (7) for this assignment (3) are determined (310); and • in response to the evaluation variable (7) fulfilling a predetermined condition (320), the measurement data (2) in association with the association (3) are added to the training data (2*) (330). Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, ein Verfahren (100, 200, 300) nach einem der Ansprüche 1 bis 16 auszuführen.Computer program containing machine-readable instructions which, when executed on one or more computers, cause the computer or computers to perform a method (100, 200, 300) according to any one of Claims 1 until 16 to execute. Maschinenlesbarer Datenträger mit dem Computerprogramm nach Anspruch 17.Machine-readable data carrier with the computer program Claim 17 . Computer, ausgerüstet mit dem Computerprogramm nach Anspruch 17, und/oder mit dem maschinenlesbaren Datenträger nach Anspruch 18.Computer equipped with the computer program according to Claim 17 , and/or with the machine-readable data medium Claim 18 .
DE102021210566.1A 2021-09-23 2021-09-23 Quantitative assessment of the uncertainty of statements from a classifier based on measurement data and several processing products of the same Pending DE102021210566A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021210566.1A DE102021210566A1 (en) 2021-09-23 2021-09-23 Quantitative assessment of the uncertainty of statements from a classifier based on measurement data and several processing products of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021210566.1A DE102021210566A1 (en) 2021-09-23 2021-09-23 Quantitative assessment of the uncertainty of statements from a classifier based on measurement data and several processing products of the same

Publications (1)

Publication Number Publication Date
DE102021210566A1 true DE102021210566A1 (en) 2023-03-23

Family

ID=85383776

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021210566.1A Pending DE102021210566A1 (en) 2021-09-23 2021-09-23 Quantitative assessment of the uncertainty of statements from a classifier based on measurement data and several processing products of the same

Country Status (1)

Country Link
DE (1) DE102021210566A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017218889A1 (en) 2017-10-23 2019-04-25 Robert Bosch Gmbh Unarmed parameterized AI module and method of operation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017218889A1 (en) 2017-10-23 2019-04-25 Robert Bosch Gmbh Unarmed parameterized AI module and method of operation

Similar Documents

Publication Publication Date Title
DE102018128289B4 (en) METHOD AND DEVICE FOR AUTONOMOUS SYSTEM PERFORMANCE AND CLASSIFICATION
DE102019218613A1 (en) Object classification method, object classification circuit, motor vehicle
DE102019209560A1 (en) Apparatus and method for training a neural network
DE102019208733A1 (en) Method and generator for generating disturbed input data for a neural network
DE102021207613A1 (en) Process for quality assurance of a system
DE112020003343T5 (en) SYSTEM AND PROCESS USING A ROBUST DEEP GENERATIVE MODEL
DE102019208735B4 (en) Method for operating a driver assistance system for a vehicle and a driver assistance system for a vehicle
DE102021210566A1 (en) Quantitative assessment of the uncertainty of statements from a classifier based on measurement data and several processing products of the same
DE102021200643B3 (en) Method for environment recognition for semi-autonomous or autonomous driving functions of a motor vehicle using a neural network
DE102020203838A1 (en) Quantitative evaluation of the uncertainty of statements of a classifier
DE102019216184A1 (en) Method for the robustification of a neural network against adversarial disturbances
DE102020214203A1 (en) Method for determining a lane change intention of another motor vehicle located in the immediate vicinity of a motor vehicle, and assistance system
DE102019207575A1 (en) Method for assessing a function-specific robustness of a neural network
WO2020260015A1 (en) Operation of trainable modules with monitoring of whether the area of application of the training is left
DE102019207573A1 (en) Method for the function-specific robustification of a neural network
DE102019119087A1 (en) COMPONENT-BASED PROCESSING OF INPUT SIZES
DE102023127605A1 (en) Synthetic dataset generator
WO2022248171A1 (en) Method for quality assurance of a system
DE102020203135A1 (en) Procedure for quality assurance of an example-based system
WO2022069182A1 (en) Quality assurance method for an example-based system
DE102021104661A1 (en) Image classifier with indicator layer for traceability of decisions
DE102022206723A1 (en) Assessment of the relevance of test cases for technical systems
DE102020210729A1 (en) Training of classifier networks for a better explainability of the obtained classification scores
DE102021214253A1 (en) Determination of the image parts that are relevant for image processing with a transformer network
DE102021206106A1 (en) Device and method for training a machine learning system to denoise an input signal