DE102021200215A1 - Determining a confidence of an artificial neural network - Google Patents

Determining a confidence of an artificial neural network Download PDF

Info

Publication number
DE102021200215A1
DE102021200215A1 DE102021200215.3A DE102021200215A DE102021200215A1 DE 102021200215 A1 DE102021200215 A1 DE 102021200215A1 DE 102021200215 A DE102021200215 A DE 102021200215A DE 102021200215 A1 DE102021200215 A1 DE 102021200215A1
Authority
DE
Germany
Prior art keywords
input data
ann
data
confidence
classifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021200215.3A
Other languages
German (de)
Inventor
Fabian Woitschek
Georg Schneider
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102021200215.3A priority Critical patent/DE102021200215A1/en
Priority to PCT/EP2022/050414 priority patent/WO2022152683A1/en
Publication of DE102021200215A1 publication Critical patent/DE102021200215A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

Verfahren zum Ermitteln einer Konfidenz eines klassifizierenden KNN mit den folgenden Schritten:- Vorgeben (S1) von Eingangsdaten, mit welchen das KNN zum Ermitteln eines Klassifikationsergebnisses für die Eingangsdaten gespeist wird;- Vorgeben oder Generieren (S2) von gestörten Eingangsdaten;- Ermitteln (S3) des Klassifikationsergebnis für die vorgegebenen Eingangsdaten mittels des KNN;- Ermitteln (S4) des Klassifikationsergebnis für die gestörten Eingangsdaten mittels des KNN;- Ermitteln (S5) der Konfidenz des Klassifikationsergebnis der vorgegebenen Eingangsdaten, indem das Klassifikationsergebnis der vorgegebenen Eingangsdaten mit den Klassifikationsergebnissen der gestörten Eingangsdaten verglichen wird.Method for determining a confidence of a classifying ANN with the following steps: - specification (S1) of input data with which the ANN is fed to determine a classification result for the input data; - specification or generation (S2) of disturbed input data; - determination (S3 ) the classification result for the specified input data using the ANN;- determining (S4) the classification result for the noisy input data using the ANN;- determining (S5) the confidence in the classification result of the specified input data by comparing the classification result of the specified input data with the classification results of the noisy Input data is compared.

Description

GEBIET DER ERFINDUNGFIELD OF THE INVENTION

Die vorliegende Erfindung betrifft ein Verfahren zum Ermitteln einer Konfidenz eines klassifizierenden künstlichen neuronalen Netzwerks.The present invention relates to a method for determining a confidence of a classifying artificial neural network.

ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION

Der vorliegenden Erfindung liegt die Aufgabe zugrunde, die Verlässlichkeit eines Klassifikationsergebnisses eines klassifizierenden künstlichen neuronalen Netzwerks anzugeben.The present invention is based on the object of specifying the reliability of a classification result of a classifying artificial neural network.

Demgemäß ist vorgesehen:

  • - Ein Verfahren zum Ermitteln einer Konfidenz eines klassifizierenden KNN mit den folgenden Schritten: Vorgeben von Eingangsdaten, mit welchen das KNN zum Ermitteln eines Klassifikationsergebnisses für die Eingangsdaten gespeist wird; Vorgeben oder Generieren von gestörten Eingangsdaten; Ermitteln des Klassifikationsergebnis für die vorgegebenen Eingangsdaten mittels des KNN; Ermitteln des Klassifikationsergebnis für die gestörten Eingangsdaten mittels des KNN; Ermitteln der Konfidenz des Klassifikationsergebnis der vorgegebenen Eingangsdaten, indem das Klassifikationsergebnis der vorgegebenen Eingangsdaten mit den Klassifikationsergebnissen der gestörten Eingangsdaten verglichen wird.
Accordingly, it is provided:
  • - A method for determining a confidence of a classifying ANN with the following steps: specification of input data, with which the ANN is fed to determine a classification result for the input data; specifying or generating noisy input data; Determining the classification result for the specified input data using the ANN; determining the classification result for the noisy input data using the ANN; Determining the confidence of the classification result of the specified input data by comparing the classification result of the specified input data with the classification results of the noisy input data.

Ein künstliches neuronales Netzwerk (KNN, englisch artificial neural network - ANN) ist insbesondere ein in einem Rechenprogramm nachgebildetes Netzwerk aus vernetzten künstlichen Neuronen. Die künstlichen Neuronen sind dabei typischerweise auf verschiedenen Schichten (layers) angeordnet. Üblicherweise umfasst das künstliche neuronale Netzwerk eine Eingangsschicht und eine Ausgabeschicht (output layer), deren Neuronenausgabe als einzige des künstlichen neuronalen Netzwerks sichtbar wird. Zwischen der Eingangsschicht und der Ausgabeschicht liegende Schichten werden typischerweise als verdeckte Schichten (hidden layer) bezeichnet. Typischerweise wird zunächst eine Architektur bzw. Topologie eines künstlichen neuronalen Netzwerks initiiert und dann in einer Trainingsphase für eine spezielle Aufgabe oder für mehrere Aufgaben in einer Trainingsphase trainiert.An artificial neural network (ANN) is in particular a network of networked artificial neurons that is simulated in a computer program. The artificial neurons are typically arranged on different layers. Usually, the artificial neural network comprises an input layer and an output layer (output layer), whose neuron output is the only one of the artificial neural network that is visible. Layers lying between the input layer and the output layer are typically referred to as hidden layers. Typically, an architecture or topology of an artificial neural network is first initiated and then trained in a training phase for a specific task or for a plurality of tasks in a training phase.

Ein KNN legt eine Abbildung von einem (beispielhaft zweidimensionalen) Eingangsdatenraum auf einen Ergebnisdatenraum fest. Die Abbildung hängt maßgeblich vom Zweck der künstlichen Intelligenz ab, beispielsweise ist es denkbar, Datenpunkte des Eingangsdatenraums hinsichtlich ihrer Eigenschaften zu klassifizieren. In diesem Fall wird den Datenpunkten aus dem Eingangsdatenraum ein Klassifikationsergebnis, wie beispielsweise „Baum“ oder „Haus“, aus dem Ergebnisdatenraum zugeordnet und man spricht von einem klassifizierenden KNN.An ANN defines a mapping from an (example two-dimensional) input data space to a result data space. The mapping depends significantly on the purpose of the artificial intelligence, for example it is conceivable to classify data points of the input data space with regard to their properties. In this case, the data points from the input data space are assigned a classification result, such as "tree" or "house" from the result data space, and one speaks of a classifying ANN.

Der Begriff „Topologie eines KNN“ umfasst sämtliche Aspekte bezüglich des Aufbaus eines KNN. Hierunter fallen beispielsweise die Anzahl der Neuronen des KNN, die Aufteilung der Neuronen auf die einzelnen Schichten des KNN, die Anzahl der Schichten eines KNN, die Vernetzung der Neuronen und die Gewichtung der Vernetzung.The term "topology of an ANN" includes all aspects relating to the structure of an ANN. This includes, for example, the number of neurons in the ANN, the allocation of the neurons to the individual layers of the ANN, the number of layers in an ANN, the networking of the neurons and the weighting of the networking.

Das Training des künstlichen neuronalen Netzwerks umfasst dabei typischerweise eine Veränderung eines Gewichts einer Verbindung zwischen zwei künstlichen Neuronen des künstlichen neuronalen Netzwerks. Das Gewicht enthält Information zur Stärke der Berücksichtigung eines Eingangs eines Neurons. Das Training des künstlichen neuronalen Netzwerks kann auch eine Entwicklung von neuen Verbindungen zwischen künstlichen Neuronen, ein Löschen von bestehenden Verbindungen zwischen künstlichen Neuronen, ein Anpassen von Schwellwerten der künstlichen Neuronen und/oder ein Hinzufügen oder ein Löschen von künstlichen Neuronen umfassen.The training of the artificial neural network typically includes changing a weight of a connection between two artificial neurons of the artificial neural network. The weight contains information about the strength of the consideration of an input of a neuron. The training of the artificial neural network can also include developing new connections between artificial neurons, deleting existing connections between artificial neurons, adjusting threshold values of the artificial neurons and/or adding or deleting artificial neurons.

Ein Eingangsdatenraum ist eine Menge an Daten, die alle denkbaren bzw. wohldefinierten Eingangsdaten für ein KNN enthält. Ein Ergebnisdatenraum ist eine Menge, die alle denkbaren Ergebnisdaten eines KNN enthält. Dieser Patentanmeldung liegt die Annahme zugrunde, dass sich ein Eingangsdatenraum in Teilmengen oder Datenpunkte partitionieren lässt, wobei jedes Element, also eine Teilmenge oder ein Datenpunkt, der Partition auf ein anderes Abbildungsergebnis aus dem Ergebnisdatenraum abgebildet wird. Grenzen der Teilmengen werden anschaulich auch als Entscheidungsgrenzen bezeichnet. Typische Eingangsdaten sind z.B. n-dimensionale Vektoren.An input data space is a set of data that contains all conceivable or well-defined input data for an ANN. A result data space is a set that contains all conceivable result data of an ANN. This patent application is based on the assumption that an input data space can be partitioned into subsets or data points, with each element, ie a subset or a data point, of the partition being mapped to a different mapping result from the result data space. Boundaries of the subsets are also referred to as decision boundaries. Typical input data are, for example, n-dimensional vectors.

Gestörte Eingangsdaten sind in dieser Patentanmeldung Eingangsdaten, die künstlich mit einer Störung verknüpft worden sind.In this patent application, disturbed input data is input data that has been artificially linked to a disturbance.

Unter Rauschen versteht man eine Störgröße mit breitem unspezifischem Frequenzspektrum. Es kann daher als eine Überlagerung vieler harmonischer Schwingungen oder Wellen mit unterschiedlicher Amplitude und Frequenz beziehungsweise Wellenlänge interpretiert werden. Es gibt Rauschprozesse verschiedener Eigenschaften, z.B. weißes Rauschen, rosa Rauschen oder braunes Rauschen.Noise is a disturbance variable with a broad, non-specific frequency spectrum. It can therefore be interpreted as a superposition of many harmonic oscillations or waves with different amplitudes and frequencies or wavelengths. There are noise processes of different properties, e.g. white noise, pink noise or brown noise.

Die Amplitude einer eindimensionalen Störung bezeichnet man auch als dessen Intensität. Handelt es sich um einen mehrdimensionalen Störungsvektor kann die Störungsintensität unterschiedlich definiert werden, z.B. als Betrag eines Störungsvektors oder als Maximum seiner Komponenten.The amplitude of a one-dimensional disturbance is also referred to as its intensity. Is it a multidimensional Stö The disturbance intensity can be defined differently depending on the vector, eg as the magnitude of a disturbance vector or as the maximum of its components.

Die Konfidenz bezeichnet eine Wahrscheinlichkeit für die Korrektheit einer Aussage. Im gebräuchlichen Sprachgebrauch werden auch Begriffe wie Zuverlässigkeit oder Verlässlichkeit verwendet.Confidence indicates a probability that a statement is correct. In common parlance, terms such as reliability or dependability are also used.

Eine primäre Verwendung eines KNN ist dessen Anwendung zu einem Zweck, für den das KNN ausgelegt ist. Hierzu zählen nicht die Wartung, das Training oder das Testen des KNN. Handelt es sich bei dem KNN um eine Fahrerassistenzfunktion, ist die primäre Verwendung das assistierende Fahren eines Fahrzeugs bei einem Endanwender.A primary use of an ANN is to apply it to a purpose for which the ANN is designed. This does not include maintenance, training or testing of the ANN. If the ANN is a driver assistance function, the primary use is assisted driving of a vehicle by an end user.

Eingangsdaten, die eigens zur Ermittlung von Datenpaaren aus Eingangsdaten und einer zugehörigen Konfidenz ausgewählt wurden, können während einer primären Verwendung eines KNN erfasst worden sein. Alternativ kann es sich bei derartigen Eingangsdaten auch um künstlich generierte Daten handeln.Input data specifically selected to determine data pairs from input data and an associated confidence may have been collected during a primary use of an ANN. Alternatively, such input data can also be artificially generated data.

Ein Maß ist eine Funktion, die Teilmengen einer Grundmenge Zahlen zuordnet, die als Größe dieser Mengen interpretiert werden können.A measure is a function that assigns numbers to subsets of a base set that can be interpreted as the sizes of those sets.

Ein Sensor, auch als Detektor, (Messgrößen- oder Mess-)Aufnehmer oder (Mess-)Fühler bezeichnet, ist ein technisches Bauteil, das bestimmte physikalische, chemische Eigenschaften oder Zustände, z. B. Temperatur, Feuchtigkeit, Druck, Geschwindigkeit, Helligkeit, Beschleunigung, pH-Wert, Ionenstärke, elektrochemisches Potential und/oder die stoffliche Beschaffenheit seiner Umgebung qualitativ oder als Messgröße quantitativ erfassen kann. Diese Größen werden mittels physikalischer oder chemischer Effekte erfasst und als Sensordaten in ein weiterverarbeitbares elektrisches Signal umgeformt. Fahrzeugsensoren sind an einem Fahrzeug montiert, um eine Fahrzeugumgebung zu erfassen. Sensordaten, die von Fahrzeugsensoren erfasst werden, sind fahrzeugumgebungsbezogene Datenpunkte.A sensor, also known as a detector, (measuring variable or measurement) pickup or (measuring) probe, is a technical component that detects certain physical, chemical properties or states, e.g. B. temperature, humidity, pressure, speed, brightness, acceleration, pH, ionic strength, electrochemical potential and / or the material composition of its environment can be qualitatively or quantitatively recorded as a measurand. These variables are recorded using physical or chemical effects and converted into an electrical signal that can be further processed as sensor data. Vehicle sensors are mounted on a vehicle to sense a vehicle environment. Sensor data collected from vehicle sensors are data points related to the vehicle environment.

Computerprogrammprodukte umfassen in der Regel eine Folge von Befehlen, durch die die Hardware bei geladenem Programm veranlasst wird, ein bestimmtes Verfahren durchzuführen, das zu einem bestimmten Ergebnis führt.Computer program products typically include a sequence of instructions that, when the program is loaded, cause the hardware to perform a specific method that leads to a specific result.

Die grundlegende Idee der Erfindung ist es, die Konfidenz eines trainierten Klassifikationssystems zu beurteilen. Die Konfidenz approximiert die Entfernung eines Datenpunkts im Eingangsdatenraum zu den nächsten Entscheidungsgrenzen. Somit kann beurteilt werden, wie nah ein Datenpunkt an einer anderen Entscheidungsgrenze liegt. Stellt sich heraus, dass der Abstand des Datenpunkts im Eingangsdatenraum zu einer anderen Entscheidungsgrenze gering ist, ergibt sich daraus eine niedrige Konfidenz des Klassifikationsergebnisses, da bereits eine geringe Variation der Eingangsdaten zu einem anderen Klassifikationsergebnis führen würde.The basic idea of the invention is to assess the confidence of a trained classification system. Confidence approximates the distance from a data point in the input data space to the nearest decision boundaries. This allows an assessment of how close a data point is to another decision boundary. If it turns out that the distance between the data point in the input data space and another decision limit is small, the confidence in the classification result is low, since even a small variation in the input data would lead to a different classification result.

Die Beurteilung der Aussagekraft bzw. Verlässlichkeit eines Klassifikationsergebnisses eines künstlichen neuronalen Netzwerks ist für eine Vielzahl von sicherheitskritischen Anwendungen relevant. Beispielsweise ist es für ein klassifizierendes künstliches neuronales Netzwerk in der Trainingsphase relevant, ob die Konfidenz eines KNN bereits einen akzeptablen Wert erreicht hat bzw. ob ein Mensch bessere oder schlechtere Klassifikationsergebnisse generieren würde. Somit lässt sich beispielsweise der Fortschritt während eines Trainings hinsichtlich der Zuverlässigkeit der Klassifikationsergebnisse beurteilen. Die vorliegende Erfindung ermöglicht dies, mittels des im Folgenden beschriebenen Verfahrens zum Ermitteln einer Konfidenz eines klassifizierenden künstlichen neuronalen Netzwerks mit automatisierten Methoden, die auf einem Algorithmus beruhen.The assessment of the significance or reliability of a classification result of an artificial neural network is relevant for a large number of safety-critical applications. For example, it is relevant for a classifying artificial neural network in the training phase whether the confidence of an ANN has already reached an acceptable value or whether a human would generate better or worse classification results. Thus, for example, the progress during training can be assessed with regard to the reliability of the classification results. The present invention makes this possible by means of the method described below for determining a confidence of a classifying artificial neural network with automated methods based on an algorithm.

Das erfindungsgemäße Verfahren beruht auf der Annahme, dass die Klassifikationssicherheit, also die Konfidenz, eines künstlichen neuronalen Netzwerks höher ist, wenn die Eingangsdaten im Zentrum einer Entscheidungsgrenze liegen. In diesem Punkt werden die Daten am sichersten einem spezifischen Klassifikationsergebnis zugeordnet und kleine Veränderungen in den Daten ändern das Klassifikationsergebnis nicht. Dementsprechend sollte das Maß für die Konfidenz derart bemessen sein, dass an derartigen Punkten, die ermittelte Konfidenz des künstlichen neuronalen Netzwerks hoch ist. Dementsprechend ist die Konfidenz eines Klassifikationsergebnisses von Eingangsdaten, die sich in der Nähe einer Entscheidungsgrenze befinden, gering. Eine kleine Veränderung der Daten kann hier ausreichen, um das Klassifikationsergebnis des KNN zu ändern. Dementsprechend sollte das Maß der Konfidenz derart bemessen sein, dass die ermittelte Konfidenz für Eingangsdaten in der Nähe einer Entscheidungsgrenze gering ist.The method according to the invention is based on the assumption that the classification certainty, ie the confidence, of an artificial neural network is higher when the input data are in the center of a decision limit. At this point, the data is most reliably assigned to a specific classification result, and small changes in the data do not change the classification result. Accordingly, the measure of confidence should be such that at such points, the determined confidence of the artificial neural network is high. Accordingly, the confidence of a classification result of input data that is close to a decision boundary is low. A small change in the data can be enough to change the classification result of the ANN. Accordingly, the degree of confidence should be dimensioned in such a way that the determined confidence for input data is low in the vicinity of a decision limit.

In der Praxis ist jedoch die Lage der Entscheidungsgrenzen in der Regel nicht bekannt.In practice, however, the position of the decision limits is usually not known.

Die vorliegende Erfindung sieht vor, die Konfidenz eines Klassifikationsergebnisses eines klassifizierenden künstlichen neuronalen Netzwerks zu ermitteln, indem Eingangsdaten, zu welchen das KNN ein Klassifikationsergebnis ermittelt, vorgegeben werden. Im Folgenden werden zu den vorgegebenen Eingangsdaten gestörte Eingangsdaten generiert oder vorgegeben. Im Folgenden wird ermittelt, wie nahe die vorgegebenen Eingangsdaten an einer Entscheidungsgrenze liegen, indem das KNN Klassifikationsergebnisse für die vorgegebenen Eingangsdaten sowie für die gestörten Eingangsdaten ermittelt. Unterscheidet sich das Klassifikationsergebnis der vorgegebenen Eingangsdaten von den gestörten Eingangsdaten, resultiert daraus, dass die Störung ausreichend war, um die vorgegebenen Eingangsdaten in eine andere Entscheidungsgrenze zu überführen. Das bedeutet, dass der Abstand der vorgegebenen Eingangsdaten zu einer Entscheidungsgrenze kleiner ist als der Betrag der Störung. Für den Vergleich der Klassifikationsergebnisse der vorgegebenen und gestörten Eingangsdaten stehen verschiedene Methoden, die gewichtet oder ungewichtet sein können, bereit.The present invention provides for determining the confidence of a classification result of a classifying artificial neural network by specifying input data for which the ANN determines a classification result. In the following, disturbed input data are generated or specified for the specified input data. In the following it is determined how close the specified input data is to a decision limit, in that the ANN determines classification results for the specified input data and for the disturbed input data. If the classification result of the specified input data differs from the disturbed input data, the result is that the disturbance was sufficient to transfer the specified input data to a different decision limit. This means that the distance between the given input data and a decision limit is smaller than the magnitude of the disturbance. Various methods, which can be weighted or unweighted, are available for comparing the classification results of the specified and disturbed input data.

Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den weiteren Unteransprüchen sowie aus der Beschreibung unter Bezugnahme auf die Figuren der Zeichnung.Advantageous refinements and developments result from the further dependent claims and from the description with reference to the figures of the drawing.

Gemäß einer bevorzugten Weiterbildung der Erfindung wird eine vorbestimmte Anzahl von gestörten Eingangsdaten mittels eines Rauschprozesses wenigstens einer Wahrscheinlichkeitsverteilung generiert.According to a preferred development of the invention, a predetermined number of disturbed input data is generated by means of a noise process of at least one probability distribution.

Dementsprechend ist es denkbar, zu vorgegebenen Eingangsdaten mittels Rauschens automatisiert gestörte Eingangsdaten zu generieren. Dabei kann vorgesehen sein, dass die gestörten Eingangsdaten mittels eines Rauschprozesses, der auf einer oder mehrerer Wahrscheinlichkeitsverteilungen beruht, zu generieren. Als Wahrscheinlichkeitsverteilungen kommen sämtliche Verteilungen in Betracht, beispielsweise die Normalverteilung, die Gleichverteilung, die Poissonverteilung und dergleichen.Accordingly, it is conceivable to automatically generate disturbed input data for predetermined input data by means of noise. Provision can be made here for the disturbed input data to be generated by means of a noise process which is based on one or more probability distributions. All distributions come into consideration as probability distributions, for example the normal distribution, the uniform distribution, the Poisson distribution and the like.

Alternativ ist es auch denkbar, deterministische Störungsvektoren, mittels welchen die vorgegebenen Eingangsdaten verknüpft werden, vorzugeben. Somit lässt sich gewährleisten, dass die gestörten Eingangsdaten vergleichbar sind bzw. hinsichtlich kontrollierbarer Eigenschaften verändert werden.Alternatively, it is also conceivable to specify deterministic disturbance vectors, by means of which the specified input data are linked. It can thus be ensured that the disturbed input data are comparable or are changed with regard to controllable properties.

Gemäß einer bevorzugten Weiterbildung der Erfindung werden eine oder mehrere Rauschintensitäten vorgegeben und für jede Rauschintensität wird eine vorbestimmte Anzahl von gestörten Eingangsdaten mittels eines Rauschprozesses wenigstens einer Wahrscheinlichkeitsverteilung generiert.According to a preferred development of the invention, one or more noise intensities are specified and for each noise intensity a predetermined number of disturbed input data is generated by means of a noise process of at least one probability distribution.

Somit lässt sich nicht nur beurteilen, ob vorgegebene Eingangsdaten in der Nähe einer Entscheidungsgrenze liegen, sondern auch der Abstand zwischen den Eingangsdaten und dem Rand der Entscheidungsgrenze beurteilen.It is thus not only possible to assess whether specified input data is close to a decision limit, but also to assess the distance between the input data and the edge of the decision limit.

Für sämtliche vorstehend und nachfolgend beschriebenen Varianten des Verfahrens ist es denkbar, den Vergleich der Klassifikationsergebnisse über eine (normierte) Summe von Nullen bzw. Einsen zu implementieren, wobei jedes Klassifikationsergebnis gestörter Eingangsdaten einmal mit dem Klassifikationsergebnis der vorgegebenen Eingangsdaten verglichen wird, d. h. wenn das Klassifikationsergebnis gestörter Eingangsdaten identisch mit dem Klassifikationsergebnis der vorgegebenen Eingangsdaten ist, wird eine 1 addiert und wenn sich das Klassifikationsergebnis der gestörten Eingangsdaten von dem Klassifikationsergebnis der vorgegebenen Eingangsdaten unterscheidet, wird eine 0 addiert. Diese Summe wird für alle Klassifikationsergebnisse, also alle gestörten Eingangsdaten zu jeweils allen Rauschintensitäten ermittelt.For all variants of the method described above and below, it is conceivable to implement the comparison of the classification results using a (normalized) sum of zeros or ones, with each classification result of noisy input data being compared once with the classification result of the specified input data, i. H. if the classification result of the noisy input data is identical to the classification result of the specified input data, a 1 is added and if the classification result of the noisy input data differs from the classification result of the specified input data, a 0 is added. This sum is determined for all classification results, ie all disturbed input data for all noise intensities.

Anders ausgedrückt kann die Konfidenz eines Klassifikationsergebnisses dann wie folgt formuliert werden, wobei i beispielsweise verschiedene Störungsrichtungen indexiert und j verschiedene Störungsintensitäten indexiert: ξ = 1 N M i , j ( y 0 = = y i + j N ) ; wobei i 1, , N ; j 0, , M 1 ;

Figure DE102021200215A1_0001
In other words, the confidence of a classification result can then be formulated as follows, where i, for example, indexes different fault directions and j indexes different fault intensities: ξ = 1 N M i , j ( y 0 = = y i + j N ) ; where i 1, ... , N ; j 0, ... , M 1 ;
Figure DE102021200215A1_0001

Gemäß einer bevorzugten Weiterbildung der Erfindung basieren die vorgegebenen Eingangsdaten auf Sensordaten, wobei die Sensordaten zum Zwecke einer primären Verwendung des künstlichen neuronalen Netzwerks erfasst wurden.According to a preferred development of the invention, the specified input data are based on sensor data, with the sensor data being recorded for the purpose of a primary use of the artificial neural network.

Diese Ausführungsform, lässt sich im Fachjargon auch als live-Variante bezeichnen. Bei dieser Variante wird die Konfidenz gleichzeitig zu Klassifikationsergebnissen von Eingangsdaten ermittelt. Dementsprechend werden auch die gestörten Eingangsdaten in Echtzeit generiert und das klassifizierende künstliche neuronale Netzwerk wird mit diesen gestörten Eingangsdaten zwecks dessen Klassifikation gespeist. Dementsprechend wird die Konfidenz eines Klassifikationsergebnisses ermittelt, während das Klassifikationsergebnis selbst ermittelt wird.This embodiment can also be referred to as a live variant in technical jargon. In this variant, the confidence is determined at the same time as the classification results of input data. Accordingly, the disturbed input data is also generated in real time and the classifying artificial neural network is fed with this disturbed input data for the purpose of its classification. Accordingly, the confidence of a classification result is determined while the classification result itself is determined.

Diese Variante des Verfahrens lässt sich leicht in bestehende Systeme von klassifizierenden KNN integrieren, da das bestehende klassifizierende KNN hierfür nicht verändert werden muss, sondern lediglich mit einer Routine für die Ermittlung der Konfidenz verknüpft werden muss.This variant of the method can be easily integrated into existing systems of classifying ANN, since the existing classifying ANN does not have to be changed for this, but only has to be linked to a routine for determining the confidence.

Diese Variante eignet sich besonders für Anwendungen mit großen verfügbaren Rechenkapazitäten, da hierfür ein zusätzlicher Rechenaufwand anfällt.This variant is particularly suitable for applications with large available computing capacities, as this requires additional computing effort.

Alternativ ist es auch denkbar, dass die vorgegebenen Eingangsdaten eigens zur Ermittlung von Datenpaaren aus Eingangsdaten und einer Konfidenz ausgewählt wurden. Dementsprechend wird das Verfahren durchgeführt, bevor das klassifizierende KNN im Rahmen seiner primären Verwendung eingesetzt wird.Alternatively, it is also conceivable that the specified input data are used specifically to determine data pairs from input data and a con were selected. Accordingly, the procedure is carried out before the classifying ANN is used in its primary use.

Dabei kann vorgesehen sein, dass ein weiteres KNN Datenpaare aus Eingangsdaten und einer zugehörigen Konfidenz ermittelt, während das klassifizierende künstliche neuronale Netzwerk mit den vorgegebenen Eingangsdaten gespeist wird, die auf Sensordaten basieren, wobei die Sensordaten zum Zwecke einer primären Verwendung des KNN erfasst wurden, wobei das weitere KNN mit Datenpaaren aus Eingangsdaten und einer zugehörigen Konfidenz trainiert wurde.It can be provided that a further ANN determines data pairs from input data and an associated confidence, while the classifying artificial neural network is fed with the specified input data based on sensor data, the sensor data being recorded for the purpose of a primary use of the ANN, where the further ANN was trained with data pairs from input data and an associated confidence.

Dementsprechend ist vorgesehen, dass ein weiteres künstliches neuronales Netzwerk vor der primären Verwendung des klassifizierenden KNN trainiert wird, die Konfidenz von Klassifikationsergebnissen während der primären Verwendung des klassifizierenden KNN zu beurteilen. Das weitere KNN wird trainiert, bevor das klassifizierende KNN im Rahmen seiner primären Verwendung verwendet wird. Hierfür werden Datenpaare aus Eingangsdaten und einer zugehörigen Konfidenz vorgegeben. Während der primären Verwendung des klassifizierenden KNN ist das weitere KNN dann auf die Ermittlung der Konfidenz der Klassifikationsergebnisse trainiert. Diese Variante kann im Fachjargon auch als Trainingsvariante bezeichnet werden.Accordingly, it is provided that a further artificial neural network is trained prior to the primary use of the classifying ANN to assess the confidence of classification results during the primary use of the classifying ANN. The further ANN is trained before the classifying ANN is used in its primary use. For this purpose, data pairs from input data and an associated confidence are specified. During the primary use of the classifying ANN, the further ANN is then trained to determine the confidence of the classification results. This variant can also be referred to as a training variant in technical jargon.

Für diese Variante ist es vorteilhaft, das klassifizierende KNN zu verändern, indem ein weiterer Ausgabewert, nämlich die Konfidenz, hinzugefügt wird. Es ist auch denkbar, das weitere KNN zusammen mit dem klassifizierenden KNN zu trainieren, um den Trainingsaufwand gering zu halten.For this variant, it is advantageous to change the classifying ANN by adding another output value, namely the confidence. It is also conceivable to train the further ANN together with the classifying ANN in order to keep the training effort low.

Alternativ ist es auch denkbar, die Konfidenz von Klassifikationsergebnissen von Eingangsdaten, die auf Sensordaten basieren, wobei die Sensordaten zum Zwecke einer primären Verwendung des KNN erfasst wurden, mittels einer Interpolation von mehreren Datenpaaren aus Eingangsdaten und einer zugehörigen Konfidenz zu schätzen. Hierfür ist es grundsätzlich möglich, einen identischen Datensatz zu verwenden, wie man für das Training eines weiteren KNN verwenden würde, das bedeutet Datenpaare aus Eingangsdaten und einer zugehörigen Konfidenz, wobei die Datenpaare eigens zur Bereitstellung eines Datensatzes zur Interpolation von Konfidenzen während der primären Verwendung des KNN bereitgestellt wurden. Diese Variante kann im Fachjargon auch als offline-Variante bezeichnet werden.Alternatively, it is also conceivable to estimate the confidence of classification results of input data based on sensor data, the sensor data being recorded for the purpose of primary use of the ANN, by interpolating multiple data pairs from input data and an associated confidence. For this it is basically possible to use an identical data set as one would use for the training of another ANN, i.e. data pairs from input data and an associated confidence, whereby the data pairs are used specifically to provide a data set for the interpolation of confidences during the primary use of the KNN have been provided. This variant can also be referred to as the offline variant in technical jargon.

Dementsprechend basiert die offline-Variante auf vergleichbaren bzw. identischen Daten wie die Trainingsvariante, wobei die offline-Variante gegenüber der Trainingsvariante eine Vereinfachung bildet. Hierfür ist es erforderlich, Datenpaare aus Eingangsdaten und einer zugehörigen Konfidenz zu speichern. Soll während der primären Verwendung des klassifizierenden KNN eine Konfidenz eines Klassifikationsergebnisses vorgegebener Eingangsdaten, für welche im Vorfeld keine zugehörige Konfidenz ermittelt wurde, ermittelt werden, so lässt sich diese Konfidenz durch eine Interpolation von vorbekannten Konfidenzen aus dem gespeicherten Datensatz ermitteln.Accordingly, the offline variant is based on comparable or identical data to the training variant, with the offline variant being a simplification compared to the training variant. For this it is necessary to store data pairs from input data and an associated confidence. If, during the primary use of the classifying ANN, a confidence of a classification result of given input data for which no associated confidence was previously determined is to be determined, then this confidence can be determined by interpolating previously known confidences from the stored dataset.

Es ist ersichtlich, dass hierfür das klassifizierende KNN nicht verändert werden muss und dass es deshalb möglich ist, ein beliebiges bestehendes klassifizierendes KNN durch die offline-Variante zu erweitern. Verglichen mit der live-Variante bzw. der Trainingsvariante fällt der zusätzliche Laufzeitbedarf geringer aus, da lediglich einfache bzw. weniger Rechenoperationen erforderlich sind.It can be seen that the classifying ANN does not have to be changed for this and that it is therefore possible to expand any existing classifying ANN with the offline variant. Compared to the live variant or the training variant, the additional runtime requirement is lower, since only simple or fewer arithmetic operations are required.

Gemäß einer bevorzugten Weiterbildung der Erfindung wird die Konfidenz ferner aufgrund eines Maßes eines Unterschiedes zwischen Klassifikationsergebnissen der gestörten und nicht gestörten Eingangsdaten ermittelt, wenn sich die Klassifikationsergebnisse der gestörten von den nicht gestörten Eingangsdaten unterscheiden. Dementsprechend lässt sich neben dem Abstand eines Eingangsdatenpunktes zur nächsten Entscheidungsgrenze auch der Abstand eines Datenpunktes zu einer beliebigen Entscheidungsgrenze abschätzen. Hierfür ist es vorteilhaft, die Entfernung zu anderen Entscheidungsregionen mittels verschiedenen Rauschintensitäten zu beurteilen. Somit können gestörte Eingangsdaten auch weiter entfernte Entscheidungsregionen erreichen.According to a preferred development of the invention, the confidence is also determined based on a measure of a difference between the classification results of the noisy and no-noise input data if the classification results of the noisy and no-noise input data differ. Accordingly, in addition to the distance of an input data point to the next decision limit, the distance of a data point to any decision limit can also be estimated. For this it is advantageous to assess the distance to other decision regions using different noise intensities. In this way, disturbed input data can also reach decision regions that are further away.

Dies ist vorteilhaft, wenn zu erwarten ist, dass sich Objekte von verschiedenen Klassifikationsergebnissen ähnlich oder identisch verhalten. Beispielsweise ist es bekannt, dass klassifizierende KNN, die für Fahrerassistenzanwendungen zum Einsatz kommen, Kameradaten eines Fahrzeugs hinsichtlich von verschiedenartigen Verkehrsteilnehmern, die in den Kameradaten enthalten sind, klassifizieren. Dementsprechend klassifizieren solche Anwendungen erkannte Objekte in Lastkraftwagen, Personenkraftwagen, Fußgänger, Fahrradfahrer, Mopeds und dergleichen. Dabei kann es sich als unkritisch ergeben, wenn statt einem Fahrradfahrer, ein Elektro-Rollerfahrer, umgangssprachlich auch als E-Scooterfahrer bezeichnet, erkannt wird, da sich diese beiden Objekte in der Regel mit einer ähnlichen Geschwindigkeit bzw. mit einem ähnlichen Bewegungsverhalten fortbewegen. Dies lässt sich berücksichtigen, indem Klassifikationsergebnisse von gestörten Eingangsdaten, die sich von dem Klassifikationsergebnis der vorgegebenen Eingangsdaten unterscheiden, schwächer gewichtet werden, wenn zu erwarten ist, dass sich die Objekte der verschiedenen Klassifikationsergebnisse ähnlich oder identisch verhalten.This is advantageous when objects from different classification results are expected to behave similarly or identically. For example, it is known that classifying ANNs, which are used for driver assistance applications, classify camera data of a vehicle with regard to different types of road users contained in the camera data. Accordingly, such applications classify detected objects as trucks, cars, pedestrians, bicyclists, mopeds, and the like. It can be uncritical if, instead of a cyclist, an electric scooter rider, colloquially also referred to as an e-scooter rider, is detected, since these two objects usually move at a similar speed or with a similar movement behavior. This can be taken into account by weighting weaker the classification results of noisy input data that differ from the classification result of the specified input data, if it is to be expected that the objects of the different classification results behave similarly or identically.

Dabei kann optional auch vorgesehen sein, dass die Ähnlichkeit oder Unähnlichkeit von Klassifikationsergebnissen in Anbetracht der aktuell zu lösenden Fragestellung beurteilt wird. Beispielsweise kann es sinnvoll sein, das Verhalten eines Pkw auf einer Bundesstraße oder auf einer Fernstraße unter anderem aufgrund seiner Leistung zu prognostizieren, wenn vorgesehen ist, dass ein Pkw anhand einer vermuteten Leistung klassifiziert werden soll. Dementgegen ist jedoch eher nicht zu erwarten, dass sich das Verhalten eines Pkw in einem verkehrsberuhigten Bereich aufgrund dessen Leistung unterscheidet.In this case, it can optionally also be provided that the similarity or dissimilarity of classification results is assessed in view of the current problem to be solved. For example, it can make sense to predict the behavior of a car on a federal highway or on a highway based on its performance, among other things, if it is provided that a car is to be classified on the basis of an assumed performance. On the other hand, it is not to be expected that the behavior of a car in a traffic-calmed area differs due to its performance.

Gemäß einer bevorzugten Weiterbildung der Erfindung weist das klassifizierende KNN eine bekannte Topologie auf. Dementsprechend wird die Konfidenz eines bekannten bzw. eigens entwickelten klassifizierenden KNN beurteilt. Dementsprechend kann die ermittelte Konfidenz einem Nutzer zugänglich gemacht werden, wodurch dieser die Zuverlässigkeit des Systems selbst beurteilen kann.According to a preferred development of the invention, the classifying ANN has a known topology. Accordingly, the confidence of a known or specially developed classifying ANN is assessed. Accordingly, the confidence determined can be made accessible to a user, as a result of which he can assess the reliability of the system himself.

Alternativ ist es auch denkbar, dass das klassifizierende KNN eine unbekannte Topologie aufweist und Konfidenzen von Klassifikationsergebnissen des klassifizierenden KNN mittels des beschriebenen Verfahrens ermittelt oder verifiziert werden soll.Alternatively, it is also conceivable that the classifying ANN has an unknown topology and confidences in classification results of the classifying ANN are to be determined or verified using the method described.

Dies ermöglicht es, beispielsweise für Hersteller von übergeordneten Systemen zugekaufte untergeordnete Systeme hinsichtlich deren Konfidenzen auch dann zu beurteilen, wenn die Topologie eines zugekauften untergeordneten Systems nicht bekannt ist. Somit ist es möglich, die Konfidenz eines klassifizierenden KNN auch dann zu bestimmen, wenn dessen interne Funktionsweise unbekannt ist und nicht analysierbar ist.This makes it possible, for example, to assess the confidence of subordinate systems purchased for manufacturers of superordinate systems even if the topology of a subordinate system that has been purchased is not known. It is thus possible to determine the confidence of a classifying ANN even if its internal functioning is unknown and cannot be analyzed.

Konfidenzen, die mittels des beschriebenen Verfahrens ermittelt wurden, werden auch als Umgebungskonfidenz bezeichnet. Konfidenzen, die auf andere Art und Weise oder auf unbekannte Art und Weise ermittelt wurden, werden auch als Herstellerkonfidenz bezeichnet.Confidence that was determined using the method described is also referred to as environmental confidence. Confidence determined in a different way or in an unknown way is also referred to as manufacturer confidence.

Alternativ und/oder zusätzlich ist es somit auch möglich, Umgebungskonfidenzen von klassifizierenden KNN mit unbekannten Topologien zu analysieren bzw. mit Herstellerkonfidenzen zu vergleichen.Alternatively and/or additionally, it is thus also possible to analyze environmental confidences of classifying ANNs with unknown topologies or to compare them with manufacturer confidences.

Ergibt sich bei diesem Vergleich eine hohe Korrelation zwischen der Herstellerkonfidenz und der Umgebungskonfidenz, ließe sich schlussfolgern, dass die Herstellerkonfidenz ein zuverlässiges Maß für die Güte von Klassifikationsergebnissen ist. Dementsprechend ließe sich jedoch auch schlussfolgern, dass die Herstellerkonfidenz nicht vertrauenswürdig bzw. verbesserungswürdig ist, wenn sich zwischen der Herstellerkonfidenz und der Umgebungskonfidenz eine geringe Korrelation ergibt.If this comparison shows a high correlation between the manufacturer's confidence and the environment's confidence, it could be concluded that the manufacturer's confidence is a reliable measure of the quality of classification results. Accordingly, however, it could also be concluded that the manufacturer confidence is not trustworthy or in need of improvement if there is a low correlation between the manufacturer confidence and the environment confidence.

Ein Computerprogrammprodukt gemäß einem Verfahren einer Ausführungsform der Erfindung führt die Schritte eines Verfahrens gemäß der vorangehenden Beschreibung aus, wenn das Computerprogrammprodukt auf einem Computer, insbesondere einem fahrzeuginternen Computer, läuft. Wenn das betreffende Programm auf einem Computer zum Einsatz kommt, ruft das Computerprogrammprodukt einen Effekt hervor, nämlich die Beurteilung der Verlässlichkeit von Klassifikationsergebnissen künstlicher neuronaler Netzwerke.A computer program product according to a method of an embodiment of the invention performs the steps of a method as described above when the computer program product runs on a computer, in particular an in-vehicle computer. If the program in question is used on a computer, the computer program product produces an effect, namely the assessment of the reliability of classification results of artificial neural networks.

Figurenlistecharacter list

Die vorliegende Erfindung wird nachfolgend anhand der in den schematischen Figuren der Zeichnungen angegebenen Ausführungsbeispiele näher erläutert. Es zeigen dabei:

  • 1 ein schematisches Blockdiagramm einer Ausführungsform der Erfindung;
  • 2 eine Prinzipskizze zur Erläuterung einer Ausführungsform der Erfindung;
  • 3 eine Prinzipskizze zur Erläuterung einer Ausführungsform der Erfindung.
The present invention is explained in more detail below with reference to the exemplary embodiments given in the schematic figures of the drawings. They show:
  • 1 a schematic block diagram of an embodiment of the invention;
  • 2 a schematic diagram to explain an embodiment of the invention;
  • 3 a schematic diagram to explain an embodiment of the invention.

Die beiliegenden Zeichnungen sollen ein weiteres Verständnis der Ausführungsformen der Erfindung vermitteln. Sie veranschaulichen Ausführungsformen und dienen im Zusammenhang mit der Beschreibung der Erklärung von Prinzipien und Konzepten der Erfindung. Andere Ausführungsformen und viele der genannten Vorteile ergeben sich im Hinblick auf die Zeichnungen. Die Elemente der Zeichnungen sind nicht notwendigerweise maßstabsgetreu zueinander gezeigt.The accompanying drawings are provided to provide a further understanding of embodiments of the invention. They illustrate embodiments and, together with the description, serve to explain principles and concepts of the invention. Other embodiments and many of the foregoing advantages will become apparent by reference to the drawings. The elements of the drawings are not necessarily shown to scale with respect to one another.

In den Figuren der Zeichnungen sind gleiche, funktionsgleiche und gleichwirkende Elemente, Merkmale und Komponenten - sofern nicht anders ausgeführt ist - jeweils mit denselben Bezugszeichen versehen.In the figures of the drawings, elements, features and components that are identical, have the same function and have the same effect--unless stated otherwise--are each provided with the same reference symbols.

BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELENDESCRIPTION OF EXEMPLARY EMBODIMENTS

1 zeigt ein schematisches Blockdiagramm eines Verfahrens zum Ermitteln einer Konfidenz eines klassifizierenden künstlichen neuronalen Netzwerks gemäß einer Ausführungsform der Erfindung mit den Schritten S1 bis S5. In dem Schritt S1 werden Eingangsdaten, mit welchen das KNN zum Ermitteln eines Klassifikationsergebnisses für die Eingangsdaten gespeist wird, vorgegeben. 1 shows a schematic block diagram of a method for determining a confidence of a classifying artificial neural network according to an embodiment of the invention with the steps S1 to S5. In the step S1 input data with which the ANN is fed to determine a classification result for the input data is specified.

In dem Schritt S2 werden gestörte Eingangsdaten vorgegeben oder generiert.In step S2, disturbed input data are specified or generated.

In dem Schritt S3 wird ein Klassifikationsergebnis für die vorgegebenen Eingangsdaten mittels des KNN ermittelt.In step S3, a classification result for the specified input data is determined using the ANN.

In dem Schritt S4 werden Klassifikationsergebnisse für die gestörten Eingangsdaten mittels des KNN ermittelt.In step S4, classification results for the noisy input data are determined using the ANN.

In dem Schritt S5 wird die Konfidenz des Klassifikationsergebnis der Eingangsdaten ermittelt, indem das Klassifikationsergebnis der Eingangsdaten, mit den Klassifikationsergebnissen der gestörten Eingangsdaten verglichen wird.In step S5, the confidence of the classification result of the input data is determined by comparing the classification result of the input data with the classification results of the noisy input data.

2 zeigt eine Prinzipskizze zur Veranschaulichung einer Ausführungsform der Erfindung. In 2 ist ein Eingangsdatenraum 19, der in eine Partition 13 zerlegt ist, dargestellt. Die Partition 13 umfasst drei Teilmengen 15, 16 und 17. Die Teilmengen 15, 16 und 17 sind voneinander durch einen Teilmengenrand 11, der eine Entscheidungsgrenze bildet, abgegrenzt. Innerhalb der Teilmenge 15 ist ein Nahbereich 12 des Teilmengenrandes 11 veranschaulicht dargestellt. Wenngleich der Teilmengenrand 12 nur für die Teilmenge 15 dargestellt ist, versteht es sich, dass auch die Teilmengen 16 und 17 einen vergleichbaren Teilmengenrand innerhalb dieser Teilmengen aufweisen. Die Teilmenge 15 enthält mehrere Datenpunkte 1, die sich innerhalb der Teilmenge 15 mit einem Abstand zum Teilmengenrand 12 befinden. Ferner umfasst die Teilmenge 15 Datenpunkte 2, die sich innerhalb der Teilmenge 15 und innerhalb des Teilmengenrandes 12 befinden. 2 shows a schematic diagram to illustrate an embodiment of the invention. In 2 an input data space 19, which is broken down into a partition 13, is shown. The partition 13 comprises three subsets 15, 16 and 17. The subsets 15, 16 and 17 are delimited from one another by a subset boundary 11 which forms a decision boundary. A region 12 close to the edge 11 of the subset is shown in an illustrated manner within the subset 15 . Although the subset edge 12 is only shown for the subset 15, it goes without saying that the subsets 16 and 17 also have a comparable subset edge within these subsets. The subset 15 contains a plurality of data points 1 which are located within the subset 15 at a distance from the edge 12 of the subset. Furthermore, the subset 15 includes data points 2 that are located within the subset 15 and within the subset boundary 12 .

Die Teilmenge 16 umfasst mehrere Datenpunkte 3. Die Teilmenge 17 umfasst mehrere Datenpunkte 4.Subset 16 includes multiple data points 3. Subset 17 includes multiple data points 4.

Ein klassifizierendes KNN, welches Daten aus dem Eingangsdatenraum 19 verarbeitet, würde den Datenpunkten 1 und 2 der Teilmenge 15 beispielsweise einen Gegenstand „Haus“ zuordnen, den Datenpunkten 3 der Teilmenge 16 einen Gegenstand „Baum“ und den Datenpunkten 4 der Teilmenge 17 einen Gegenstand „Fahrzeug“ zuordnen. Befinden sich Datenpunkte in einem Nahbereich 12 an dem Teilmengenrand 11 hat deren Klassifikationsergebnis, also z.B. Haus, eine niedrige Konfidenz, da eine geringe Störung ausreicht um das klassifizierende KNN zu einem anderen Klassifikationsergebnis, z.B. Baum, zu bringen.A classifying ANN, which processes data from the input data space 19, would assign an object “house” to data points 1 and 2 of subset 15, an object “tree” to data points 3 of subset 16 and an object “tree” to data points 4 of subset 17. Assign vehicle". If there are data points in a close range 12 at the edge of the subset 11, their classification result, e.g. house, has a low confidence, since a small amount of interference is sufficient to bring the classifying ANN to a different classification result, e.g. tree.

3 veranschaulicht schematisch eine weitere Ausführungsform der Erfindung. 3 zeigt eine Detailansicht der Partition 13 gemäß 2. In 3 ist ein Datenpunkt 2, der sich innerhalb der Teilmenge 15 und innerhalb des Nahbereichs 12 befindet, dargestellt. Der Datenpunkt 2 wurde von einer Störung 5 gestört, wodurch der Datenpunkt 2 von der Teilmenge 15 in die Teilmenge 16 verschoben wird. Dementsprechend überführt die Störung 5 den Datenpunkt 2 in den Datenpunkt 3 innerhalb der Teilmenge 16. 3 schematically illustrates another embodiment of the invention. 3 shows a detailed view of the partition 13 according to FIG 2 . In 3 a data point 2, which is within the subset 15 and within the vicinity 12, is shown. Data point 2 has been disturbed by disturbance 5, which moves data point 2 from subset 15 to subset 16. Accordingly, disturbance 5 transforms data point 2 into data point 3 within subset 16.

Anschaulich, anhand des vorstehenden Beispiels erläutert, bedeutet dies, dass der vorgegebene Datenpunkt 2 z. B. als Haus klassifiziert wurde und der gestörte Datenpunkt 3 z.B. als Baum klassifiziert wurde. Eine Ausführungsform der Erfindung ermöglicht es, dem Klassifikationsergebnis „Haus“ von Datenpunkt 2 eine niedrige Konfidenz zuzuordnen, wenn die Störung 5, die Datenpunkt 2 in eine andere Entscheidungsregion, also Teilmenge der Partition, überführt hat, gering war.Clearly explained using the above example, this means that the specified data point 2 z. B. was classified as a house and the noisy data point 3 was classified as a tree, for example. An embodiment of the invention makes it possible to assign a low confidence to the classification result “house” of data point 2 if the disturbance 5, which transferred data point 2 to another decision region, ie subset of the partition, was low.

BezugszeichenlisteReference List

S1-S5S1-S5
Verfahrensschritte process steps
1-41-4
Datenpunktedata points
55
StörungDisturbance
1111
Teilmengenrandsubset edge
1313
Partitionpartition
15-1715-17
Teilmengensubsets
1919
Eingangsdatenrauminput data space

Claims (11)

Verfahren zum Ermitteln einer Konfidenz eines klassifizierenden KNN mit den folgenden Schritten: - Vorgeben (S1) von Eingangsdaten, mit welchen das KNN zum Ermitteln eines Klassifikationsergebnisses für die Eingangsdaten gespeist wird; - Vorgeben oder Generieren (S2) von gestörten Eingangsdaten; - Ermitteln (S3) des Klassifikationsergebnis für die vorgegebenen Eingangsdaten mittels des KNN; - Ermitteln (S4) des Klassifikationsergebnis für die gestörten Eingangsdaten mittels des KNN; - Ermitteln (S5) der Konfidenz des Klassifikationsergebnis der vorgegebenen Eingangsdaten, indem das Klassifikationsergebnis der vorgegebenen Eingangsdaten mit den Klassifikationsergebnissen der gestörten Eingangsdaten verglichen wird.Method for determining a confidence of a classifying ANN with the following steps: - Specification (S1) of input data with which the ANN is fed to determine a classification result for the input data; - Specification or generation (S2) of disturbed input data; - Determining (S3) the classification result for the specified input data using the ANN; - Determining (S4) the classification result for the noisy input data using the ANN; - Determining (S5) the confidence of the classification result of the specified input data by comparing the classification result of the specified input data with the classification results of the disturbed input data. Verfahren nach Anspruch 1, wobei eine vorbestimmte Anzahl von gestörten Eingangsdaten mittels eines Rauschprozesses wenigstens einer Wahrscheinlichkeitsverteilung generiert wird.procedure after claim 1 , A predetermined number of disturbed input data being generated by means of a noise process of at least one probability distribution. Verfahren nach einem der vorstehenden Ansprüche, wobei eine oder mehrere Rauschintensitäten vorgegeben werden und für jede Rauschintensität eine vorbestimmte Anzahl von gestörten Eingangsdaten mittels eines Rauschprozesses wenigstens einer Wahrscheinlichkeitsverteilung generiert wird.Method according to one of the preceding claims, wherein one or more noise intensities are specified and a predetermined number of disturbed input data is generated for each noise intensity by means of a noise process of at least one probability distribution. Verfahren nach einem der vorstehenden Ansprüche, wobei die vorgegebenen Eingangsdaten auf Sensordaten basieren, wobei die Sensordaten zum Zwecke einer primären Verwendung des KNN erfasst wurden.Method according to any one of the preceding claims, wherein the predetermined input data is based on sensor data, the sensor data being collected for the purpose of a primary use of the ANN. Verfahren nach einem der vorstehenden Ansprüche 1-3, wobei die vorgegebenen Eingangsdaten eigens zur Ermittlung von Datenpaaren aus Eingangsdaten und einer zugehörigen Konfidenz ausgewählt wurden.A method according to any of the foregoing Claims 1 - 3 , where the given input data was specifically selected to determine data pairs from input data and an associated confidence. Verfahren nach Anspruch 5, wobei ein weiteres KNN zur Ermittlung von Datenpaaren aus Eingangsdaten und einer zugehörigen Konfidenz bereitgestellt wird, während das klassifizierende KNN mit vorgegebenen Eingangsdaten gespeist wird, die auf Sensordaten basieren, wobei die Sensordaten zum Zwecke einer primären Verwendung des KNN erfasst wurden, wobei das weitere KNN mit Datenpaaren aus Eingangsdaten und einer zugehörigen Konfidenz nach Anspruch 5 trainiert wurde.procedure after claim 5 , wherein a further ANN is provided for determining data pairs from input data and an associated confidence, while the classifying ANN is fed with predetermined input data based on sensor data, the sensor data being recorded for the purpose of a primary use of the ANN, the further ANN with data pairs from input data and an associated confidence claim 5 was trained. Verfahren nach Anspruch 5, wobei die Konfidenz von Klassifikationsergebnissen von Eingangsdaten, die auf Sensordaten basieren, wobei die Sensordaten zum Zwecke einer primären Verwendung des KNN erfasst wurden, mittels einer Interpolation von mehreren Datenpaaren aus Eingangsdaten und einer zugehörigen Konfidenz nach Anspruch 5 geschätzt wird.procedure after claim 5 , wherein the confidence of classification results of input data based on sensor data, wherein the sensor data were recorded for the purpose of a primary use of the ANN, by means of an interpolation of multiple data pairs from input data and an associated confidence claim 5 is appreciated. Verfahren nach einem der vorstehenden Ansprüche, wobei die Konfidenz ferner aufgrund eines Maßes eines Unterschiedes zwischen Klassifikationsergebnissen der gestörten und nicht gestörten Eingangsdaten ermittelt wird, wenn sich die Klassifikationsergebnisse der gestörten und nicht gestörten Eingangsdaten unterscheiden.A method according to any one of the preceding claims, wherein the confidence is further determined based on a measure of a difference between classification results of the noisy and non-noiseed input data when the classification results of the noisy and non-noisy input data differ. Verfahren nach einem der vorstehenden Ansprüche, wobei das klassifizierende KNN eine bekannte Topologie aufweist.A method according to any one of the preceding claims, wherein the classifying ANN has a known topology. Verfahren nach einem der vorstehenden Ansprüche 1-8, wobei das klassifizierende KNN eine unbekannte Topologie aufweist und Konfidenzen von Klassifikationsergebnissen des klassifizierenden KNN mittels des Verfahrens nach einem der vorstehenden Ansprüche ermittelt und/oder verifiziert wird.A method according to any of the foregoing Claims 1 - 8th , wherein the classifying ANN has an unknown topology and confidences of classification results of the classifying ANN are determined and/or verified using the method according to one of the preceding claims. Computerprogrammprodukt mit Programmcode-Mitteln, um das Verfahren nach einem der vorstehenden Ansprüche durchzuführen.Computer program product with program code means to carry out the method according to one of the preceding claims.
DE102021200215.3A 2021-01-12 2021-01-12 Determining a confidence of an artificial neural network Pending DE102021200215A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102021200215.3A DE102021200215A1 (en) 2021-01-12 2021-01-12 Determining a confidence of an artificial neural network
PCT/EP2022/050414 WO2022152683A1 (en) 2021-01-12 2022-01-11 Ascertaining a confidence of an artificial neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021200215.3A DE102021200215A1 (en) 2021-01-12 2021-01-12 Determining a confidence of an artificial neural network

Publications (1)

Publication Number Publication Date
DE102021200215A1 true DE102021200215A1 (en) 2022-07-14

Family

ID=80122332

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021200215.3A Pending DE102021200215A1 (en) 2021-01-12 2021-01-12 Determining a confidence of an artificial neural network

Country Status (2)

Country Link
DE (1) DE102021200215A1 (en)
WO (1) WO2022152683A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018200724A1 (en) 2017-04-19 2018-10-25 Robert Bosch Gmbh Method and device for improving the robustness against "Adversarial Examples"
DE102019207575A1 (en) 2019-05-23 2020-11-26 Volkswagen Aktiengesellschaft Method for assessing a function-specific robustness of a neural network

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018200724A1 (en) 2017-04-19 2018-10-25 Robert Bosch Gmbh Method and device for improving the robustness against "Adversarial Examples"
DE102019207575A1 (en) 2019-05-23 2020-11-26 Volkswagen Aktiengesellschaft Method for assessing a function-specific robustness of a neural network

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GONG, Zhitao; WANG, Wenlu; KU, Wei-Shinn: Adversarial and clean data are not twins. In: arXiv preprint arXiv:1704.04960, 2017, 1-7. https://arxiv.org/abs/1704.04960v1 [abgerufen am 17.12.2021]
GROSSE, Kathrin, et al.: On the (statistical) detection of adversarial examples. In: arXiv preprint arXiv:1702.06280, 2017, 1-13. https://arxiv.org/abs/1702.06280v2 [abgerufen am 17.12.2021]

Also Published As

Publication number Publication date
WO2022152683A1 (en) 2022-07-21

Similar Documents

Publication Publication Date Title
DE102018006962A1 (en) Rule definition for black box machine learning models
DE102018128080A1 (en) Method and device for quantizing an artificial neural network
DE112019000340T5 (en) EPISTEMIC AND ALLEATORY DEEP PLASTICITY BASED ON SOUND FEEDBACK
DE102017218889A1 (en) Unarmed parameterized AI module and method of operation
DE10296704T5 (en) Fuzzy inference network for the classification of high-dimensional data
DE112013000966T5 (en) Apparatus, program and method for clustering a plurality of documents
DE112020003050T5 (en) ERROR COMPENSATION IN ANALOG NEURAL NETWORKS
DE102015201690A1 (en) METHOD AND SYSTEMS FOR ANALYZING A FINANCIAL DATA SET
DE102021200012A1 (en) OPTIMIZED QUANTIZATION FOR NEURAL NETWORKS WITH REDUCED RESOLUTION
DE102021124445A1 (en) META-FEATURE TRAINING MODELS FOR MACHINE LEARNING ALGORITHMS
DE102020207449B4 (en) Method, computer program and device for processing signals
DE102021207613A1 (en) Process for quality assurance of a system
DE102013206291A1 (en) Method and apparatus for creating a non-parametric, data-based function model
DE112016007312T5 (en) NETWORK EDUCATION DEVICE AND NETWORK EDUCATION PROCESS
DE102021200215A1 (en) Determining a confidence of an artificial neural network
EP0978052B1 (en) Computer-aided selection of training data for neural networks
DE112020006904T5 (en) Inference device, update method and update program
DE102019114049A1 (en) Method for validating a driver assistance system using further generated test input data sets
EP1114398B1 (en) Method for training a neural network, method for classifying a sequence of input parameters using a neural network, neural network and array for training a neural network
DE102013206285A1 (en) Method and apparatus for creating a non-parametric, data-based function model
DE102022209787A1 (en) Method for training a Generative Adversarial Network
WO2022122307A1 (en) Comparing a first artificial neural network with a second artificial neural network
DE102022206892A1 (en) Method for determining an optimal architecture of an artificial neural network
DE102016113310A1 (en) A method for evaluating statements of a plurality of sources about a plurality of facts
DE102021206183A1 (en) Method for simplifying an artificial neural network

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed