WO2021191115A1 - Quantitative rating of the uncertainty of statements by a classifier - Google Patents

Quantitative rating of the uncertainty of statements by a classifier Download PDF

Info

Publication number
WO2021191115A1
WO2021191115A1 PCT/EP2021/057200 EP2021057200W WO2021191115A1 WO 2021191115 A1 WO2021191115 A1 WO 2021191115A1 EP 2021057200 W EP2021057200 W EP 2021057200W WO 2021191115 A1 WO2021191115 A1 WO 2021191115A1
Authority
WO
WIPO (PCT)
Prior art keywords
assignment
measurement data
evaluation
classifier
data
Prior art date
Application number
PCT/EP2021/057200
Other languages
German (de)
French (fr)
Inventor
Julia Rebecca LUST
Alexandru Paul Condurache
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2021191115A1 publication Critical patent/WO2021191115A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern

Definitions

  • the present invention relates to the automated classification of physical measurement data with which, for example, image data or other observation data can be analyzed for objects that are present in an observed area.
  • Such systems In order for vehicles to be fully or partially automated in road traffic, control systems are required that reliably detect traffic-relevant objects in the vehicle environment and initiate an appropriate response in each case.
  • Such systems usually feed image data or other observation data to a classifier that contains an artificial neural network, ANN.
  • ANN artificial neural network
  • Such a classifier assigns the observation data, such as the image, to one or more classes from a given classification. If, for example, a vehicle can be seen in an image or image area, the image or the image area is assigned to the “vehicle” class.
  • the power of KN Ns to generalize ensures that, for example, vehicles with a modified design that only came onto the market after training the KN Ns are recognized as vehicles.
  • DE 10 2017 218 889 A1 discloses an ANN whose weights are at each use can be drawn from a random distribution. If the same input is fed to this ANN several times, the uncertainty of this output can be inferred from the dispersion of the output.
  • the term “measurement data” includes not only physical measurement data that were recorded in a physical measurement process with at least one sensor, but also measurement data that were generated by a partial or complete simulation of such a measurement process and / or by a partial or complete simulation of one with such a sensor Measurement process observable technical system.
  • the measurement data can also be, for example, realistic synthetic measurement data that can be generated using Generative Adversarial Networks, GANs, for example.
  • GANs Generative Adversarial Networks
  • Such synthetic measurement data are often used to alleviate a shortage of training data. When viewed, they are usually difficult to distinguish from “real” measurement data that were actually physically recorded with a sensor.
  • the classifier comprises at least one artificial neural network, ANN, whose behavior is characterized by classification parameters.
  • the classification parameters can in particular include weights with which inputs that are fed to a neuron or another processing unit of the ANN are calculated to activate this neuron or this other processing unit.
  • a dependency of the assignment provided by the classifier and / or a dependency of a cost function evaluating the correctness of this assignment on the classification parameters is determined.
  • This dependency is determined with at least one trainable evaluation network, whose behavior is characterized by evaluation parameters, mapped onto at least one evaluation variable.
  • This evaluation variable is in turn a measure of the probability p that the assignment determined by the classifier is correct.
  • the evaluation variable can in particular be identical to this probability p.
  • the dependence of the assignment on the classification parameters includes the measurement data itself, the assignment determined for this measurement data by the classifier, the architecture of the ANN and the classification parameters of the ANN, on the basis of which the classifier made the assignment.
  • the method can therefore be used to evaluate the uncertainty of the assignment not only in the fully trained state of the ANN with the final classification parameters, but also at any earlier training level.
  • an evaluation network is able to provide high-dimensional and therefore very detailed information about the dependency of the assignment or the cost function on the classification parameters on a very low-dimensional evaluation variable, such as the one-dimensional probability p to map.
  • the dependency that is processed by the evaluation network can be broken down, for example, into layers of an ANN built up in layers, to which the classification parameters (such as weights) relate. It is precisely the distribution of dependency across the layers that can contain qualitative patterns. The evaluation network can recognize these qualitative patterns and convert them into a quantitative statement about the uncertainty.
  • the uncertainty could also be determined on the basis of the dependency of the assignment or the cost function on the measurement data itself.
  • the classification parameters are not only transparent and accessible parameters in the layer that received the measurement data, but also in the deeper layers.
  • the measurement data itself only has an immediate effect on the first layer, while all lower layers work with processing products of this measurement data.
  • cost function is not to be understood as restrictive to the effect that the correctness of the assignment must be assessed using “ground truth”. “Ground truth” indicates for specific measurement data which target classification the classifier should ideally assign to this specific measurement data, and can be used if it is available.
  • the cost function can measure in any way the extent to which the assignment of the measurement data to one or more classes is intrinsically plausible and / or to what extent it has come about in an intrinsically plausible manner.
  • a cost function is more flexible than a direct evaluation of the assignment itself.
  • the assignment ultimately provided by the classifier includes the specification of one or more discrete classes that match the measurement data, and for this reason alone cannot be a continuous function in the classification parameters.
  • discontinuous activation functions such as ReLU
  • a cost function can be specifically formulated as a continuous function so that, for example, its gradient always exists in the classification parameters.
  • the dependency comprises at least one gradient of the assignment, or of the cost function, according to at least one of the classification parameters. Since products of inputs and weights are added up when calculating the activation of a neuron or other processing unit in the ANN, the gradient according to the classification parameters also provides information about how sensitively the assignment, or the cost function, depends on the input measurement data .
  • the dependency is represented by a vector or a matrix.
  • this vector or in this matrix, each row or column only depends on Classification parameters from exactly one layer of the ANN.
  • the dependency can be broken down particularly well according to layers of the ANN, so that the evaluation network, as described above, can recognize patterns in the distribution of the dependency over the layers.
  • each row or column of the matrix can contain the gradients of the assignment, or the cost function, according to all classification parameters (such as weights) of exactly one layer of the ANN.
  • contributions to the dependency that depend on the classification parameters of each layer are compressed into a scalar assigned to this layer in the vector or the matrix. In this way, the dependency remains broken down into layers of the ANN, while at the same time the amount of information relating to this dependency is significantly compressed.
  • the scalar can in particular be formed with the contributions, for example, as the norm of a vector.
  • the row or column of the matrix that contains the gradients according to the classification parameters of a layer can be written as a vector and the norm of this vector (for example 1 norm) can be formed.
  • a cost function is selected that depends both on an assignment of the physical measurement data, or a processing product of this physical measurement data, to several classes by the ANN and on a class of the ANN selected by the classifier. In this way, it can be evaluated in particular how strongly the discretization, which follows the processing of the measurement data with the ANN, affects only one class by the classifier on the end result. This is an indicator of the uncertainty that does not require a “ground truth” with regard to a target assignment.
  • KN Ns used in classifiers provide a vectorial “Softmax Score” of probabilities with which the entered measurement data from the perspective of the ANN of each of the available classes belong.
  • the classifier can then output the class with the highest probability as an assignment.
  • the classifier uses the probability of 0.98 for the third class to select this third class for the assignment to this specific measurement data.
  • the gradient with respect to the classification parameter q hi, ..., qi determine, for example by way of back propagation by the NN.
  • a large difference between the Softmax Score F (x) on the one hand and the final class assignment y on the other hand affects the gradients in all layers 1, ..., n of the ANN.
  • a Softmax Score F (x) can also be used in the cost function L, which the ANN determines for a processing product x of the measurement data x.
  • the Class assignment y can still be determined on the basis of F (x), but then compared with F (x).
  • the processing product x can in particular be formed from the actual measurement data x, for example, by any desired noise reduction method. As a noise reduction method, for example
  • a threshold-based filtering (thresholding) of a representation of the measurement data x in wavelet coefficients can be used.
  • the gradients V 01 L, ..., V 0n L of the cost function L can be determined with respect to the classification parameters qi, ..., q h of each layer 1, ..., n of the ANN for each layer Aggregate 1, ..., n with a norm to a scalar.
  • the dependence V 0 L (0, F (x), y) of the cost function L on the classification parameters Q can then be summarized in a vector:
  • This vector can be mapped to the evaluation variable by the evaluation network.
  • the evaluation network comprises at least one logistic regression network which maps the dependence on a probability p that the assignment determined by the classifier is correct.
  • a logistic regression network is very parameter efficient.
  • the dependency V 0 L (0, F (x), y) for an ANN with n layers is represented by a vector of length n
  • only n + 1 parameters are required for the logistic regression network. Accordingly, the space in which the optimal configuration of these parameters is to be sought when training the regression network is comparatively low-dimensional.
  • the evaluation network can comprise at least one classification network which maps the dependency on at least one evaluation level for the probability p.
  • the probability p can, for example, be classified as binary (for example “okay” / “not okay”) or corresponding to the significance for the at least partially automated driving (for example “okay” / “information” / “warning” / “alarm”) .
  • At least one evaluation network is selected on the basis of the assignment output by the classifier.
  • the accuracy of the assessment of the extent to which the assignment by the classifier is correct can be improved even further.
  • objects of many different types e.g. vehicles, traffic signs, people, lane boundaries
  • the assessment of whether the respective assignment to the classes subordinate to these types is then expediently divided into types.
  • the evaluation variable fulfills a predefined criterion, that is to say, for example, the probability p for a correct assignment falls below a predefined threshold value
  • various measures can be taken.
  • a warning can be issued to a user of the vehicle, the user can be requested to take control, or the vehicle can be brought to a stop on the emergency stop trajectory provided for a system failure.
  • Conspicuous uncertainties identified with the method can have various causes. For example, the image quality delivered by a camera system can be too poor for a reliable classification due to unfavorable weather conditions. There may also be a situation for which the ANN of the classifier has not been adequately trained. In the context of at least partially automated driving, these are, for example, “corner cases”, ie traffic situations that occur only rarely, but are then associated with particular hazards. The new creation of traffic signs by the legislator can also give rise to uncertainties in the classification.
  • KN Ns to generalize basically opens up the possibility of attacks with manipulation of the appearance of traffic signs, for example, which a person hardly notices but which lead to a completely wrong classification.
  • the "right" stickers for example, it can be provoked that a stop sign is classified as a 70 km / h sign.
  • a semi-permeable film with the “correct” point pattern on the camera lens can cause a classifier to completely ignore pedestrians, for example.
  • the method is therefore repeated in response to the fact that the evaluation variable fulfills a predefined criterion, replacing the ANN of the classifier with another ANN which has undergone different training and / or which has a different architecture. If a classification with a significantly lower uncertainty is obtained here, then this can be used for further processing (e.g. for trajectory planning). If the other ANN can classify the same measurement data more accurately, this also provides information on the possible cause of the error. It is most likely that either the training of the CNN used first was not up-to-date or insufficient, or that an attack with an "adversarial example" was attempted.
  • further measurement data can be recorded with at least one sensor, and the method can be repeated with this additional measurement data. If, for example, a radar system classifies an object that was previously classified only with great uncertainty on a camera image differently with great certainty, the most likely cause is that the camera image was too bad.
  • the measurement data can in particular be, for example, optical image data, thermal image data, video data, radar data, ultrasound data, and / or LIDAR data. These are the most important types of measurement data with which at least partially automated vehicles orientate themselves in the traffic area.
  • the measurement data can be obtained through a physical measurement process and / or through a partial or complete simulation of such a measurement process and / or through a partial or complete simulation of a technical system that can be observed with such a measurement process.
  • a control signal can be formed from the assignment in combination with the evaluation variable, and a vehicle and / or a Classification system, and / or a system for quality control of mass-produced products, and / or a system for medical imaging, and / or an access control system, can be controlled with this control signal.
  • an attempt to deceive an access control system with a photo of an authorized person or with a copied fingerprint can be detected.
  • the photo or the fingerprint is assigned to the authorized person, but the uncertainty, which is expressed in a reduced probability p for correct classification, reflects that the copy is not perfect.
  • the invention also relates to a method for training an evaluation network that can be used when the method described above is carried out.
  • the method described above is used to determine an assignment of this training measurement data to one or more classes and an evaluation variable for this assignment.
  • an actual state is determined to what extent the assignment is correct.
  • the evaluation parameters are optimized in such a way that the evaluation variable supplied by the evaluation network correlates with the actual state in accordance with an evaluation cost function.
  • the possibility of quantitatively determining the uncertainty of a classification can also be used to “labein” training data for classifiers with class assignments.
  • the invention thus also relates to a method for generating training data for classifiers which assign measurement data to one or more classes of a predetermined classification.
  • the method described based on measurement data, the method described first is used to determine both an assignment of this measurement data to one or more classes and an evaluation variable for this assignment.
  • the measurement data are added to the training data in association with the assignment.
  • KN Ns The power of KN Ns to generalize lives from the fact that training data with sufficient variability are used during training.
  • the ANN has to process many images of vehicles of different types that were taken under many different conditions in order to be able to recognize new vehicles.
  • the biggest cost driver for the procurement of such images is the manual “labeling” of these images with the class assignment, in this example the assignment to the class “vehicle”. From a large number of unsorted images, the method can now be used to filter out those images that have been classified into the “vehicle” class with a sufficiently high degree of certainty. These images can be added to the training data in association with the "Vehicle" label.
  • the methods can be implemented in whole or in part by a computer.
  • the invention therefore also relates to a computer program with machine-readable instructions which, when they are executed on one or more computers, cause the computer or computers to carry out one of the described methods.
  • control devices for vehicles and embedded systems for technical devices which are also able to execute machine-readable instructions, are to be regarded as computers.
  • the invention also relates to a machine-readable data carrier and / or to a download product with the computer program.
  • a download product is a digital product that can be transmitted via a data network, ie can be downloaded by a user of the data network and that can be offered for sale for immediate download in an online shop, for example.
  • a computer can be equipped with the computer program, with the machine-readable data carrier or with the download product.
  • FIG. 1 exemplary embodiment of the method 100 for evaluating the uncertainty of an assignment 3 of measurement data 2 to classes 3a-3c;
  • FIG. 2 an illustration of the calculation process from measurement data 2 up to evaluation variable 7 for the uncertainty
  • FIG. 3 exemplary embodiment of the method 200 for training an evaluation network 6 for use in the method 100;
  • FIG. 4 exemplary embodiment of the method 300 for generating training data 2 *.
  • FIG. 1 is a schematic flow diagram of an exemplary embodiment of the method 100.
  • the uncertainty with which the assignment 3 of measurement data 2 to one or more classes 3a-3c is afflicted by a classifier is assessed in the form of an assessment variable 7.
  • measurement data 2 according to step 105, optical image data, thermal image data, video data, radar data, ultrasound data, and / or LIDAR data that are generated by a physical measurement process, and / or by a partial or complete simulation of such a measurement process, and / or by a partial or full simulation of a technical system that can be observed with such a measurement process can be selected.
  • step 110 the measurement data, the assignment 3 to classes 3a-3c determined for this measurement data 2 by the classifier 1, the classification parameters 11a of the ANN 11 of the classifier 1 and the architecture 11b of this ANN 1 are combined.
  • a dependency 4, 4a of the assignment 3 and / or a dependency 4, 4b of a cost function 5, which evaluates the correctness of this assignment, on the classification parameters 11a is determined.
  • the classifier 1 can be applied to the measurement data 2 during the execution of the method 100. However, this is not absolutely necessary.
  • the method 100 can also work solely on the basis of results from the classifier 1 that have already been completed.
  • this determined dependency 4, 4a, 4b is mapped to at least one evaluation variable 7 with at least one trainable evaluation network 6.
  • This evaluation variable 7 is a measure of the probability p that the assignment 3 determined by the classifier 1 is correct.
  • the method according to step 140 can replace the ANN 11 of the classifier 1 with a differently trained and / or differently structured ANN 11 ' be repeated.
  • further measurement data 2 ' can be recorded with at least one sensor according to step 150, and the method can be repeated according to step 160 with these further measurement data.
  • a control signal 8 can be formed in accordance with step 170.
  • a vehicle 50, and / or a classification system 60, and / or a system 70 for quality control of mass-produced products, and / or a system 80 for medical imaging, and / or an access control system 90 can be used with this Control signal 8 can be controlled.
  • a few exemplary configurations for determining the evaluation variable 7 are shown within the box 110.
  • the dependency 4 can comprise at least one gradient of the assignment 3, or the cost function 5, according to at least one of the classification parameters 11a.
  • the dependency 4 can be represented by a vector or a matrix.
  • this vector, or in this matrix each row or each column depends only on classification parameters 11a of exactly one layer of the ANN 11.
  • contributions to the dependency 4, which depend on the classification parameters 11a of each layer can then be compressed into a scalar assigned to this layer in the vector or the matrix. This in turn can be done according to block 113a by forming a norm of a vector with the contributions.
  • a cost function 5 can be selected which is derived from an assignment 3 'of the measurement data 2, or a processing product 2a of this measurement data 2, to several classes 3a-3c by the ANN 11 as well as from a class 3a selected by the classifier 1 -3c depends.
  • At least one logistic regression network that maps the dependency 4 to a probability p that the assignment 3 determined by the classifier 1 is correct, and / or
  • At least one evaluation network 6 can be selected on the basis of assignment 3.
  • a separate evaluation network 6 can be used for each class 3a-3c.
  • FIG. 2 uses an exemplary embodiment to once again illustrate the calculation process from measurement data 2 to evaluation variable 7.
  • the KNN 11 of the classifier 1 is first applied to the measurement data 2, x in the forward direction (arrow from left to right) in order to obtain an assignment F (x), 3 'of this measurement data 2 to classes 3a-3c. On the basis of this assignment 3 ', the classifier selects a single class 3a-3c as the final assignment y, 3.
  • a processing product 2a, x is generated from the measurement data 2, x by de-noise.
  • the ANN 11 is in turn applied to this processing product 2a, x in the forward direction.
  • the result is again an assignment 3 ', F (x) of the processing product 2a, x to classes 3a-3c.
  • the cost function 5 has the form L (0, F (x), y). Its gradient V 0 L (0, F (x), y) is successively calculated by the ANN 11 by means of back propagation (arrow pointing to the left). The gradients with respect to the parameters qi, ..., q h of each layer 1, ..., n are compressed by forming the 1-norm and combined in a vector with one component per layer 1, ..., n . This vector represents the dependency 4, 4b. It is fed to the evaluation network 6, which in turn determines the evaluation variable 7 (here: the probability p) from this.
  • FIG. 3 is a schematic flow diagram of an exemplary embodiment of the method 200 for training the evaluation network 6.
  • step 210 the method 100 described in connection with FIG. 1 is used to determine an assignment 3 of training measurement data 2 * to one or more classes and an evaluation variable 7 for this assignment 3.
  • step 220 by comparing the assignment 3 determined by the classifier 1 with a nominal assignment 3 * known for the training measurement data 2 *, an actual state 7 * is determined to what extent the assignment 3 is correct.
  • the evaluation parameters 6a are optimized in such a way that the evaluation variable 7 supplied by the evaluation network 6 correlates with the actual state 7 * in accordance with an evaluation cost function 8. This means that an assignment 3 corresponding to the target assignment 3 * should be assessed by the assessment variable 7 with a higher probability p of being true than an assignment 3 that does not correspond to the target assignment 3 * and is therefore objectively incorrect Extend over a large amount of training measurement data 2 *.
  • step 210 After each optimization step of the evaluation parameter 6a, a branch is made back to step 210 in order to update the evaluation variable 7. If the optimization has ended in accordance with any predetermined termination criterion, the trained state 6a * of the evaluation parameters 6a is present.
  • FIG. 4 is a schematic flow diagram of an exemplary embodiment of the method 300 for generating training data 2 * for classifiers 1.
  • step 310 the method 100 described in connection with FIG. 1 is used to determine both an assignment 3 of measurement data 2 to one or more classes 3a-3c and an evaluation variable 7 for this assignment 3.
  • step 320 it is checked whether this evaluation variable 7 fulfills a predefined condition. If this is the case (truth value 1), the measurement data 2 in association with the assignment 3 are added to the training data 2 *.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

A method (100) for rating the uncertainty afflicting the association (3) of measurement data (2) with one or more classes (3a-3c) of a predefined classification by a classifier (1), this classifier (1) comprising at least one artificial neural network, ANN (11), the behaviour of which is characterized by classification parameters (11a), having the steps of: • the measurement data (2), the association (3) ascertained for these measurement data (2) by the classifier (1) and the classification parameters (11a) and architecture (11b) of the ANN (11) are used to ascertain (110) a dependency (4, 4a) of the association (3), and/or a dependency (4, 4b) of a cost function (5) rating the correctness of this association (3), on the classification parameters (11a); • the ascertained dependency (4) is mapped (120) to at least one rating variable (7), which is a measure of the probability p of the association (3) ascertained by the classifier (1) being correct, using at least one trainable rating network (6), the behaviour of which is characterized by rating parameters (6a).

Description

Beschreibung description
Titel: Title:
Quantitative Bewertung der Unsicherheit von Aussagen eines Klassifikators Quantitative evaluation of the uncertainty of statements of a classifier
Die vorliegende Erfindung betrifft die automatisierte Klassifikation physikalischer Messdaten, mit der beispielsweise Bilddaten oder andere Beobachtungsdaten auf Objekte analysiert werden können, die in einem beobachteten Bereich vorhanden sind. The present invention relates to the automated classification of physical measurement data with which, for example, image data or other observation data can be analyzed for objects that are present in an observed area.
Stand der Technik State of the art
Damit Fahrzeuge ganz oder teilweise automatisiert am Straßenverkehr teilnehmen können, werden Steuerungssysteme benötigt, die verkehrsrelevante Objekte im Fahrzeugumfeld zuverlässig erkennen und eine jeweils angemessene Reaktion einleiten. Derartige Systeme führen Bilddaten oder andere Beobachtungsdaten in der Regel einem Klassifikator zu, der ein künstliches neuronale Netzwerk, KNN, enthält. Ein solcher Klassifikator ordnet die Beobachtungsdaten, etwa das Bild, einer oder mehreren Klassen aus einer vorgegebenen Klassifikation zu. Ist beispielsweise in einem Bild oder Bildbereich ein Fahrzeug zu sehen, wird das Bild, bzw. der Bildbereich, der Klasse „Fahrzeug“ zugeordnet. Dabei sorgt die Kraft von KN Ns zur Verallgemeinerung dafür, dass beispielsweise auch Fahrzeuge mit verändertem Design, die erst nach dem Training des KN Ns auf den Markt gekommen sind, als Fahrzeuge erkannt werden. In order for vehicles to be fully or partially automated in road traffic, control systems are required that reliably detect traffic-relevant objects in the vehicle environment and initiate an appropriate response in each case. Such systems usually feed image data or other observation data to a classifier that contains an artificial neural network, ANN. Such a classifier assigns the observation data, such as the image, to one or more classes from a given classification. If, for example, a vehicle can be seen in an image or image area, the image or the image area is assigned to the “vehicle” class. The power of KN Ns to generalize ensures that, for example, vehicles with a modified design that only came onto the market after training the KN Ns are recognized as vehicles.
Für die Betriebssicherheit ist es wichtig zu wissen, ob diese Verallgemeinerung in jedem Fall tatsächlich auf die richtige Klasse führt. Rauschen und andere Störungen in den Beobachtungsdaten können ebenso wie bewusste Manipulationen mit sogenannten „adversarial examples“ zu Fehlklassifikationen führen. Die DE 10 2017 218 889 Al offenbart ein KNN, dessen Gewichte bei jeder Verwendung aus einer zufälligen Verteilung gezogen werden. Wird diesem KNN ein und dieselbe Eingabe mehrfach zugeführt, kann aus der Streuung der Ausgabe auf die Unsicherheit dieser Ausgabe geschlossen werden. For operational safety, it is important to know whether this generalization actually leads to the right class in each case. Noise and other disturbances in the observation data as well as deliberate manipulations with so-called "adverse examples" can lead to incorrect classifications. DE 10 2017 218 889 A1 discloses an ANN whose weights are at each use can be drawn from a random distribution. If the same input is fed to this ANN several times, the uncertainty of this output can be inferred from the dispersion of the output.
Offenbarung der Erfindung Disclosure of the invention
Im Rahmen der Erfindung wurde ein Verfahren zur Bewertung der Unsicherheit, mit der die Zuordnung physikalischer Messdaten zu einer oder mehreren Klassen einer vorgegebenen Klassifikation durch einen Klassifikator behaftet ist, entwickelt. In the context of the invention, a method for evaluating the uncertainty associated with the assignment of physical measurement data to one or more classes of a given classification by a classifier was developed.
Hierbei umfasst der Begriff „Messdaten“ neben physikalischen Messdaten, die in einem physikalischen Messprozess mit mindestens einem Sensor aufgenommen wurden, auch Messdaten, die durch eine teilweise oder vollständige Simulation eines solchen Messprozesses, und/oder durch eine teilweise oder vollständige Simulation eines mit einem solchen Messprozess beobachtbaren technischen Systems, erhalten wurden. Die Messdaten können beispielsweise auch realistische synthetische Messdaten sein, die sich etwa mittels Generative Adversarial Networks, GANs, erzeugen lassen. Derartige synthetische Messdaten werden häufig verwendet, um eine Knappheit an Trainingsdaten zu lindern. Sie lassen sich bei Betrachtung in der Regel nur schwierig von „echten“ Messdaten, die tatsächlich physikalisch mit einem Sensor erfasst wurden, unterscheiden. Here, the term “measurement data” includes not only physical measurement data that were recorded in a physical measurement process with at least one sensor, but also measurement data that were generated by a partial or complete simulation of such a measurement process and / or by a partial or complete simulation of one with such a sensor Measurement process observable technical system. The measurement data can also be, for example, realistic synthetic measurement data that can be generated using Generative Adversarial Networks, GANs, for example. Such synthetic measurement data are often used to alleviate a shortage of training data. When viewed, they are usually difficult to distinguish from “real” measurement data that were actually physically recorded with a sensor.
Der Klassifikator umfasst mindestens ein künstliches neuronales Netzwerk, KNN, dessen Verhalten durch Klassifikations- Parameter charakterisiert ist. Die Klassifikations- Parameter können insbesondere Gewichte umfassen, mit denen Eingaben, die einem Neuron oder einer anderen Verarbeitungseinheit des KNN zugeführt werden, zu einer Aktivierung dieses Neurons bzw. dieser anderen Verarbeitungseinheit verrechnet werden. The classifier comprises at least one artificial neural network, ANN, whose behavior is characterized by classification parameters. The classification parameters can in particular include weights with which inputs that are fed to a neuron or another processing unit of the ANN are calculated to activate this neuron or this other processing unit.
Bei dem Verfahren wird eine Abhängigkeit der vom Klassifikator gelieferten Zuordnung, und/oder eine Abhängigkeit einer die Korrektheit dieser Zuordnung bewertenden Kostenfunktion, von den Klassifikations- Parametern ermittelt. Diese Abhängigkeit wird mit mindestens einem trainierbaren Bewertungs-Netzwerk, dessen Verhalten durch Bewertungs- Parameter charakterisiert ist, auf mindestens eine Bewertungsgröße abgebildet. Diese Bewertungsgröße ist wiederum ein Maß für die Wahrscheinlichkeit p, dass die durch den Klassifikator ermittelte Zuordnung korrekt ist. Die Bewertungsgröße kann insbesondere mit dieser Wahrscheinlichkeit p identisch sein. In the method, a dependency of the assignment provided by the classifier and / or a dependency of a cost function evaluating the correctness of this assignment on the classification parameters is determined. This dependency is determined with at least one trainable evaluation network, whose behavior is characterized by evaluation parameters, mapped onto at least one evaluation variable. This evaluation variable is in turn a measure of the probability p that the assignment determined by the classifier is correct. The evaluation variable can in particular be identical to this probability p.
In die Abhängigkeit der Zuordnung von den Klassifikations- Parametern gehen die Messdaten selbst, die für diese Messdaten durch den Klassifikator ermittelte Zuordnung, die Architektur des KNN sowie die Klassifikations- Parameter des KNN, auf deren Grundlage der Klassifikator die Zuordnung vorgenommen hat, ein. Mit dem Verfahren kann also die Unsicherheit der Zuordnung nicht nur im fertig trainierten Zustand des KNN mit den finalen Klassifikations- Parametern, sondern auch bei einem beliebigen früheren Trainingsstand bewertet werden. The dependence of the assignment on the classification parameters includes the measurement data itself, the assignment determined for this measurement data by the classifier, the architecture of the ANN and the classification parameters of the ANN, on the basis of which the classifier made the assignment. The method can therefore be used to evaluate the uncertainty of the assignment not only in the fully trained state of the ANN with the final classification parameters, but also at any earlier training level.
Es wurde erkannt, dass ein Bewertungs- Netzwerk in der Lage ist, auch eine hoch dimensionale und somit sehr detaillierte Information über die Abhängigkeit der Zuordnung, bzw. der Kostenfunktion, von den Klassifikations- Parametern auf eine sehr niederdimensionale Bewertungsgröße, wie beispielsweise die eindimensionale Wahrscheinlichkeit p, abzubilden. Insbesondere kann die Abhängigkeit, die von dem Bewertungs-Netzwerk verarbeitet wird, beispielsweise nach Schichten eines schichtweise aufgebauten KNN aufgeschlüsselt sein, auf die sich die Klassifikations- Parameter (wie etwa Gewichte) beziehen. Gerade die Verteilung der Abhängigkeit über die Schichten kann qualitative Muster enthalten. Das Bewertungs- Netzwerk kann diese qualitativen Muster erkennen und in eine quantitative Aussage über die Unsicherheit ummünzen. It was recognized that an evaluation network is able to provide high-dimensional and therefore very detailed information about the dependency of the assignment or the cost function on the classification parameters on a very low-dimensional evaluation variable, such as the one-dimensional probability p to map. In particular, the dependency that is processed by the evaluation network can be broken down, for example, into layers of an ANN built up in layers, to which the classification parameters (such as weights) relate. It is precisely the distribution of dependency across the layers that can contain qualitative patterns. The evaluation network can recognize these qualitative patterns and convert them into a quantitative statement about the uncertainty.
Prinzipiell ließe sich die Unsicherheit auch anhand der Abhängigkeit der Zuordnung, bzw. der Kostenfunktion, von den Messdaten selbst ermitteln. Indem jedoch die Klassifikations- Parameter als Variablen gewählt werden, ist die Verteilung der Abhängigkeit über die Schichten besser erfassbar. Die Klassifikations- Parameter sind nicht nur in der Schicht, die die Messdaten entgegengenommen hat, sondern auch in tieferen Schichten transparente und zugängliche Parameter. Die Messdaten selbst wirken hingegen unmittelbar nur auf die erste Schicht, während alle tieferen Schichten mit Verarbeitungsprodukten dieser Messdaten arbeiten. Der Begriff „Kostenfunktion“ ist nicht dahingehend einschränkend zu verstehen, dass die Korrektheit der Zuordnung grundsätzlich unter Heranziehung von „ground truth“ bewertet werden muss. „Ground truth“ gibt zu konkreten Messdaten an, welche Soll- Klassifikation der Klassifikator diesen konkreten Messdaten idealerweise zuordnen sollte, und kann verwendet werden, sofern sie verfügbar ist. Es ist jedoch auch ohne „ground truth“ möglich, die Korrektheit der Zuordnung zu bewerten oder zumindest abzuschätzen. Beispielsweise kann die Kostenfunktion in beliebiger Weise messen, inwieweit die Zuordnung der Messdaten zu einer oder mehreren Klassen in sich plausibel ist, und/oder inwieweit sie auf einem in sich plausiblen Weg zu Stande gekommen ist. In principle, the uncertainty could also be determined on the basis of the dependency of the assignment or the cost function on the measurement data itself. However, by choosing the classification parameters as variables, the distribution of the dependency over the layers can be better understood. The classification parameters are not only transparent and accessible parameters in the layer that received the measurement data, but also in the deeper layers. In contrast, the measurement data itself only has an immediate effect on the first layer, while all lower layers work with processing products of this measurement data. The term “cost function” is not to be understood as restrictive to the effect that the correctness of the assignment must be assessed using “ground truth”. “Ground truth” indicates for specific measurement data which target classification the classifier should ideally assign to this specific measurement data, and can be used if it is available. However, it is also possible without “ground truth” to evaluate or at least estimate the correctness of the assignment. For example, the cost function can measure in any way the extent to which the assignment of the measurement data to one or more classes is intrinsically plausible and / or to what extent it has come about in an intrinsically plausible manner.
Die Auswertung einer Kostenfunktion ist gegenüber einer direkten Auswertung der Zuordnung selbst flexibler. In vielen Anwendungen umfasst die letztendlich vom Klassifikator gelieferte Zuordnung die Angabe einer oder mehrerer diskreter Klassen, die zu den Messdaten passen, und kann schon allein deswegen keine stetige Funktion in den Klassifikations- Parametern sein. Auch die Nutzung unstetiger Aktivierungsfunktionen, wie etwa ReLU, in dem KNN führt dazu, dass die Ausgabe des KNN keine stetige Funktion mehr in den Klassifikations- Parametern ist. Eine Kostenfunktion lässt sich hingegen gezielt als stetige Funktion formulieren, damit beispielsweise ihr Gradient in den Klassifikations- Parametern immer existiert. The evaluation of a cost function is more flexible than a direct evaluation of the assignment itself. In many applications, the assignment ultimately provided by the classifier includes the specification of one or more discrete classes that match the measurement data, and for this reason alone cannot be a continuous function in the classification parameters. The use of discontinuous activation functions, such as ReLU, in the ANN also means that the output of the ANN is no longer a continuous function in the classification parameters. A cost function, on the other hand, can be specifically formulated as a continuous function so that, for example, its gradient always exists in the classification parameters.
In einer besonders vorteilhaften Ausgestaltung umfasst die Abhängigkeit mindestens einen Gradienten der Zuordnung, bzw. der Kostenfunktion, nach mindestens einem der Klassifikations- Parameter. Da bei der Berechnung der Aktivierung eines Neurons oder einer anderen Verarbeitungseinheit im KNN Produkte aus Eingaben und Gewichten aufsummiert werden, liefert der Gradient nach den Klassifikations- Parametern auch eine Aussage darüber, wie empfindlich die Zuordnung, bzw. die Kostenfunktion, von den eingegebenen Messdaten abhängt. In a particularly advantageous embodiment, the dependency comprises at least one gradient of the assignment, or of the cost function, according to at least one of the classification parameters. Since products of inputs and weights are added up when calculating the activation of a neuron or other processing unit in the ANN, the gradient according to the classification parameters also provides information about how sensitively the assignment, or the cost function, depends on the input measurement data .
Dabei ist in einer weiteren besonders vorteilhaften Ausgestaltung die Abhängigkeit durch einen Vektor oder eine Matrix repräsentiert. Dabei hängt in diesem Vektor, bzw. in dieser Matrix, jede Zeile oder jede Spalte nur von Klassifikations- Parametern genau einer Schicht des KNN ab. Auf diese Weise lässt sich die Abhängigkeit besonders gut nach Schichten des KNN aufschlüsseln, so dass das Bewertungs- Netzwerk, wie eingangs beschrieben, gerade in der Verteilung der Abhängigkeit über die Schichten Muster erkennen kann. Beispielsweise kann jede Zeile oder Spalte der Matrix die Gradienten der Zuordnung, bzw. der Kostenfunktion, nach allen Klassifikations-Parametern (etwa Gewichten) genau einer Schicht des KNN enthalten. In a further particularly advantageous embodiment, the dependency is represented by a vector or a matrix. In this vector, or in this matrix, each row or column only depends on Classification parameters from exactly one layer of the ANN. In this way, the dependency can be broken down particularly well according to layers of the ANN, so that the evaluation network, as described above, can recognize patterns in the distribution of the dependency over the layers. For example, each row or column of the matrix can contain the gradients of the assignment, or the cost function, according to all classification parameters (such as weights) of exactly one layer of the ANN.
In einerweiteren besonders vorteilhaften Ausgestaltung werden Beiträge zu der Abhängigkeit, die von den Klassifikations- Parametern einer jeden Schicht abhängen, zu einem dieser Schicht zugeordneten Skalar in dem Vektor bzw. der Matrix verdichtet werden. Auf diese Weise bleibt die Abhängigkeit nach Schichten des KNN aufgeschlüsselt, während zugleich die Informationsmenge in Bezug auf diese Abhängigkeit deutlich verdichtet wird. In a further particularly advantageous embodiment, contributions to the dependency that depend on the classification parameters of each layer are compressed into a scalar assigned to this layer in the vector or the matrix. In this way, the dependency remains broken down into layers of the ANN, while at the same time the amount of information relating to this dependency is significantly compressed.
Der Skalar kann insbesondere beispielsweise als Norm eines Vektors mit den Beiträgen gebildet werden. In dem zuvor genannten Beispiel kann also die Zeile bzw. Spalte der Matrix, die die Gradienten nach den Klassifikations- Parametern einer Schicht enthält, als Vektor geschrieben und die Norm dieses Vektors (beispielsweise 1-Norm) gebildet werden. The scalar can in particular be formed with the contributions, for example, as the norm of a vector. In the example mentioned above, the row or column of the matrix that contains the gradients according to the classification parameters of a layer can be written as a vector and the norm of this vector (for example 1 norm) can be formed.
In einer besonders vorteilhaften Ausgestaltung wird eine Kostenfunktion gewählt, die sowohl von einer Zuordnung der physikalischen Messdaten, oder eines Verarbeitungsprodukts dieser physikalischen Messdaten, zu mehreren Klassen durch das KNN als auch von einer durch den Klassifikator ausgewählten Klasse des KNN abhängt. Auf diese Weise kann insbesondere ausgewertet werden, wie stark sich die der Verarbeitung der Messdaten mit dem KNN nachgeschaltete Diskretisierung auf nur noch eine Klasse durch den Klassifikator auf das Endergebnis auswirkt. Dies ist ein Indikator für die Unsicherheit, der keine „ground truth“ hinsichtlich einer Soll-Zuordnung benötigt. In a particularly advantageous embodiment, a cost function is selected that depends both on an assignment of the physical measurement data, or a processing product of this physical measurement data, to several classes by the ANN and on a class of the ANN selected by the classifier. In this way, it can be evaluated in particular how strongly the discretization, which follows the processing of the measurement data with the ANN, affects only one class by the classifier on the end result. This is an indicator of the uncertainty that does not require a “ground truth” with regard to a target assignment.
So liefern beispielsweise viele für in Klassifikatoren verwendete KN Ns einen vektoriellen „Softmax-Score“ von Wahrscheinlichkeiten, mit denen die eingegebenen Messdaten aus der Sicht des KNN jeder der verfügbaren Klassen angehören. Der Klassifikator kann dann etwa die Klasse mit der höchsten Wahrscheinlichkeit als Zuordnung ausgeben. For example, many of the KN Ns used in classifiers provide a vectorial “Softmax Score” of probabilities with which the entered measurement data from the perspective of the ANN of each of the available classes belong. The classifier can then output the class with the highest probability as an assignment.
Wenn beispielsweise fünf Klassen zur Verfügung stehen und der vom KNN ermittelte Softmax-Score für konkrete Messdaten x der Vektor F(x)=(0,05, 0,05, 0,98, 0,05, 0,05) ist, dann wählt der Klassifikator anhand der Wahrscheinlichkeit von 0,98 für die dritte Klasse diese dritte Klasse für die Zuordnung zu diesen konkreten Messdaten aus. Die Zuordnung kann dann beispielswiese der Vektor y=(0, 0, 1, 0, 0) sein, der nur in seiner dritten Komponente verschieden ist. In diesem Beispiel ist es recht eindeutig, dass die Wahl der dritten Klasse plausibel ist. Wenn für die gleichen Messdaten hingegen F(x)=(0,2, 0,19, 0,21, 0,2, 0,2) als Softmax-Score ermittelt wird, liefert der Klassifikator am Ende als Zuordnung den gleichen Vektor (0, 0, 1, 0,0). Es ist aber dann deutlich weniger plausibel, dass gerade die dritte Klasse ausgezeichnet sein soll. If, for example, five classes are available and the softmax score determined by the ANN for specific measurement data x is the vector F (x) = (0.05, 0.05, 0.98, 0.05, 0.05), then the classifier uses the probability of 0.98 for the third class to select this third class for the assignment to this specific measurement data. The assignment can then be, for example, the vector y = (0, 0, 1, 0, 0), which is only different in its third component. In this example it is quite clear that the choice of third grade is plausible. If, on the other hand, F (x) = (0.2, 0.19, 0.21, 0.2, 0.2) is determined as the Softmax score for the same measurement data, the classifier returns the same vector ( 0, 0, 1, 0.0). However, it is then much less plausible that the third class in particular should be excellent.
Dies lässt sich beispielsweise mit einer Kostenfunktion („Löss- Funktion“) L der Form This can be done, for example, with a cost function (“loess function”) L of the form
L(0,F(x),y) ausdrücken. Hierin sind Q die Klassifikations- Parameter des KNN, die sich wiederum unterteilen lassen in Klassifikations- Parameter qi, ..., qh, der Schichten 1 bis n des KNN. Die Differenz zwischen dem Softmax-Score F(x) und dem als Zuordnung ausgegebenen Vektor y, der immer eine Eins und vier Nullen enthält, hängt dann direkt mit dem Gradienten Express L (0, F (x), y). Here, Q are the classification parameters of the ANN, which in turn can be subdivided into classification parameters qi, ..., q h , of layers 1 to n of the ANN. The difference between the Softmax score F (x) and the vector y output as an assignment, which always contains a one and four zeros, then depends directly on the gradient
V6nL(0,F(x),y) dieser Kostenfunktion bezüglich der Klassifikations- Parameter qh der letzten Schicht n des KNN zusammen. Ausgehend hiervon lassen sich für die vorherigen Schichten n-1, ..., 1 die Gradienten bezüglich der Klassifikations- Parameter qh i, ..., qi beispielsweise im Wege der Rückpropagation durch das KNN ermitteln. Somit wirkt sich ein großer Unterschied zwischen dem Softmax-Score F(x) einerseits und der letztendlichen Klassenzuordnung y andererseits auf die Gradienten in allen Schichten 1, ..., n des KNN aus. V 6n L (0, F (x), y) of this cost function with respect to the classification parameters q h of the last layer n of the ANN. Starting from this blank for the previous layers n-1, ..., 1, the gradient with respect to the classification parameter q hi, ..., qi determine, for example by way of back propagation by the NN. Thus, a large difference between the Softmax Score F (x) on the one hand and the final class assignment y on the other hand affects the gradients in all layers 1, ..., n of the ANN.
An Stelle des Softmax-Scores F(x) für die tatsächlichen Messdaten x kann in der Kostenfunktion L auch ein Softmax-Score F(x) genutzt werden, den das KNN für ein Verarbeitungsprodukt x der Messdaten x ermittelt. Insbesondere kann die Klassenzuordnung y nach wie vor auf der Basis von F(x) ermittelt, dann aber mit F(x) verglichen werden. Das Verarbeitungsprodukt x kann hierbei insbesondere beispielsweise durch ein beliebiges Entrauschungsverfahren aus den tatsächlichen Messdaten x gebildet werden. Als Entrauschungsverfahren können beispielsweise Instead of the Softmax score F (x) for the actual measurement data x, a Softmax Score F (x) can also be used in the cost function L, which the ANN determines for a processing product x of the measurement data x. In particular, the Class assignment y can still be determined on the basis of F (x), but then compared with F (x). The processing product x can in particular be formed from the actual measurement data x, for example, by any desired noise reduction method. As a noise reduction method, for example
• eine Glättung mit einem Gaußschen Filterkern mit einer vorgegebenen Standardabweichung, • smoothing with a Gaussian filter kernel with a given standard deviation,
• eine Hochpassfilterung und/oder Tiefpassfilterung in einem Frequenzraum oder Ortsfrequenzraum, und/oder • high-pass filtering and / or low-pass filtering in a frequency space or spatial frequency space, and / or
• eine schwellwertbasierte Filterung (Thresholding) einer Repräsentation der Messdaten x in Wavelet- Koeffizienten verwendet werden. • a threshold-based filtering (thresholding) of a representation of the measurement data x in wavelet coefficients can be used.
Der Hintergedanke hierbei ist, dass eine Fehlklassifikation von Messdaten häufig durch kleine Störungen in den Messdaten verursacht wird. Das Entrauschen beseitigt kleine Störungen. Wenn sich hierdurch der Softmax-Score F(x) so deutlich ändert, dass eigentlich eine ganz andere Klasse als die zuvor mit dem Vektor y ausgegebene Klasse sachgerecht wäre, kann dies durch die Kostenfunktion entsprechend „bestraft“ werden. The idea behind this is that a misclassification of measurement data is often caused by small disturbances in the measurement data. The noise removal eliminates small disturbances. If this changes the Softmax Score F (x) so clearly that a completely different class than the class previously output with the vector y would actually be appropriate, this can be “punished” accordingly by the cost function.
Wie zuvor erläutert, lassen sich die Gradienten V01L, ..., V0nL der Kostenfunktion L bezüglich der Klassifikations- Parameter qi, ..., qh einer jeden Schicht 1, ..., n des KNN für jede Schicht 1, ..., n mit einer Norm zu einem Skalar aggregieren. Die Abhängigkeit V0L(0,F(x),y) der Kostenfunktion L von den Klassifikations- Parametern Q lässt sich dann in einem Vektor zusammenfassen:
Figure imgf000009_0001
As explained above , the gradients V 01 L, ..., V 0n L of the cost function L can be determined with respect to the classification parameters qi, ..., q h of each layer 1, ..., n of the ANN for each layer Aggregate 1, ..., n with a norm to a scalar. The dependence V 0 L (0, F (x), y) of the cost function L on the classification parameters Q can then be summarized in a vector:
Figure imgf000009_0001
Dieser Vektor kann vom Bewertungs- Netzwerk auf die Bewertungsgröße abgebildet werden. This vector can be mapped to the evaluation variable by the evaluation network.
In einer besonders vorteilhaften Ausgestaltung umfasst das Bewertungs- Netzwerk mindestens ein logistisches Regressionsnetzwerk, das die Abhängigkeit auf eine Wahrscheinlichkeit p, dass die durch den Klassifikator ermittelte Zuordnung korrekt ist, abbildet. Ein solches logistisches Regressionsnetzwerk ist sehr parametereffizient. In dem zuvor erläuterten Beispiel, in dem die Abhängigkeit V0L(0,F(x),y) für ein KNN mit n Schichten durch einen Vektor der Länge n repräsentiert wird, werden nur n+1 Parameter für das logistische Regressionsnetzwerk benötigt. Dementsprechend ist der Raum, in dem beim Training des Regressionsnetzwerks die optimale Konfiguration dieser Parameter zu suchen ist, vergleichsweise niedrigdimensional. In a particularly advantageous embodiment, the evaluation network comprises at least one logistic regression network which maps the dependence on a probability p that the assignment determined by the classifier is correct. Such a logistic regression network is very parameter efficient. In the previously explained Example, in which the dependency V 0 L (0, F (x), y) for an ANN with n layers is represented by a vector of length n, only n + 1 parameters are required for the logistic regression network. Accordingly, the space in which the optimal configuration of these parameters is to be sought when training the regression network is comparatively low-dimensional.
Alternativ oder in Kombination hierzu kann das Bewertungs- Netzwerk mindestens ein Klassifikationsnetzwerk umfassen, das die Abhängigkeit auf mindestens eine Bewertungsstufe für die Wahrscheinlichkeit p abbildet. Die Wahrscheinlichkeit p kann beispielsweise binär (etwa „in Ordnung“ /„nicht in Ordnung“) oder korrespondierend zur Bedeutung für das zumindest teilweise automatisierte Fahren (etwa „in Ordnung“ /„Information“ /„Warnung“ /„Alarm“) klassifiziert werden. Alternatively or in combination with this, the evaluation network can comprise at least one classification network which maps the dependency on at least one evaluation level for the probability p. The probability p can, for example, be classified as binary (for example “okay” / “not okay”) or corresponding to the significance for the at least partially automated driving (for example “okay” / “information” / “warning” / “alarm”) .
In einer weiteren besonders vorteilhaften Ausgestaltung wird mindestens ein Bewertungs- Netzwerk anhand der vom Klassifikator ausgegebenen Zuordnung gewählt. Auf diese Weise lässt sich die Genauigkeit der Beurteilung, inwieweit die Zuordnung durch den Klassifikator zutreffend ist, noch weiter verbessern. So müssen beispielsweise in einem Fahrzeugumfeld Objekte vieler unterschiedlicher Typen (etwa Fahrzeuge, Verkehrszeichen, Personen, Fahrbahnbegrenzungen) erkannt werden. Die Beurteilung, ob die jeweilige Zuordnung zu den diesen Typen untergeordneten Klassen (etwa Auto oder Motorrad, Stoppschild oder Tempo-50-Schild) voraussichtlich zutreffend ist, wird dann sinnvollerweise nach Typen aufgeteilt. In a further particularly advantageous embodiment, at least one evaluation network is selected on the basis of the assignment output by the classifier. In this way, the accuracy of the assessment of the extent to which the assignment by the classifier is correct can be improved even further. For example, objects of many different types (e.g. vehicles, traffic signs, people, lane boundaries) must be recognized in a vehicle environment. The assessment of whether the respective assignment to the classes subordinate to these types (e.g. car or motorcycle, stop sign or speed 50 sign) is then expediently divided into types.
Wenn die Bewertungsgröße ein vorgegebenes Kriterium erfüllt, also beispielsweise die Wahrscheinlichkeit p für eine korrekte Zuordnung unter einen vorgegebenen Schwellwert sinkt, können verschiedene Maßnahmen getroffen werden. Im Kontext des zumindest teilweise automatisierten Fahrens kann beispielsweise eine Warnung an einen Nutzer des Fahrzeugs ausgegeben werden, der Nutzer kann zur Übernahme der Kontrolle aufgefordert werden, oder das Fahrzeug kann auf der für einen Systemausfall vorgesehenen Notstopp- Trajektorie zum Stehen gebracht werden. Mit dem Verfahren erkannte auffällige Unsicherheiten können verschiedene Ursachen haben. Beispielsweise kann die von einem Kamerasystem gelieferte Bildqualität auf Grund ungünstiger Witterungsbedingungen zu schlecht für eine verlässliche Klassifikation sein. Es kann auch eine Situation vorliegen, auf die das KNN des Klassifikators nicht hinreichend trainiert wurde. Im Kontext des zumindest teilweise automatisierten Fahrens sind dies beispielsweise „corner cases“, also Verkehrssituationen, die zwar nur selten Vorkommen, dann aber mit besonderer Gefährdung verbunden sind. Auch die Neuschöpfung von Verkehrszeichen durch den Gesetzgeber kann einen Anlass zu Unsicherheiten bei der Klassifikation geben. If the evaluation variable fulfills a predefined criterion, that is to say, for example, the probability p for a correct assignment falls below a predefined threshold value, various measures can be taken. In the context of at least partially automated driving, for example, a warning can be issued to a user of the vehicle, the user can be requested to take control, or the vehicle can be brought to a stop on the emergency stop trajectory provided for a system failure. Conspicuous uncertainties identified with the method can have various causes. For example, the image quality delivered by a camera system can be too poor for a reliable classification due to unfavorable weather conditions. There may also be a situation for which the ANN of the classifier has not been adequately trained. In the context of at least partially automated driving, these are, for example, “corner cases”, ie traffic situations that occur only rarely, but are then associated with particular hazards. The new creation of traffic signs by the legislator can also give rise to uncertainties in the classification.
So wurde beispielsweise bei der Einführung des Verkehrszeichens „Umweltzone“ das Erscheinungsbild des Verkehrszeichens „Tempo-30-Zone“ im Wesentlichen wiederverwendet. Es wurde lediglich die Zahl 30 gegen das Wort „Umwelt“ ausgetauscht. Wenn das KNN in einem Klassifikator eines Fahrzeugs noch nicht das Update erfahren hat, das ihm dieses neue Verkehrszeichen „Umweltzone“ beibringt, sieht dieses Verkehrszeichen aus Sicht des KNN dem Verkehrszeichen „Tempo-30-Zone“ am ähnlichsten und wird daher wahrscheinlich als ein solches klassifiziert werden. Dabei wird sich aber in den Softmax-Scores niederschlagen, dass dies nicht ganz passt, denn der Schriftzug „Umwelt“ sieht doch anders aus als die Zahl „30“, und das Zusatzschild, das die benötigte Farbe der Umweltplakette angibt, passt auch nicht. Wenn infolgedessen eine erhöhte Unsicherheit erkannt wird, kann beispielsweise vermieden werden, dass auf einer Schnellstraße mit erlaubtem Tempo 80, die in eine Umweltzone führt, plötzlich eine starke Bremsung auf Tempo 30 ausgeführt und ein Auffahrunfall ausgelöst wird. For example, when the “Umweltzone” traffic sign was introduced, the appearance of the “Tempo 30 Zone” traffic sign was essentially reused. Only the number 30 was replaced with the word "environment". If the KNN has not yet received the update in a classifier of a vehicle that this new traffic sign "Umweltzone" brings to it, this traffic sign looks most similar to the traffic sign "Tempo 30 Zone" from the perspective of the KNN and is therefore likely to be such be classified. However, it will be reflected in the Softmax scores that this does not quite fit, because the lettering “Environment” looks different from the number “30”, and the additional label, which indicates the required color of the environmental badge, does not fit either. If, as a result, increased uncertainty is recognized, it can be avoided, for example, that on a freeway with a permitted speed limit of 80, which leads into an environmental zone, suddenly braking to 30 km / h and a rear-end collision is triggered.
Unsicherheiten können aber auch böswillige Absichten haben. So eröffnet die Kraft von KN Ns zur Verallgemeinerung grundsätzlich die Möglichkeit für Angriffe mit Manipulationen des Erscheinungsbildes etwa von Verkehrszeichen, die einem Menschen kaum auffallen, aber zu einer völlig falschen Klassifikation führen. Mit den „richtigen“ Aufklebern lässt sich etwa provozieren, dass ein Stoppschild als Tempo-70-Schild klassifiziert wird. Auch wurde bereits demonstriert, dass eine halbdurchlässige Folie mit dem „richtigen“ Punktmuster auf der Kameralinse einen Klassifikator dazu veranlassen kann, etwa Fußgänger vollständig zu ignorieren. But uncertainties can also have malicious intent. The power of KN Ns to generalize basically opens up the possibility of attacks with manipulation of the appearance of traffic signs, for example, which a person hardly notices but which lead to a completely wrong classification. With the "right" stickers, for example, it can be provoked that a stop sign is classified as a 70 km / h sign. It has also already been demonstrated that a semi-permeable film with the “correct” point pattern on the camera lens can cause a classifier to completely ignore pedestrians, for example.
In einer besonders vorteilhaften Ausgestaltung wird daher in Antwort darauf, dass die Bewertungsgröße ein vorgegebenes Kriterium erfüllt, das Verfahren unter Austausch des KNN des Klassifikators gegen ein anderes KNN, das ein anderes Training erfahren hat und/oder das eine andere Architektur aufweist, wiederholt. Wenn hierbei eine Klassifikation mit einer deutlich geringeren Unsicherheit erhalten wird, dann kann diese für die weitere Verarbeitung (etwa für die Trajektorienplanung) genutzt werden. Wenn das andere KNN die gleichen Messdaten zutreffender klassifizieren kann, gibt dies zugleich Hinweise auf die mögliche Fehlerursache. Am wahrscheinlichsten ist es, dass entweder das Training des zuerst verwendeten KN Ns nicht aktuell oder nicht ausreichend war, oder dass ein Angriff mit einem „adversarial example“ versucht wurde. In a particularly advantageous embodiment, the method is therefore repeated in response to the fact that the evaluation variable fulfills a predefined criterion, replacing the ANN of the classifier with another ANN which has undergone different training and / or which has a different architecture. If a classification with a significantly lower uncertainty is obtained here, then this can be used for further processing (e.g. for trajectory planning). If the other ANN can classify the same measurement data more accurately, this also provides information on the possible cause of the error. It is most likely that either the training of the CNN used first was not up-to-date or insufficient, or that an attack with an "adversarial example" was attempted.
Alternativ oder auch in Kombination hierzu können weitere Messdaten mit mindestens einem Sensor aufgenommen werden, und das Verfahren kann mit diesen weiteren Messdaten wiederholt werden. Wenn beispielsweise ein Radarsystem ein Objekt, das zuvor auf einem Kamerabild nur mit großer Unsicherheit klassifiziert wurde, mit großer Sicherheit anders klassifiziert, ist die wahrscheinlichste Ursache, dass das Kamerabild zu schlecht war. Alternatively or also in combination with this, further measurement data can be recorded with at least one sensor, and the method can be repeated with this additional measurement data. If, for example, a radar system classifies an object that was previously classified only with great uncertainty on a camera image differently with great certainty, the most likely cause is that the camera image was too bad.
Die Messdaten können insbesondere beispielsweise optische Bilddaten, Wärmebilddaten, Videodaten, Radardaten, Ultraschalldaten, und/oder LIDAR- Daten sein. Dies sind die wichtigsten Typen von Messdaten, anhand derer sich zumindest teilweise automatisiert fahrende Fahrzeuge im Verkehrsraum orientieren. Die Messdaten können durch einen physikalischen Messprozess, und/oder durch eine teilweise oder vollständige Simulation eines solchen Messprozesses, und/oder durch eine teilweise oder vollständige Simulation eines mit einem solchen Messprozess beobachtbaren technischen Systems, erhalten werden. The measurement data can in particular be, for example, optical image data, thermal image data, video data, radar data, ultrasound data, and / or LIDAR data. These are the most important types of measurement data with which at least partially automated vehicles orientate themselves in the traffic area. The measurement data can be obtained through a physical measurement process and / or through a partial or complete simulation of such a measurement process and / or through a partial or complete simulation of a technical system that can be observed with such a measurement process.
Die Anwendung des Verfahrens ist aber nicht auf Fahrzeuge beschränkt. Ganz allgemein kann aus der Zuordnung in Kombination mit der Bewertungsgröße ein Ansteuersignal gebildet werden, und es kann ein Fahrzeug, und/oder ein Klassifikationssystem, und/oder ein System für die Qualitätskontrolle von in Serie gefertigten Produkten, und/oder ein System für die medizinische Bildgebung, und/oder ein Zutrittskontrollsystem, mit diesem Ansteuersignal angesteuert werden. However, the application of the method is not restricted to vehicles. In general, a control signal can be formed from the assignment in combination with the evaluation variable, and a vehicle and / or a Classification system, and / or a system for quality control of mass-produced products, and / or a system for medical imaging, and / or an access control system, can be controlled with this control signal.
So kann beispielsweise der Versuch erkannt werden, ein Zutrittskontrollsystem mit einem Foto einer berechtigten Person oder mit einem kopierten Fingerabdruck zu täuschen. Das Foto, bzw. der Fingerabdruck, wird zwar der berechtigten Person zugeordnet, aber in der Unsicherheit, die sich in einer verminderten Wahrscheinlichkeit p für korrekte Klassifikation äußert, spiegelt es sich dann doch wider, dass die Kopie nicht perfekt ist. For example, an attempt to deceive an access control system with a photo of an authorized person or with a copied fingerprint can be detected. The photo or the fingerprint is assigned to the authorized person, but the uncertainty, which is expressed in a reduced probability p for correct classification, reflects that the copy is not perfect.
Die Erfindung bezieht sich auch auf ein Verfahren zum Trainieren eines Bewertungs- Netzwerks, das bei der Durchführung des zuvor beschriebenen Verfahrens eingesetzt werden kann. Bei diesem Verfahren werden ausgehend von Trainingsdaten mit dem zuvor beschriebenen Verfahren eine Zuordnung dieser Trainings-Messdaten zu einer oder mehreren Klassen sowie eine Bewertungsgröße für diese Zuordnung ermittelt. Durch Vergleich der vom Klassifikator ermittelten Zuordnung wird mit einer für die Trainings-Messdaten bekannten Soll-Zuordnung wird ein Ist-Zustand dahingehend ermittelt, inwieweit die Zuordnung korrekt ist. Die Bewertungs- Parameter werden dahingehend optimiert, dass die vom Bewertungs- Netzwerk gelieferte Bewertungsgröße nach Maßgabe einer Bewertungs- Kostenfunktion mit dem Ist-Zustand korreliert. The invention also relates to a method for training an evaluation network that can be used when the method described above is carried out. In this method, on the basis of training data, the method described above is used to determine an assignment of this training measurement data to one or more classes and an evaluation variable for this assignment. By comparing the assignment determined by the classifier with a nominal assignment known for the training measurement data, an actual state is determined to what extent the assignment is correct. The evaluation parameters are optimized in such a way that the evaluation variable supplied by the evaluation network correlates with the actual state in accordance with an evaluation cost function.
Hierbei kommt es nicht darauf an, das KNN im Klassifikator zu verbessern. Es geht allein darum, dass in den Fällen, in denen der Klassifikator tatsächlich eine falsche Aussage trifft, sich dies in der vom Bewertungs- Netzwerk gelieferten Bewertungsgröße niederschlägt. It is not important here to improve the ANN in the classifier. The only thing that matters is that in cases in which the classifier actually makes a false statement, this is reflected in the evaluation variable supplied by the evaluation network.
Die Möglichkeit, die Unsicherheit einer Klassifikation quantitativ zu bestimmen, lässt sich auch nutzen, um Trainingsdaten für Klassifikatoren mit Klassenzuordnungen zu „labein“. Die Erfindung bezieht sich also auch auf ein Verfahren zum Generieren von Trainingsdaten für Klassifikatoren, die Messdaten zu einer oder mehreren Klassen einer vorgegebenen Klassifikation zuordnen. Bei diesem Verfahren werden ausgehend von Messdaten mit dem zuerst beschriebenen Verfahren sowohl eine Zuordnung dieser Messdaten zu einer oder mehreren Klassen als auch eine Bewertungsgröße für diese Zuordnung ermittelt. In Antwort darauf, dass die Bewertungsgröße eine vorgegebene Bedingung erfüllt, werden die Messdaten in Assoziation mit der Zuordnung den Trainingsdaten hinzugefügt. The possibility of quantitatively determining the uncertainty of a classification can also be used to “labein” training data for classifiers with class assignments. The invention thus also relates to a method for generating training data for classifiers which assign measurement data to one or more classes of a predetermined classification. In this method, based on measurement data, the method described first is used to determine both an assignment of this measurement data to one or more classes and an evaluation variable for this assignment. In response to the fact that the evaluation variable fulfills a predetermined condition, the measurement data are added to the training data in association with the assignment.
Die Kraft von KN Ns zur Verallgemeinerung lebt davon, dass beim Training Trainingsdaten mit hinreichender Variabilität verwendet werden. So muss das KNN beispielsweise viele Bilder von Fahrzeugen verschiedener Typen, die unter vielen unterschiedlichen Bedingungen aufgenommen wurden, verarbeiten, um in die Lage versetzt zu werden, auch neue Fahrzeuge zu erkennen. Größter Kostentreiber für die Beschaffung solcher Bilder ist das manuelle „Labein“ dieser Bilder mit der Klassenzuordnung, in diesem Beispiel also die Zuordnung zur Klasse „Fahrzeug“. Aus einer großen Menge unsortierter Bilder können mit dem Verfahren nun diejenigen Bilder herausgefiltert werden, die mit einer hinreichend großen Sicherheit in die Klasse „Fahrzeug“ klassifiziert wurden. Diese Bilder können in Assoziation mit dem Label „Fahrzeug“ den Trainingsdaten hinzugefügt werden. The power of KN Ns to generalize lives from the fact that training data with sufficient variability are used during training. For example, the ANN has to process many images of vehicles of different types that were taken under many different conditions in order to be able to recognize new vehicles. The biggest cost driver for the procurement of such images is the manual “labeling” of these images with the class assignment, in this example the assignment to the class “vehicle”. From a large number of unsorted images, the method can now be used to filter out those images that have been classified into the “vehicle” class with a sufficiently high degree of certainty. These images can be added to the training data in association with the "Vehicle" label.
Die Verfahren können insbesondere ganz oder teilweise computerimplementiert sein. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, eines der beschriebenen Verfahren auszuführen. In diesem Sinne sind auch Steuergeräte für Fahrzeuge und Embedded-Systeme für technische Geräte, die ebenfalls in der Lage sind, maschinenlesbare Anweisungen auszuführen, als Computer anzusehen. In particular, the methods can be implemented in whole or in part by a computer. The invention therefore also relates to a computer program with machine-readable instructions which, when they are executed on one or more computers, cause the computer or computers to carry out one of the described methods. In this sense, control devices for vehicles and embedded systems for technical devices, which are also able to execute machine-readable instructions, are to be regarded as computers.
Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder auf ein Downloadprodukt mit dem Computerprogramm. Ein Downloadprodukt ist ein über ein Datennetzwerk übertragbares, d.h. von einem Benutzer des Datennetzwerks downloadbares, digitales Produkt, das beispielsweise in einem Online-Shop zum sofortigen Download feilgeboten werden kann. Weiterhin kann ein Computer mit dem Computerprogramm, mit dem maschinenlesbaren Datenträger bzw. mit dem Downloadprodukt ausgerüstet sein. The invention also relates to a machine-readable data carrier and / or to a download product with the computer program. A download product is a digital product that can be transmitted via a data network, ie can be downloaded by a user of the data network and that can be offered for sale for immediate download in an online shop, for example. Furthermore, a computer can be equipped with the computer program, with the machine-readable data carrier or with the download product.
Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt. Further measures improving the invention are illustrated in more detail below together with the description of the preferred exemplary embodiments of the invention with reference to figures.
Ausführungsbeispiele Embodiments
Es zeigt: It shows:
Figur 1 Ausführungsbeispiel des Verfahrens 100 zur Bewertung der Unsicherheit einer Zuordnung 3 von Messdaten 2 zu Klassen 3a-3c; FIG. 1 exemplary embodiment of the method 100 for evaluating the uncertainty of an assignment 3 of measurement data 2 to classes 3a-3c;
Figur 2 Veranschaulichung des Rechengangs von Messdaten 2 bis zur Bewertungsgröße 7 für die Unsicherheit; FIG. 2 an illustration of the calculation process from measurement data 2 up to evaluation variable 7 for the uncertainty;
Figur 3 Ausführungsbeispiel des Verfahrens 200 zum Trainieren eines Bewertungs- Netzwerks 6 zum Einsatz in dem Verfahren 100; FIG. 3 exemplary embodiment of the method 200 for training an evaluation network 6 for use in the method 100;
Figur 4 Ausführungsbeispiel des Verfahrens 300 zum Generieren von Trainingsdaten 2*. FIG. 4 exemplary embodiment of the method 300 for generating training data 2 *.
Figur 1 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 100. Mit diesem Verfahren wird die Unsicherheit, mit der die Zuordnung 3 von Messdaten 2 zu einer oder mehreren Klassen 3a-3c durch einen Klassifikator behaftet ist, in Form einer Bewertungsgröße 7 bewertet. Als Messdaten 2 können gemäß Schritt 105 optische Bilddaten, Wärmebilddaten, Videodaten, Radardaten, Ultraschalldaten, und/oder LIDAR-Daten, die durch einen physikalischen Messprozess, und/oder durch eine teilweise oder vollständige Simulation eines solchen Messprozesses, und/oder durch eine teilweise oder vollständige Simulation eines mit einem solchen Messprozess beobachtbaren technischen Systems, erhalten wurden, gewählt werden. FIG. 1 is a schematic flow diagram of an exemplary embodiment of the method 100. With this method, the uncertainty with which the assignment 3 of measurement data 2 to one or more classes 3a-3c is afflicted by a classifier is assessed in the form of an assessment variable 7. As measurement data 2, according to step 105, optical image data, thermal image data, video data, radar data, ultrasound data, and / or LIDAR data that are generated by a physical measurement process, and / or by a partial or complete simulation of such a measurement process, and / or by a partial or full simulation of a technical system that can be observed with such a measurement process can be selected.
Zunächst werden in Schritt 110 die Messdaten, die für diese Messdaten 2 durch den Klassifikator 1 ermittelte Zuordnung 3 zu Klassen 3a-3c, die Klassifikations- Parameter 11a des KNN 11 des Klassifikators 1 sowie die Architektur 11b dieses KNN 1 zusammengeführt. Es wird eine Abhängigkeit 4, 4a der Zuordnung 3, und/oder eine Abhängigkeit 4, 4b einer die Korrektheit dieser Zuordnung bewertenden Kostenfunktion 5, von den Klassifikations-Parametern 11a ermittelt. Der Klassifikator 1 kann während der Ausführung des Verfahrens 100 auf die Messdaten 2 angewendet werden. Dies ist jedoch nicht zwingend erforderlich. Das Verfahren 100 kann auch allein auf der Basis von bereits fertigen Ergebnissen des Klassifikators 1 arbeiten. First, in step 110 the measurement data, the assignment 3 to classes 3a-3c determined for this measurement data 2 by the classifier 1, the classification parameters 11a of the ANN 11 of the classifier 1 and the architecture 11b of this ANN 1 are combined. A dependency 4, 4a of the assignment 3 and / or a dependency 4, 4b of a cost function 5, which evaluates the correctness of this assignment, on the classification parameters 11a is determined. The classifier 1 can be applied to the measurement data 2 during the execution of the method 100. However, this is not absolutely necessary. The method 100 can also work solely on the basis of results from the classifier 1 that have already been completed.
In Schritt 120 wird diese ermittelte Abhängigkeit 4, 4a, 4b mit mindestens einem trainierbaren Bewertungs- Netzwerk 6 auf mindestens eine Bewertungsgröße 7 abgebildet. Diese Bewertungsgröße 7 ist ein Maß für die Wahrscheinlichkeit p, dass die durch den Klassifikator 1 ermittelte Zuordnung 3 korrekt ist. In step 120, this determined dependency 4, 4a, 4b is mapped to at least one evaluation variable 7 with at least one trainable evaluation network 6. This evaluation variable 7 is a measure of the probability p that the assignment 3 determined by the classifier 1 is correct.
In Antwort darauf, dass die Bewertungsgröße 7 ein vorgegebenes Kriterium 130 erfüllt (also etwa eine zu große Unsicherheit - Wahrheitswert 1), kann das Verfahren gemäß Schritt 140 unter Austausch des KNN 11 des Klassifikators 1 gegen ein anders trainiertes und/oder anders aufgebautes KNN 11' wiederholt werden. Alternativ oder auch in Kombination hierzu können gemäß Schritt 150 weitere Messdaten 2' mit mindestens einem Sensor aufgenommen werden, und das Verfahren kann gemäß Schritt 160 mit diesen weiteren Messdaten wiederholt werden. In response to the fact that the evaluation variable 7 fulfills a predefined criterion 130 (that is, for example, too great an uncertainty - truth value 1), the method according to step 140 can replace the ANN 11 of the classifier 1 with a differently trained and / or differently structured ANN 11 ' be repeated. Alternatively or also in combination with this, further measurement data 2 'can be recorded with at least one sensor according to step 150, and the method can be repeated according to step 160 with these further measurement data.
Aus der Zuordnung 3 in Kombination mit der Bewertungsgröße 7 kann gemäß Schritt 170 ein Ansteuersignal 8 gebildet werden. Gemäß Schritt 180 kann ein Fahrzeug 50, und/oder ein Klassifikationssystem 60, und/oder ein System 70 für die Qualitätskontrolle von in Serie gefertigten Produkten, und/oder ein System 80 für die medizinische Bildgebung, und/oder ein Zutrittskontrollsystem 90, mit diesem Ansteuersignal 8 angesteuert werden. Innerhalb des Kastens 110 sind einige beispielhafte Ausgestaltungen für das Ermitteln der Bewertungsgröße 7 dargestellt. From the assignment 3 in combination with the evaluation variable 7, a control signal 8 can be formed in accordance with step 170. According to step 180, a vehicle 50, and / or a classification system 60, and / or a system 70 for quality control of mass-produced products, and / or a system 80 for medical imaging, and / or an access control system 90, can be used with this Control signal 8 can be controlled. A few exemplary configurations for determining the evaluation variable 7 are shown within the box 110.
Gemäß Block 111 kann die Abhängigkeit 4 mindestens einen Gradienten der Zuordnung 3, bzw. der Kostenfunktion 5, nach mindestens einem der Klassifikations- Parameter 11a umfassen. According to block 111, the dependency 4 can comprise at least one gradient of the assignment 3, or the cost function 5, according to at least one of the classification parameters 11a.
Gemäß Block 112 kann die Abhängigkeit 4 durch einen Vektor oder eine Matrix repräsentiert sein. Dabei hängt in diesem Vektor, bzw. in dieser Matrix, jede Zeile oder jede Spalte nur von Klassifikations- Parametern 11a genau einer Schicht des KNN 11 ab. Es können dann gemäß Block 113 Beiträge zu der Abhängigkeit 4, die von den Klassifikations- Parametern 11a einer jeden Schicht abhängen, zu einem dieser Schicht zugeordneten Skalar in dem Vektor bzw. der Matrix verdichtet werden. Dies wiederum kann gemäß Block 113a durch Bildung einer Norm eines Vektors mit den Beiträgen geschehen. According to block 112, the dependency 4 can be represented by a vector or a matrix. In this case, in this vector, or in this matrix, each row or each column depends only on classification parameters 11a of exactly one layer of the ANN 11. According to block 113, contributions to the dependency 4, which depend on the classification parameters 11a of each layer, can then be compressed into a scalar assigned to this layer in the vector or the matrix. This in turn can be done according to block 113a by forming a norm of a vector with the contributions.
Gemäß Block 114 kann eine Kostenfunktion 5 gewählt werden, die sowohl von einer Zuordnung 3' der Messdaten 2, oder eines Verarbeitungsprodukts 2a dieser Messdaten 2, zu mehreren Klassen 3a-3c durch das KNN 11 als auch von einer durch den Klassifikator 1 ausgewählten Klasse 3a-3c abhängt. According to block 114, a cost function 5 can be selected which is derived from an assignment 3 'of the measurement data 2, or a processing product 2a of this measurement data 2, to several classes 3a-3c by the ANN 11 as well as from a class 3a selected by the classifier 1 -3c depends.
Innerhalb des Kastens 120 sind zwei beispielhafte Ausgestaltungen für das Ermitteln der Bewertungsgröße 7 dargestellt. Two exemplary configurations for determining the evaluation variable 7 are shown within the box 120.
Gemäß Block 121 kann das Bewertungs- Netzwerk 6 According to block 121, the evaluation network 6
• mindestens ein logistisches Regressionsnetzwerk, das die Abhängigkeit 4 auf eine Wahrscheinlichkeit p, dass die durch den Klassifikator 1 ermittelte Zuordnung 3 korrekt ist, abbildet, und/oder • At least one logistic regression network that maps the dependency 4 to a probability p that the assignment 3 determined by the classifier 1 is correct, and / or
• mindestens ein Klassifikationsnetzwerk, das die Abhängigkeit auf mindestens eine Bewertungsstufe für diese Wahrscheinlichkeit p abbildet, umfassen. • Include at least one classification network that maps the dependency on at least one evaluation level for this probability p.
Gemäß Block 122 kann mindestens ein Bewertungs- Netzwerk 6 anhand der Zuordnung 3 ausgewählt werden. Es kann also beispielsweise je Klasse 3a-3c ein eigenes Bewertungs- Netzwerk 6 genutzt werden. Figur 2 veranschaulicht anhand eines Ausführungsbeispiels noch einmal den Rechengang von den Messdaten 2 bis zur Bewertungsgröße 7. According to block 122, at least one evaluation network 6 can be selected on the basis of assignment 3. For example, a separate evaluation network 6 can be used for each class 3a-3c. FIG. 2 uses an exemplary embodiment to once again illustrate the calculation process from measurement data 2 to evaluation variable 7.
Das KNN 11 des Klassifikators 1 wird zunächst auf die Messdaten 2, x in der Vorwärtsrichtung (Pfeil von links nach rechts) angewendet, um eine Zuordnung F(x), 3' dieser Messdaten 2 zu Klassen 3a-3c zu erhalten. Auf der Basis dieser Zuordnung 3' wählt der Klassifikator eine einzige Klasse 3a-3c als endgültige Zuordnung y, 3 aus. The KNN 11 of the classifier 1 is first applied to the measurement data 2, x in the forward direction (arrow from left to right) in order to obtain an assignment F (x), 3 'of this measurement data 2 to classes 3a-3c. On the basis of this assignment 3 ', the classifier selects a single class 3a-3c as the final assignment y, 3.
Von den Messdaten 2, x wird durch Entrauschen ein Verarbeitungsprodukt 2a, x erzeugt. Auf dieses Verarbeitungsprodukt 2a, x wird wiederum das KNN 11 in der Vorwärtsrichtung angewendet. Das Ergebnis ist wieder eine Zuordnung 3', F(x) des Verarbeitungsprodukts 2a, x zu Klassen 3a-3c. A processing product 2a, x is generated from the measurement data 2, x by de-noise. The ANN 11 is in turn applied to this processing product 2a, x in the forward direction. The result is again an assignment 3 ', F (x) of the processing product 2a, x to classes 3a-3c.
Die Kostenfunktion 5 hat die Form L(0,F(x),y). Ihr Gradient V0L(0,F(x),y) wird sukzessive mittels Rückpropagation (Pfeil nach links) durch das KNN 11 berechnet. Dabei werden die Gradienten bezüglich der Parameter qi, ..., qh einer jeden Schicht 1, ..., n jeweils durch Bildung der 1-Norm verdichtet und in einem Vektor mit einer Komponente je Schicht 1, ..., n zusammengefasst. Dieser Vektor repräsentiert die Abhängigkeit 4, 4b. Er wird dem Bewertungs-Netzwerk 6 zugeführt, das hieraus wiederum die Bewertungsgröße 7 (hier: die Wahrscheinlichkeit p) ermittelt. The cost function 5 has the form L (0, F (x), y). Its gradient V 0 L (0, F (x), y) is successively calculated by the ANN 11 by means of back propagation (arrow pointing to the left). The gradients with respect to the parameters qi, ..., q h of each layer 1, ..., n are compressed by forming the 1-norm and combined in a vector with one component per layer 1, ..., n . This vector represents the dependency 4, 4b. It is fed to the evaluation network 6, which in turn determines the evaluation variable 7 (here: the probability p) from this.
Figur 3 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 200 zum Trainieren des Bewertungs- Netzwerks 6. FIG. 3 is a schematic flow diagram of an exemplary embodiment of the method 200 for training the evaluation network 6.
In Schritt 210 werden mit dem im Zusammenhang mit Figur 1 beschriebenen Verfahren 100 eine Zuordnung 3 von Trainings-Messdaten 2* zu einer oder mehreren Klassen und eine Bewertungsgröße 7 für diese Zuordnung 3 ermittelt. In step 210, the method 100 described in connection with FIG. 1 is used to determine an assignment 3 of training measurement data 2 * to one or more classes and an evaluation variable 7 for this assignment 3.
In Schritt 220 wird durch Vergleich der vom Klassifikator 1 ermittelten Zuordnung 3 mit einer für die Trainings-Messdaten 2* bekannten Soll-Zuordnung 3* wird ein Ist-Zustand 7* dahingehend ermittelt, inwieweit die Zuordnung 3 korrekt ist. In Schritt 230 werden die Bewertungs- Parameter 6a werden dahingehend optimiert, dass die vom Bewertungs- Netzwerk 6 gelieferte Bewertungsgröße 7 nach Maßgabe einer Bewertungs- Kostenfunktion 8 mit dem Ist-Zustand 7* korreliert. Das heißt, dass eine der Soll-Zuordnung 3* entsprechende Zuordnung 3 durch die Bewertungsgröße 7 mit einer höheren Wahrscheinlichkeit p des Zutreffens bewertet werden sollte als eine nicht der Soll-Zuordnung 3* entsprechende und somit objektiv falsche Zuordnung 3. Dieses Training kann sich insbesondere über eine große Menge von Trainings-Messdaten 2* erstrecken. In step 220, by comparing the assignment 3 determined by the classifier 1 with a nominal assignment 3 * known for the training measurement data 2 *, an actual state 7 * is determined to what extent the assignment 3 is correct. In step 230, the evaluation parameters 6a are optimized in such a way that the evaluation variable 7 supplied by the evaluation network 6 correlates with the actual state 7 * in accordance with an evaluation cost function 8. This means that an assignment 3 corresponding to the target assignment 3 * should be assessed by the assessment variable 7 with a higher probability p of being true than an assignment 3 that does not correspond to the target assignment 3 * and is therefore objectively incorrect Extend over a large amount of training measurement data 2 *.
Nach jedem Optimierungsschritt der Bewertungs- Parameter 6a wird wieder zum Schritt 210 zurückverzweigt, um die Bewertungsgröße 7 zu aktualisieren. Wenn gemäß eines beliebigen vorgegebenen Abbruchkriteriums die Optimierung beendet ist, liegt der trainierte Zustand 6a* der Bewertungs- Parameter 6a vor. After each optimization step of the evaluation parameter 6a, a branch is made back to step 210 in order to update the evaluation variable 7. If the optimization has ended in accordance with any predetermined termination criterion, the trained state 6a * of the evaluation parameters 6a is present.
Figur 4 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 300 zum Generieren von Trainingsdaten 2* für Klassifikatoren 1. FIG. 4 is a schematic flow diagram of an exemplary embodiment of the method 300 for generating training data 2 * for classifiers 1.
In Schritt 310 werden mit dem im Zusammenhang mit Figur 1 beschriebenen Verfahren 100 sowohl eine Zuordnung 3 von Messdaten 2 zu einer oder mehreren Klassen 3a-3c als auch eine Bewertungsgröße 7 für diese Zuordnung 3 ermittelt. In Schritt 320 wird geprüft, ob dieser Bewertungsgröße 7 eine vorgegebene Bedingung erfüllt. Ist dies der Fall (Wahrheitswert 1), werden die Messdaten 2 in Assoziation mit der Zuordnung 3 den Trainingsdaten 2* hinzugefügt. In step 310, the method 100 described in connection with FIG. 1 is used to determine both an assignment 3 of measurement data 2 to one or more classes 3a-3c and an evaluation variable 7 for this assignment 3. In step 320 it is checked whether this evaluation variable 7 fulfills a predefined condition. If this is the case (truth value 1), the measurement data 2 in association with the assignment 3 are added to the training data 2 *.

Claims

Ansprüche Expectations
1. Verfahren (100) zur Bewertung der Unsicherheit, mit der die Zuordnung (3) von Messdaten (2) zu einer oder mehreren Klassen (3a-3c) einer vorgegebenen Klassifikation durch einen Klassifikator (1) behaftet ist, wobei dieser Klassifikator (1) mindestens ein künstliches neuronales Netzwerk, KNN (11), umfasst, dessen Verhalten durch Klassifikations- Parameter (11a) charakterisiert ist, mit den Schritten: 1. Method (100) for evaluating the uncertainty with which the assignment (3) of measurement data (2) to one or more classes (3a-3c) of a given classification is subject to a classifier (1), this classifier (1 ) comprises at least one artificial neural network, ANN (11), the behavior of which is characterized by classification parameters (11a), with the steps:
• anhand der Messdaten (2), der für diese Messdaten (2) durch den Klassifikator (1) ermittelten Zuordnung (3) sowie der Klassifikations- Parameter (11a) und Architektur (11b) des KNN (11) wird eine Abhängigkeit (4, 4a) der Zuordnung (3), und/oder eine Abhängigkeit (4, 4b) einer die Korrektheit dieser Zuordnung (3) bewertenden Kostenfunktion (5), von den Klassifikations- Parametern (11a) ermittelt (HO); • Based on the measurement data (2), the assignment (3) determined for this measurement data (2) by the classifier (1) and the classification parameters (11a) and architecture (11b) of the ANN (11), a dependency (4, 4a) the assignment (3), and / or a dependency (4, 4b) of a cost function (5) evaluating the correctness of this assignment (3), determined (HO) from the classification parameters (11a);
• die ermittelte Abhängigkeit (4) wird mit mindestens einem trainierbaren Bewertungs- Netzwerk (6), dessen Verhalten durch Bewertungs- Parameter (6a) charakterisiert ist, auf mindestens eine Bewertungsgröße (7) abgebildet (120), die ein Maß ist für die Wahrscheinlichkeit p, dass die durch den Klassifikator (1) ermittelte Zuordnung (3) korrekt ist. • the determined dependency (4) is mapped (120) with at least one trainable evaluation network (6), the behavior of which is characterized by evaluation parameters (6a), to at least one evaluation variable (7), which is a measure of the probability p that the assignment (3) determined by the classifier (1) is correct.
2. Verfahren (100) nach Anspruch 1, wobei die Abhängigkeit (4) mindestens einen Gradienten der Zuordnung (3), bzw. der Kostenfunktion (5), nach mindestens einem der Klassifikations- Parameter (11a) umfasst (111). 2. The method (100) according to claim 1, wherein the dependency (4) comprises at least one gradient of the assignment (3) or the cost function (5) according to at least one of the classification parameters (11a) (111).
3. Verfahren (100) nach einem der Ansprüche 1 bis 2, wobei die Abhängigkeit (4) durch einen Vektor oder eine Matrix repräsentiert ist, wobei in diesem Vektor, bzw. in dieser Matrix, jede Zeile oder jede Spalte nur von Klassifikations- Parametern (11a) genau einer Schicht des KNN (11) abhängt (112). 3. The method (100) according to any one of claims 1 to 2, wherein the dependency (4) is represented by a vector or a matrix, with each row or each column of classification parameters in this vector or in this matrix (11a) depends on exactly one layer of the ANN (11) (112).
4. Verfahren (100) nach Anspruch 3, wobei Beiträge zu der Abhängigkeit (4), die von den Klassifikations- Parametern (11a) einer jeden Schicht abhängen, zu einem dieser Schicht zugeordneten Skalar in dem Vektor bzw. der Matrix verdichtet werden (113). 4. The method (100) according to claim 3, wherein contributions to the dependency (4), which depend on the classification parameters (11a) of each layer, are compressed into a scalar assigned to this layer in the vector or the matrix (113 ).
5. Verfahren (100) nach Anspruch 4, wobei der Skalar als Norm eines Vektors mit den Beiträgen gebildet wird (113a). 5. The method (100) according to claim 4, wherein the scalar is formed as a norm of a vector with the contributions (113a).
6. Verfahren (100) nach einem der Ansprüche 1 bis 5, wobei eine Kostenfunktion (5) gewählt wird (114), die sowohl von einer Zuordnung (3') der Messdaten (2), oder eines Verarbeitungsprodukts (2a) dieser Messdaten (2), zu mehreren Klassen (3a-3c) durch das KNN (11) als auch von einer durch den Klassifikator (1) ausgewählten Klasse (3a-3c) abhängt. 6. The method (100) according to any one of claims 1 to 5, wherein a cost function (5) is selected (114) which is derived from an assignment (3 ') of the measurement data (2) or a processing product (2a) of this measurement data ( 2), to several classes (3a-3c) by the ANN (11) as well as on a class (3a-3c) selected by the classifier (1).
7. Verfahren (100) nach einem der Ansprüche 1 bis 6, wobei das Bewertungs- Netzwerk (6) 7. The method (100) according to any one of claims 1 to 6, wherein the evaluation network (6)
• mindestens ein logistisches Regressionsnetzwerk, das die Abhängigkeit (4) auf eine Wahrscheinlichkeit p, dass die durch den Klassifikator (1) ermittelte Zuordnung (3) korrekt ist, abbildet, und/oder • at least one logistic regression network that maps the dependency (4) to a probability p that the assignment (3) determined by the classifier (1) is correct, and / or
• mindestens ein Klassifikationsnetzwerk, das die Abhängigkeit auf mindestens eine Bewertungsstufe für diese Wahrscheinlichkeit p abbildet, umfasst (121). • at least one classification network that maps the dependency on at least one evaluation level for this probability p (121).
8. Verfahren (100) nach einem der Ansprüche 1 bis 7, wobei mindestens ein Bewertungs- Netzwerk (6) anhand der Zuordnung (3) ausgewählt wird (122). 8. The method (100) according to any one of claims 1 to 7, wherein at least one evaluation network (6) is selected (122) on the basis of the assignment (3).
9. Verfahren (100) nach einem der Ansprüche 1 bis 8, wobei in Antwort darauf, dass die Bewertungsgröße (7) ein vorgegebenes Kriterium erfüllt (130),9. The method (100) according to any one of claims 1 to 8, wherein in response to the fact that the assessment variable (7) meets a predetermined criterion (130),
• das Verfahren unter Austausch des KNN (11) des Klassifikators (1) gegen ein anderes KNN (11'), das ein anderes Training erfahren hat und/oder das eine andere Architektur aufweist, wiederholt wird (140), und/oder• the method is repeated (140) by exchanging the ANN (11) of the classifier (1) for another ANN (11 ') that has undergone different training and / or that has a different architecture, and / or
• weitere Messdaten (2') mit mindestens einem Sensor aufgenommen werden (150) und das Verfahren mit diesen weiteren Messdaten (2') wiederholt wird (160). • further measurement data (2 ') are recorded (150) with at least one sensor and the method is repeated (160) with these further measurement data (2').
10. Verfahren (100) nach einem der Ansprüche 1 bis 9, wobei optische Bilddaten, Wärmebilddaten, Videodaten, Radardaten, Ultraschalldaten, und/oder LIDAR-Daten, die durch einen physikalischen Messprozess, und/oder durch eine teilweise oder vollständige Simulation eines solchen Messprozesses, und/oder durch eine teilweise oder vollständige Simulation eines mit einem solchen Messprozess beobachtbaren technischen Systems, erhalten wurden, als Messdaten (2) gewählt werden (105). 10. The method (100) according to any one of claims 1 to 9, wherein optical image data, thermal image data, video data, radar data, ultrasound data, and / or LIDAR data generated by a physical measurement process, and / or by a partial or complete simulation of such Measurement process, and / or through a partial or complete simulation of a technical system observable with such a measurement process, can be selected as measurement data (2) (105).
11. Verfahren (100) nach einem der Ansprüche 1 bis 10, wobei aus der Zuordnung (3) in Kombination mit der Bewertungsgröße (7) ein Ansteuersignal (8) gebildet wird (170) und wobei ein Fahrzeug (50), und/oder ein Klassifikationssystem (60), und/oder ein System (70) für die Qualitätskontrolle von in Serie gefertigten Produkten, und/oder ein System (80) für die medizinische Bildgebung, und/oder ein Zutrittskontrollsystem (90), mit diesem Ansteuersignal (8) angesteuert wird (180). 11. The method (100) according to any one of claims 1 to 10, wherein a control signal (8) is formed (170) from the assignment (3) in combination with the assessment variable (7) and wherein a vehicle (50), and / or a classification system (60), and / or a system (70) for quality control of mass-produced products, and / or a system (80) for medical imaging, and / or an access control system (90), with this control signal (8 ) is controlled (180).
12. Verfahren (200) zum Trainieren eines Bewertungs- Netzwerks (6) für die Anwendung in dem Verfahren (100) nach einem der Ansprüche 1 bis 11 mit den Schritten: 12. The method (200) for training an evaluation network (6) for use in the method (100) according to one of claims 1 to 11 with the steps:
• ausgehend von Trainings-Messdaten (2*) werden mit dem Verfahren (100) nach einem der Ansprüche 1 bis 11 eine Zuordnung (3) dieser Trainings-Messdaten (2*) zu einer oder mehreren Klassen und eine Bewertungsgröße (7) für diese Zuordnung (3) ermittelt (210); • Based on training measurement data (2 *), the method (100) according to one of claims 1 to 11 is used to assign (3) these training measurement data (2 *) to one or more classes and an evaluation variable (7) for them Assignment (3) determined (210);
• durch Vergleich der vom Klassifikator (1) ermittelten Zuordnung (3) mit einer für die Trainings-Messdaten (2*) bekannten Soll-Zuordnung (3*) wird ein Ist-Zustand (7*) dahingehend ermittelt (220), inwieweit die Zuordnung (3) korrekt ist; • By comparing the assignment (3) determined by the classifier (1) with a target assignment (3 *) known for the training measurement data (2 *), an actual state (7 *) is determined (220) to what extent the Assignment (3) is correct;
• die Bewertungs- Parameter (6a) werden dahingehend optimiert (230), dass die vom Bewertungs- Netzwerk (6) gelieferte Bewertungsgröße (7) nach Maßgabe einer Bewertungs- Kostenfunktion (8) mit dem Ist-Zustand (7*) korreliert. The evaluation parameters (6a) are optimized (230) in such a way that the evaluation variable (7) supplied by the evaluation network (6) correlates with the actual state (7 *) in accordance with an evaluation cost function (8).
13. Verfahren (300) zum Generieren von Trainingsdaten (2*) für Klassifikatoren (1), die Messdaten (2) zu einer oder mehreren Klassen (3a-3c) einer vorgegebenen Klassifikation zuordnen, mit den Schritten: • ausgehend von Messdaten (2) werden mit dem Verfahren (100) nach einem der Ansprüche 1 bis 11 sowohl eine Zuordnung (3) dieser Messdaten (2) zu einer oder mehreren Klassen (3a-3c) als auch eine Bewertungsgröße (7) für diese Zuordnung (3) ermittelt (310); und » in Antwort darauf, dass die Bewertungsgröße (7) eine vorgegebene13. Method (300) for generating training data (2 *) for classifiers (1) which assign measurement data (2) to one or more classes (3a-3c) of a given classification, with the steps: • Based on measurement data (2), the method (100) according to one of claims 1 to 11 enables both an assignment (3) of this measurement data (2) to one or more classes (3a-3c) and an evaluation variable (7) for this assignment (3) is determined (310); and »in response to the fact that the evaluation variable (7) is a predetermined
Bedingung erfüllt (320), werden die Messdaten (2) in Assoziation mit der Zuordnung (3) den Trainingsdaten (2*) hinzugefügt (330). Condition fulfilled (320), the measurement data (2) in association with the assignment (3) are added to the training data (2 *) (330).
14. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die14. Computer program, containing machine-readable instructions, which, when executed on one or more computers, the or the
Computer dazu veranlassen, ein Verfahren (100, 200, 300) nach einem derHave the computer set up a method (100, 200, 300) according to one of the
Ansprüche 1 bis 13 auszuführen. Claims 1 to 13 to carry out.
15. Maschinenlesbarer Datenträger mit dem Computerprogramm nach Anspruch 14. 15. Machine-readable data carrier with the computer program according to claim 14.
16. Computer, ausgerüstet mit dem Computerprogramm nach Anspruch 14, und/oder mit dem maschinenlesbaren Datenträger nach Anspruch 15. 16. Computer equipped with the computer program according to claim 14 and / or with the machine-readable data carrier according to claim 15.
PCT/EP2021/057200 2020-03-25 2021-03-22 Quantitative rating of the uncertainty of statements by a classifier WO2021191115A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020203838.4 2020-03-25
DE102020203838.4A DE102020203838A1 (en) 2020-03-25 2020-03-25 Quantitative evaluation of the uncertainty of statements of a classifier

Publications (1)

Publication Number Publication Date
WO2021191115A1 true WO2021191115A1 (en) 2021-09-30

Family

ID=75277985

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/057200 WO2021191115A1 (en) 2020-03-25 2021-03-22 Quantitative rating of the uncertainty of statements by a classifier

Country Status (2)

Country Link
DE (1) DE102020203838A1 (en)
WO (1) WO2021191115A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017218889A1 (en) 2017-10-23 2019-04-25 Robert Bosch Gmbh Unarmed parameterized AI module and method of operation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017218889A1 (en) 2017-10-23 2019-04-25 Robert Bosch Gmbh Unarmed parameterized AI module and method of operation

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FABIO CARRARA ET AL: "Detecting adversarial example attacks to deep neural networks", CONTENT-BASED MULTIMEDIA INDEXING,, 19 June 2017 (2017-06-19), NEW YORK, US, pages 1 - 7, XP058370468, ISBN: 978-1-4503-5333-5, DOI: 10.1145/3095713.3095753 *
JORDAN T ASH ET AL: "Deep Batch Active Learning by Diverse, Uncertain Gradient Lower Bounds", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 9 June 2019 (2019-06-09), XP081375032 *
PHILIPP OBERDIEK ET AL: "Classification Uncertainty of Deep Neural Networks Based on Gradient Information", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 22 May 2018 (2018-05-22), XP081246109 *

Also Published As

Publication number Publication date
DE102020203838A1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
DE102018128289B4 (en) METHOD AND DEVICE FOR AUTONOMOUS SYSTEM PERFORMANCE AND CLASSIFICATION
EP3526095B1 (en) Categorization of vehicles in the environment of a motor vehicle
DE102019218613B4 (en) Object classification method, object classification circuit, motor vehicle
DE112018000448T5 (en) System and method for automatic trailer detection
DE102017108248A1 (en) STREET FEATURE RECOGNITION WITH A VEHICLE CAMERA SYSTEM
DE102021207613A1 (en) Process for quality assurance of a system
WO2021191115A1 (en) Quantitative rating of the uncertainty of statements by a classifier
DE102021131115A1 (en) Process for scenario identification for an application of driver assistance systems
DE102021202933A1 (en) Tracking of multiple objects in collaboration of multiple neural networks
EP4049186A1 (en) Method for making a neural network more robust against adversarial disruptions
DE102021210566A1 (en) Quantitative assessment of the uncertainty of statements from a classifier based on measurement data and several processing products of the same
DE102020214203A1 (en) Method for determining a lane change intention of another motor vehicle located in the immediate vicinity of a motor vehicle, and assistance system
WO2020260015A1 (en) Operation of trainable modules with monitoring of whether the area of application of the training is left
WO2020233992A1 (en) Method for making a neural network more robust in a function-specific manner
DE112020007538T5 (en) Driving assistance device, learning device, driving assistance method, driving assistance program, learned model creation method, and learned model creation program data carrier
WO2020233961A1 (en) Method for assessing a function-specific robustness of a neural network
DE102019130484A1 (en) Method and device for training an ensemble of neural networks
DE102017002686A1 (en) Method for detecting a dangerous situation
DE102021206377A1 (en) More robust supervised training for image classifiers
EP4078433A1 (en) Method and device for generating and providing a database having sensor data patches stored therein for use in quilting
DE102020208878A1 (en) Process for curve detection
DE102022111324A1 (en) Method for data fusion for a motor vehicle, computer program, data processing device and motor vehicle
DE102022212374A1 (en) Computer-implemented method for detecting objects
DE102022206723A1 (en) Assessment of the relevance of test cases for technical systems
DE102021002217A1 (en) Method for segmenting multi-dimensional measuring points

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21715171

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21715171

Country of ref document: EP

Kind code of ref document: A1