WO2020216622A1 - Detecting and removing noise in labels of learning data for trainable modules - Google Patents

Detecting and removing noise in labels of learning data for trainable modules Download PDF

Info

Publication number
WO2020216622A1
WO2020216622A1 PCT/EP2020/060006 EP2020060006W WO2020216622A1 WO 2020216622 A1 WO2020216622 A1 WO 2020216622A1 EP 2020060006 W EP2020060006 W EP 2020060006W WO 2020216622 A1 WO2020216622 A1 WO 2020216622A1
Authority
WO
WIPO (PCT)
Prior art keywords
learning
variable values
output variable
learning data
training
Prior art date
Application number
PCT/EP2020/060006
Other languages
German (de)
French (fr)
Inventor
William Harris Beluch
Maximilian AUTENRIETH
Jan Mathias Koehler
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2020216622A1 publication Critical patent/WO2020216622A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Definitions

  • the present invention relates to the training of trainable modules, such as are used, for example, for classification tasks and / or object recognition in at least partially automated driving.
  • the driving of a vehicle in traffic by a human driver is usually trained by repeatedly confronting a learner driver with a certain canon of situations as part of his training.
  • the learner driver has to react to these situations and receives feedback from comments or even intervention by the driving instructor as to whether his reaction was correct or incorrect.
  • This training with a finite number of situations is intended to enable the learner driver to master even unfamiliar situations while driving the vehicle independently.
  • modules that can be trained in a very similar way.
  • These modules receive, for example, sensor data from the vehicle environment as input variables and, as output variables, supply control signals with which the operation of the vehicle is intervened, and / or preliminary products from which such control signals are formed.
  • a classification of objects in the vicinity of the vehicle can be such a preliminary product.
  • a sufficient amount of learning data sets is required, each of which includes learning input variable values and associated learning output variable values.
  • the learning input variable values can include images and can be labeled as learning output variable values with the information about which objects are contained in the images.
  • the trainable module translates one or more input variables into one or more output variables.
  • a trainable module is viewed in particular as a module that embodies a function parameterized with adaptable parameters with great force for generalization.
  • the parameters can in particular be adapted in such a way that when learning input variable values are input into the module, the associated learning output variable values are reproduced as well as possible.
  • the trainable module can in particular contain an artificial neural network, ANN, and / or it can be an ANN.
  • the training takes place on the basis of learning data sets which contain learning input variable values and associated learning output variable values as labels.
  • the learning input variable values include measurement data obtained through a physical measurement process and / or through a partial or complete simulation of such a measurement process and / or through a partial or complete simulation of a technical system that can be observed with such a measurement process.
  • the associated learning output variable values are not immediately available as labels, but these labels must be determined in a process that is more or less complex depending on the technical application. Most of the time, this process requires human work and is accordingly prone to errors.
  • the term “learning data set” does not designate the entirety of all available learning data, but a combination of one or more learning input variable values and learning output variable values assigned to precisely these learning input variable values as labels. With one for them
  • a learning data record for example, an image as a matrix of learning input variable values in combination with the Softmax scores, which the trainable module should ideally generate therefrom, as a vector of learning output variable values.
  • a plurality of modifications of the trainable module are each pre-trained with at least a subset of the learning data records.
  • the modifications differ so widely that they are not transferred congruently into one another as the learning progresses.
  • the modifications can be structurally different, for example.
  • several modifications of ANNs can be generated by deactivating different neurons as part of a "dropout".
  • the modifications can also be generated, for example, by pre-training with sufficiently different subsets of the total learning data sets that are present, and / or by pre-training based on sufficiently different initializations.
  • the modifications can, for example, be pre-trained independently of one another. However, it is also possible, for example, to bundle the pre-training in that only one trainable module or a modification is trained and further modifications are only generated from this module or this modification after this training has been completed.
  • learning input variable values of at least one learning data set are fed to all modifications as input variables. These identical learning input variable values are used by the different learning input variable values.
  • Modifications translated into different output values A measure for the uncertainty of these output variable values is determined from the deviation of these output variable values from one another.
  • the output variable values can be, for example, Softmax scores which indicate the probabilities with which the learning data set is classified into which of the possible classes.
  • Any statistical function can be used to determine the uncertainty from a large number of output variable values.
  • Examples of such statistical functions are the variance, the standard deviation, the mean value, the median, a suitably chosen quantile, the entropy and the variation ratio.
  • Deviations between those output variable values which are supplied by modifications generated in different ways are compared separately from one another. For example, the
  • Deviations between output variable values that were supplied by modifications resulting from "dropouts" and the deviations between output variable values that were supplied by modifications that were otherwise structurally changed are considered separately from one another.
  • the terms “deviations” and “uncertainty” are not restricted to the one-dimensional, univariate case, but encompass sizes of any dimension. For example, there can be several
  • Uncertainty features are combined to get a multivariate uncertainty. This increases the accuracy of differentiation between learning data sets with an appropriate assignment of the learning output variable values to the learning input variable values (i.e. "appropriately labeled" learning data sets) on the one hand and learning data sets with an incorrect assignment (i.e.
  • the weighting of the learning data set is adjusted in the training of the trainable module, and / or one or more learning output variable values of the learning data set are adjusted. It was recognized that with an appropriate assignment of the learning output variable values to the learning input variable values, the different modifications of the trainable module have a tendency to
  • the adjustment of the weighting can go so far that a learning data set recognized as incorrectly labeled is no longer taken into account in further training.
  • one or more learning output variable values of the learning data set can also be adapted.
  • a partially or completely incorrect assignment of learning output variable values to learning input variable values is the ultimate cause of a greater uncertainty in the output variable values.
  • An adjustment of the learning output values tackles the evil of the high uncertainty, so to speak, at the root.
  • the adaptation of the learning output variable value can be aimed specifically at reducing the uncertainty. So it can be aimed specifically at reducing the uncertainty. So it can be aimed specifically at reducing the uncertainty. So it can be aimed specifically at reducing the uncertainty. So it can be aimed specifically at reducing the uncertainty. So it can be aimed specifically at reducing the uncertainty. So it can be aimed specifically at reducing the uncertainty. So it can be aimed specifically at reducing the uncertainty. So it can be aimed specifically at reducing the uncertainty. So it can
  • the learning output variable value can be varied in accordance with any optimization algorithm or any other search strategy with the optimization aim of reducing the uncertainty.
  • Such a correction is self-consistent and does not require any prior knowledge as to which new learning output variable is correct.
  • a combination of both measures can be useful, for example, if the efforts to obtain more accurate learning output variable values (labels) are only successful for some of the learning data sets. Learning data sets whose learning output variable values prove to be incorrect and also cannot be improved can then, for example, be underweighted or completely disregarded.
  • adaptable parameters that characterize the behavior of the trainable module are optimized. The aim of this optimization is to improve the value of a cost function.
  • the cost function measures the extent to which the trainable module maps the learning input variable values contained in the learning data sets to the associated learning output variable values.
  • the cost function measures how well the learning output variable values are reproduced.
  • Any desired error measure can be used to assess the extent to which the learning output variable values are reproduced as desired, such as the cross entropy or the method of the smallest error sum of squares.
  • This process is modified in such a way that, in response to the fact that the specified criterion is met, the weighting of at least one learning data set in the cost function is reduced.
  • a learning data set can be weighted less, the higher the uncertainty of the output variable values determined on the basis of its learning input variable values. This can go to the point that, in response to the fact that the uncertainty fulfills a given criterion, this learning data set falls out of the cost function entirely, i.e. is no longer used for further training of the trainable module. This is based on the knowledge that the additional benefit brought about by taking into account another learning data set is the result of an imprecise or incorrect learning output value in the training process
  • the specified criterion can in particular include, for example, that the uncertainty is greater or smaller than a specified quantile of the learning input variable values determined from a large number of other learning data sets Uncertainties or as a predetermined threshold.
  • the criterion can include that the learning data record belongs to those k% learning data records whose learning input variable values have
  • Output variable values are translated with the highest uncertainties. This means that the uncertainties for which these k% learning data sets are responsible are at least as great as the uncertainties that arise from all other learning data sets that do not belong to the k%. This is based on the knowledge that selective measures, such as adjusting the weighting and / or the label, have the greatest effect on those learning data sets that are labeled the most inappropriately.
  • the adaptation of one or more learning output variable values can in particular include requesting the input of at least one new learning output variable value via an input device.
  • the assignment of the new learning output variable value to the learning input variable values can be carried out by an expert with regard to the correct interpretation of the learning input variable values.
  • images obtained by medical imaging can be labeled by specialists with regard to the anomaly, the presence or form of which is to be determined with the trainable module.
  • Measurement data recorded on mass-produced products can be labeled for these products by experts who, for example, saw through a copy of the product and examine it from the inside.
  • Images of traffic situations that the trainable module is supposed to classify for the purpose of at least partially automated driving can be labeled, for example, by an expert in traffic law who also knows how to correctly interpret complicated traffic situations with a combination of several traffic signs.
  • the adaptation of one or more learning output variable values includes at least one output variable value that the trainable module and / or a modification of this trainable module assigns to the learning input variable values of the learning data set at its current training level, and /or one
  • Offsetting several such output variable values to set this learning data set as a new learning output variable value can include, for example, a mean value or median.
  • the uncertainty whose course is examined can be measured with a different statistical measure than the uncertainty with which it is established at all that there is a need for improvement with regard to at least one learning output variable. It was recognized that this minimum marks the transition between the aforementioned learning of the basics, which is not yet affected by the influence of false labels, and the increasing dilution of this
  • the training level that is optimal in this respect can alternatively or also in combination with this also be determined via the accuracy with which the validation input variable values from validation data sets are transferred to associated
  • Validation output values are mapped.
  • the validation data records are data records which, analogous to the learning data records, contain an assignment of input variable values to target output variable values.
  • the trainable module is deliberately not trained on the validation data sets. Therefore, the accuracy determined with the help of the validation data sets measures the ability of the trainable module to generalize the knowledge learned from the learning data sets. So good values for the accuracy cannot be determined by mere
  • the validation data records can also advantageously be characterized in that the assignment of the validation output variable values to the validation input variable values comes from a particularly reliable source.
  • the validation data records can therefore be labeled in particular, for example, with a particularly reliable and therefore complex method, by a specially designated expert for the respective application, and / or according to a “gold standard” recognized for the respective application.
  • the effort per label is therefore usually considerably greater for the validation data sets than for the learning data sets. Accordingly, there are typically significantly fewer
  • Validation data sets are available as learning data sets.
  • the relevant learning output variable values are assigned to the learning input variable values in all learning data records, then it is to be expected that when testing the trainable module with the validation data records, the accuracy increases monotonically with increasing epoch number e of the training until it is at some point in a saturation goes. If, on the other hand, the assignment is incorrect for some of the learning data sets, then the accuracy will assume a maximum after the said learning of the basics, before it decreases again due to learning from the wrong labels.
  • the validation input variable values from validation data sets are related to the associated validation Output variable values are mapped, assuming a maximum at an epoch number b2
  • Error measure such as a mean
  • the qualitative course of both the uncertainty and the accuracy changes significantly as a function of the number of epochs e if a certain proportion of incorrectly labeled learning data sets is added to correctly labeled learning data sets. Therefore, in a further particularly advantageous embodiment, the course of the uncertainty, and / or the accuracy, as a function of the epoch number e of the preliminary training thereupon
  • the epoch number e of the pre-training predominantly increases, it can be established that the assignment of the learning output variable values to the learning input variable values is essentially correct in all learning data sets.
  • “predominantly” is to be understood as meaning, for example, an essentially monotonic curve which converges to a constant value. Small statistical fluctuations in the other direction do not affect this.
  • the course of the uncertainty as a function of the epoch number e of the preliminary training is evaluated only for those uncertainties that are greater or smaller than a predetermined quantile of the uncertainties determined from learning input variable values from a large number of learning data sets or as a given
  • the course of the uncertainty can, for example, be evaluated with a summary statistic. For example, a mean, a median, a variance and / or a
  • Standard deviation used to determine the uncertainties of the output variable values.
  • the summarizing statistics can be kept separately, for example, on those output variable values which are applicable or not applicable in the light of the respective learning output variable values in accordance with a predetermined criterion. If the trainable module is designed as a classifier, for example, a first mean value or median of the uncertainties of those can be used
  • Output variable values are formed which assign the respective learning input variable values to the correct class.
  • a second mean value or median can be formed from the uncertainties of those output variable values that assign the respective learning input variable values to the wrong class.
  • the output variables supplied by the trainable module can in particular contain a classification, regression and / or semantic segmentation of the input measurement data. Especially in determining this
  • the invention also relates to a parameter set with parameters which characterize the behavior of a trainable module and were obtained with the method described above. These parameters can
  • weights can be used to activate inputs from neurons or other processing units in an ANN.
  • Arithmetic units are offset. This parameter set embodies the effort that has been invested in the training and is therefore an independent product.
  • the invention also relates to a further method which the
  • a trainable module is first trained with the method described above. This trainable module is then operated by feeding it input variable values. This
  • Input variable values include measurement data obtained by a physical measurement process and / or by a partial or complete simulation of such a measurement process and / or by a partial or complete simulation
  • Classification system and / or a system for quality control of mass-produced products, and / or a system for medical imaging, controlled with a control signal.
  • the methods can be implemented entirely or partially by computer.
  • the invention therefore also relates to a computer program machine-readable instructions which, when executed on one or more computers, cause the computer or computers to carry out one of the methods described. In this sense are too
  • Control units for vehicles and embedded systems for technical devices which are also able to execute machine-readable instructions, are to be regarded as computers.
  • the invention also relates to a machine-readable one
  • a download product is a product that can be transmitted over a data network, i.e. digital product downloadable by a user of the data network that
  • Figure 1 embodiment of the method 100 for training
  • FIG. 2 exemplary embodiment of the method 200 with continuation of the functional chain up to the control of physical systems 50, 60, 70, 80;
  • FIG. 3 recognition of whether incorrectly labeled learning data records are still available via the course of the uncertainty 13b as a function of the epoch number e;
  • FIG. 4 recognition of whether incorrectly labeled learning data records are still available via the course of the accuracy 15 as a function of the epoch number e.
  • FIG. 1 shows an exemplary embodiment of the method 100 for training a trainable module 1.
  • step 110 a plurality of modifications 1a-1c of the trainable module 1 are pretrained with at least a subset of the existing learning data sets 2.
  • Each learning data record 2 contains learning input variable values 11a and associated learning output variable values 13a.
  • step 120 learning input variable values 11a from learning data records 2 are supplied to all modifications 1a-1c as input variables 11.
  • Each modification la-lc generates its own output variable value 13 from this.
  • step 125 one or more modifications la-lc are tested on the basis of validation data sets 3.
  • the modification la-lc is supplied with the validation input variable values 11a * of each validation data record 3 as input variables 11.
  • the accuracy 15 is determined with which the modification la-lc reproduces the respective validation output variable values 13a * from this. This accuracy 15 has depending on the
  • the epoch number e of the preliminary training 110 has a time course 15 (e).
  • a measure for the uncertainty 13b of the output variable values 13 is determined in step 130 from the deviations of these output variable values 13 from one another.
  • the accuracy 15 can be derived from the direct comparison of the
  • Output variable values 13 can be determined with the learning output variable values 13a with any degree of error.
  • the uncertainty 13b, its course 13b (e) Depending on the epoch number e of the preliminary training 110 and the accuracy 15 can be evaluated in the following steps individually or in combination, as described below.
  • step 140 it is checked whether the uncertainty 13b of the output variable values 13, which were determined using the learning input variable values 11a of this learning dataset 2, meets a predetermined criterion for at least one learning data record 2. If this is the case (truth value 1), then in step 180 the weighting of the learning data record 2 is adapted in the training of the trainable module 1, and / or one or more learning output variable values 13a of the learning data record 2 are adapted in step 190 .
  • step 170 the extent to which the assignment of the learning output variable values 13a to the learning input variable values 11a in the learning data records 2 is evaluated from the course 13b (e) of the uncertainty 13b, or from the course 15 (e) of the accuracy 15 is applicable overall. That is, it is checked whether the existing learning data records 2 are essentially all correctly labeled or whether the correctly labeled learning data records 2 are also joined by incorrectly labeled learning data records 2 to a significant extent.
  • the focus is specifically on those uncertainties 13b that are greater or smaller than a predetermined quantile of the uncertainties 13b determined from learning input variable values 11a of a plurality of learning data records 2 or as a
  • predetermined threshold For example, only the largest 25% of the uncertainties 13b can be taken into account.
  • step 180 the weighting of the learning data record 2 is adjusted in the training of the trainable module 1, then this can be integrated into the training with a cost function 14, for example.
  • adjustable parameters 12 which characterize the behavior of the trainable module 1 are optimized with the aim of improving the value of the cost function 14.
  • the cost function 14 measures the extent to which the trainable module 1 maps the learning input variable values 11a contained in learning data sets 2 to the associated learning output variable values 13a.
  • the weighting of at least one learning data record 2 in the cost function 14 is reduced. According to block 182a, for example, this can go up to the point at which the learning data record 2 is no longer taken into account in the cost function 2.
  • At least one new learning output variable value 13a can for example according to block 191 via a
  • the new learning output variable value 13a can be used, for example, by an expert on the basis of the learning input variables values 11a can be determined and entered. Alternatively or in combination with this, at least one output variable value 13, which the trainable module 1 and / or one of its modifications 1a-1c determines to the learning input variable values 11a, can be determined as the new learning output variable value 13a.
  • the trainable module 1 can in a certain way use a “self-healing power”. As explained above, this works particularly well if the trainable module 1 has not yet learned too much from incorrectly labeled learning data sets 2, that is to say the training status of a suitable epoch (for example ei or b2) is selected for this.
  • FIG. 2 shows an exemplary embodiment of the method 200.
  • a trainable module 1 is trained using the method 100 described above.
  • the module trained in this way is operated in step 220 in that input variable values 11 with physically recorded and / or simulated measurement data that relate to a technical system are supplied to it.
  • a control signal 5 is formed in step 230 from the output variable values 13 then supplied by the trainable module 1.
  • a vehicle 50 and / or a classification system 60 and / or a system 70 for quality control of mass-produced products and / or a system 80 for medical imaging is controlled with this control signal 5.
  • FIG. 3 illustrates by way of example how, on the basis of the course 13b (e) of the uncertainty 13b as a function of the epoch number e, it can be determined whether the
  • Curve a represents the case in which both correctly labeled and incorrectly labeled learning data sets 2 are present.
  • the uncertainty 13b initially decreases in the course of the training, since the positive initialization of the training is based on a generally random initialization
  • FIG. 4 illustrates by way of example how, on the basis of the course 15 (e) of the accuracy 15 determined with the validation data records 3 as a function of the epoch number e, it can be determined whether the existing learning data records 2 in
  • curve a represents the case in which both correctly labeled and incorrectly labeled learning data records 2 are present.
  • the accuracy 15 initially increases because the positive effect due to the appropriately labeled learning data sets 2 outweigh the negative effect due to the contradictions with the incorrectly labeled learning data sets 2.
  • Curve b represents the case in which essentially only appropriately labeled learning data sets 2 are available. Here the positive learning effect continues until the accuracy 15 finally converges towards saturation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

The invention relates to a method (100) for training a trainable module (1), having the following steps: a plurality of modification processes (1a-1c) of the trainable module (1), said modification processes differing from one another to such a degree that the modification processes do not completely lead over to one another during a progressive learning process, are each pre-trained (110) at least using a sub-quantity of learning data sets (2); • learning input variable values (11a) of at least one learning data set (2) are fed (120) to all of the modification processes (1a-1c) as input variables (11); • the degree of uncertainty (13b) of output variable values (13) is ascertained (130) from the deviation of the output variable values (13), into which each of the learning input variable values (11a) are converted by the modification processes (1a-1c), from one another, and • in response to the uncertainty (13b) satisfying a specified criterion (140), the weighting of the learning data set (2) when training the trainable module (1) is adapted (180) and/or one or more learning output variable values (13a) of the learning data set (2) are adapted (190). The invention also relates to a method (200) in which the trainable module is further operated (220) and actuates a system (50, 60, 70, 80) using an actuation signal (5).

Description

Beschreibung description
Titel: Title:
Erkennung und Behebung von Rauschen in Labels von Lern-Daten für trainierbare Module Detection and elimination of noise in labels of learning data for trainable modules
Die vorliegende Erfindung betrifft das Training trainierbarer Module, wie sie beispielsweise für Klassifikationsaufgaben und/oder Objekterkennung beim zumindest teilweise automatisierten Fahren eingesetzt werden. The present invention relates to the training of trainable modules, such as are used, for example, for classification tasks and / or object recognition in at least partially automated driving.
Stand der Technik State of the art
Das Führen eines Fahrzeugs im Straßenverkehr durch einen menschlichen Fahrer wird in der Regel trainiert, indem ein Fahrschüler im Rahmen seiner Ausbildung immer wieder mit einem bestimmten Kanon an Situationen konfrontiert wird. Der Fahrschüler muss auf diese Situationen jeweils reagieren und bekommt durch Kommentare oder gar ein Eingreifen des Fahrlehrers eine Rückmeldung, ob seine Reaktion richtig oder falsch war. Dieses Training mit einer endlichen Anzahl von Situationen soll den Fahrschüler dazu befähigen, beim eigenständigen Führen des Fahrzeugs auch unbekannte Situationen zu meistern. The driving of a vehicle in traffic by a human driver is usually trained by repeatedly confronting a learner driver with a certain canon of situations as part of his training. The learner driver has to react to these situations and receives feedback from comments or even intervention by the driving instructor as to whether his reaction was correct or incorrect. This training with a finite number of situations is intended to enable the learner driver to master even unfamiliar situations while driving the vehicle independently.
Um Fahrzeuge ganz oder teilweise automatisiert am Straßenverkehr teilnehmen zu lassen, wird angestrebt, diese mit in ganz ähnlicher Weise trainierbaren Modulen zu steuern. Diese Module erhalten beispielsweise Sensordaten aus dem Fahrzeugumfeld als Eingangsgrößen und liefern als Ausgangsgrößen Ansteuersignale, mit denen in den Betrieb des Fahrzeugs eingegriffen wird, und/oder Vorprodukte, aus denen derartige Ansteuersignale gebildet werden. Beispielsweise kann eine Klassifikation von Objekten im Umfeld des Fahrzeugs ein derartiges Vorprodukt sein. Für dieses Training wird eine hinreichende Menge an Lern- Datensätzen benötigt, die jeweils Lern- Eingangsgrößenwerte und zugehörige Lern-Ausgangsgrößen- werte umfassen. Beispielsweise können die Lern- Eingangsgrößenwerte Bilder umfassen und mit der Information, welche Objekte in den Bildern enthalten sind, als Lern-Ausgangsgrößenwerte gelabelt sein. In order to allow vehicles to participate fully or partially automatically in road traffic, the aim is to control them with modules that can be trained in a very similar way. These modules receive, for example, sensor data from the vehicle environment as input variables and, as output variables, supply control signals with which the operation of the vehicle is intervened, and / or preliminary products from which such control signals are formed. For example, a classification of objects in the vicinity of the vehicle can be such a preliminary product. For this training, a sufficient amount of learning data sets is required, each of which includes learning input variable values and associated learning output variable values. For example, the learning input variable values can include images and can be labeled as learning output variable values with the information about which objects are contained in the images.
Offenbarung der Erfindung Disclosure of the invention
Im Rahmen der Erfindung wurde ein Verfahren zum Trainieren eines In the context of the invention, a method for training a
trainierbaren Moduls entwickelt. Das trainierbare Modul übersetzt eine oder mehrere Eingangsgrößen in eine oder mehrere Ausgangsgrößen. trainable module. The trainable module translates one or more input variables into one or more output variables.
Unter einem trainierbaren Modul wird insbesondere ein Modul angesehen, das eine mit anpassbaren Parametern parametrierte Funktion mit großer Kraft zur Verallgemeinerung verkörpert. Die Parameter können beim Training eines trainierbaren Moduls insbesondere dergestalt angepasst werden, dass bei Eingabe von Lern- Eingangsgrößenwerten in das Modul die zugehörigen Lern- Ausgangsgrößenwerte möglichst gut reproduziert werden. Das trainierbare Modul kann insbesondere ein künstliches neuronales Netzwerk, KNN, beinhalten, und/oder es kann ein KNN sein. A trainable module is viewed in particular as a module that embodies a function parameterized with adaptable parameters with great force for generalization. During the training of a trainable module, the parameters can in particular be adapted in such a way that when learning input variable values are input into the module, the associated learning output variable values are reproduced as well as possible. The trainable module can in particular contain an artificial neural network, ANN, and / or it can be an ANN.
Das Training erfolgt anhand von Lern- Datensätzen, die Lern- Eingangsgrößen werte und zugehörige Lern-Ausgangsgrößenwerte als Labels enthalten. Dabei umfassen mindestens die Lern- Eingangsgrößenwerte Messdaten, die durch einen physikalischen Messprozess, und/oder durch eine teilweise oder vollständige Simulation eines solchen Messprozesses, und/oder durch eine teilweise oder vollständige Simulation eines mit einem solchen Messprozess beobachtbaren technischen Systems, erhalten wurden. Anders als bei rein synthetischen Daten stehen also nach dem maschinellen Erfassen von Lern- Eingangsgrößenwerten nicht auch gleich die zugehörigen Lern- Ausgangsgrößenwerte als Labels bereit, sondern diese Labels müssen in einem je nach technischer Anwendung mehr oder weniger aufwändigen Prozess ermittelt werden. Meistens erfordert dieser Prozess menschliche Arbeit und ist dementsprechend fehleranfällig. Der Begriff„Lern- Datensatz“ bezeichnet nicht die Gesamtheit aller zur Verfügung stehender Lern-Daten, sondern eine Kombination aus einem oder mehreren Lern- Eingangsgrößenwerten und genau diesen Lern- Eingangsgrößenwerten als Labels zugeordneten Lern-Ausgangsgrößenwerten. Bei einem für die The training takes place on the basis of learning data sets which contain learning input variable values and associated learning output variable values as labels. In this case, at least the learning input variable values include measurement data obtained through a physical measurement process and / or through a partial or complete simulation of such a measurement process and / or through a partial or complete simulation of a technical system that can be observed with such a measurement process. In contrast to purely synthetic data, after the machine recording of learning input variable values, the associated learning output variable values are not immediately available as labels, but these labels must be determined in a process that is more or less complex depending on the technical application. Most of the time, this process requires human work and is accordingly prone to errors. The term “learning data set” does not designate the entirety of all available learning data, but a combination of one or more learning input variable values and learning output variable values assigned to precisely these learning input variable values as labels. With one for them
Klassifikation und/oder Regression eingesetzten trainierbaren Modul kann ein Lern- Datensatz beispielsweise ein Bild als Matrix von Lern- Eingangsgrößenwerten in Kombination mit den Softmax-Scores, die das trainierbare Modul hieraus idealerweise generieren sollte, als Vektor von Lern- Ausgangsgrößenwerten umfassen. Classification and / or regression used trainable module, a learning data record, for example, an image as a matrix of learning input variable values in combination with the Softmax scores, which the trainable module should ideally generate therefrom, as a vector of learning output variable values.
Im Rahmen des Verfahrens wird eine Mehrzahl von Abwandlungen des trainierbaren Moduls jeweils mindestens mit einer Teilmenge der Lern- Datensätze vortrainiert. Dabei unterscheiden sich die Abwandlungen so weit voneinander, dass sie bei fortschreitendem Lernen nicht deckungsgleich ineinander überführt werden. Die Abwandlungen können beispielsweise strukturell unterschiedlich sein. Beispielsweise können mehrere Abwandlungen von KNNs erzeugt werden, indem jeweils unterschiedliche Neuronen im Rahmen eines„Dropouts“ deaktiviert werden. Die Abwandlungen können aber auch beispielsweise durch Vortraining mit hinreichend unterschiedlichen Teilmengen der insgesamt vorhandenen Lern- Datensätze, und/oder durch Vortraining ausgehend von hinreichend unterschiedlichen Initialisierungen, erzeugt werden. As part of the method, a plurality of modifications of the trainable module are each pre-trained with at least a subset of the learning data records. The modifications differ so widely that they are not transferred congruently into one another as the learning progresses. The modifications can be structurally different, for example. For example, several modifications of ANNs can be generated by deactivating different neurons as part of a "dropout". However, the modifications can also be generated, for example, by pre-training with sufficiently different subsets of the total learning data sets that are present, and / or by pre-training based on sufficiently different initializations.
Die Abwandlungen können beispielsweise unabhängig voneinander vortrainiert werden. Es ist jedoch auch beispielsweise möglich, das Vortraining zu bündeln, indem nur ein trainierbares Modul oder eine Abwandlung trainiert wird und erst nach Abschluss dieses Trainings aus diesem Modul, bzw. dieser Abwandlung, weitere Abwandlungen erzeugt werden. The modifications can, for example, be pre-trained independently of one another. However, it is also possible, for example, to bundle the pre-training in that only one trainable module or a modification is trained and further modifications are only generated from this module or this modification after this training has been completed.
Nach dem Vortraining werden Lern- Eingangsgrößenwerte mindestens eines Lern- Datensatzes allen Abwandlungen als Eingangsgrößen zugeführt. Diese identischen Lern- Eingangsgrößenwerte werden von den verschiedenen After the preliminary training, learning input variable values of at least one learning data set are fed to all modifications as input variables. These identical learning input variable values are used by the different
Abwandlungen in verschiedene Ausgangsgrößenwerte übersetzt. Aus der Abweichung dieser Ausgangsgrößenwerte voneinander wird ein Maß für die Unsicherheit dieser Ausgangsgrößenwerte ermittelt. Dabei können die Ausgangsgrößenwerte beispielsweise Softmax-Scores sein, die angeben, mit welchen Wahrscheinlichkeiten der Lern- Datensatz in welche der möglichen Klassen klassifiziert wird. Modifications translated into different output values. A measure for the uncertainty of these output variable values is determined from the deviation of these output variable values from one another. The output variable values can be, for example, Softmax scores which indicate the probabilities with which the learning data set is classified into which of the possible classes.
Für die Ermittlung der Unsicherheit aus einer Vielzahl Ausgangsgrößenwerte kann eine beliebige Statistikfunktion verwendet werden. Beispiele für solche Statistikfunktionen sind die Varianz, die Standardabweichung, der Mittelwert, der Median, ein geeignet gewähltes Quantil, die Entropie und das Variation Ratio. Any statistical function can be used to determine the uncertainty from a large number of output variable values. Examples of such statistical functions are the variance, the standard deviation, the mean value, the median, a suitably chosen quantile, the entropy and the variation ratio.
Sofern die Abwandlungen des trainierbaren Moduls auf verschiedene Weisen erzeugt worden sind, beispielsweise einerseits durch„Dropouts“ und Provided that the modifications of the trainable module have been generated in different ways, for example on the one hand by "dropouts" and
andererseits durch sonstige strukturelle Änderungen oder durch eine andere Initialisierung des Vortrainings, können insbesondere beispielsweise die on the other hand through other structural changes or through a different initialization of the pre-training, in particular, for example, the
Abweichungen zwischen denjenigen Ausgangsgrößenwerten, die von auf verschiedene Weisen erzeugten Abwandlungen geliefert werden, getrennt voneinander verglichen werden. Es können also beispielsweise die Deviations between those output variable values which are supplied by modifications generated in different ways are compared separately from one another. For example, the
Abweichungen zwischen Ausgangsgrößenwerten, die von durch„Dropouts“ entstandenen Abwandlungen geliefert wurden, und die Abweichungen zwischen Ausgangsgrößenwerten, die von in sonstiger Weise strukturell geänderten Abwandlungen geliefert wurden, getrennt voneinander betrachtet werden. Deviations between output variable values that were supplied by modifications resulting from "dropouts" and the deviations between output variable values that were supplied by modifications that were otherwise structurally changed are considered separately from one another.
Die Begriffe„Abweichungen“ und„Unsicherheit“ sind in diesem Zusammenhang nicht auf den eindimensionalen, univariaten Fall beschränkt, sondern umfassen Größen beliebiger Dimension. Es können also beispielsweise mehrere In this context, the terms “deviations” and “uncertainty” are not restricted to the one-dimensional, univariate case, but encompass sizes of any dimension. For example, there can be several
Unsicherheits-Merkmale kombiniert werden, um eine multivariate Unsicherheit zu erhalten. Dies erhöht die Unterscheidungsgenauigkeit zwischen Lern- Datensätzen mit zutreffender Zuordnung der Lern-Ausgangsgrößenwerte zu den Lern- Eingangsgrößenwerten (d.h.„zutreffend gelabelten“ Lern- Datensätzen) einerseits und Lern- Datensätzen mit unzutreffender Zuordnung (d.h. Uncertainty features are combined to get a multivariate uncertainty. This increases the accuracy of differentiation between learning data sets with an appropriate assignment of the learning output variable values to the learning input variable values (i.e. "appropriately labeled" learning data sets) on the one hand and learning data sets with an incorrect assignment (i.e.
„unzutreffend gelabelten“ Lern- Datensätzen) andererseits. “Incorrectly labeled” learning data sets) on the other hand.
In Antwort darauf, dass die Unsicherheit ein vorgegebenes Kriterium erfüllt, wird die Gewichtung des Lern- Datensatzes im Training des trainierbaren Moduls angepasst, und/oder es werden ein oder mehrere Lern-Ausgangsgrößenwerte des Lern- Datensatzes angepasst. Es wurde erkannt, dass sich bei einer zutreffenden Zuordnung der Lern- Ausgangsgrößenwerte zu den Lern- Eingangsgrößenwerten die unterschiedlichen Abwandlungen des trainierbaren Moduls eine Tendenz haben, In response to the fact that the uncertainty fulfills a predetermined criterion, the weighting of the learning data set is adjusted in the training of the trainable module, and / or one or more learning output variable values of the learning data set are adjusted. It was recognized that with an appropriate assignment of the learning output variable values to the learning input variable values, the different modifications of the trainable module have a tendency to
übereinstimmende„Meinungen“ bezüglich der Ausgangsgröße auszugeben. Die in der zutreffenden Zuordnung steckende Information setzt sich beim Vortraining gleichsam durch und wirkt sich dahingehend aus, dass die Unterschiede zwischen den Abwandlungen sich wenig oder gar nicht in unterschiedlichen Ausgangsgrößen manifestieren. Je weniger zutreffend die Zuordnung ist, desto mehr fehlt genau dieser Effekt und desto größer sind die Abweichungen zwischen den Ausgangsgrößenwerten, die die Abwandlungen jeweils zu den gleichen Lern- Eingangsgrößenwerten liefern. to issue unanimous "opinions" regarding the initial size. The information contained in the relevant assignment asserts itself in the pre-training, as it were, and has the effect that the differences between the modifications manifest themselves little or not at all in different output variables. The less accurate the assignment, the more precisely this effect is missing and the greater are the deviations between the output variable values that deliver the modifications to the same learning input variable values.
Werden alle Lern- Datensätze in dieser Weise analysiert, dann wird sich typischerweise heraussteilen, dass die Zuordnung für einige Lern- Datensätze in einem höheren Maße zutreffend ist als für andere Lern- Datensätze. Hierin spiegelt sich hauptsächlich wider, dass die Zuordnung, also das Labein, bei den meisten Anwendungen trainierbarer Module von Menschen vorgenommen wird und dementsprechend fehleranfällig ist. Beispielsweise kann dem Menschen im Interesse eines hohen Durchsatzes pro Lern- Datensatz nur eine sehr kurze Zeit zur Verfügung stehen, so dass er in Zweifelsfällen nicht genauer nachforschen kann, sondern irgendeine Entscheidung treffen muss. Auch können If all learning data sets are analyzed in this way, then it will typically emerge that the assignment is more accurate for some learning data sets than for other learning data sets. This mainly reflects the fact that the assignment, i.e. the label, is made by people in most applications of trainable modules and is accordingly prone to errors. For example, in the interest of a high throughput per learning data set, humans can only have a very short time available so that in cases of doubt they cannot investigate more precisely, but have to make some kind of decision. Also can
beispielsweise unterschiedliche Bearbeiter die Kriterien, nach denen sie labein sollen, unterschiedlich auslegen. Wirft beispielsweise ein Objekt in einem Bild einen Schatten, so kann ein Bearbeiter diesen Schatten mit zum Objekt zählen, da er ja durch die Anwesenheit des Objekts verursacht wurde. Hingegen kann ein anderer Bearbeiter den Schatten nicht zum Objekt zählen mit der For example, different editors interpret the criteria according to which they should be labeled differently. For example, if an object casts a shadow in an image, an operator can count this shadow as part of the object, since it was caused by the presence of the object. However, another editor cannot count the shadow as part of the object with the
Begründung, dass der Schatten nichts ist, womit ein Mensch oder Fahrzeug kollidieren kann. Reason that the shadow is not something that a person or vehicle can collide with.
Ebenso gibt es beispielsweise beim Labein medizinischer Daten, wie Likewise, for example, there are medical data such as
beispielsweise Bilddaten, Mehrdeutigkeiten. Für die Erkennung vieler for example image data, ambiguities. For the recognition of many
Krankheiten und der jeweiligen Ausprägungsgrade ist eine konkrete Methode als „Goldstandard“ anerkannt, um die jeweilige Aussage mit größtmöglicher Diseases and the respective degree of severity, a concrete method is recognized as the "gold standard" to make the respective statement with the greatest possible
Genauigkeit zu treffen. Diese Genauigkeit geht jedoch häufig mit einem so hohen Aufwand einher, dass es nicht praktikabel ist, alle für das Training des trainierbaren Moduls benötigen Lern- Datensätze auf diese Weise zu labein. To meet accuracy. However, this accuracy often goes with such a high level Effort is associated with the fact that it is not practicable to labein all of the learning data sets required for training the trainable module in this way.
Möglichen negativen Effekten, die ein möglicherweise unzutreffendes Labein von Lern- Datensätzen hat, kann entgegengewirkt werden, indem die Gewichtung des Lern- Datensatzes im Training des trainierbaren Moduls angepasst wird. Possible negative effects that a possibly inaccurate labeling of learning data sets may have can be counteracted by adapting the weighting of the learning data set in the training of the trainable module.
Insbesondere können Widersprüche, die sich beim Training durch die In particular, contradictions that arise during training through the
Verarbeitung zutreffend gelabelter Lern- Datensätze einerseits und unzutreffend gelabelter Lern- Datensätze andererseits ergeben, gemildert oder ganz aufgelöst werden. Die Anpassung der Gewichtung kann so weit gehen, dass ein als unzutreffend gelabelt erkannter Lern- Datensatz gar nicht mehr beim weiteren Training berücksichtigt wird. Processing of correctly labeled learning data sets on the one hand and incorrectly labeled learning data sets on the other hand result, mitigate or completely dissolve. The adjustment of the weighting can go so far that a learning data set recognized as incorrectly labeled is no longer taken into account in further training.
Alternativ oder auch in Kombination zu der Anpassung der Gewichtung können auch eine oder mehrere Lern- Ausgangsgrößenwerte des Lern- Datensatzes angepasst werden. Wie zuvor erläutert, ist eine teilweise oder vollständig unzutreffende Zuordnung von Lern-Ausgangsgrößenwerten zu Lern- Eingangsgrößenwerten die letztendliche Ursache für eine höhere Unsicherheit der Ausgangsgrößenwerte. Eine Anpassung der Lern-Ausgangsgrößenwerte packt das Übel der hohen Unsicherheit sozusagen an der Wurzel. Alternatively or also in combination with the adaptation of the weighting, one or more learning output variable values of the learning data set can also be adapted. As explained above, a partially or completely incorrect assignment of learning output variable values to learning input variable values is the ultimate cause of a greater uncertainty in the output variable values. An adjustment of the learning output values tackles the evil of the high uncertainty, so to speak, at the root.
Im einfachsten Fall kann die Anpassung des Lern-Ausgangsgrößenwerts gezielt darauf gerichtet sein, die Unsicherheit zu vermindern. Es kann also In the simplest case, the adaptation of the learning output variable value can be aimed specifically at reducing the uncertainty. So it can
beispielsweise der Lern-Ausgangsgrößenwert nach Maßgabe eines beliebigen Optimierungsalgorithmus oder einer beliebigen anderen Suchstrategie variiert werden mit dem Optimierungsziel, die Unsicherheit zu vermindern. Eine derartige Korrektur ist selbstkonsistent und benötigt kein Vorwissen darüber, welcher neue Lern-Ausgangsgrößenwert richtig ist. For example, the learning output variable value can be varied in accordance with any optimization algorithm or any other search strategy with the optimization aim of reducing the uncertainty. Such a correction is self-consistent and does not require any prior knowledge as to which new learning output variable is correct.
Eine Kombination beider Maßnahmen kann insbesondere beispielsweise dann sinnvoll sein, wenn die Bemühungen, zutreffendere Lern-Ausgangsgrößenwerte (Labels) zu beschaffen, nur für einen Teil der Lern- Datensätze erfolgreich sind. Lern- Datensätze, deren Lern-Ausgangsgrößenwerte sich als unzutreffend erweisen und auch nicht verbessern lassen, können dann beispielsweise untergewichtet werden oder ganz unberücksichtigt bleiben. In einer besonders vorteilhaften Ausgestaltung werden anpassbare Parameter, die das Verhalten des trainierbaren Moduls charakterisieren, optimiert. Diese Optimierung hat zum Ziel, den Wert einer Kostenfunktion zu verbessern. Die Kostenfunktion misst, inwieweit das trainierbare Modul die in Lern- Datensätzen enthaltenen Lern- Eingangsgrößenwerte auf die zugehörigen Lern- Ausgangsgrößenwerte abbildet. A combination of both measures can be useful, for example, if the efforts to obtain more accurate learning output variable values (labels) are only successful for some of the learning data sets. Learning data sets whose learning output variable values prove to be incorrect and also cannot be improved can then, for example, be underweighted or completely disregarded. In a particularly advantageous embodiment, adaptable parameters that characterize the behavior of the trainable module are optimized. The aim of this optimization is to improve the value of a cost function. The cost function measures the extent to which the trainable module maps the learning input variable values contained in the learning data sets to the associated learning output variable values.
Beim herkömmlichen Training trainierbarer Module sind alle Lern- Datensätze in dieser Hinsicht gleichberechtigt, d.h., die Kostenfunktion misst, wie gut die Lern- Ausgangsgrößenwerte reproduziert werden. Für die Bewertung, inwieweit die Lern-Ausgangsgrößenwerte wie gewünscht reproduziert werden, kann ein beliebiges Fehlermaß zum Einsatz kommen, wie etwa die Kreuzentropie oder die Methode der kleinsten Fehlerquadratsumme. In conventional training of trainable modules, all learning data sets have equal rights in this regard, i.e. the cost function measures how well the learning output variable values are reproduced. Any desired error measure can be used to assess the extent to which the learning output variable values are reproduced as desired, such as the cross entropy or the method of the smallest error sum of squares.
Dieser Prozess wird dahingehend abgeändert, dass in Antwort darauf, dass das vorgegebene Kriterium erfüllt ist, die Gewichtung mindestens eines Lern- Datensatzes in der Kostenfunktion reduziert wird. This process is modified in such a way that, in response to the fact that the specified criterion is met, the weighting of at least one learning data set in the cost function is reduced.
Beispielsweise kann ein Lern- Datensatz umso geringer gewichtet werden, je höher die auf der Basis seiner Lern- Eingangsgrößenwerte ermittelte Unsicherheit der Ausgangsgrößenwerte ist. Dies kann bis zu dem Punkt gehen, dass in Antwort darauf, dass die Unsicherheit ein vorgegebenes Kriterium erfüllt, dieser Lern- Datensatz aus der Kostenfunktion ganz herausfällt, d.h., für das weitere Training des trainierbaren Moduls gar nicht mehr verwendet wird. Hierhinter steckt die Erkenntnis, dass der Zusatznutzen, den die Berücksichtigung eines weiteren Lern- Datensatzes bringt, durch die sich aus einem ungenauen oder falschen Lern-Ausgangsgrößenwert im Trainingsprozess ergebenden For example, a learning data set can be weighted less, the higher the uncertainty of the output variable values determined on the basis of its learning input variable values. This can go to the point that, in response to the fact that the uncertainty fulfills a given criterion, this learning data set falls out of the cost function entirely, i.e. is no longer used for further training of the trainable module. This is based on the knowledge that the additional benefit brought about by taking into account another learning data set is the result of an imprecise or incorrect learning output value in the training process
Widersprüche ganz oder teilweise kompensiert, oder sogar überkompensiert, werden kann. Keine Information kann also besser sein als eine falsche Contradictions can be fully or partially compensated, or even overcompensated. So no information can be better than wrong
Information. Information.
Das vorgegebene Kriterium kann insbesondere beispielsweise beinhalten, dass die Unsicherheit größer oder kleiner ist als ein vorgegebenes Quantil der aus Lern- Eingangsgrößenwerten einer Vielzahl anderer Lern- Datensätze ermittelten Unsicherheiten oder als ein vorgegebener Schwellwert. Beispielsweise kann das Kriterium beinhalten, dass der Lern- Datensatz zu denjenigen k % Lern- Datensätzen gehört, deren Lern- Eingangsgrößenwerte auf The specified criterion can in particular include, for example, that the uncertainty is greater or smaller than a specified quantile of the learning input variable values determined from a large number of other learning data sets Uncertainties or as a predetermined threshold. For example, the criterion can include that the learning data record belongs to those k% learning data records whose learning input variable values have
Ausgangsgrößenwerte mit den höchsten Unsicherheiten übersetzt werden. Das bedeutet, dass die Unsicherheiten, für die diese k % Lern- Datensätze verantwortlich sind, mindestens so groß sind wie die Unsicherheiten, die von allen anderen, nicht zu den k % gehörenden, Lern -Datensätzen herrühren. Hierhinter steckt die Erkenntnis, dass selektive Maßnahmen, wie das Anpassen der Gewichtung und/oder des Labels, bei denjenigen Lern-Datensätzen, die am unzutreffendsten gelabelt sind, den größten Effekt haben. Output variable values are translated with the highest uncertainties. This means that the uncertainties for which these k% learning data sets are responsible are at least as great as the uncertainties that arise from all other learning data sets that do not belong to the k%. This is based on the knowledge that selective measures, such as adjusting the weighting and / or the label, have the greatest effect on those learning data sets that are labeled the most inappropriately.
Das Anpassen eines oder mehrerer Lern-Ausgangsgrößenwerte, also des Labels, kann insbesondere beinhalten, die Eingabe mindestens eines neuen Lern-Ausgangsgrößenwerts über eine Eingabeeinrichtung anzufordern. The adaptation of one or more learning output variable values, that is to say the label, can in particular include requesting the input of at least one new learning output variable value via an input device.
Insbesondere kann die Zuordnung des neuen Lern-Ausgangsgrößenwerts zu den Lern- Eingangsgrößenwerten durch einen Experten in Bezug auf die richtige Deutung der Lern- Eingangsgrößenwerte erfolgen. So können beispielsweise Bilder, die durch medizinische Bildgebung erhalten werden, von Fachärzten in Bezug auf die Anomalie, deren Vorhandensein bzw. Ausprägung mit dem trainierbaren Modul festgestellt werden soll, gelabelt werden. Messdaten, die an in Serie hergestellten Produkten erfasst wurden, können von Experten für diese Produkte gelabelt werden, die beispielsweise ein Exemplar des Produkts durchsägen und von innen begutachten. Bilder von Verkehrssituationen, die das trainierbare Modul für die Zwecke des zumindest teilweise automatisierten Fahrens klassifizieren soll, können beispielsweise von einem Experten für Verkehrsrecht gelabelt werden, der auch komplizierte Verkehrssituationen mit einer Kombination aus mehreren Verkehrszeichen richtig zu deuten weiß. In particular, the assignment of the new learning output variable value to the learning input variable values can be carried out by an expert with regard to the correct interpretation of the learning input variable values. For example, images obtained by medical imaging can be labeled by specialists with regard to the anomaly, the presence or form of which is to be determined with the trainable module. Measurement data recorded on mass-produced products can be labeled for these products by experts who, for example, saw through a copy of the product and examine it from the inside. Images of traffic situations that the trainable module is supposed to classify for the purpose of at least partially automated driving can be labeled, for example, by an expert in traffic law who also knows how to correctly interpret complicated traffic situations with a combination of several traffic signs.
Die genannten Beispiele zeigen, dass es aufwändig sein kann, für einen unzutreffend gelabelten Lern- Datensatz durch Mitwirkung eines Experten ein neues, zutreffenderes Label zu beschaffen. Dies mag inhaltlich auf dem jeweiligen Fachgebiet der„Goldstandard“ sein, jedoch ist der Experte nicht immer sofort verfügbar. Daher beinhaltet in einer weiteren besonders vorteilhaften Ausgestaltung das Anpassen eines oder mehrerer Lern-Ausgangsgrößenwerte, mindestens einen Ausgangsgrößenwert, den das trainierbare Modul, und/oder eine Abwandlung dieses trainierbaren Moduls, bei seinem aktuellen Trainingsstand den Lern- Eingangsgrößenwerten des Lern- Datensatzes zuordnet, und/oder eine The examples mentioned show that it can be time-consuming to obtain a new, more appropriate label for an incorrectly labeled learning data set with the help of an expert. In terms of content, this may be the “gold standard” in the respective subject area, but the expert is not always immediately available. Therefore, in a further particularly advantageous embodiment, the adaptation of one or more learning output variable values includes at least one output variable value that the trainable module and / or a modification of this trainable module assigns to the learning input variable values of the learning data set at its current training level, and /or one
Verrechnung mehrerer derartiger Ausgangsgrößenwerte, als neuen Lern- Ausgangsgrößenwert dieses Lern- Datensatzes zu setzen. Die Verrechnung kann beispielsweise einen Mittelwert oder Median umfassen. Offsetting several such output variable values to set this learning data set as a new learning output variable value. The offsetting can include, for example, a mean value or median.
Hierzu kann es insbesondere vorteilhaft sein, für das Vortraining der For this purpose, it can be particularly advantageous for the pre-training of the
Abwandlungen eine Epochenzahl e zu wählen, bei der zwar schon die Modifications to choose an epoch number e, in which the
Grundzüge des inhaltlichen Zusammenhangs zwischen Lern- Eingangsgrößen werten und Lern-Ausgangsgrößenwerten gelernt wurden, jedoch das im Basics of the contextual relationship between learning input values and learning output values have been learned, but that in
Einzelfall falsche Label eines Lern- Datensatzes noch nicht endgültig gelernt wurde. In individual cases the wrong label of a learning data set has not yet been finally learned.
Die Situation ist in gewisser Weise vergleichbar damit, dass erzieherische Maßnahmen der Jugendgerichtsbarkeit die gewünschte Verhaltensänderung mit der größten Wahrscheinlichkeit bewirken, wenn sie im passenden Stadium des Entwicklungsprozesses verabreicht werden. Ein zu junges Kind würde etwa durch Arrest oder Sozialstunden lediglich verschreckt, ohne den Sinn zu begreifen, während ein Jugendlicher, dessen kriminelle Fehlentwicklung bereits gefestigt ist, die neuerliche Maßnahme vielleicht nur noch mit den Worten„immer her damit, ich sammel das“ kommentiert. The situation is in some ways comparable to the fact that juvenile justice education measures are most likely to bring about the desired behavioral change if administered at the appropriate stage in the developmental process. A child who is too young would only be frightened off by arrest or social hours, for example, without understanding the point, while a young person, whose criminal misconduct is already established, may only comment on the new measure with the words “always bring it on, I'll collect it”.
Daher wird in einer besonders vorteilhaften Ausgestaltung in Antwort darauf, dass der Verlauf mindestens einer Unsicherheit als Funktion der Epochenzahl e des Vortrainings bei einer Epochenzahl ei ein Minimum annimmt, die Therefore, in a particularly advantageous embodiment, in response to the fact that the course of at least one uncertainty as a function of the epoch number e of the preliminary training assumes a minimum for an epoch number ei, the
Abwandlungen zur Ermittlung der Ausgangsgrößenwerte auf einem Modifications for determining the output variable values on a
Trainingsstand betrieben werden, der der Epochenzahl e=ei entspricht. Dabei kann insbesondere beispielsweise diejenige Unsicherheit, deren Verlauf untersucht, mit einem anderen statistischen Maß gemessen werden als diejenige Unsicherheit, mit der überhaupt festgestellt wird, dass bezüglich mindestens eines Lern-Ausgangsgrößenwerts Verbesserungsbedarf besteht. Es wurde erkannt, dass dieses Minimum den Übergang markiert zwischen dem besagten Lernen der Grundzüge, das noch nicht durch den Einfluss falscher Labels beeinträchtigt wird, und dem zunehmenden Verwässern dieses Be operated, which corresponds to the epoch number e = ei. For example, the uncertainty whose course is examined can be measured with a different statistical measure than the uncertainty with which it is established at all that there is a need for improvement with regard to at least one learning output variable. It was recognized that this minimum marks the transition between the aforementioned learning of the basics, which is not yet affected by the influence of false labels, and the increasing dilution of this
Lernerfolgs durch das Lernen aus falschen Labels. Insbesondere liefert das trainierbare Modul, bzw. die Abwandlung, im Minimum bei e=ei zu einem falsch gelabelten Lern- Eingangsgrößenwert eine vergleichsweise genaue Schätzung, welches Label stattdessen zutreffend ist. Successful learning by learning from wrong labels. In particular, the trainable module, or the modification, provides a comparatively accurate estimate of which label is applicable instead, at a minimum at e = ei for an incorrectly labeled learning input variable value.
Sollten im Wesentlichen in allen Lern- Datensätzen die Zuordnungen zwischen den Lern- Eingangsgrößenwerten und den Lern-Ausgangsgrößenwerten korrekt sein, dann ist im Verlauf der Unsicherheit kein oder nur ein sehr schwach ausgeprägtes Minimum zu erwarten. Vielmehr wird die Unsicherheit dann monoton mit der Epochenzahl e sinken, um irgendwann abzuflachen. If the assignments between the learning input variable values and the learning output variable values are essentially correct in all learning data sets, then no or only a very weak minimum is to be expected in the course of the uncertainty. Rather, the uncertainty will then decrease monotonically with the number of epochs e, only to level off at some point.
In der Regel kann man in dem Zustand mit Epochenzahl e=ei noch nicht erkennen, dass genau hier das Minimum liegt. Dies wird erst dann offenkundig, wenn bei Werten e>ei die ermittelte Unsicherheit wieder steigt. Wird dies aber erkannt, dann kann für die weitere Untersuchung der Trainingsstand in den Abwandlungen auf die Epoche e=ei zurückgesetzt werden. As a rule, in the state with epoch number e = ei, it is not yet possible to recognize that the minimum is precisely here. This only becomes apparent when the determined uncertainty increases again for values e> ei. If this is recognized, however, then the training status in the modifications can be reset to the epoch e = ei for further investigation.
Der in dieser Hinsicht optimale Trainingsstand lässt sich alternativ oder auch in Kombination hierzu auch über die Genauigkeit bestimmen, mit der Validierungs- Eingangsgrößenwerte aus Validierungs-Datensätzen auf zugehörige The training level that is optimal in this respect can alternatively or also in combination with this also be determined via the accuracy with which the validation input variable values from validation data sets are transferred to associated
Validierungs-Ausgangsgrößenwerte abgebildet werden. Validation output values are mapped.
Bei den Validierungs-Datensätzen handelt es sich um Datensätze, die analog zu den Lern- Datensätzen eine Zuordnung von Eingangsgrößenwerten zu Soll- Ausgangsgrößenwerten beinhalten. Jedoch wird das trainierbare Modul bewusst nicht auf den Validierungs-Datensätzen trainiert. Daher misst die mit Hilfe der Validierungs-Datensätze ermittelte Genauigkeit die Fähigkeit des trainierbaren Moduls, das aus den Lern- Datensätzen gelernte Wissen zu verallgemeinern. Gute Werte für die Genauigkeit lassen sich also nicht durch bloßes The validation data records are data records which, analogous to the learning data records, contain an assignment of input variable values to target output variable values. However, the trainable module is deliberately not trained on the validation data sets. Therefore, the accuracy determined with the help of the validation data sets measures the ability of the trainable module to generalize the knowledge learned from the learning data sets. So good values for the accuracy cannot be determined by mere
„Auswendiglernen“ dieses Wissens„erschleichen“. Die Validierungs-Datensätze können sich weiterhin vorteilhaft dadurch auszeichnen, dass die Zuordnung der Validierungs-Ausgangsgrößenwerte zu den Validierungs- Eingangsgrößenwerten aus einer besonders zuverlässigen Quelle stammt. Die Validierungs-Datensätze können also insbesondere beispielsweise mit einer besonders zuverlässigen und dafür aufwändigen Methode, von einem besonders ausgewiesenen Experten für die jeweilige Anwendung, und/oder nach einem für die jeweilige Anwendung anerkannten„Goldstandard“, gelabelt sein. Der Aufwand pro Label ist also in der Regel bei den Validierungs-Datensätzen erheblich größer als bei den Lern- Datensätzen. Dementsprechend stehen typischerweise deutlich weniger "Trickle" to "memorize" this knowledge. The validation data records can also advantageously be characterized in that the assignment of the validation output variable values to the validation input variable values comes from a particularly reliable source. The validation data records can therefore be labeled in particular, for example, with a particularly reliable and therefore complex method, by a specially designated expert for the respective application, and / or according to a “gold standard” recognized for the respective application. The effort per label is therefore usually considerably greater for the validation data sets than for the learning data sets. Accordingly, there are typically significantly fewer
Validierungs-Datensätze als Lern- Datensätze zur Verfügung. Validation data sets are available as learning data sets.
Wenn in allen Lern- Datensätzen den Lern- Eingangsgrößenwerten jeweils die zutreffenden Lern-Ausgangsgrößenwerte zugeordnet sind, dann ist zu erwarten, dass beim Test des trainierbaren Moduls mit den Validierungs-Datensätzen die Genauigkeit mit zunehmender Epochenzahl e des Trainings monoton zunimmt, bis sie irgendwann in eine Sättigung geht. Ist hingegen die Zuordnung für einen Teil der Lern- Datensätze nicht zutreffend, so wird die Genauigkeit nach dem besagten Lernen der Grundzüge ein Maximum annehmen, bevor sie durch das Lernen aus den falschen Labels wieder abnimmt. If the relevant learning output variable values are assigned to the learning input variable values in all learning data records, then it is to be expected that when testing the trainable module with the validation data records, the accuracy increases monotonically with increasing epoch number e of the training until it is at some point in a saturation goes. If, on the other hand, the assignment is incorrect for some of the learning data sets, then the accuracy will assume a maximum after the said learning of the basics, before it decreases again due to learning from the wrong labels.
Daher wird in einer weiteren vorteilhaften Ausgestaltung in Antwort darauf, dass die von dem trainierbaren Modul, und/oder von mindestens einer Abwandlung, als Funktion der Epochenzahl e des jeweiligen Trainings erzielte Genauigkeit, mit der Validierungs-Eingangsgrößenwerte aus Validierungs-Datensätzen auf die zugehörigen Validierungs-Ausgangsgrößenwerte abgebildet werden, bei einer Epochenzahl b2 ein Maximum annimmt, die Abwandlungen zur Ermittlung der Ausgangsgrößenwerte auf einem Trainingsstand betrieben, der der Epochenzahl e=e2 entspricht. Für die Ermittlung der Genauigkeit kann ein beliebiges Therefore, in a further advantageous embodiment, in response to the fact that the accuracy achieved by the trainable module and / or by at least one modification as a function of the epoch number e of the respective training, the validation input variable values from validation data sets are related to the associated validation Output variable values are mapped, assuming a maximum at an epoch number b2, the modifications for determining the output variable values are operated on a training level which corresponds to the epoch number e = e 2 . Any of the following can be used to determine the accuracy
Fehlermaß zum Einsatz kommen, wie beispielsweise eine mittlere Error measure are used, such as a mean
betragsmäßige Abweichung, eine mittlere quadratische Abweichung, die absolute deviation, a mean square deviation, the
Kreuzentropie oder die Methode der kleinsten Fehlerquadratsumme. Cross entropy, or the least square sum method.
Analog zur Bestimmung des Minimums der Unsicherheit wird man bei e=e2 nicht sofort erkennen, dass hier das Maximum liegt. Offenkundig wird dies erst, wenn die Genauigkeit für höhere Epochenzahlen e wieder fällt. Die Abwandlungen werden dann für die weitere Untersuchung auf den Trainingsstand e=e2 zurückgedreht. Der Weg über die Genauigkeit liefert eine anhand der Validierungs-Datensätze abgesicherte Bestimmung der Epochenzahl e, auf der die Abwandlungen sinnvollerweise betrieben werden sollten. Es wurde jedoch erkannt, dass der auf dem Weg über die Unsicherheit ermittelte Wert ei eine gute Approximation für den Wert
Figure imgf000014_0001
ist. Diese Approximation ist auch dann verfügbar, wenn
Analogous to the determination of the minimum of the uncertainty, one will not immediately recognize at e = e 2 that the maximum is here. This only becomes apparent when the accuracy drops again for higher epoch numbers e. The modifications are then turned back to the training level e = e 2 for further investigation. The route via the accuracy provides a determination of the epoch number e, on which the modifications should sensibly be carried out, which is secured by means of the validation data records. However, it was recognized that the value ei determined on the way via the uncertainty is a good approximation for the value
Figure imgf000014_0001
is. This approximation is also available if
Validierungs-Datensätze nicht oder nur mit zu hohem Aufwand beschafft werden können. Validation data records cannot be obtained or only with too much effort.
Wie zuvor erläutert, ändert sich der qualitative Verlauf sowohl der Unsicherheit als auch der Genauigkeit als Funktion der Epochenzahl e deutlich, wenn sich zu zutreffend gelabelten Lern- Datensätzen ein gewisser Anteil unzutreffend gelabelter Lern- Datensätze gesellt. Daher wird in einer weiteren besonders vorteilhaften Ausgestaltung aus dem Verlauf der Unsicherheit, und/oder der Genauigkeit, als Funktion der Epochenzahl e des Vortrainings darauf As explained above, the qualitative course of both the uncertainty and the accuracy changes significantly as a function of the number of epochs e if a certain proportion of incorrectly labeled learning data sets is added to correctly labeled learning data sets. Therefore, in a further particularly advantageous embodiment, the course of the uncertainty, and / or the accuracy, as a function of the epoch number e of the preliminary training thereupon
geschlossen, inwieweit die Zuordnung der Lern-Ausgangsgrößenwerte zu den Lern- Eingangsgrößenwerten in den Lern- Datensätzen zutreffend ist. concluded to what extent the assignment of the learning output variable values to the learning input variable values in the learning data sets is correct.
Insbesondere kann in Antwort darauf, dass die Unsicherheit als Funktion der Epochenzahl e des Vortrainings überwiegend abnimmt, festgestellt werden, dass die Zuordnung der Lern-Ausgangsgrößenwerte zu den Lern- Eingangsgrößenwerten im Wesentlichen in allen Lern- Datensätzen zutreffend ist. In particular, in response to the fact that the uncertainty predominantly decreases as a function of the epoch number e of the preliminary training, it can be determined that the assignment of the learning output variable values to the learning input variable values is essentially correct in all learning data sets.
Ebenso kann in Antwort darauf, dass die Genauigkeit als Funktion der Likewise, in response that accuracy can be a function of
Epochenzahl e des Vortrainings überwiegend steigt, festgestellt werden, dass die Zuordnung der Lern-Ausgangsgrößenwerte zu den Lern- Eingangsgrößenwerten im Wesentlichen in allen Lern- Datensätzen zutreffend ist. The epoch number e of the pre-training predominantly increases, it can be established that the assignment of the learning output variable values to the learning input variable values is essentially correct in all learning data sets.
Hierbei ist unter„überwiegend“ jeweils insbesondere beispielsweise ein im Wesentlichen monotoner Verlauf zu verstehen, der gegen einen konstanten Wert konvergiert. Kleine statistische Ausschläge in die jeweils andere Richtung tun dem keinen Abbruch. In this context, “predominantly” is to be understood as meaning, for example, an essentially monotonic curve which converges to a constant value. Small statistical fluctuations in the other direction do not affect this.
Unter„im Wesentlichen in allen Lern- Datensätzen zutreffend“ ist insbesondere zu verstehen, dass unzutreffende Labels allenfalls noch in einem so geringen Umfang vorhanden sind, dass sich die hieraus beim Training des trainierbaren Moduls entstehenden Widersprüche mit fortschreitender Epochenzahl e des Trainings nicht gegenüber dem auf der Basis zutreffender Labels erzielten Lernerfolg durchsetzen. Under “essentially applicable in all learning data sets” is to be understood in particular that incorrect labels are at most only so low There is scope so that the contradictions arising from this during the training of the trainable module do not prevail as the number of epochs of the training progresses against the learning success achieved on the basis of the applicable labels.
Wie zuvor erläutert, sind häufig nur vergleichsweise wenig unzutreffend gelabelte Lern- Datensätze dafür verantwortlich, dass die Leistung eines damit trainierten trainierbaren Moduls verschlechtert wird. Meistens handelt es sich bei den auftretenden Fehlern um Einzelfehler und nicht um systematische Fehler. Daher ist auch das in den Unsicherheiten steckende Messsignal bezüglich unzutreffend gelabelter Lern- Datensätze im Wesentlichen in den höchsten Unsicherheiten konzentriert. As explained above, learning data sets that are not labeled appropriately are often responsible for the deterioration in the performance of a trainable module trained with them. Most of the errors that occur are individual errors and not systematic errors. Therefore, the measurement signal contained in the uncertainties with regard to incorrectly labeled learning data sets is essentially concentrated in the highest uncertainties.
Daher wird in einer weiteren besonders vorteilhaften Ausgestaltung der Verlauf der Unsicherheit als Funktion der Epochenzahl e des Vortrainings nur für diejenigen Unsicherheiten ausgewertet, die größer oder kleiner sind als ein vorgegebenes Quantil der aus Lern- Eingangsgrößenwerten einer Vielzahl von Lern- Datensätzen ermittelten Unsicherheiten oder als ein vorgegebener Therefore, in a further particularly advantageous embodiment, the course of the uncertainty as a function of the epoch number e of the preliminary training is evaluated only for those uncertainties that are greater or smaller than a predetermined quantile of the uncertainties determined from learning input variable values from a large number of learning data sets or as a given
Schwellwert. Threshold.
Der Verlauf der Unsicherheit kann beispielsweise mit einer zusammenfassenden Statistik ausgewertet werden. So kann beispielsweise für jede Epochenzahl e des Vortrainings ein Mittelwert, ein Median, eine Varianz, und/oder eine The course of the uncertainty can, for example, be evaluated with a summary statistic. For example, a mean, a median, a variance and / or a
Standardabweichung, über die Unsicherheiten der Ausgangsgrößenwerte ermittelt werden. Die zusammenfassende Statistik kann beispielsweise über solche Ausgangsgrößenwerte, die im Licht der jeweiligen Lern- Ausgangsgrößenwerte nach Maßgabe eines vorgegebenen Kriteriums zutreffend bzw. nicht zutreffend sind, separat geführt werden. Ist das trainierbare Modul beispielsweise als Klassifikator ausgebildet, so kann beispielsweise ein erster Mittelwert oder Median über die Unsicherheiten derjenigen Standard deviation used to determine the uncertainties of the output variable values. The summarizing statistics can be kept separately, for example, on those output variable values which are applicable or not applicable in the light of the respective learning output variable values in accordance with a predetermined criterion. If the trainable module is designed as a classifier, for example, a first mean value or median of the uncertainties of those can be used
Ausgangsgrößenwerte gebildet werden, die die jeweiligen Lern- Eingangsgrößenwerte der korrekten Klasse zuordnen. Ein zweiter Mittelwert oder Median kann über die Unsicherheiten derjenigen Ausgangsgrößenwerte gebildet werden, die die jeweiligen Lern- Eingangsgrößenwerte der falschen Klasse zuordnen. Die vom trainierbaren Modul gelieferten Ausgangsgrößen können insbesondere eine Klassifikation, Regression und/oder semantische Segmentierung der eingegebenen Messdaten beinhalten. Gerade bei der Ermittlung dieser Output variable values are formed which assign the respective learning input variable values to the correct class. A second mean value or median can be formed from the uncertainties of those output variable values that assign the respective learning input variable values to the wrong class. The output variables supplied by the trainable module can in particular contain a classification, regression and / or semantic segmentation of the input measurement data. Especially in determining this
Informationen aus den eingegebenen Messdaten kommt es auf die Information from the entered measurement data comes down to the
Verallgemeinerungsfähigkeit trainierbarer Module, wie etwa KNN, an. Ability to generalize trainable modules, such as ANN.
Die Erfindung bezieht sich auch auf einen Parametersatz mit Parametern, die das Verhalten eines trainierbaren Moduls charakterisieren und mit dem zuvor beschriebenen Verfahren erhalten wurden. Diese Parameter können The invention also relates to a parameter set with parameters which characterize the behavior of a trainable module and were obtained with the method described above. These parameters can
beispielsweise Gewichte sein, mit denen Eingaben von Neuronen oder sonstigen Recheneinheiten in einem KNN zu Aktivierungen dieser Neuronen bzw. For example, weights can be used to activate inputs from neurons or other processing units in an ANN.
Recheneinheiten verrechnet werden. Dieser Parametersatz verkörpert den Aufwand, der in das Training investiert wurde, und ist insofern ein eigenständiges Produkt. Arithmetic units are offset. This parameter set embodies the effort that has been invested in the training and is therefore an independent product.
Die Erfindung bezieht sich auch auf ein weiteres Verfahren, welches die The invention also relates to a further method which the
Fortsetzung der mit dem Training begonnenen Wirkkette bis hin zur Ansteuerung physischer Systeme beinhaltet. Continuation of the chain of effects started with the training up to the control of physical systems.
Bei diesem Verfahren wird zunächst ein trainierbares Modul mit dem zuvor beschriebenen Verfahren trainiert. Dieses trainierbare Modul wird anschließend betrieben, indem ihm Eingangsgrößenwerte zugeführt werden. Diese In this method, a trainable module is first trained with the method described above. This trainable module is then operated by feeding it input variable values. This
Eingangsgrößenwerte umfassen Messdaten, die durch einen physikalischen Messprozess, und/oder durch eine teilweise oder vollständige Simulation eines solchen Messprozesses, und/oder durch eine teilweise oder vollständige Input variable values include measurement data obtained by a physical measurement process and / or by a partial or complete simulation of such a measurement process and / or by a partial or complete simulation
Simulation eines mit einem solchen Messprozess beobachtbaren technischen Systems, erhalten wurden. Abhängig von dem vom trainierbaren Modul gelieferten Ausgangsgrößenwerten wird ein Fahrzeug, und/oder ein Simulation of a technical system that can be observed with such a measurement process. Depending on the output variable values supplied by the trainable module, a vehicle and / or a
Klassifikationssystem, und/oder ein System zur Qualitätskontrolle von in Serie gefertigten Produkten, und/oder ein System zur medizinischen Bildgebung, mit einem Ansteuersignal angesteuert. Classification system, and / or a system for quality control of mass-produced products, and / or a system for medical imaging, controlled with a control signal.
Die Verfahren können insbesondere ganz oder teilweise computerimplementiert sein. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, eines der beschriebenen Verfahren auszuführen. In diesem Sinne sind auch In particular, the methods can be implemented entirely or partially by computer. The invention therefore also relates to a computer program machine-readable instructions which, when executed on one or more computers, cause the computer or computers to carry out one of the methods described. In this sense are too
Steuergeräte für Fahrzeuge und Embedded-Systeme für technische Geräte, die ebenfalls in der Lage sind, maschinenlesbare Anweisungen auszuführen, als Computer anzusehen. Control units for vehicles and embedded systems for technical devices, which are also able to execute machine-readable instructions, are to be regarded as computers.
Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren The invention also relates to a machine-readable one
Datenträger und/oder auf ein Downloadprodukt mit dem Computerprogramm. Ein Downloadprodukt ist ein über ein Datennetzwerk übertragbares, d.h. von einem Benutzer des Datennetzwerks downloadbares, digitales Produkt, das Data carrier and / or on a download product with the computer program. A download product is a product that can be transmitted over a data network, i.e. digital product downloadable by a user of the data network that
beispielsweise in einem Online-Shop zum sofortigen Download feilgeboten werden kann. for example, it can be offered for immediate download in an online shop.
Weiterhin kann ein Computer mit dem Computerprogramm, mit dem Furthermore, a computer with the computer program with which
maschinenlesbaren Datenträger bzw. mit dem Downloadprodukt ausgerüstet sein. machine-readable data carrier or equipped with the download product.
Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt. Further measures improving the invention are shown in more detail below together with the description of the preferred exemplary embodiments of the invention with reference to figures.
Ausführungsbeispiele Embodiments
Es zeigt: It shows:
Figur 1 Ausführungsbeispiel des Verfahrens 100 zum Trainieren; Figure 1 embodiment of the method 100 for training;
Figur 2 Ausführungsbeispiel des Verfahrens 200 mit Fortsetzung der Wirkkette bis zur Ansteuerung physischer Systeme 50, 60, 70, 80; FIG. 2 exemplary embodiment of the method 200 with continuation of the functional chain up to the control of physical systems 50, 60, 70, 80;
Figur 3 Erkennung, ob noch unzutreffend gelabelte Lern- Datensätze vorhanden sind, über den Verlauf der Unsicherheit 13b als Funktion der Epochenzahl e; Figur 4 Erkennung, ob noch unzutreffend gelabelte Lern- Datensätze vorhanden sind, über den Verlauf der Genauigkeit 15 als Funktion der Epochenzahl e. FIG. 3 recognition of whether incorrectly labeled learning data records are still available via the course of the uncertainty 13b as a function of the epoch number e; FIG. 4 recognition of whether incorrectly labeled learning data records are still available via the course of the accuracy 15 as a function of the epoch number e.
Figur 1 zeigt ein Ausführungsbeispiel des Verfahrens 100 zum Trainieren eines trainierbaren Moduls 1. In Schritt 110 wird eine Mehrzahl von Abwandlungen la-lc des trainierbaren Moduls 1 mindestens mit einer Teilmenge der vorhandenen Lern- Datensätze 2 vortrainiert. Jeder Lern- Datensatz 2 enthält Lern- Eingangsgrößenwerte 11a und zugehörige Lern-Ausgangsgrößenwerte 13a. FIG. 1 shows an exemplary embodiment of the method 100 for training a trainable module 1. In step 110, a plurality of modifications 1a-1c of the trainable module 1 are pretrained with at least a subset of the existing learning data sets 2. Each learning data record 2 contains learning input variable values 11a and associated learning output variable values 13a.
In Schritt 120 werden Lern- Eingangsgrößenwerte 11a aus Lern- Datensätzen 2 allen Abwandlungen la-lc als Eingangsgrößen 11 zugeführt. Jede Abwandlung la-lc erzeugt hieraus einen eigenen Ausgangsgrößenwert 13. Dabei können gemäß Block 121 die Abwandlungen la-lc auf einem Trainingsstand betrieben werden, der einer Epochenzahl e=ei entspricht, bei der die Unsicherheit 13b der Ausgangsgrößen 13 minimal ist. Alternativ oder auch in Kombination hierzu können gemäß Block 122 die Abwandlungen la-lc auf einem Trainingsstand betrieben werden, der einer Epochenzahl e=e2 entspricht, bei der die In step 120, learning input variable values 11a from learning data records 2 are supplied to all modifications 1a-1c as input variables 11. Each modification la-lc generates its own output variable value 13 from this. According to block 121, the modifications la-lc can be operated on a training level which corresponds to an epoch number e = ei, for which the uncertainty 13b of the output variables 13 is minimal. Alternatively or also in combination with this, the modifications la-lc can be operated on a training level according to block 122, which corresponds to an epoch number e = e2, in which the
Genauigkeit 15, mit der die Lern- Eingangsgrößenwerte 11a auf die Lern- Ausgangsgrößenwerte 13a abgebildet werden, maximal ist. Accuracy 15, with which the learning input variable values 11a are mapped onto the learning output variable values 13a, is maximum.
In Schritt 125 werden eine oder mehrere Abwandlungen la-lc, anhand von Validierungs-Datensätzen 3 getestet. Dazu werden der Abwandlung la-lc die Validierungs-Eingangsgrößenwerte 11a* eines jeden Validierungs-Datensatzes 3 als Eingangsgrößen 11 zugeführt. Es wird die Genauigkeit 15 ermittelt, mit der die Abwandlung la-lc hieraus die jeweiligen Validierungs-Ausgangsgrößenwerte 13a* reproduziert. Diese Genauigkeit 15 hat in Abhängigkeit von der In step 125, one or more modifications la-lc are tested on the basis of validation data sets 3. For this purpose, the modification la-lc is supplied with the validation input variable values 11a * of each validation data record 3 as input variables 11. The accuracy 15 is determined with which the modification la-lc reproduces the respective validation output variable values 13a * from this. This accuracy 15 has depending on the
Epochenzahl e des Vortrainings 110 einen Zeitverlauf 15(e). The epoch number e of the preliminary training 110 has a time course 15 (e).
Ein Maß für die Unsicherheit 13b der Ausgangsgrößenwerte 13 wird in Schritt 130 aus den Abweichungen dieser Ausgangsgrößenwerte 13 voneinander ermittelt. Die Genauigkeit 15 kann aus dem direkten Vergleich der A measure for the uncertainty 13b of the output variable values 13 is determined in step 130 from the deviations of these output variable values 13 from one another. The accuracy 15 can be derived from the direct comparison of the
Ausgangsgrößenwerte 13 mit den Lern-Ausgangsgrößenwerten 13a mit einem beliebigen Fehlermaß ermittelt werden. Die Unsicherheit 13b, ihr Verlauf 13b(e) in Abhängigkeit der Epochenzahl e des Vortrainings 110 sowie die Genauigkeit 15 können in den folgenden Schritten einzeln oder in Kombination ausgewertet werden wie im Folgenden beschrieben. Output variable values 13 can be determined with the learning output variable values 13a with any degree of error. The uncertainty 13b, its course 13b (e) Depending on the epoch number e of the preliminary training 110 and the accuracy 15 can be evaluated in the following steps individually or in combination, as described below.
In Schritt 140 wird geprüft, ob für mindestens einen Lern- Datensatz 2 die Unsicherheit 13b der Ausgangsgrößenwerte 13, die unter Heranziehung der Lern- Eingangsgrößenwerte 11a dieses Lern- Datensatzes 2 ermittelt wurden, ein vorgegebenes Kriterium erfüllt. Ist dies der Fall (Wahrheitswert 1), so wird in Schritt 180 die Gewichtung des Lern- Datensatzes 2 im Training des trainierbaren Moduls 1 angepasst, und/oder es werden in Schritt 190 ein oder mehrere Lern- Ausgangsgrößenwerte 13a des Lern- Datensatzes 2 angepasst. In step 140 it is checked whether the uncertainty 13b of the output variable values 13, which were determined using the learning input variable values 11a of this learning dataset 2, meets a predetermined criterion for at least one learning data record 2. If this is the case (truth value 1), then in step 180 the weighting of the learning data record 2 is adapted in the training of the trainable module 1, and / or one or more learning output variable values 13a of the learning data record 2 are adapted in step 190 .
In Schritt 150 wird geprüft, bei welcher Epochenzahl e=ei des Vortrainings 110 der Verlauf 13b(e) der Unsicherheit 13b ein Minimum annimmt. In Schritt 155 wird diese Epochenzahl e=ei als derjenige Trainingsstand eingestellt, bei dem die Abwandlungen la-lc gemäß Block 121 betrieben werden sollen. In step 150 it is checked at which epoch number e = ei of the preliminary training 110 the course 13b (e) of the uncertainty 13b assumes a minimum. In step 155, this epoch number e = ei is set as the training level at which the modifications la-lc according to block 121 are to be operated.
In Schritt 160 wird geprüft, bei welcher Epochenzahl e=e2 des Vortrainings der Verlauf 15(e) der auf der Basis der Validierungs-Datensätze 3 bestimmten Genauigkeit 15 ein Maximum annimmt. In Schritt 165 wird diese Epochenzahl e=e2 als derjenige Trainingsstand eingestellt, bei dem die Abwandlungen la-lc gemäß Block 122 betrieben werden sollen. In step 160 it is checked at which epoch number e = e2 of the pre-training the course 15 (e) of the accuracy 15 determined on the basis of the validation data sets 3 assumes a maximum. In step 165, this epoch number e = e2 is set as the training level at which the modifications la-lc according to block 122 are to be operated.
In Schritt 170 wird aus dem Verlauf 13b(e) der Unsicherheit 13b, bzw. aus dem Verlauf 15(e) der Genauigkeit 15, ausgewertet, inwieweit die Zuordnung der Lern-Ausgangsgrößenwerte 13a zu den Lern- Eingangsgrößenwerten 11a in den Lern- Datensätzen 2 insgesamt zutreffend ist. Das heißt, es wird geprüft, ob die vorhandenen Lern- Datensätze 2 im Wesentlichen alle zutreffend gelabelt sind oder ob sich zu den zutreffend gelabelten Lern- Datensätzen 2 auch in signifikantem Umfang unzutreffend gelabelte Lern -Datensätze 2 gesellen. In step 170, the extent to which the assignment of the learning output variable values 13a to the learning input variable values 11a in the learning data records 2 is evaluated from the course 13b (e) of the uncertainty 13b, or from the course 15 (e) of the accuracy 15 is applicable overall. That is, it is checked whether the existing learning data records 2 are essentially all correctly labeled or whether the correctly labeled learning data records 2 are also joined by incorrectly labeled learning data records 2 to a significant extent.
Gemäß Block 171 wird in Antwort darauf, dass die Unsicherheit 13b als Funktion der Epochenzahl e monoton abnimmt, festgestellt, dass im Wesentlichen alle Lern- Datensätze 2 zutreffend gelabelt sind. Wie zuvor erläutert, führt das Vorhandensein unzutreffend gelabelter Lern- Datensätze 2 dazu, dass durch die hierdurch erzeugten Widersprüche anfängliche Trainingserfolge zumindest teilweise zunichte gemacht werden und die Unsicherheit 13b wieder ansteigt. According to block 171, in response to the fact that the uncertainty 13b decreases monotonically as a function of the epoch number e, it is established that essentially all learning data sets 2 are correctly labeled. As explained above, the presence of incorrectly labeled learning data sets 2 leads to the contradictions generated in this way, initial training successes are at least partially nullified and the uncertainty 13b increases again.
Gemäß Block 172 wird in Antwort darauf, dass die Genauigkeit 15 als Funktion der Epochenzahl monoton steigt, festgestellt, dass im Wesentlichen alle Lern- Datensätze 2 zutreffend gelabelt sind. Sind in signifikantem Umfang unzutreffend gelabelte Lern- Datensätze 2 vorhanden, fällt diese Genauigkeit 15 nach einem anfänglichen Anstieg wieder ab, wenn sich der Einfluss der besagten According to block 172, in response to the fact that the precision 15 increases monotonically as a function of the number of epochs, it is determined that essentially all learning data sets 2 are correctly labeled. If incorrectly labeled learning data sets 2 are present to a significant extent, this accuracy 15 drops again after an initial increase if the influence of the aforementioned
Widersprüche bemerkbar macht. Makes contradictions noticeable.
Gemäß Block 173 wird bei der Prüfung des Verlaufs 13b(e) speziell auf diejenigen Unsicherheiten 13b abgestellt, die größer oder kleiner sind als ein vorgegebenes Quantil der aus Lern- Eingangsgrößenwerten 11a einer Vielzahl von Lern- Datensätzen 2 ermittelten Unsicherheiten 13b oder als ein According to block 173, when checking the course 13b (e), the focus is specifically on those uncertainties 13b that are greater or smaller than a predetermined quantile of the uncertainties 13b determined from learning input variable values 11a of a plurality of learning data records 2 or as a
vorgegebener Schwellwert. Beispielsweise können nur die größten 25 % der Unsicherheiten 13b berücksichtigt werden. predetermined threshold. For example, only the largest 25% of the uncertainties 13b can be taken into account.
Wenn in Schritt 180 die Gewichtung des Lern- Datensatzes 2 im Training des trainierbaren Moduls 1 angepasst wird, dann kann dies beispielsweise in das Training mit einer Kostenfunktion 14 integriert werden. Gemäß Block 181 werden anpassbare Parameter 12, die das Verhalten des trainierbaren Moduls 1 charakterisieren, mit dem Ziel optimiert, den Wert der Kostenfunktion 14 zu verbessern. Die Kostenfunktion 14 misst, inwieweit das trainierbare Modul 1 die in Lern- Datensätzen 2 enthaltenen Lern- Eingangsgrößenwerte 11a auf die zugehörigen Lern-Ausgangsgrößenwerte 13a abbildet. Gemäß Block 182 wird in Antwort darauf, dass das vorgegebene Kriterium 140 erfüllt ist, die Gewichtung mindestens eines Lern- Datensatzes 2 in der Kostenfunktion 14 reduziert. Dies kann beispielsweise gemäß Block 182a bis zu dem Punkt gehen, an dem der Lern- Datensatz 2 gar nicht mehr in der Kostenfunktion 2 berücksichtigt wird. If in step 180 the weighting of the learning data record 2 is adjusted in the training of the trainable module 1, then this can be integrated into the training with a cost function 14, for example. According to block 181, adjustable parameters 12 which characterize the behavior of the trainable module 1 are optimized with the aim of improving the value of the cost function 14. The cost function 14 measures the extent to which the trainable module 1 maps the learning input variable values 11a contained in learning data sets 2 to the associated learning output variable values 13a. According to block 182, in response to the predefined criterion 140 being met, the weighting of at least one learning data record 2 in the cost function 14 is reduced. According to block 182a, for example, this can go up to the point at which the learning data record 2 is no longer taken into account in the cost function 2.
Wenn in Schritt 190 ein oder mehrere Lern-Ausgangsgrößenwerte 13a des Lern- Datensatzes 2 angepasst werden, so kann beispielsweise gemäß Block 191 mindestens ein neuer Lern-Ausgangsgrößenwert 13a über eine If one or more learning output variable values 13a of the learning data record 2 are adapted in step 190, at least one new learning output variable value 13a can for example according to block 191 via a
Eingabeeinrichtung angefordert werden. Der neue Lern-Ausgangsgrößenwert 13a kann beispielsweise von einem Experten anhand der Lern-Eingangsgrößen- werte 11a ermittelt und eingegeben werden. Alternativ oder auch in Kombination hierzu kann mindestens ein Ausgangsgrößenwert 13, den das trainierbare Modul 1 und/oder eine seiner Abwandlungen la-lc zu den Lern- Eingangsgrößenwerten 11a ermittelt, als neuer Lern-Ausgangsgrößenwert 13a ermittelt werden. Das trainierbare Modul 1 kann also in gewisser Weise eine„Selbstheilungskraft“ nutzen. Wie zuvor erläutert, funktioniert dies besonders gut, wenn das trainierbare Modul 1 noch nicht zu viel aus unzutreffend gelabelten Lern- Datensätzen 2 gelernt hat, also der Trainingsstand einer geeigneten Epoche (beispielsweise ei oder b2 ) hierfür ausgewählt wird. Input device are requested. The new learning output variable value 13a can be used, for example, by an expert on the basis of the learning input variables values 11a can be determined and entered. Alternatively or in combination with this, at least one output variable value 13, which the trainable module 1 and / or one of its modifications 1a-1c determines to the learning input variable values 11a, can be determined as the new learning output variable value 13a. The trainable module 1 can in a certain way use a “self-healing power”. As explained above, this works particularly well if the trainable module 1 has not yet learned too much from incorrectly labeled learning data sets 2, that is to say the training status of a suitable epoch (for example ei or b2) is selected for this.
Figur 2 zeigt ein Ausführungsbeispiel des Verfahrens 200. In Schritt 210 dieses Verfahrens 200 wird ein trainierbares Modul 1 mit dem zuvor beschriebenen Verfahren 100 trainiert. Das solchermaßen trainierte Modul wird in Schritt 220 betrieben, indem ihm Eingangsgrößenwerte 11 mit physikalisch aufgenommenen und/oder simulierten Messdaten, die sich auf ein technisches System beziehen, zugeführt werden. Aus dem vom trainierbaren Modul 1 daraufhin gelieferten Ausgangsgrößenwerten 13 wird in Schritt 230 ein Ansteuersignal 5 gebildet. Ein Fahrzeug 50, und/oder ein Klassifikationssystem 60, und/oder ein System 70 zur Qualitätskontrolle von in Serie gefertigten Produkten, und/oder ein System 80 zur medizinischen Bildgebung, wird mit diesem Ansteuersignal 5 angesteuert. FIG. 2 shows an exemplary embodiment of the method 200. In step 210 of this method 200, a trainable module 1 is trained using the method 100 described above. The module trained in this way is operated in step 220 in that input variable values 11 with physically recorded and / or simulated measurement data that relate to a technical system are supplied to it. A control signal 5 is formed in step 230 from the output variable values 13 then supplied by the trainable module 1. A vehicle 50 and / or a classification system 60 and / or a system 70 for quality control of mass-produced products and / or a system 80 for medical imaging is controlled with this control signal 5.
Figur 3 illustriert beispielhaft, wie anhand des Verlaufs 13b(e) der Unsicherheit 13b als Funktion der Epochenzahl e festgestellt werden kann, ob die FIG. 3 illustrates by way of example how, on the basis of the course 13b (e) of the uncertainty 13b as a function of the epoch number e, it can be determined whether the
vorhandenen Lern- Datensätze 2 im Wesentlichen alle zutreffend gelabelt sind. existing learning data sets 2 are essentially all correctly labeled.
Kurve a repräsentiert den Fall, in dem sowohl zutreffend gelabelte als auch unzutreffend gelabelte Lern- Datensätze 2 vorhanden sind. Wie zuvor erläutert, nimmt im Verlauf des Trainings die Unsicherheit 13b zunächst ab, da ausgehend von einer in der Regel zufälligen Initialisierung des Trainings der positive Curve a represents the case in which both correctly labeled and incorrectly labeled learning data sets 2 are present. As explained above, the uncertainty 13b initially decreases in the course of the training, since the positive initialization of the training is based on a generally random initialization
Lerneffekt auf der Basis der zutreffend gelabelten Lern- Datensätze 2. Jenseits des Minimums der Unsicherheit 13b bei der Epochenzahl e=ei machen sich die durch die unzutreffend gelabelten Lern- Datensätze 2 bewirkten Widersprüche dahingehend bemerkbar, dass die Unsicherheit 13b wieder steigt. Kurve b repräsentiert den Fall, in dem im Wesentlichen nur zutreffend gelabelte Lern- Datensätze 2 vorhanden sind. Hier gibt es keine Widersprüche beim Training, so dass sich der positive Lerneffekt, der sich in einer stetig Learning effect on the basis of the appropriately labeled learning data sets 2. Beyond the minimum of the uncertainty 13b for the epoch number e = ei, the contradictions caused by the incorrectly labeled learning data sets 2 become noticeable in that the uncertainty 13b increases again. Curve b represents the case in which essentially only appropriately labeled learning data sets 2 are available. Here there are no contradictions in training, so that the positive learning effect that results in a steady
abnehmenden Unsicherheit 13b manifestiert, bis zum Konvergieren gegen eine Sättigung fortsetzt. decreasing uncertainty 13b until it continues to converge towards saturation.
Figur 4 illustriert beispielhaft, wie anhand des mit den Validierungs-Datensätzen 3 ermittelten Verlaufs 15(e) der Genauigkeit 15 als Funktion der Epochenzahl e festgestellt werden kann, ob die vorhandenen Lern- Datensätze 2 im FIG. 4 illustrates by way of example how, on the basis of the course 15 (e) of the accuracy 15 determined with the validation data records 3 as a function of the epoch number e, it can be determined whether the existing learning data records 2 in
Wesentlichen alle zutreffend gelabelt sind. Essentially all are properly labeled.
Analog zu Figur 3 repräsentiert Kurve a den Fall, in dem sowohl zutreffend gelabelte als auch unzutreffend gelabelte Lern- Datensätze 2 vorhanden sind. Ausgehend von der zufälligen Initialisierung des trainierbaren Moduls 1 nimmt die Genauigkeit 15 zunächst zu, weil der positive Effekt durch die zutreffend gelabelten Lern- Datensätze 2 den negativen Effekt durch die Widersprüche mit den unzutreffend gelabelten Lern- Datensätzen 2 überwiegen. Bei der Analogously to FIG. 3, curve a represents the case in which both correctly labeled and incorrectly labeled learning data records 2 are present. Starting from the random initialization of the trainable module 1, the accuracy 15 initially increases because the positive effect due to the appropriately labeled learning data sets 2 outweigh the negative effect due to the contradictions with the incorrectly labeled learning data sets 2. In the
Epochenzahl e=e2 wird ein Maximum erreicht. Jenseits dieses Maximums machen sich die Widersprüche zunehmend bemerkbar, und die Genauigkeit 15 nimmt wieder ab. The number of epochs e = e2 reaches a maximum. Beyond this maximum, the contradictions become increasingly noticeable, and the accuracy decreases again.
Kurve b repräsentiert den Fall, in dem im Wesentlichen nur zutreffend gelabelte Lern- Datensätze 2 vorhanden sind. Hier setzt sich der positive Lerneffekt fort, bis die Genauigkeit 15 schließlich gegen eine Sättigung konvergiert. Curve b represents the case in which essentially only appropriately labeled learning data sets 2 are available. Here the positive learning effect continues until the accuracy 15 finally converges towards saturation.

Claims

Ansprüche Expectations
1. Verfahren (100) zum Trainieren eines trainierbaren Moduls (1), welches eine oder mehrere Eingangsgrößen (11) in eine oder mehrere Ausgangsgrößen (13) übersetzt, mittels Lern- Datensätzen (2), die Lern- Eingangsgrößenwerte (11a) und zugehörige Lern-Ausgangsgrößenwerte (13a) enthalten, wobei mindestens die Lern- Eingangsgrößenwerte (11a) Messdaten umfassen, die durch einen physikalischen Messprozess, und/oder durch eine teilweise oder vollständige Simulation eines solchen Messprozesses, und/oder durch eine teilweise oder vollständige Simulation eines mit einem solchen Messprozess beobachtbaren technischen Systems, erhalten wurden, mit den Schritten: 1. Method (100) for training a trainable module (1) which translates one or more input variables (11) into one or more output variables (13) by means of learning data sets (2), the learning input variable values (11a) and the associated Contain learning output variable values (13a), at least the learning input variable values (11a) comprising measurement data obtained by a physical measurement process and / or by a partial or complete simulation of such a measurement process and / or by a partial or complete simulation of a such a measuring process observable technical system, with the steps:
• eine Mehrzahl von Abwandlungen (la-lc) des trainierbaren Moduls (1), die sich so weit voneinander unterscheiden, dass sie bei fortschreitendem Lernen nicht deckungsgleich ineinander überführt werden, wird jeweils mindestens mit einer Teilmenge der Lern- Datensätze (2) vortrainiert (HO); • a plurality of modifications (la-lc) of the trainable module (1), which differ from one another so far that they are not transferred congruently into one another as learning progresses, are each pre-trained with at least a subset of the learning data sets (2) ( HO);
• Lern- Eingangsgrößenwerte (11a) mindestens eines Lern- Datensatzes (2) werden allen Abwandlungen (la-lc) als Eingangsgrößen (11) zugeführt (120); • Learning input variable values (11a) of at least one learning data set (2) are fed (120) to all modifications (la-lc) as input variables (11);
• aus der Abweichung der Ausgangsgrößenwerte (13), in die die • from the deviation of the output variable values (13) into which the
Abwandlungen (la-lc) die Lern- Eingangsgrößenwerte (11a) jeweils übersetzen, voneinander wird ein Maß für die Unsicherheit (13b) dieser Ausgangsgrößenwerte (13) ermittelt (130); Modifications (la-lc) each translate the learning input variable values (11a); a measure for the uncertainty (13b) of these output variable values (13) is determined (130) from one another;
• in Antwort darauf, dass die Unsicherheit (13b) ein vorgegebenes • in response to the fact that the uncertainty (13b) is a given
Kriterium (140) erfüllt, wird die Gewichtung des Lern- Datensatzes (2) im Training des trainierbaren Moduls (1) angepasst (180), und/oder es werden ein oder mehrere Lern-Ausgangsgrößenwerte (13a) des Lern- Datensatzes (2) angepasst (190). Criterion (140) is met, the weighting of the learning data set (2) is adjusted (180) in the training of the trainable module (1), and / or one or more learning output variable values (13a) of the learning data set (2) adapted (190).
2. Verfahren (100) nach Anspruch 1, wobei anpassbare Parameter (12), die das Verhalten des trainierbaren Moduls (1) charakterisieren, optimiert werden2. The method (100) according to claim 1, wherein adaptable parameters (12) which characterize the behavior of the trainable module (1) are optimized
(181), mit dem Ziel, den Wert einer Kostenfunktion (14) zu verbessern, wobei diese Kostenfunktion (14) misst, inwieweit das trainierbare Modul (1) die in Lern- Datensätzen (2) enthaltenen Lern- Eingangsgrößenwerte (11a) auf die zugehörigen Lern-Ausgangsgrößenwerte (13a) abbildet, wobei die Gewichtung mindestens eines Lern- Datensatzes (2) in der Kostenfunktion (14) reduziert wird(181), with the aim of improving the value of a cost function (14), this cost function (14) measuring the extent to which the trainable module (1) affects the learning input variable values (11a) contained in learning data sets (2) associated learning output variable values (13a), the weighting of at least one learning data set (2) in the cost function (14) being reduced
(182), wenn das vorgegebene Kriterium (140) erfüllt ist. (182) if the specified criterion (140) is met.
3. Verfahren (100) nach Anspruch 2, wobei in Antwort darauf, dass das vorgegebene Kriterium (140) erfüllt ist, der Lern- Datensatz (2) nicht mehr in der Kostenfunktion (14) berücksichtigt wird (182a). 3. The method (100) according to claim 2, wherein in response to the fact that the predetermined criterion (140) is met, the learning data record (2) is no longer taken into account in the cost function (14) (182a).
4. Verfahren (100) nach einem der Ansprüche 1 bis 3, wobei das Kriterium (140) beinhaltet, dass die Unsicherheit (13b) größer oder kleiner ist als ein vorgegebenes Quantil der aus Lern- Eingangsgrößenwerten (11a) einer Vielzahl anderer Lern- Datensätze (2) ermittelten Unsicherheiten (13b) oder als ein vorgegebener Schwellwert. 4. The method (100) according to any one of claims 1 to 3, wherein the criterion (140) includes that the uncertainty (13b) is greater or smaller than a predetermined quantile of the learning input variable values (11a) of a large number of other learning data sets (2) determined uncertainties (13b) or as a predetermined threshold value.
5. Verfahren (100) nach einem der Ansprüche 1 bis 4, wobei das 5. The method (100) according to any one of claims 1 to 4, wherein the
Anpassen (190) eines oder mehrerer Lern-Ausgangsgrößenwerte (13a) beinhaltet, die Eingabe mindestens eines neuen Lern-Ausgangsgrößenwerts (13a) über eine Eingabeeinrichtung anzufordern (191). Adapting (190) one or more learning output variable values (13a) includes requesting (191) the input of at least one new learning output variable value (13a) via an input device.
6. Verfahren (100) nach einem der Ansprüche 1 bis 5, wobei das 6. The method (100) according to any one of claims 1 to 5, wherein the
Anpassen (190) eines oder mehrerer Lern-Ausgangsgrößenwerte (13a) beinhaltet, mindestens einen Ausgangsgrößenwert (13), den das trainierbare Modul (1), und/oder eine Abwandlung (la-lc) dieses trainierbaren Moduls (1), bei seinem aktuellen Trainingsstand den Lern- Eingangsgrößenwerten (11a) des Lern- Datensatzes (2) zuordnet, und/oder eine Verrechnung mehrerer derartiger Ausgangsgrößenwerte, als neuen Lern-Ausgangsgrößenwert (13a) dieses Lern- Datensatzes (2) zu setzen (192). Adapting (190) one or more learning output variable values (13a) includes at least one output variable value (13) that the trainable module (1), and / or a modification (la-lc) of this trainable module (1), at its current one Assigning training status to the learning input variable values (11a) of the learning data record (2) and / or setting (192) a calculation of several such output variable values as a new learning output variable value (13a) of this learning data record (2).
7. Verfahren (100) nach einem der Ansprüche 1 bis 6, wobei in Antwort darauf, dass der Verlauf mindestens einer Unsicherheit (13b) als Funktion der Epochenzahl e des Vortrainings (110) bei einer Epochenzahl ei ein Minimum annimmt (150), die Abwandlungen (la-lc) zur Ermittlung (120) der 7. The method (100) according to any one of claims 1 to 6, wherein in response to the fact that the course of at least one uncertainty (13b) as a function of The epoch number e of the preliminary training (110) when an epoch number ei assumes a minimum (150), the modifications (la-lc) for determining (120) the
Ausgangsgrößenwerte (13) auf einem Trainingsstand betrieben werden (121, 155), der der Epochenzahl e=ei entspricht. Output variable values (13) are operated (121, 155) on a training stand which corresponds to the number of epochs e = ei.
8. Verfahren (100) nach einem der Ansprüche 1 bis 7, wobei in Antwort darauf, dass die von dem trainierbaren Modul (1), und/oder von mindestens einer Abwandlung (la-lc), als Funktion der Epochenzahl e des jeweiligen Trainings erzielte Genauigkeit (15), mit der Validierungs- Eingangsgrößenwerte (11a*) aus Validierungs-Datensätzen (3) auf die zugehörigen Validierungs-Ausgangsgrö ßenwerte (13a*) abgebildet werden, bei einer Epochenzahl b2 ein Maximum annimmt (160), die Abwandlungen (la-lc) zur Ermittlung (120) der 8. The method (100) according to any one of claims 1 to 7, wherein in response to that of the trainable module (1), and / or of at least one modification (la-lc), as a function of the epoch number e of the respective training Achieved accuracy (15) with which the validation input variable values (11a *) from validation data records (3) are mapped onto the associated validation output variable values (13a *), with an epoch number b2 assumes a maximum (160), the modifications ( la-lc) to determine (120) the
Ausgangsgrößenwerte (13) auf einem Trainingsstand betrieben werden (122, 165), der der Epochenzahl e=e2 entspricht. Output variable values (13) are operated (122, 165) on a training stand which corresponds to the epoch number e = e2.
9. Verfahren (100) nach einem der Ansprüche 1 bis 8, wobei aus dem Verlauf der Unsicherheit (13b), und/oder der Genauigkeit (15), als Funktion der Epochenzahl e des Vortrainings (110) darauf geschlossen wird (170), inwieweit die Zuordnung der Lern-Ausgangsgrößenwerte (13a) zu den Lern- Eingangsgrößenwerten (11a) in den Lern- Datensätzen (2) zutreffend ist. 9. The method (100) according to any one of claims 1 to 8, wherein from the course of the uncertainty (13b), and / or the accuracy (15), as a function of the epoch number e of the preliminary training (110) it is concluded (170), the extent to which the assignment of the learning output variable values (13a) to the learning input variable values (11a) in the learning data sets (2) is correct.
10. Verfahren (100) nach Anspruch 9, wobei in Antwort darauf, dass die Unsicherheit (13b) als Funktion der Epochenzahl e des Vortrainings (110) überwiegend abnimmt, festgestellt wird (171), dass die Zuordnung der Lern- Ausgangsgrößenwerte (13a) zu den Lern- Eingangsgrößenwerten (11a) im Wesentlichen in allen Lern- Datensätzen (2) zutreffend ist. 10. The method (100) according to claim 9, wherein in response to the fact that the uncertainty (13b) predominantly decreases as a function of the epoch number e of the preliminary training (110), it is established (171) that the assignment of the learning output variable values (13a) is essentially applicable to the learning input variable values (11a) in all learning data sets (2).
11. Verfahren (100) nach einem der Ansprüche 9 bis 10, wobei in Antwort darauf, dass die Genauigkeit (15) als Funktion der Epochenzahl e des 11. The method (100) according to any one of claims 9 to 10, wherein in response to the fact that the accuracy (15) as a function of the epoch number e des
Vortrainings (110) überwiegend steigt, festgestellt wird (172), dass die Pre-training (110) predominantly increases, it is found (172) that the
Zuordnung der Lern-Ausgangsgrößenwerte (13a) zu den Lern- Eingangsgrößenwerten (11a) im Wesentlichen in allen Lern- Datensätzen (2) zutreffend ist. Assignment of the learning output variable values (13a) to the learning input variable values (11a) is essentially correct in all learning data sets (2).
12. Verfahren (100) nach einem der Ansprüche 7 bis 11, wobei der Verlauf der Unsicherheit (13b) als Funktion der Epochenzahl e des Vortrainings (110) nur für diejenigen Unsicherheiten (13b) ausgewertet wird (173), die größer oder kleiner sind als ein vorgegebenes Quantil der aus Lern- Eingangsgrößenwerten (11a) einer Vielzahl von Lern- Datensätzen (2) ermittelten Unsicherheiten (13b) oder als ein vorgegebener Schwellwert. 12. The method (100) according to any one of claims 7 to 11, wherein the course of the uncertainty (13b) as a function of the epoch number e of the preliminary training (110) is evaluated (173) only for those uncertainties (13b) that are larger or smaller as a predetermined quantile of the uncertainties (13b) determined from learning input variable values (11a) of a multiplicity of learning data sets (2) or as a predetermined threshold value.
13. Verfahren (100) nach einem der Ansprüche 1 bis 12, wobei die vom trainierbaren Modul (1) gelieferten Ausgangsgrößen (13) eine Klassifikation, Regression und/oder semantische Segmentierung der eingegebenen Messdaten beinhalten. 13. The method (100) according to any one of claims 1 to 12, wherein the output variables (13) supplied by the trainable module (1) contain a classification, regression and / or semantic segmentation of the input measurement data.
14. Verfahren (200) mit den Schritten: 14. Method (200) with the steps:
• ein trainierbares Modul (1) wird mit dem Verfahren (100) nach einem der Ansprüche 1 bis 13 trainiert (210); • a trainable module (1) is trained (210) with the method (100) according to one of claims 1 to 13;
• das trainierbare Modul (1) wird betrieben (220), indem ihm • the trainable module (1) is operated (220) by him
Eingangsgrößenwerte (11) zugeführt werden, wobei diese Input variable values (11) are supplied, these
Eingangsgrößenwerte (11) Messdaten umfassen, die durch einen physikalischen Messprozess, und/oder durch eine teilweise oder vollständige Simulation eines solchen Messprozesses, und/oder durch eine teilweise oder vollständige Simulation eines mit einem solchen Messprozess beobachtbaren technischen Systems, erhalten wurden; Input variable values (11) comprise measurement data obtained through a physical measurement process and / or through a partial or complete simulation of such a measurement process and / or through a partial or complete simulation of a technical system that can be observed with such a measurement process;
• abhängig von dem vom trainierbaren Modul (1) gelieferten • depending on the one supplied by the trainable module (1)
Ausgangsgrößenwerten (13) wird ein Fahrzeug (50), und/oder ein Klassifikationssystem (60), und/oder ein System (70) für die Output variable values (13) is a vehicle (50), and / or a classification system (60), and / or a system (70) for the
Qualitätskontrolle von in Serie gefertigten Produkten, und/oder ein System (80) für die medizinische Bildgebung, mit einem Ansteuersignal (5) angesteuert (230). Quality control of mass-produced products and / or a system (80) for medical imaging, controlled (230) with a control signal (5).
15. Parametersatz mit Parametern (12), die das Verhalten eines 15. Parameter set with parameters (12) that determine the behavior of a
trainierbaren Moduls (1) charakterisieren, erhalten mit dem Verfahren nach einem der Ansprüche 1 bis 13. characterize trainable module (1) obtained with the method according to one of claims 1 to 13.
16. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 13 auszuführen. 16. Computer program containing machine-readable instructions that, when executed on one or more computers, the or the Causing computers to carry out a method according to any one of claims 1 to 13.
17. Maschinenlesbarer Datenträger und/oder Downloadprodukt mit dem Computerprogramm nach Anspruch 16. 17. Machine-readable data carrier and / or download product with the computer program according to claim 16.
18. Computer, ausgerüstet mit dem Computerprogramm nach Anspruch 16, und/oder mit dem maschinenlesbaren Datenträger und/oder Downloadprodukt nach Anspruch 17. 18. Computer equipped with the computer program according to claim 16, and / or with the machine-readable data carrier and / or download product according to claim 17.
PCT/EP2020/060006 2019-04-26 2020-04-08 Detecting and removing noise in labels of learning data for trainable modules WO2020216622A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019206049.8 2019-04-26
DE102019206049.8A DE102019206049A1 (en) 2019-04-26 2019-04-26 Detection and elimination of noise in labels of learning data for trainable modules

Publications (1)

Publication Number Publication Date
WO2020216622A1 true WO2020216622A1 (en) 2020-10-29

Family

ID=70228059

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/060006 WO2020216622A1 (en) 2019-04-26 2020-04-08 Detecting and removing noise in labels of learning data for trainable modules

Country Status (2)

Country Link
DE (1) DE102019206049A1 (en)
WO (1) WO2020216622A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117724851A (en) * 2024-02-07 2024-03-19 腾讯科技(深圳)有限公司 Data processing method, device, storage medium and equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT524821A1 (en) * 2021-03-01 2022-09-15 Avl List Gmbh Method and system for generating scenario data for testing a driver assistance system of a vehicle

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180240031A1 (en) * 2017-02-17 2018-08-23 Twitter, Inc. Active learning system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BRODLEY C E ET AL: "Identifying Mislabeled Training Data", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 1 June 2011 (2011-06-01), XP080511687, DOI: 10.1613/JAIR.606 *
IVÃ N CANTADOR ET AL: "Boosting Parallel Perceptrons for Label Noise Reduction in Classification Problems", 5 June 2005, 12TH EUROPEAN CONFERENCE ON COMPUTER VISION, ECCV 2012; [LECTURE NOTES IN COMPUTER SCIENCE], SPRINGER BERLIN HEIDELBERG, BERLIN GERMANY, PAGE(S) 586 - 593, ISBN: 978-3-642-36741-0, ISSN: 0302-9743, XP019011275 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117724851A (en) * 2024-02-07 2024-03-19 腾讯科技(深圳)有限公司 Data processing method, device, storage medium and equipment
CN117724851B (en) * 2024-02-07 2024-05-10 腾讯科技(深圳)有限公司 Data processing method, device, storage medium and equipment

Also Published As

Publication number Publication date
DE102019206049A1 (en) 2020-10-29

Similar Documents

Publication Publication Date Title
DE102019124018A1 (en) Method for optimizing tests of control systems for automated vehicle dynamics systems
DE102019204139A1 (en) Training for artificial neural networks with better utilization of the learning data sets
WO2020216622A1 (en) Detecting and removing noise in labels of learning data for trainable modules
WO2021058223A1 (en) Method for applying automated driving functions efficiently and in a simulated manner
DE102017209262A1 (en) Method and device for automatic gesture recognition
WO2019081545A1 (en) Method and apparatus for automatically producing an artificial neural network
DE102019134053A1 (en) Process for the continuous validation of automated driving functions applied in driving tests
DE102021210107A1 (en) Computer-implemented methods, modules and systems for anomaly detection in industrial manufacturing processes
EP3959660A1 (en) Training trainable modules with learning data, the labels of which are subject to noise
DE102018209108A1 (en) Fast fault analysis for machine learning technical devices
EP3748574A1 (en) Adaptive removal of different types of interference from measurement data
EP3605404B1 (en) Method and device for the training of a machining learning routine for controlling a technical system
DE102019206052A1 (en) Situation-adaptive training of a trainable module with active learning
WO2022135959A1 (en) Device for a robust classification and regression of time sequences
EP1157317B1 (en) Method and device for reducing a number of measured values of a technical system
DE102019130484A1 (en) Method and device for training an ensemble of neural networks
EP1157311B1 (en) Method and device for designing a technical system
DE102021132542A1 (en) METHOD OF PROVIDING BIT FLIP ERRORS RESISTANT; PERTURBATION-RESISTANT AND COMPRESSED NEURAL NETWORK; COMPUTER PROGRAM; DRIVER ASSISTANCE SYSTEM
DE102016113310A1 (en) A method for evaluating statements of a plurality of sources about a plurality of facts
DE102022202985A1 (en) Zero-shot classification of measurement data
DE102022205824A1 (en) Method and device for training a neural network
DE102020213830A1 (en) Method and system for providing diagnostic information
DE102021109128A1 (en) Procedure for testing a product
DE102022202696A1 (en) Method for categorizing output data output by a machine learning algorithm
DE102021204343A1 (en) Controller for generating training data for training a machine learning algorithm

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20717860

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20717860

Country of ref document: EP

Kind code of ref document: A1