DE102022208480A1 - Method for evaluating a trained deep neural network - Google Patents

Method for evaluating a trained deep neural network Download PDF

Info

Publication number
DE102022208480A1
DE102022208480A1 DE102022208480.2A DE102022208480A DE102022208480A1 DE 102022208480 A1 DE102022208480 A1 DE 102022208480A1 DE 102022208480 A DE102022208480 A DE 102022208480A DE 102022208480 A1 DE102022208480 A1 DE 102022208480A1
Authority
DE
Germany
Prior art keywords
data sets
neural network
deep neural
evaluation
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022208480.2A
Other languages
German (de)
Inventor
Patrick Feifel
Frank Bonarens
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stellantis Auto Sas Fr
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Priority to DE102022208480.2A priority Critical patent/DE102022208480A1/en
Priority to PCT/EP2023/069934 priority patent/WO2024037811A1/en
Publication of DE102022208480A1 publication Critical patent/DE102022208480A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning

Abstract

Die vorliegende Offenbarung betrifft ein Verfahren zur Evaluierung eines tiefen neuronalen Netzes (10), das auf eine Objekterkennung im Umfeld eines Kraftfahrzeuges trainiert worden ist. Anhand einer vorbestimmten Anzahl von Evaluierungsdatensätzen und mit Hilfe des tiefen neuronalen Netzes (10) wird wenigstens eine Bezugsgröße ermittelt. Ferner wird eine Anzahl von Testdatensätzen bereitgestellt, aus denen mittels einer ausgewählten Methode zum Variieren von Datensätzen eine Anzahl von Zusatztrainingsdatensätzen erzeugt wird. Das tiefe neuronale Netz (10) wird in einem Zusatztrainingsschritt mit den erzeugten Zusatztrainingsdatensätzen trainiert, wobei nach dem Durchlaufen des Zusatztrainingsschritt anhand der vorbestimmten Anzahl von Evaluierungsdatensätzen und mit Hilfe des tiefen neuronalen Netzes (10) wenigstens eine Bewertungsgröße ermittelt wird. Das tiefe neuronalen Netz (10) wird für die ausgewählte Methode als nicht geeignet bewertet, wenn eine Differenz zwischen der wenigsten einen Bezugsgröße und einer korrespondierenden Bewertungsgröße einen vorbestimmten Grenzwert überschreitet.The present disclosure relates to a method for evaluating a deep neural network (10) that has been trained to recognize objects in the environment of a motor vehicle. At least one reference value is determined based on a predetermined number of evaluation data sets and with the help of the deep neural network (10). Furthermore, a number of test data sets are provided, from which a number of additional training data sets are generated using a selected method for varying data sets. The deep neural network (10) is trained in an additional training step with the additional training data sets generated, with at least one evaluation variable being determined after going through the additional training step based on the predetermined number of evaluation data sets and with the help of the deep neural network (10). The deep neural network (10) is assessed as unsuitable for the selected method if a difference between the at least one reference variable and a corresponding evaluation variable exceeds a predetermined limit value.

Description

Technisches GebietTechnical area

Die Erfindung betrifft ein Verfahren zum Evaluieren eines trainierten tiefen neuronalen Netzes. Die Erfindung betrifft ferner Computerprogramm und Computerprogrammprodukt zum Ausführen des Verfahrens.The invention relates to a method for evaluating a trained deep neural network. The invention further relates to computer programs and computer program products for carrying out the method.

Stand der TechnikState of the art

Die Perzeption bzw. Modellierung eines Fahrzeugumfeldes stellt eine wesentliche Herausforderung bei einer Entwicklung von automatisierten Fahrfunktionen bzw. fortgeschrittenen Fahrerassistenzsystemen (engl. advanced driver assistance systems, ADAS) dar. Für eine Objekterkennung (engl. object detection), d.h. eine Klassifizierung (engl. classification) und Lokalisierung (engl. localisation) von sensorisch erfassten Objekten spielen tiefe neuronale Netze (engl. deep neural network, DNN) aufgrund ihrer hervorragenden Performanz eine entscheidende Rolle.The perception or modeling of a vehicle environment represents a significant challenge in the development of automated driving functions or advanced driver assistance systems (ADAS). For object detection, i.e. classification ) and localization of sensory objects, deep neural networks (DNN) play a crucial role due to their excellent performance.

Durch einen Trainingsalgorithmus und mit einer Anzahl von Trainingsiterationsschritten wird in den inneren Strukturen eines tiefen neuronalen Netzes ein Merkmalsraum gelernt, durch den die zu erkennenden Objekte repräsentiert werden können. Durch eine Erweiterung eines entsprechenden Trainingsdatensatzes kann die Performanz eines DNN im Allgemeinen verbessert werden. Nach einem erfolgreichen Basistraining können Trainingsdatensätze bereitgestellt werden, deren Objekte für das DNN schwer zu erfassen sind, wobei dennoch eine korrekte Detektion anforderungsbedingt erwartet werden muss. Derartige Trainingsdatensätze können Bilder mit seltenen Situationen (eng. corner cases) oder Bilder mit einer begrenzten Bildqualität (z.B. hinsichtlich des Kontrastes, der Helligkeit, etc.) enthalten.Using a training algorithm and a number of training iteration steps, a feature space is learned in the internal structures of a deep neural network through which the objects to be recognized can be represented. By expanding a corresponding training data set, the performance of a DNN can generally be improved. After successful basic training, training data sets can be provided whose objects are difficult for the DNN to detect, although correct detection must still be expected depending on the requirements. Such training data sets can contain images with rare situations (corner cases) or images with limited image quality (e.g. in terms of contrast, brightness, etc.).

Die Performanz sagt als Kriterium nichts darüber aus, wie eine DNN seinen Merkmalsraum anhand von vorgegenebnen Trainingsdaten in einer endlichen Anzahl von Trainingsiterationen lernt. Die inneren Strukturen eines DNN, die auch als verborgene oder latente Strukturen bezeichnet werden können, sind von außen betrachtet im Wesentlichen nicht nachvollziehbar. Somit ist während bzw. nach einem Training von außen auch nicht klar, ob sich gelernte Repräsentationen in einem Bereich des Merkmalsraumes stabilisieren oder ob von Trainingsschritt zu Trainingsschritt vollkommen unterschiedliche Bereiche zur Repräsentation des Gelernten genutzt werden.As a criterion, performance says nothing about how a DNN learns its feature space based on pre-leveled training data in a finite number of training iterations. The internal structures of a DNN, which can also be referred to as hidden or latent structures, are essentially incomprehensible when viewed from the outside. Therefore, during or after training, it is not clear from the outside whether learned representations stabilize in one area of the feature space or whether completely different areas are used from training step to training step to represent what has been learned.

Neben der Performanz stellt also auch die Robustheit ein besonders wichtiges Kriterium zur Beurteilung eines ausreichenden Trainings dar. Das Ziel eines Trainings ist gerade nicht, einem DNN so viele Datensätze zuzuführen, dass es jede relevante Situation einmal im Training berücksichtigt worden ist („Training durch Auswendiglernen aller Situationen“), da ein solches Vorgehen das Risiko eines Over Fittings birgt. Stattdessen soll das DNN durch das Training die Fähigkeit zur Generalisierung bei der Objekterkennung erlangen, die durch eine ausreichende Robustheit beurteilt werden kann.In addition to performance, robustness is also a particularly important criterion for assessing sufficient training. The goal of training is not to supply a DNN with so many data sets that every relevant situation has been taken into account once in the training ("training by memorization all situations"), as such an approach carries the risk of over fitting. Instead, through training, the DNN should acquire the ability to generalize in object recognition, which can be assessed by sufficient robustness.

In der deutschen Patentanmeldung 10 2021 207 505.3 wurde ein Verfahren zum Trainieren eines tiefen neuronalen Netzes zur Objekterkennung im Umfeld eines Kraftfahrzeuges vorgestellt, das eine Evaluierung eines aktuellen Lernzustandes eines Trainings ermöglicht.In the German patent application 10 2021 207 505.3 A method for training a deep neural network for object recognition in the environment of a motor vehicle was presented, which enables an evaluation of a current learning state of a training.

Eine nachträgliche Evaluierung eines bereits trainierten tiefen neuronalen Netzes ist mit dem beschriebenen Verfahren jedoch nicht möglich.However, a subsequent evaluation of an already trained deep neural network is not possible with the described method.

Kurzbeschreibung der ErfindungBrief description of the invention

Vor diesem Hintergrund liegt der Erfindung die Aufgabe zugrunde, ein Verfahren zur Evaluierung eines tiefen neuronalen Netzes bereitzustellen, dessen Training auf eine Objekterkennung im Umfeld eines Kraftfahrzeuges bereits abgeschlossen worden ist.Against this background, the invention is based on the object of providing a method for evaluating a deep neural network whose training for object recognition in the environment of a motor vehicle has already been completed.

Vorgeschlagen wird dementsprechend ein Verfahren gemäß dem Hauptanspruch sowie Computerprogramm und ein Computerprogrammprodukt gemäß den Nebenansprüchen. Weiterführende Ausgestaltungen sind Gegenstand der jeweils abhängigen Ansprüche.Accordingly, a method according to the main claim as well as a computer program and a computer program product according to the secondary claims are proposed. Further refinements are the subject of the respective dependent claims.

Gemäß einem ersten Aspekt der Erfindung wird die Aufgabe gelöst durch ein Verfahren zur Evaluierung eines tiefen neuronalen Netzes, das auf eine Objekterkennung im Umfeld eines Kraftfahrzeuges trainiert worden ist. Anhand einer vorbestimmten Anzahl von Evaluierungsdatensätzen und mit Hilfe des tiefen neuronalen Netzes wird wenigstens eine Bezugsgröße ermittelt. Ferner wird eine Anzahl von Testdatensätzen bereitgestellt, aus denen mittels einer ausgewählten Methode zum Variieren von Datensätzen eine Anzahl von Zusatztrainingsdatensätzen erzeugt werden. Das tiefe neuronale Netz wird in einem Zusatztrainingsschritt mit den erzeugten Zusatztrainingsdatensätzen trainiert, wobei nach dem Durchlaufen des Zusatztrainingsschrittes anhand der vorbestimmten Anzahl von Evaluierungsdatensätzen und mit Hilfe des tiefen neuronalen Netzes wenigstens eine Bewertungsgröße ermittelt wird. Das tiefe neuronale Netz wird für die ausgewählte Methode als nicht geeignet bewertet, wenn eine Differenz zwischen der wenigsten einen Bezugsgröße und einer korrespondierenden Bewertungsgröße einen vorbestimmten Grenzwert überschreitet.According to a first aspect of the invention, the object is achieved by a method for evaluating a deep neural network that has been trained to recognize objects in the environment of a motor vehicle. At least one reference value is determined based on a predetermined number of evaluation data sets and with the help of the deep neural network. Furthermore, a number of test data sets are provided, from which a number of additional training data sets are generated using a selected method for varying data sets. The deep neural network is trained in an additional training step with the additional training data sets generated, with at least one evaluation variable being determined after going through the additional training step based on the predetermined number of evaluation data sets and with the help of the deep neural network. The deep neural network is assessed as unsuitable for the selected method if there is a difference between at least one reference value and a corresponding evaluation size exceeds a predetermined limit value.

Entsprechend kann das tiefe neuronale Netz für die ausgewählte Methode als geeignet bewertet werden, wenn die Differenz zwischen der wenigsten einen Bezugsgröße und einer korrespondierenden Bewertungsgröße den vorbestimmten Grenzwert einhält.Accordingly, the deep neural network can be assessed as suitable for the selected method if the difference between the least one reference variable and a corresponding evaluation variable adheres to the predetermined limit value.

Eine Idee hinter der vorliegenden Erfindung ist, zusätzliche Zusatztrainingsschritte nicht für ein erweitertes Trainieren eines tiefen neuronalen Netzes zu verwenden, sondern zur Evaluierung eines bereits trainierten tiefen neuronalen Netzes zu nutzen.One idea behind the present invention is not to use additional training steps for extended training of a deep neural network, but rather to use them to evaluate an already trained deep neural network.

Gemäß einer Weiterbildung des Verfahrens kann daher vorgesehen werden, dass ursprünglich gelernte Parameter des trainierten tiefen neuronalen Netzes zunächst ausgelesen und abgespeichert werden, bevor ein erster Zusatztrainingsschritt durchgeführt wird.According to a further development of the method, it can therefore be provided that originally learned parameters of the trained deep neural network are first read out and saved before a first additional training step is carried out.

Dadurch, dass der Trainingszustand des tiefen neuronalen Netzes eingefroren wird, können die gelernten Parameter des tiefen neuronalen Netzes nach einer Evaluierung auf den ursprünglich Lernzustand zurückgesetzt werden. Die gespeicherten Parameter können beispielsweise Gewichtungsparameter und Prototypen oder Konzepte von Merkmalsextrationsebenen und Perzeptionsebenen für die inneren Strukturen eines tiefen neuronalen Netzes umfassen.By freezing the training state of the deep neural network, the learned parameters of the deep neural network can be reset to the original learning state after an evaluation. The stored parameters can include, for example, weighting parameters and prototypes or concepts of feature extraction levels and perception levels for the internal structures of a deep neural network.

Gemäß einer Weiterbildung des Verfahrens können alle Parameter des tiefen neuronalen Netzes auf die abgespeicherten ursprünglich gelernten Parameter zurückgesetzt werden, nachdem die wenigstens eine Bewertungsgröße ermittelt worden ist.According to a further development of the method, all parameters of the deep neural network can be reset to the stored, originally learned parameters after the at least one evaluation variable has been determined.

Da die Zusatztrainingsschritte kein zusätzliches Training bewirken sollen, um beispielsweise das Risiko eines Over Fitting zu vermeiden, wird der ursprüngliche ausgelesene und abgespeicherte Trainingsstand wieder zurückgesetzt, sobald das tiefe neuronalen Netz für die ausgewählte Methode als geeignet bewertet wurde. Das durchgeführte Zusatztraining hat somit nur eine Auswirkung auf einen Evaluierungsschritt, das auf der ausgewählten Methode zum Variieren von Datensätzen basiert. Ein Zusatztrainingsschritt hat somit keinen Einfluss auf einen Praxisbetrieb eines evaluierten tiefen neuronalen Netzes.Since the additional training steps are not intended to result in any additional training, for example to avoid the risk of over fitting, the original read and saved training status is reset as soon as the deep neural network has been assessed as suitable for the selected method. The additional training carried out therefore only has an impact on one evaluation step, which is based on the selected method for varying data sets. An additional training step therefore has no influence on the practical operation of an evaluated deep neural network.

Gemäß einer Weiterbildung des Verfahrens kann eine Anzahl unterschiedlicher Methoden zum Variieren von Datensätzen bereitgestellt wird, wobei für jeder der unterschiedlichen Methoden zum Variieren von Datensätzen jeweils eine Anzahl von Zusatztrainingsdatensätzen bereitgestellt wird, so dass eine der Anzahl der Methoden entsprechende Anzahl aufeinanderfolgender Zusatztrainingsschritte durchlaufen wird.According to a further development of the method, a number of different methods for varying data sets can be provided, with a number of additional training data sets being provided for each of the different methods for varying data sets, so that a number of successive additional training steps corresponding to the number of methods is carried out.

Somit kann das tiefe neuronale Netz nacheinander basierend auf unterschiedlichen kritischen Grenzfällen bewertet werden.Thus, the deep neural network can be evaluated sequentially based on different critical limit cases.

In diesem Zusammenhang können Parameter des tiefen neuronalen Netzes nach jedem Zusatztrainingsschritt auf die abgespeicherten ursprünglich gelernten Parameter zurückgesetzt werden, sobald die entsprechenden Bewertungsgrößen ermittelt worden sind.In this context, parameters of the deep neural network can be reset to the saved, originally learned parameters after each additional training step as soon as the corresponding evaluation variables have been determined.

Somit kann jedes Zusatztraining für eine jeweilige Methode zum Variieren von Datensätzen auf dem jeweils gleichen ursprünglichen Trainingsstand des tiefen neuronalen Netzes beginnen. Ein vorhergehender Zusatztrainingsschritt hat somit keinen Einfluss auf die Bewertung einer aktuell ausgewählten Methode.This means that each additional training for a respective method for varying data sets can begin at the same original training level of the deep neural network. A previous additional training step therefore has no influence on the evaluation of a currently selected method.

Gemäß einer Weiterbildung kann für jeden Evaluierungsdatensatz durch das tiefe neuronale Netz jeweils ein korrespondierender latenter Repräsentationsdatensatz erzeugt werden, wobei zu annotierten Daten jedes Evaluierungsdatensatzes relevante latente Repräsentationen aus dem korrespondierenden latenten Repräsentationsdatensatz ausgewählt werden. Aus den ausgewählten relevanten latenten Repräsentationen der Evaluierungsdatensätze kann ein Abstandsmittelwert im latenten Raum ermittelt werden, wobei der ermittelte Abstandsmittelwert als Referenzgröße und/oder als Bewertungsgröße herangezogen wird.According to a further development, a corresponding latent representation data set can be generated for each evaluation data set by the deep neural network, with relevant latent representations being selected from the corresponding latent representation data set for annotated data of each evaluation data set. An average distance value in the latent space can be determined from the selected relevant latent representations of the evaluation data sets, with the determined average distance value being used as a reference variable and/or as an evaluation variable.

Alternativ oder ergänzend können für jeden Evaluierungsdatensatz durch das tiefe neuronale Netz Ausgabedaten erzeugt werden, wobei mittels eines Abgleichs zwischen den erzeugten Ausgabedaten und den Referenzdaten des jeweiligen Evaluierungsdatensatzes eine Performanzwert bestimmt wird, wobei der Performanzwert als Referenzgröße und/oder als Bewertungsgröße herangezogen wird.Alternatively or additionally, output data can be generated for each evaluation data set by the deep neural network, with a performance value being determined by means of a comparison between the generated output data and the reference data of the respective evaluation data set, the performance value being used as a reference variable and/or as an evaluation variable.

Gemäß einer Weiterbildung kann die Methode zum Variieren von Datensäten ein parametrisiertes Verändern aller Daten eines Datensatzes umfassen.According to a further development, the method for varying data sets can include a parameterized change of all data in a data set.

Alternativ oder ergänzend kann die Methode zum Variieren von Datensätzen ein Hinzufügen von Objekten in einen jeweiligen Datensatz umfassen.Alternatively or additionally, the method for varying data sets may include adding objects to a respective data set.

Nach einem weiteren Aspekt der Erfindung wird die Aufgabe gelöst durch ein Computerprogramm, das, wenn es auf einer Recheneinheit innerhalb einer Manöverplanungseinrichtung ausgeführt wird, die jeweilige Recheneinheit anleitet, das Verfahren auszuführen.According to a further aspect of the invention, the task is solved by a computer program which, when stored on a computing unit is carried out half of a maneuver planning device, which instructs the respective computing unit to carry out the method.

Nach einem weiteren Aspekt der Erfindung wird die Aufgabe gelöst durch ein Computerprogrammprodukt mit einem Programmcode zur Durchführung des Verfahrens, der auf einem von einem Computer lesbaren Medium gespeichert ist.According to a further aspect of the invention, the object is achieved by a computer program product with a program code for carrying out the method, which is stored on a medium readable by a computer.

Kurze Beschreibung der ZeichnungsfigurenBrief description of the drawing figures

Weitere Merkmale und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung, in der - gegebenenfalls unter Bezug auf die Zeichnung - zumindest ein Ausführungsbeispiel im Einzelnen beschrieben ist. Beschriebene und/oder bildlich dargestellte Merkmale bilden für sich oder in beliebiger, sinnvoller Kombination den Gegenstand, gegebenenfalls auch unabhängig von den Ansprüchen, und können insbesondere zusätzlich auch Gegenstand einer oder mehrerer separater Anmeldungen sein. Gleiche, ähnliche und/oder funktionsgleiche Teile sind mit gleichen Bezugszeichen versehen. Dabei zeigen:

  • 1 zeigt ein Blockdiagramm eines tiefen neuronalen Netzes;
  • 2 zeigt eine Bildeingangsdatensatz mit einem annotierten Begrenzungsrahmen und einem latenten Repräsentationsdatensatz Z;
  • 3 zeigt ein Ablaufdiagramm eines erfindungsgemäßen Evaluierungsverfahrens.
Further features and details emerge from the following description, in which at least one exemplary embodiment is described in detail - if necessary with reference to the drawing. Described and/or illustrated features form the subject matter on their own or in any meaningful combination, possibly also independently of the claims, and in particular can also be the subject of one or more separate applications. Identical, similar and/or functionally identical parts are provided with the same reference numerals. Show:
  • 1 shows a block diagram of a deep neural network;
  • 2 shows an image input data set with an annotated bounding box and a latent representation data set Z;
  • 3 shows a flowchart of an evaluation method according to the invention.

Beschreibung der AusführungsartenDescription of execution types

In der 1 ist ein Blockdiagramm eines tiefen neuronalen Netz 10 (DNN) dargestellt, das auf eine Erkennung von Objekten, beispielsweise auf Fußgänger, in kamerabasierten 2D-Bilddaten aus einem Fahrzeugumfeld trainiert worden ist. Das DNN 10 besitzt eine Anzahl von Merkmalsextrationsebenen 11 und eine Anzahl von Perzeptionsebenen 12. Die Merkmalsextrationsebenen 11 sind ausgebildet, für einen aktuellen Bildeingangsdatensatz 1 jeweils einen latenten Repräsentationsdatensatz Z zu erzeugen und an die Perzeptionsebenen 12 weiterzugeben. Die Perzeptionsebenen 12 sind ausgebildet, latente Repräsentationen aus einem aktuellen latenten Repräsentationsdatensatz Z mit einer Anzahl von gelernten Prototypen für verschiedene Klassen von Objekten auf Ähnlichkeit hin zu vergleichen, so dass darauf basierend Objekte in den 2D-Bilddaten erkannt, d.h. klassifiziert und lokalisiert werden können.In the 1 a block diagram of a deep neural network 10 (DNN) is shown, which has been trained to detect objects, for example pedestrians, in camera-based 2D image data from a vehicle environment. The DNN 10 has a number of feature extraction levels 11 and a number of perception levels 12. The feature extraction levels 11 are designed to generate a latent representation data set Z for a current image input data set 1 and to pass it on to the perception levels 12. The perception levels 12 are designed to compare latent representations from a current latent representation data set Z with a number of learned prototypes for different classes of objects for similarity, so that objects in the 2D image data can be recognized, ie classified and localized, based on this.

Der in der 2 dargestellte Bildeingangsdatensatz 1 enthält bzw. beschreibt ein 2D-Bild einer Fahrzeugumgebung, das beispielsweise mit einer Fahrzeugfrontkamera aufgenommen worden sein kann. Der Bildeingangsdatensatz 1 besitzt eine Anzahl Bildpunkte (engl. pixel), die entsprechend der Höhe (engl. height) H und einer Breite (engl. width) W des Bildes in Zeilen und Spalten zueinander angeordnet sind. Jeder Bildpunkt des Bildeingangsdatensatzes 1 wird zum Beispiel durch einen Vektor im dreidimensionalen RBG-Farbraum beschrieben.The Indian 2 The image input data set 1 shown contains or describes a 2D image of a vehicle environment, which may have been recorded, for example, with a vehicle front camera. The image input data set 1 has a number of pixels which are arranged in rows and columns relative to one another in accordance with the height H and a width W of the image. Each pixel of the image input data set 1 is described, for example, by a vector in the three-dimensional RBG color space.

Das DNN 10 kann zum Beispiel als ein faltendes neuronales Netzwerk (engl. convolutional neural network, CNN) ausgebildet sein, dessen Architektur in den Merkmalsextrationsebenen 11 spezielle Faltungs- und Bündelungsstrukturen vorsieht.The DNN 10 can, for example, be designed as a convolutional neural network (CNN), the architecture of which provides special convolution and bundling structures in the feature extraction levels 11.

Mit den Merkmalsextrationsebenen 11 wird für jeden aktuellen Bildeingangsdatensatz 1 ein latenter Repräsentationsdatensatz Z erzeugt, wobei hinsichtlich der Anzahl von Daten eine Datenreduktion erzielt wird. So wird beispielsweise aus einem 2048 x 1024 Bildpunkte großen Bildeingangsdatensatz 1 ein latenter Repräsentationsdatensatz Z mit 512 x 256 latenten Repräsentationen Zi,j erzeugt.With the feature extraction levels 11, a latent representation data set Z is generated for each current image input data set 1, with a data reduction being achieved with regard to the number of data. For example, a latent representation data set Z with 512 x 256 latent representations Z i,j is generated from an image input data set 1 with a size of 2048 x 1024 pixels.

Während jeder Bildpunkt durch einen Vektor mit drei Farbwerten im RGB-Farbraum definiert wird, enthält eine jeweilige latente Repräsentation einen Vektor mit Merkmalen in einem n-dimensionalen latenten Raum. Jede latente Repräsentation kodiert in den n Merkmalen (z.B. 256 Merkmale) semantische Beziehungen zwischen Bildeingangsdaten eines rezeptiven Feldes (engl. receptive field), das in die jeweilige latente Repräsentation eingeflossen ist.While each pixel is defined by a vector with three color values in the RGB color space, a respective latent representation contains a vector with features in an n-dimensional latent space. Each latent representation encodes in the n features (e.g. 256 features) semantic relationships between image input data of a receptive field that has been incorporated into the respective latent representation.

Wie ein jeweiliger Bildeingangsdatensatz 1 auf den latenten Repräsentationsdatensatz Z abgebildet wird, bestimmt sich einerseits durch die Netzarchitektur der Merkmalsextrationsebenen 11 des DNN 10, andererseits durch eine Anzahl zugehöriger Gewichtungsparameter, die mittels maschinellen Lernens anhand von Trainingsdaten gelernt worden sind.How a respective image input data set 1 is mapped onto the latent representation data set Z is determined, on the one hand, by the network architecture of the feature extraction levels 11 of the DNN 10, and on the other hand by a number of associated weighting parameters that have been learned using machine learning based on training data.

Die Perzeptionsebenen 12 des DNN 10 besitzen eine Anzahl Prototypen, die durch einen Vektor in demselben latenten Raum darstellbar sind, wie die latenten Repräsentationen des latenten Repräsentationsdatensatzes Z. Insofern können alle latenten Repräsentationen jeweils mit einer Anzahl von Prototypen verglichen werden, die ebenfalls mittels maschinellen Lernens anhand der Trainingsdaten gelernt worden sind. Aus dem Vergleich werden durch das DNN 10 Ausgabedatensätze 3 gewonnen, die Klassen und Positionen von Objekten enthalten, die durch die Perzeptionsebenen 12 in dem latenten Repräsentationsdatensatzes Z erkannt worden sind.The perception levels 12 of the DNN 10 have a number of prototypes that can be represented by a vector in the same latent space as the latent representations of the latent representation data set Z. In this respect, all latent representations can each be compared with a number of prototypes, which are also using machine learning have been learned based on the training data. From the comparison, the DNN 10 produces output data sets 3 which contain classes and positions of objects that have been recognized by the perception levels 12 in the latent representation data set Z.

Die inneren Strukturen des DNN 10, die auch als verborgene oder latente Strukturen bezeichnet werden können, sind von außen betrachtet grundsätzlich nicht nachvollziehbar. Die latenten Repräsentationen Zi,j können jedoch einer örtlich entsprechenden Gruppe von Bildpunkten des Bildeingangsdatensatz 1 zugeordnet werden.The internal structures of DNN 10, which can also be referred to as hidden or latent structures, are fundamental when viewed from the outside additionally incomprehensible. However, the latent representations Z i,j can be assigned to a spatially corresponding group of pixels of the image input data set 1.

Zu Trainings- bzw. Evaluierungszwecken wird das DNN 10 mit einem Trainingsalgorithmus 20 verbunden. Mit dem Trainingsalgorithmus 20 können die Gewichtungsparameter und Prototypen mit einer Folge von Trainingsiterationsschritten und durch Minimieren einer internen Kostenfunktion schrittweise optimiert werden. Für jeden Trainingsiterationsschritt wird jeweils ein Trainingsdatensatz bereitgestellt, der einen Bildeingangsdatensatz 1 und einen zugehörigen Referenzdatendatensatz 2 umfasst. Mit jedem Bildeingangsdatensatz 1 wird ein Referenzdatensatz 2 bereitgestellt, der in der 2 als ein annotierter Begrenzungsrahmen (engl. annotated bounding box) dargestellt ist, werden dem Trainingsalgorithmus 20 Klassen und Positionen von zu erkennenden Objekten vorgegeben, die in einem Bild des entsprechenden Bildeingangsdatensatzes 1 vorhanden sind und die von dem DNN 10 erkannt werden sollen. Von dem DNN 10 wird dem Trainingsalgorithmus 20 ferner ein Ausgabedatensatz 3 zugeführt, der Klassen und Positionen von Objekten enthält, die durch die Perzeptionsebenen 12 aus dem latenten Repräsentationsdatensatzes Z erkannt worden sind. Die Gewichtungsparameter und Prototypen des DNN 10 werden durch den Trainingsalgorithmus 10 in jedem Trainingsiterationsschritt derart angepasst, dass die Klassen und Positionen von Objekten des Ausgabedatensatzes 3 mit denen des Referenzdatensatzes 2 möglichst gut übereinstimmen.For training or evaluation purposes, the DNN 10 is connected to a training algorithm 20. With the training algorithm 20, the weighting parameters and prototypes can be gradually optimized with a sequence of training iteration steps and by minimizing an internal cost function. For each training iteration step, a training data set is provided, which includes an image input data set 1 and an associated reference data set 2. With each image input data set 1, a reference data set 2 is provided, which is in the 2 is shown as an annotated bounding box, the training algorithm is given 20 classes and positions of objects to be recognized, which are present in an image of the corresponding image input data set 1 and which are to be recognized by the DNN 10. From the DNN 10, the training algorithm 20 is also supplied with an output data set 3, which contains classes and positions of objects that have been recognized by the perception levels 12 from the latent representation data set Z. The weighting parameters and prototypes of the DNN 10 are adjusted by the training algorithm 10 in each training iteration step in such a way that the classes and positions of objects of the output data set 3 match those of the reference data set 2 as closely as possible.

In der 3 ist ein Ablauf eines erfindungsgemäßen Evaluierungsverfahrens 100 dargestellt, mit dem ein trainiertes tiefes neuronale Netz bezüglich seiner Robustheit und/oder Performanz evaluiert werden kann.In the 3 a sequence of an evaluation method 100 according to the invention is shown, with which a trained deep neural network can be evaluated with regard to its robustness and/or performance.

In einem ersten Schritt 101 wird ein DNN 10 und einen zugehöriger Trainingsalgorithmus 20 bereitgestellt, die, als fertigt trainierte Hard- und/oder Softwarekomponente beispielsweise von einem Zulieferer zugeliefert worden sein kann. Die bereits gelernten Gewichtungsparameter und Prototypen der Merkmalsextrationsebenen 11 bzw. der Perzeptionsebenen 12 werden eingefroren und als Datensatz abgespeichert.In a first step 101, a DNN 10 and an associated training algorithm 20 are provided, which, as a fully trained hardware and/or software component, may have been supplied by a supplier, for example. The already learned weighting parameters and prototypes of the feature extraction levels 11 and the perception levels 12 are frozen and saved as a data record.

In einem zweiten Schritt 102 wird eine vorbestimmte Anzahl Evaluierungsdatensätze bereitgestellt, wobei jeder Evaluierungsdatensatz jeweils einen Bildeingangsdatensatz 1 und einen zugehörigen Referenzdatensatz 2 umfasst. Die Evaluierungsdatensätze werden in einer definierten Reihenfolge dem DNN 10 und dem zugehörigen Trainingsalgorithmus 20 zugeführt. Zu jedem Evaluierungsdatensatz erzeugt das DNN 10 einen latenten Repräsentationsdatensatz Z sowie einen Ausgabedatensatz 3 mit Daten über Klassen und Positionen von erkannten Objekten.In a second step 102, a predetermined number of evaluation data sets is provided, each evaluation data set comprising an image input data set 1 and an associated reference data set 2. The evaluation data sets are fed to the DNN 10 and the associated training algorithm 20 in a defined order. For each evaluation data set, the DNN 10 generates a latent representation data set Z and an output data set 3 with data about classes and positions of recognized objects.

Die Daten des Referenzdatensatzes 2 werden mit denen des Ausgabedatensatzes 3 verglichen. Basierend auf einer Anzahl von Objekten, die von dem DNN 10 gegenüber den Referenzdaten nicht bzw. falsch-positiv erkannt wurden, wird eine Fehlerrate F ermittelt und zugehörig zu jedem Evaluierungsdatensatz abgespeichert. Für die Anzahl aller Evaluierungsdatensätze wird eine gemittelte und/oder maximale Fehlerrate als ein Bezugswert für die Performanz des DNN 10 bestimmt und abgespeichert.The data of reference data set 2 are compared with those of output data set 3. Based on a number of objects that were not recognized by the DNN 10 or were recognized as false positive compared to the reference data, an error rate F is determined and stored associated with each evaluation data set. For the number of all evaluation data sets, an average and/or maximum error rate is determined and stored as a reference value for the performance of the DNN 10.

Ferner werden basierend auf dem Referenzdatensatzes 2 alle latenten Repräsentationen Zi,j ermittelt und abgespeichert, die mit den Positionen der annotierten Begrenzungsrahmen übereinstimmen. Aus den gespeicherten latenten Repräsentationen Zi,j aller Evaluierungsdatensätze wird ein Abstandsmittelwert berechnet, der als Bezugswert für die Robustheit des DNN 10 abgespeichert wird.Furthermore, based on the reference data set 2, all latent representations Z i,j that match the positions of the annotated bounding boxes are determined and stored. A distance average is calculated from the stored latent representations Z i,j of all evaluation data sets, which is saved as a reference value for the robustness of the DNN 10.

In einem dritten Schritt 103 wird eine Anzahl von Testdatensätzen und eine Anzahl von Methoden zum Variieren von Datensätzen bereitgestellt. Für jede Methode zum Variieren von Datensäten wird eine Anzahl von Zusatztrainingsdatensäten erzeugt.In a third step 103, a number of test data sets and a number of methods for varying data sets are provided. For each method of varying data sets, a number of additional training data sets are generated.

Die Testdatensätze enthalten jeweils einen Bildeingangsdatensatz 1 und einen zugehörigen Referenzdatendatensatz 2, mit den Klassen und Positionen der zu erkennenden Objekte, die wie üblich annotiert bzw. vorgegeben werden.The test data sets each contain an image input data set 1 and an associated reference data set 2, with the classes and positions of the objects to be recognized, which are annotated or specified as usual.

Methoden zum Variieren von Datensätzen können globale Veränderungen des Bildes wie Kontrast- oder Helligkeitsänderungen sein. Aber auch Ergänzungen um zusätzliche Objekte im Bild (z.B. Personen, Fußgänger, usw.) sind möglich. Ferner kann ein Bild mit einem Schneefall, Regen oder ein anderem Bildrauschen überlagert werden.Methods for varying data sets can be global changes to the image such as contrast or brightness changes. But additions of additional objects in the image (e.g. people, pedestrians, etc.) are also possible. Furthermore, an image can be overlaid with snowfall, rain or other image noise.

Wird beispielsweise die Methode der Kontraständerungen ausgewählt, wird basierend auf jedem Testdatensatz ein Zusatztrainingsdatensatz erzeugt, dessen Bildpunkte im Bildeingangsdatensatz 1 hinsichtlich der Kontrastwerte um einen vorgegebenen Wert manipuliert bzw. angepasst worden sind.If, for example, the method of contrast changes is selected, an additional training data set is generated based on each test data set, the pixels of which in the image input data set 1 have been manipulated or adjusted by a predetermined value with regard to the contrast values.

In einem vierten Schritt 104 wird das DNN 10 in einen Trainingsmodus versetzt und mit einer Anzahl von Zusatztrainingsdatensätzen in einem Zusatztraining trainiert, die für eine erste ausgewählte Methode zum Variieren von Datensätzen erzeugt worden sind. Wurde ein entsprechender Zusatztrainingsschritt mit der Anzahl von Zusatztrainingsdatensätzen durchlaufen, wird der Trainingsmodus des DNN 10 wieder beendet.In a fourth step 104, the DNN 10 is placed in a training mode and trained in additional training with a number of additional training data sets that have been generated for a first selected method for varying data sets. Became a corresponding one If the additional training step with the number of additional training data sets is completed, the training mode of the DNN 10 is ended again.

In einem fünften Schritt 105 werden die Evaluierungsdatensätze in der definierten Reihenfolge dem DNN 10 und dem zugehörigen Trainingsalgorithmus 20 zugeführt. Zu jedem Evaluierungsdatensatz erzeugt das DNN 10 erneut einen latenten Repräsentationsdatensatz Z sowie einen Ausgabedatensatz 3 mit Daten über Klassen und Positionen von erkannten Objekten.In a fifth step 105, the evaluation data sets are fed to the DNN 10 and the associated training algorithm 20 in the defined order. For each evaluation data set, the DNN 10 again generates a latent representation data set Z and an output data set 3 with data about classes and positions of recognized objects.

In einem sechsten Schritt 106 werden für jeden Evaluierungsdatensatz basierend auf dem Referenzdatensatzes 2 alle latenten Repräsentationen Zi,j ermittelt, die mit den Positionen der annotierten Begrenzungsrahmen übereinstimmen. Aus den ermittelten latenten Repräsentationen Zi,j aller Evaluierungsdatensätze wird erneut ein Abstandsmittelwert ermittelt, der als Bewertungsgröße für die Robustheit des DNN 10 abgespeichert wird.In a sixth step 106, all latent representations Z i,j that match the positions of the annotated bounding boxes are determined for each evaluation data set based on the reference data set 2. From the determined latent representations Z i,j of all evaluation data sets, a distance average is again determined, which is saved as an evaluation variable for the robustness of the DNN 10.

Aus der ermittelten Bewertungsgröße für die Robustheit und aus dem im zweiten Schritt 102 abgespeicherten Bezugswert für die Robustheit des DNN 10 wird eine Differenz gebildet und mit einem Grenzwert für eine Robustheitsänderung verglichen. Wird der Grenzwert nicht eingehalten, d.h. wenn sich die Robustheit über ein bestimmtes Maß nach dem Zusatztraining verschlechtert hat, wird die das tiefe neuronalen Netz 10 für die ausgewählte Methode als nicht geeignet bewertet. Das Verfahren zur Evaluierung des DNN 10 kann mit Schritt 110 beendet werden.A difference is formed from the determined evaluation variable for the robustness and from the reference value for the robustness of the DNN 10 stored in the second step 102 and compared with a limit value for a change in robustness. If the limit value is not met, i.e. if the robustness has deteriorated to a certain extent after the additional training, the deep neural network 10 is assessed as not suitable for the selected method. The procedure for evaluating the DNN 10 can be completed with step 110.

Sofern der Grenzwert für die Robustheitsänderung eingehalten worden ist, wird in einem siebten Schritt 107 für jeden Evaluierungsdatensatz erneut eine Fehlerrate F ermittelt und abgespeichert, indem die Referenzdatensätze 2 mit den Ausgabedatensätzen 3 verglichen werden. Wie zuvor in dem zweiten Schritt 102 beschrieben, ergibt sich die Fehlerrate F aus einer Anzahl von Objekten, die von dem DNN 10 gegenüber den Referenzdaten nicht bzw. falsch-positiv erkannt wurden. Entsprechend wird für die Anzahl aller Evaluierungsdatensätze erneut eine gemittelte und/oder maximale Fehlerrate ermittelt und abgespeichert, die als eine Bewertungsgröße für die Performanz des DNN 10 dient.If the limit value for the change in robustness has been met, in a seventh step 107 an error rate F is determined again for each evaluation data set and saved by comparing the reference data sets 2 with the output data sets 3. As previously described in the second step 102, the error rate F results from a number of objects that were not recognized by the DNN 10 or were recognized as false positives compared to the reference data. Accordingly, an average and/or maximum error rate is again determined and stored for the number of all evaluation data sets, which serves as an evaluation variable for the performance of the DNN 10.

Aus der ermittelten Bewertungsgröße für die Performanz und dem im zweiten Schritt 102 abgespeicherten Bezugswert für die Performanz des DNN 10 wird in dem siebten Schritt 107 ferner eine Differenz ermittelt und mit einem vorgegebenen Grenzwert für eine Performanzänderung verglichen. Wird der Grenzwert nicht eingehalten, d.h. wenn sich die Performanz über ein bestimmtes Maß nach dem Zusatztraining verschlechtert hat, wird die das tiefe neuronalen Netz 10 für die ausgewählte Methode als nicht geeignet bewertet. Das Verfahren zur Evaluierung des DNN 10 kann entsprechend beendet 110 werden.From the determined evaluation variable for the performance and the reference value for the performance of the DNN 10 stored in the second step 102, a difference is further determined in the seventh step 107 and compared with a predetermined limit value for a change in performance. If the limit value is not met, i.e. if the performance has deteriorated to a certain extent after the additional training, the deep neural network 10 is assessed as not suitable for the selected method. The procedure for evaluating the DNN 10 can be ended 110 accordingly.

Sofern der Grenzwert für die Performanzänderung eingehalten worden ist, wird das DNN 10 für die ausgewählte Methode als geeignet bewertet. In einem nachfolgenden achten Schritt 108 kann das DNN 10 zurückgesetzt werden, indem die als Datensatz gespeicherten ursprünglich gelernten Gewichtungsparameter und Prototypen der Merkmalsextrationsebenen 11 bzw. der Perzeptionsebenen 12 zurückgespielt werden. Wird in dem achten Schritt 108 ferner festgestellt, dass noch weitere, d.h. für ein Zusatztraining noch nicht verwendete Methode zum Variieren von Datensäten zur Verfügung steht, wird in dem vierten Schritt 104 das DNN 10 erneut in einen Trainingsmodus versetzt und mit einer Anzahl von Zusatztrainingsdatensäten in einem Zusatztraining trainiert, die für eine weitere ausgewählte Methode zum Variieren von Datensätzen erzeugt wurden.If the limit value for the change in performance has been met, the DNN 10 is assessed as suitable for the selected method. In a subsequent eighth step 108, the DNN 10 can be reset by playing back the originally learned weighting parameters and prototypes of the feature extraction levels 11 and the perception levels 12 stored as a data record. If it is also determined in the eighth step 108 that another method for varying data sets, i.e. one not yet used for additional training, is available, in the fourth step 104 the DNN 10 is again put into a training mode and with a number of additional training data sets additional training that was generated for another selected method for varying data sets.

Wird in dem achten Schritt 108 festgestellt, dass sämtliche Zusatztrainingsdatensätze für alle Methoden zum Variieren von Datensätzen verwendet worden sind, wird das DNN 10 für alle verwendeten Methoden als geeignet bewertet. Das Verfahren wird mit einer positiven Evaluierung des DNN 10 in Schritt 109 beendet.If it is determined in the eighth step 108 that all additional training data sets have been used for all methods for varying data sets, the DNN 10 is assessed as suitable for all methods used. The method ends with a positive evaluation of the DNN 10 in step 109.

Wird in dem sechsten Schritt 106 und/oder siebten Schritt 107 das tiefe neuronalen Netz 10 für eine ausgewählte Methode als nicht geeignet bewertet, kann alternativ zu einer Beendigung 110 des Verfahrens vorgesehen werden, weitere Zusatztrainings für die noch nicht verwendete Methoden zum Variieren von Datensätzen durchzuführen, um eine komplette Liste drüber zu erhalten, für welcher Methoden das tiefe neuronale Netz geeignet ist und für welche nicht.If in the sixth step 106 and/or seventh step 107 the deep neural network 10 is assessed as not suitable for a selected method, as an alternative to terminating the method 110 it can be provided to carry out further additional training for the methods for varying data sets that have not yet been used to get a complete list of which methods the deep neural network is suitable for and which is not.

Obwohl der Gegenstand im Detail durch Ausführungsbeispiele näher illustriert und erläutert wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden. Es ist daher klar, dass eine Vielzahl von Variationsmöglichkeiten existiert. Es ist ebenfalls klar, dass beispielhaft genannte Ausführungsformen nur Beispiele darstellen, die nicht in irgendeiner Weise als Begrenzung etwa des Schutzbereichs, der Anwendungsmöglichkeiten oder der Konfiguration der Erfindung aufzufassen sind. Vielmehr versetzen die vorhergehende Beschreibung und die Figurenbeschreibung den Fachmann in die Lage, die beispielhaften Ausführungsformen konkret umzusetzen, wobei der Fachmann in Kenntnis des offenbarten Erfindungsgedankens vielfältige Änderungen beispielsweise hinsichtlich der Funktion oder der Anordnung einzelner, in einer beispielhaften Ausführungsform genannter Elemente vornehmen kann, ohne den Schutzbereich zu verlassen, der durch die Ansprüche und deren rechtliche Entsprechungen, wie etwa weitergehenden Erläuterungen in der Beschreibung, definiert wird.Although the subject matter has been illustrated and explained in detail by exemplary embodiments, the invention is not limited by the disclosed examples and other variations can be derived therefrom by those skilled in the art. It is therefore clear that a large number of possible variations exist. It is also to be understood that exemplary embodiments are merely examples and should not be construed in any way as limiting the scope, application, or configuration of the invention. Rather, the preceding description and the description of the figures enable the person skilled in the art to concretely implement the exemplary embodiments, with the person skilled in the art making various changes, for example, with knowledge of the disclosed inventive concept with regard to the function or arrangement of individual elements mentioned in an exemplary embodiment, without departing from the scope of protection which is defined by the claims and their legal equivalents, such as further explanations in the description.

Liste der BezugszeichenList of reference symbols

11
BildeingangsdatensatzImage input data set
22
ReferenzdatensatzReference dataset
33
AusgabedatensatzOutput data set
1010
tiefes neuronales Netz (DNN)deep neural network (DNN)
1111
MerkmalsextrationsebenenFeature extraction levels
1212
PerzeptionsebenenPerception levels
2020
TrainingsalgorithmusTraining algorithm
FF
FehlerrateError rate
ZZ
latenter Repräsentationsdatensatzlatent representation dataset
Zi,jZi,j
latente Repräsentationlatent representation
100100
EvaluierungsverfahrenEvaluation procedures
101101
erster Schrittfirst step
102102
zweiter Schrittsecond step
103103
dritter SchrittThird step
104104
vierter Schrittfourth step
105105
fünfter Schrittfifth step
106106
sechster Schrittsixth step
107107
siebter Schrittseventh step
108108
achter Schritteighth step
109109
Ende; für alle verwendeten Methoden als geeignet bewertetEnd; rated as suitable for all methods used
110110
Ende; für eine ausgewählte Methode als nicht geeignet bewertetEnd; assessed as not suitable for a selected method

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 1020212075053 [0006]DE 1020212075053 [0006]

Claims (10)

Verfahren zur Evaluierung eines tiefen neuronalen Netzes (10), das auf eine Objekterkennung im Umfeld eines Kraftfahrzeuges trainiert worden ist, wobei anhand einer vorbestimmten Anzahl von Evaluierungsdatensätzen und mit Hilfe des tiefen neuronalen Netzes (10) wenigstens eine Bezugsgröße ermittelt wird, und wobei eine Anzahl von Testdatensätzen bereitgestellt wird, aus denen mittels einer ausgewählten Methode zum Variieren von Datensätzen eine Anzahl von Zusatztrainingsdatensäten erzeugt wird, wobei das tiefe neuronale Netz (10) in einem Zusatztrainingsschritt mit den erzeugten Zusatztrainingsdatensäten trainiert wird, wobei nach dem Durchlaufen des Zusatztrainingsschritt anhand der vorbestimmten Anzahl von Evaluierungsdatensätzen und mit Hilfe des tiefen neuronalen Netzes (10) wenigstens eine Bewertungsgröße ermittelt wird, und wobei das tiefe neuronalen Netz (10) für die ausgewählte Methode als nicht geeignet bewertet wird, wenn eine Differenz zwischen der wenigsten einen Bezugsgröße und einer korrespondierenden Bewertungsgröße einen vorbestimmten Grenzwert überschreitet.Method for evaluating a deep neural network (10) which has been trained to recognize objects in the environment of a motor vehicle, wherein at least one reference variable is determined based on a predetermined number of evaluation data sets and with the aid of the deep neural network (10), and wherein a number of test data sets is provided, from which a number of additional training data sets are generated using a selected method for varying data sets, the deep neural network (10) being trained in an additional training step with the additional training data sets generated, after going through the additional training step based on the predetermined number of evaluation data sets and with the help of the deep neural network (10) at least one evaluation variable is determined, and wherein the deep neural network (10) is assessed as not suitable for the selected method if there is a difference between the at least one reference variable and a corresponding evaluation variable exceeds a predetermined limit. Verfahren gemäß vorstehendem Anspruch 1, wobei ursprünglich gelernte Parameter des tiefen neuronalen Netzes (10) ausgelesen abgespeichert werden, bevor ein erster Zusatztrainingsschritt durchgeführt wird.Procedure according to the above Claim 1 , whereby originally learned parameters of the deep neural network (10) are saved before a first additional training step is carried out. Verfahren gemäß vorstehendem Anspruch 2, wobei alle Parameter des tiefen neuronalen Netzes (10) auf die abgespeicherten ursprünglich gelernten Parameter zurückgesetzt werden, nachdem die wenigstens eine Bewertungsgröße ermittelt worden ist.Procedure according to the above Claim 2 , whereby all parameters of the deep neural network (10) are reset to the stored, originally learned parameters after the at least one evaluation variable has been determined. Verfahren gemäß einem der vorstehenden Ansprüche 1 bis 3, wobei eine Anzahl unterschiedlicher Methoden zum Variieren von Datensätzen bereitgestellt wird, wobei für jeder der unterschiedlichen Methoden zum Variieren von Datensätzen jeweils eine Anzahl von Zusatztrainingsdatensätzen aus den Testdatensätzen erzeugt wird, so dass eine der Anzahl der Methoden entsprechende Anzahl aufeinanderfolgenden Zusatztrainingsschritte durchlaufen wird.Method according to one of the above Claims 1 until 3 , wherein a number of different methods for varying data sets are provided, with a number of additional training data sets being generated from the test data sets for each of the different methods for varying data sets, so that a number of successive additional training steps corresponding to the number of methods is passed through. Verfahren gemäß einem der vorstehendem Ansprüche 1 bis 4, wobei für jeden Evaluierungsdatensatz durch das tiefe neuronale Netz (10) ein korrespondierender latenter Repräsentationsdatensatz (Z) erzeugt wird, wobei zu annotierten Daten (2) jedes Evaluierungsdatensatzes relevante latente Repräsentationen (Zi,j) aus dem korrespondierenden latenten Repräsentationsdatensatz (Z) ausgewählt werden, wobei aus den ausgewählten relevanten latenten Repräsentationen der Evaluierungsdatensätze ein Abstandsmittelwert im latenten Raum ermittelt wird, und wobei der ermittelte Abstandsmittelwert als Referenzgröße und/oder als Bewertungsgröße herangezogen wird.Method according to one of the above Claims 1 until 4 , wherein for each evaluation data set a corresponding latent representation data set (Z) is generated by the deep neural network (10), relevant latent representations (Z i,j ) being selected from the corresponding latent representation data set (Z) for annotated data (2) of each evaluation data set be, wherein a distance average value in the latent space is determined from the selected relevant latent representations of the evaluation data sets, and wherein the determined distance average value is used as a reference variable and / or as an evaluation variable. Verfahren gemäß einem der vorstehenden Ansprüche 1 bis 5, wobei für jeden Evaluierungsdatensatz durch das tiefe neuronale Netz (10) Ausgabedaten (3) erzeugt werden, wobei mittels eines Abgleichs zwischen den erzeugten Ausgabedaten (3) und den Referenzdaten (2) des jeweiligen Evaluierungsdatensatzes eine Performanz bestimmt wird, wobei die Performanz als Referenzgröße und/oder als Bewertungsgröße herangezogen wird.Method according to one of the above Claims 1 until 5 , wherein output data (3) are generated for each evaluation data set by the deep neural network (10), a performance being determined by means of a comparison between the generated output data (3) and the reference data (2) of the respective evaluation data set, the performance being used as a reference variable and/or is used as an evaluation variable. Verfahren gemäß einem der vorstehenden Ansprüche, wobei die Methode zum Variieren von Datensätzen ein parametrisiertes Verändern aller Daten eines Datensatzes umfasst.Method according to one of the preceding claims, wherein the method for varying data sets comprises a parameterized changing of all data in a data set. Verfahren gemäß einem der vorstehenden Ansprüche, wobei die Methode zum Variieren von Datensätzen ein Hinzufügen von Objekten in einen jeweiligen Datensatz umfasst.Method according to one of the preceding claims, wherein the method for varying data sets comprises adding objects into a respective data set. Computerprogramm, das, wenn es auf einer Recheneinheit ausgeführt wird, die jeweilige Recheneinheit anleitet, ein Verfahren nach einem der Ansprüche 1 bis 8 auszuführen.Computer program which, when executed on a computing unit, instructs the respective computing unit to carry out a method according to one of the Claims 1 until 8th to carry out. Computerprogrammprodukt mit einem Programmcode, der auf einem von einem Computer lesbaren Medium gespeichert ist zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 9.Computer program product with a program code that is stored on a computer-readable medium for carrying out the method according to one of the Claims 1 until 9 .
DE102022208480.2A 2022-08-16 2022-08-16 Method for evaluating a trained deep neural network Pending DE102022208480A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022208480.2A DE102022208480A1 (en) 2022-08-16 2022-08-16 Method for evaluating a trained deep neural network
PCT/EP2023/069934 WO2024037811A1 (en) 2022-08-16 2023-07-18 Method for evaluating a trained deep neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022208480.2A DE102022208480A1 (en) 2022-08-16 2022-08-16 Method for evaluating a trained deep neural network

Publications (1)

Publication Number Publication Date
DE102022208480A1 true DE102022208480A1 (en) 2024-02-22

Family

ID=87429278

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022208480.2A Pending DE102022208480A1 (en) 2022-08-16 2022-08-16 Method for evaluating a trained deep neural network

Country Status (2)

Country Link
DE (1) DE102022208480A1 (en)
WO (1) WO2024037811A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021207505A1 (en) 2021-07-14 2023-01-19 Psa Automobiles Sa Method for training a deep neural network

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200134444A1 (en) * 2018-10-31 2020-04-30 Sony Interactive Entertainment Inc. Systems and methods for domain adaptation in neural networks
US20220138511A1 (en) * 2020-10-30 2022-05-05 Robert Bosch Gmbh Deep neural networks via prototype factorization

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021207505A1 (en) 2021-07-14 2023-01-19 Psa Automobiles Sa Method for training a deep neural network

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FEIFEL, Patrick; BONARENS, Frank; KÖSTER, Frank: Leveraging Interpretability: Concept-based Pedestrian Detection with Deep Neural Networks. In: Proceedings of the 5th ACM Computer Science in Cars Symposium. 2021. S. 1-10

Also Published As

Publication number Publication date
WO2024037811A1 (en) 2024-02-22

Similar Documents

Publication Publication Date Title
DE112010002232B4 (en) Semantic scene segmentation using random multinominal logit (RML)
DE102018200724A1 (en) Method and device for improving the robustness against "Adversarial Examples"
EP3869390A1 (en) Computer-implemented method and system for creating a virtual vehicle environment
DE102021207505A1 (en) Method for training a deep neural network
DE102021004426A1 (en) Method for training an autonomous driving function
DE102021207613A1 (en) Process for quality assurance of a system
WO2020200620A1 (en) Masking of objects contained in an image
DE102019129029A1 (en) OBJECT DETECTION SYSTEM AND METHOD
DE102022208480A1 (en) Method for evaluating a trained deep neural network
DE102019213061A1 (en) Classification of AI modules
DE102018114912A1 (en) Method for classifying a color of a road marking by means of a statistical road marking determination model, electronic computing device and driver assistance system
DE102021200643B3 (en) Method for environment recognition for semi-autonomous or autonomous driving functions of a motor vehicle using a neural network
DE102020122979A1 (en) Method for providing a compressed, robust neural network and assistance device
DE102021214552A1 (en) Method for evaluating a trained deep neural network
EP3973466A1 (en) Method for making a neural network more robust in a function-specific manner
EP3973455A1 (en) Method for assessing a function-specific robustness of a neural network
WO2021122340A1 (en) Method and device for generating and providing a database having sensor data patches stored therein for use in quilting
DE102021114044A1 (en) Method for providing an artificial neural network for three-dimensional object recognition, computing device for a vehicle, computer program and computer-readable (storage) medium
EP4002217A1 (en) Method for reducing training data
DE102021132025A1 (en) Method for determining similar scenarios, training method and training controller
DE102022208083A1 (en) Training a neural network using knowledge graphs
DE102021214253A1 (en) Determination of the image parts that are relevant for image processing with a transformer network
DE102019219926A1 (en) Method and device for training a neural network
EP4205047A1 (en) Quality assurance method for an example-based system
DE102020203135A1 (en) Procedure for quality assurance of an example-based system

Legal Events

Date Code Title Description
R084 Declaration of willingness to licence
R163 Identified publications notified
R081 Change of applicant/patentee

Owner name: STELLANTIS AUTO SAS, FR

Free format text: FORMER OWNER: PSA AUTOMOBILES SA, POISSY, FR