EP4066156A1 - VERFAHREN ZUR BERECHNUNG EINES QUALITÄTSMAßES ZUR BEWERTUNG EINES OBJEKTDETEKTIONSALGORITHMUS - Google Patents

VERFAHREN ZUR BERECHNUNG EINES QUALITÄTSMAßES ZUR BEWERTUNG EINES OBJEKTDETEKTIONSALGORITHMUS

Info

Publication number
EP4066156A1
EP4066156A1 EP20800096.8A EP20800096A EP4066156A1 EP 4066156 A1 EP4066156 A1 EP 4066156A1 EP 20800096 A EP20800096 A EP 20800096A EP 4066156 A1 EP4066156 A1 EP 4066156A1
Authority
EP
European Patent Office
Prior art keywords
object detection
detection algorithm
annotations
determined
detections
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP20800096.8A
Other languages
English (en)
French (fr)
Inventor
Oliver WILLERS
Sebastian SUDHOLT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP4066156A1 publication Critical patent/EP4066156A1/de
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/414Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text

Definitions

  • the invention relates to a method for calculating a quality measure for evaluating a computer-implemented object detection algorithm, a device set up for executing the method, a computer program for executing the method, and a machine-readable storage medium on which this computer program is stored.
  • Computer-implemented object detection algorithms are often used as part of an environment recognition of partially, highly or fully automated robots, in particular automated vehicles.
  • the algorithms used for this are not perfect and can cause - more or less serious - false detections.
  • an object detection algorithm in an automatically operated vehicle can detect an object at a different location than it actually is, and thereby generate a faulty environment model. To enable such a system, it is therefore essential that the quality of the object detection algorithm is assessed and classified as sufficiently good.
  • Average metrics for example intersection over union, are generally used to evaluate the object detection algorithm. From a security perspective, however, average metrics are critical as they average the safest and most dangerous behavior. For the release of a These average metrics are therefore no longer sufficient for a safety-critical product.
  • the invention describes a computer-implemented method for calculating a quality measure of a computer-implemented object detection algorithm, which can be used in particular to enable the object detection algorithm for partially, highly or fully automated robots, the method comprising the following steps:
  • the quality measure representing a probability with which a deviation of an object detection from its assigned annotation exceeds or falls below a predefined threshold value.
  • the object detection algorithm can be released for use, in particular for use in an at least partially automated robot, if it exceeds or falls below a predefined quality measurement threshold.
  • a robot can be understood to mean, for example, an industrial robot, an automated work machine or an automatically operated vehicle.
  • it can be understood to mean a partially, highly or fully automated vehicle which can at least temporarily carry out driving operations without human intervention, in particular adjustments to the longitudinal and / or transverse movements.
  • data records with annotation are used for the method, with annotations being understood in particular to be bounding boxes.
  • Bounding box can be understood in particular as a rectangle that encloses an object to be detected.
  • the bounding box can mark an area of an image in which a person is located.
  • the bounding box can also be cuboid if objects are to be recorded in three-dimensional space. This can be useful, for example, if in the above example the position coordinates of the person are to be detected directly in the real world.
  • Several objects to be detected and thus several annotations can exist for each data record in the data record. For example, several people can be seen in one image, all of which are to be detected.
  • Different data can be used.
  • image data recorded by one or more cameras can be used.
  • data from other sensors for example radar, lidar or ultrasonic sensors or microphones, can also be used.
  • acoustic signals in particular visualized noise spectra or the like can be used as a basis for object recognition.
  • annotations can be different. If data records are obtained from external sources such as the Internet, for example, they are often already provided with annotations that can then be read out accordingly. Alternatively, the annotation can be created manually and linked to the data record. Another alternative is the automatic and / or semi-automatic creation of annotations. With the semi-automatic annotation, images are labeled by an annotation algorithm, whereby in a second step only the correctness of the label is checked by a person.
  • the task of the object detection algorithm is to detect objects as accurately as possible.
  • the object detection algorithm calculates object detections for this purpose, with object detections being understood in particular as bounding boxes.
  • object detections being understood in particular as bounding boxes.
  • both annotations and object detections can be represented by bounding boxes.
  • the difference is that the bounding box of the annotation determines an object to be detected, while the bounding box of the Object detection represents a bounding box determined by the object detection algorithm.
  • the object detections of a given object detection algorithm can first be applied to a selected data set in order to calculate object detections for the data set.
  • the object detections generated in this way can then be assigned to the annotations of the data record. This can be done by assigning an annotation to the object detection which has the highest overlap with this annotation.
  • the distance between an object detection and an annotation can also be used as an assignment criterion, in that an annotation is assigned to the object detection that has the smallest distance to it.
  • An object detection was not assigned to any annotation, for example because it does not overlap with any of the annotations. This is known as a false positive.
  • the second possibility is that no object detection has been assigned to an annotation. This is known as a false negative.
  • the third case is that an assignment has been made and there is a pair of object detection and annotation. This case is called a match.
  • a quality measure can now be determined which reflects the accuracy with which an object detection detects an annotation and thus an object to be detected.
  • a quality measure can be understood to mean a probability with which the distance between an object detection and the annotation assigned to it falls below a predetermined distance threshold value.
  • a distance can be understood here as a distance between a point on an edge of an object detection and a point on an edge of the associated annotation. In particular, it can be the smallest or largest distance between the distance between the edge of an object detection and the associated annotation.
  • the advantage of the invention is that it is possible to determine a probability with which the object detection algorithm can cause a security risk in object detections.
  • the security risk can be understood here as the probability that the object detections no longer completely enclose their correspondingly assigned annotations.
  • the invention can be used to classify an object detection algorithm as safe in the case of an object detection if the determined probability falls below a predefined value.
  • the deviation is a distance between a point of the object detection and a point of its assigned annotation.
  • the object detection algorithm is not limited to object detections whose sides are parallel to the sides of the annotations.
  • the object detection algorithm can output an object detection that is rotated in relation to the annotation assigned to it.
  • the deviation can be understood as the distance between a corner of the annotation and a side of the object detection.
  • the deviation represents a shift between a point of the object detection to a point of its assigned annotation, the shift being a signed scalar, the magnitude of which represents a distance and the sign of which represents a direction in which the point of the annotation from the point the object detection is shifted.
  • the advantage of this expansion is that, for example, the smallest shift can be used to determine the extent to which the annotation lies within the object detection assigned to it or, otherwise, how far the annotation from the object detection lies protrudes. In the event that the object detection completely encloses the annotation, the smallest shift is greater than zero. In the event that parts of the annotation are outside the object detection, the smallest shift is less than zero. This can be used to determine how likely it is that part or all of the annotation is outside of object detection.
  • the deviation corresponds to the smallest shift from a set of shifts.
  • the advantage of this embodiment is that a given object detection can be characterized by its - from a security point of view - potentially most dangerous deviation from the annotation. For a security argumentation, the most dangerous deviations of all object detections can be used and statistically evaluated.
  • the set of displacements consists of displacements of the sides of the annotation to the corresponding sides of the assigned object detection, the displacements being orthogonal to the respective side.
  • Corresponding pages are understood to mean the pages of an object detection and annotation that symbolize the same boundaries. In the case of 2-dimensional object detection and annotation, these are the left, right, upper and lower sides. For example, the left side of an object detection corresponds to the left side of the annotation assigned to it.
  • the shift parallel to the respective annotation page is determined for each pair of corresponding pages, with which the page is shifted from the corresponding side of the object detection. The smallest shift is then the shift of the smallest length.
  • the deviation is understood as an area which corresponds to the part of the annotation which does not overlap with the object detection.
  • the advantage of this embodiment is that the area can possibly better describe the extent to which several deviations (e.g. height and width) from the annotation can be security-critical.
  • the deviation can accordingly be indicated by a volume, the deviation being represented by the volume that does not overlap with the volume of the object detection.
  • the calculation of the probability takes place based on a model which is determined based on the determined deviations.
  • the model can be, for example, an expression of a probability distribution.
  • the determination of this model can also be based on the determined deviations.
  • its parameters can be determined based on a known method, in particular maximum likelihood estimation or Bayesian parameter estimation.
  • the parameters can be set based on expert knowledge so that the model shows a desired behavior. The advantage is that suitable assumptions can be integrated into the determination of the probability using a model selected in this way.
  • the model can extract knowledge from the specific deviations alone and output a probability accordingly.
  • Known machine learning methods can be used for this, in particular neural networks.
  • the model described above is a parameterizable model, in particular a parameterizable probability distribution, the parameters of which can be determined from the specific deviations.
  • the parameterizable model described above is an expression of a general extreme value distribution, the parameters defining the specific distribution.
  • a computer-implemented method which can be used to adapt a computer-implemented object detection algorithm to determine object detections.
  • the procedure consists of the following steps:
  • Adaptation of the detection algorithm based on the calculated quality measure in such a way that a renewed execution of the object detection algorithm results in a scaling of the object detections determined by means of the object detection algorithm.
  • the determination of the annotations and object detections, as well as the calculation of the quality measure can be carried out analogously to the explanations of the method described above.
  • data records can be used from which the annotations are extracted.
  • the objects to be detected are then predicted using the object detection algorithm through object detection.
  • the object detections are then assigned to the annotations and one of the methods described above for determining a quality measure is used to evaluate the predictions.
  • the calculated quality measure can be used in such a way that the underlying object detection algorithm becomes more reliable.
  • a predicted object detection of an object detection algorithm can be understood as critical to safety if the annotation assigned to it lies wholly or partially outside the object detection.
  • the predicted object detection can, for example, be scaled - that is, changed in shape and size - in such a way that the assigned annotation is completely enclosed.
  • the advantage of this method is that an object detection algorithm can be adapted in a measurable manner by increasing the quality measure in such a way that the object detection algorithm enables better or more reliable detection of objects.
  • the method can therefore be used as a component of a safety argument for the release of a product, for example a automated driving function and / or a driver assistance function, which is based on the object detection algorithm.
  • the steps for determining the object detections, calculating the quality measure and adapting the object detection algorithm are carried out with the respectively adapted
  • the object detection algorithm is repeated until the quality measure falls below or exceeds a predefined quality value and / or a predefined number of repetitions has been reached.
  • the advantage of this embodiment is that object detection algorithms based on iterative methods can be adapted very easily in order to increase the reliability of the predicted object detections.
  • the object detection algorithm is based on a parameterizable model, in particular a neural network.
  • the advantage of this embodiment is that the currently best performing object detection algorithms are based on neural networks. This embodiment allows the security of a neural network to be assessed using one of the quality measures described above.
  • the scaling takes place based on properties of the determined object detections, in particular the size, the proportions and / or the position in the image. For example, it can be stipulated that smaller object detections have to be scaled differently than larger ones, since deviations of the object detections from the assigned annotations are more safety-critical for larger annotations than for small ones and / or vice versa.
  • the position of the object detection can also be used to determine the scaling. In the case of an autonomous vehicle, it can be determined, for example, that objects at the upper edge of a video image are further away from the vehicle itself and are therefore less critical to safety.
  • the scaling takes place independently of the determined object detections, in particular based on a predefined factor.
  • the advantage of this embodiment is that the factor can be optimized based on the quality measure alone, without assumptions, and represents a computationally economical measure by means of which an existing object detection algorithm can be made measurably more reliable in a simple and fast manner.
  • the object detection algorithm is based on a parameterizable model, in particular a neural network, the adaptation being based on a change in the parameters of the parameterizable model, comprising the steps:
  • the core idea of this embodiment of the method is that a neural network is trained in such a way that it outputs already scaled object detections which no longer require subsequent scaling in order to enclose the assigned annotation. For this, scaled annotations are required first. Scaled annotations are understood to mean annotation that was generated from the originally extracted annotations by scaling. These scaled annotations can then be used to train the neural network, whereby the neural network is instructed to carry out the scaling intrinsically. It has been empirically proven that neural networks currently represent the best performing object detection algorithms. The advantage of this embodiment is therefore that, in addition to the high performance, a high degree of security with regard to the prediction of object detections can be achieved.
  • the individual steps of the previous embodiment are repeated with the respectively adapted parameters until a predefined error threshold value is undershot and / or a predefined number of repetitions is reached.
  • the advantage of this embodiment is that the neural network can be adapted iteratively. It is known that this iterative procedure for training neural networks enables the best predictive performance.
  • a computer program which comprises instructions which, when the computer program is executed by a computer, cause the computer to carry out one of the above-mentioned methods.
  • FIG. 1 shows a schematic process diagram for determining a quality measure of the object detection algorithm.
  • FIG. 2 shows an example of the relationships between annotation, object detection and scaling of an object detection.
  • FIG. 3 shows, by way of example, the determination of displacements of corresponding pages of an annotation and the object detection assigned to it.
  • FIG. 4 schematically shows a general extreme value distribution with a threshold value.
  • FIG. 5 shows the schematic sequence for improving a quality measure of an object detection algorithm.
  • a quality measure of an object detection algorithm is determined by means of a computer-implemented method.
  • the object detection algorithm is designed in such a way that it can recognize predefined objects by marking them with a bounding box in image data recorded by means of a camera. This is shown schematically, for example, in FIG. 2a, in which a vehicle with an annotation 201 and a bounding box 202a determined by means of the object detection algorithm are shown.
  • a set of images is used in this exemplary embodiment in which objects are annotated and the object detection algorithm has determined bounding boxes for the annotated objects.
  • This data record is used for the method shown schematically in FIG. 1 for determining a quality measure of the object recognition algorithm.
  • the object detections that were determined by means of the object detection algorithm are assigned to the annotations (201) comprised by the image data.
  • an annotation can protrude beyond an associated object detection (202a); this case is shown by way of example in FIG. 2a.
  • the annotation is completely enclosed by the object detection (202b), which is shown schematically in FIGS. 2b and 3.
  • the special case that the annotation corresponds exactly to the object detection can optionally be one of the two in FIG. 2 for the following steps categories shown.
  • the annotation is assigned to an object detection via the so-called intersection over union, that is, the ratio of the overlap of the two bounding boxes to the area of the union of the two bounding boxes.
  • the distance between the center points of both bounding boxes can also be used at this point in order to carry out an assignment.
  • step 102 the smallest deviation is determined for each pair of annotation and associated object detection.
  • the smallest deviation is determined from a set of deviations of the object detections from the associated annotations, which is shown schematically in FIG. 3.
  • the deviations are a respective shift of the corresponding pages of an object detection and the annotation assigned to it. This means that shifts are determined for the left (301), upper (302), right (303) and lower (304) corresponding sides. The shifts are always parallel to the corresponding side of the annotation (201).
  • the sign of a shift indicates the direction in which the object detection is shifted from the annotation (201). In the event that the annotation (201) protrudes from the object detection on one side, the corresponding shift is negative (301). Otherwise the shift is positive (302, 303, 304).
  • the smallest is then determined from the four shifts (301, 302, 303, 304).
  • step 103 the quality measure is calculated.
  • a model (401) is determined from the deviations determined in step 102, which model represents the distribution of the deviations.
  • a general extreme value distribution is used for this purpose.
  • the maximum likelihood estimation method is used to determine the parameters of the general extreme value distribution.
  • the cumulative distribution function of the general extreme value distribution is evaluated at the value 0 (402). This step is shown schematically in FIG. In the figure, the displacement is plotted on the X axis and the probability density of the extreme value distribution is plotted on the Y axis.
  • the result of the evaluation corresponds to the probability that an annotation protrudes from the object detection assigned to it.
  • step 103 a Bayesian parameter estimation is carried out instead of the maximum likelihood estimation.
  • an object detection algorithm is changed in such a way that it becomes more reliable.
  • annotations are manually generated for a data record of camera-based sensor data.
  • the annotations can also be generated semi- or fully automatically.
  • step 502 object detections are determined for the sensor data using the object detection algorithm, which are then assigned to the annotations in step 503.
  • the assignment takes place as in the first exemplary embodiment.
  • step 504 the quality measure of the object detection algorithm is determined. This happens as in the first embodiment.
  • the object detection algorithm is adapted in such a way that the probability becomes smaller that an annotation protrudes from the object detection assigned to it.
  • all object detections are scaled with a fixed factor in such a way that they enclose the annotation assigned to them.
  • a fourth exemplary embodiment the same steps are carried out as in the third exemplary embodiment, but LIDAR-based sensor data are used instead of camera-based sensor data. The rest of the steps are the same.
  • step 505 the same steps take place as in the third exemplary embodiment, step 505 being modified as follows:
  • the object detections are scaled with a fixed factor and the quality measure for the scaled object detections is calculated. If the quality measure does not meet a predefined threshold value, the already scaled object detections are scaled with a factor in such a way that the object detection becomes larger. This adaptation of the size with the aid of a scaling factor is carried out until the quality measure falls below a predefined probability.
  • the object detection algorithm is based on a neural network.
  • step 505 is modified as follows: The neural network is trained with sensor data and annotations of a second data set in such a way that it intrinsically outputs larger object detections.
  • the annotations of the second data set are scaled in such a way that they become larger.
  • the neural network learns to predict larger object detections.
  • the modified neural network is applied again to the first data set and the quality measure is determined again. If the quality measure is above a predefined probability value, the neural network is trained on the second data set with even larger scaled annotations. The adaptation of the neural network and the evaluation of the quality measure are carried out repeatedly until the quality measure falls below the predefined probability value.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung beschreibt ein Verfahren zur Berechnung eines Qualitätsmaßes eines computerimplementierten Objektdetektionsalgorithmus, welches insbesondere zur Freigabe des Objektdetektionsalgorithmus für teil-, hoch- oder vollautomatisierte Roboter verwendet werden kann, wobei das Verfahren die folgenden Schritte umfasst: • Zuordnung (101) von ermittelten Objektdetektionen zu Annotationen, wobei die Objektdetektionen und/oder die Annotationen Bounding Boxes entsprechen; • Bestimmung (102) von Abweichungen, insbesondere Abständen, der Annotationen zu ihren zugeordneten Objektdetektionen; • Berechnen (103) des Qualitätsmaßes des Objektdetektionsalgorithmus basierend auf den bestimmten Abweichungen, wobei das Qualitätsmaß eine Wahrscheinlichkeit repräsentiert, mit der eine Abweichung einer Objektdetektion von ihrer zugeordneten Annotation einen vordefinierten Schwellenwert über- oder unterschreitet.

Description

Beschreibung
Titel
Verfahren zur Berechnung eines Qualitätsmaßes zur Bewertung eines
Objektdetektionsalgorithmus
Stand der Technik
Die Erfindung betrifft ein Verfahren zur Berechnung eines Qualitätsmaßes zur Bewertung eines computerimplementierten Objektdetektionsalgorithmus, eine zur Ausführung des Verfahrens eingerichtete Vorrichtung, ein Computerprogramm zur Ausführung des Verfahrens, sowie ein maschinenlesbares Speichermedium, auf welchem dieses Computerprogramm gespeichert ist.
Computerimplementierte Objektdetektionsalgorithmen werden häufig als Teil einer Umfelderkennung von teil-, hoch- oder vollautomatisierten Robotern, insbesondere automatisiert betriebener Fahrzeugen, verwendet. Die hierfür verwendeten Algorithmen sind dabei nicht perfekt und können - mehr oder weniger schwerwiegende - Fehldetektionen verursachen. Beispielsweise kann ein Objektdetektionsalgorithmus in einem automatisiert betriebenen Fahrzeug ein Objekt an einer anderen Stelle detektieren, als es sich in Wirklichkeit befindet, und dadurch ein fehlerhaftes Umfeldmodell erzeugen. Zur Freigabe eines solchen Systems ist es daher unerlässlich, dass die Qualität des Objektdetektionsalgorithmus bewertet und als ausreichend gut eingestuft wird.
Zur Bewertung des Objektdetektionsalgorithmus werden im Allgemeinen Durchschnittsmetriken, zum Beispiel die Intersection over Union verwendet. Aus Sicherheitssicht sind Durchschnittsmetriken jedoch kritisch, da sie das sicherste und gefährlichste Verhalten im Durchschnitt bewerten. Für die Freigabe eines sicherheitskritischen Produkts reichen diese Durchschnittsmetriken daher nicht mehr aus.
Offenbarung der Erfindung
Die Erfindung beschreibt eine computerimplementiertes Verfahren zur Berechnung eines Qualitätsmaßes eines computerimplementierten Objektdetektionsalgorithmus, welches insbesondere zur Freigabe des Objektdetektionsalgorithmus für teil-, hoch oder vollautomatisierte Roboter verwendet werden kann, wobei das Verfahren die folgenden Schritte umfasst:
• Zuordnung von ermittelten Objektdetektionen zu Annotationen, wobei die Objektdetektionen und/oder die Annotationen Bounding Boxes entsprechen;
• Bestimmung von Abweichungen, insbesondere Abständen, der Annotationen zu ihren zugeordneten Objektdetektionen;
• Berechnen des Qualitätsmaßes des Objektdetektionsalgorithmus basierend auf den bestimmten Abweichungen, wobei das Qualitätsmaß eine Wahrscheinlichkeit repräsentiert, mit der eine Abweichung einer Objektdetektion von ihrer zugeordneten Annotation einen vordefinierten Schwellenwert über- oder unterschreitet.
In einem optionalen Schritt kann der Objektdetektionsalgorithmus zur Nutzung, insbesondere zur Nutzung in einem zumindest teilautomatisiert betriebenen Roboter, freigegeben werden, wenn er einen vordefinierten Qualitätsmaßschwellenwert über oder unterschreitet.
Unter einem Roboter kann beispielsweise ein Industrieroboter, eine automatisierte Werkmaschine oder ein automatisiert betriebenes Fahrzeug verstanden werden. Insbesondere kann darunter ein teil-, hoch- oder vollautomatisiertes Fahrzeug verstanden werden, welches zumindest zeitweise Fahroperationen ohne menschlichen Eingriffe durchführen kann, insbesondere Anpassungen der Längs und/oder Querbewegungen.
Für das Verfahren werden insbesondere Datensätze mit Annotation verwendet, wobei unter Annotationen insbesondere Bounding Boxes verstanden werden. Unter einer Bounding Box kann insbesondere ein Rechteck verstanden werden, das ein zu detektierendes Objekt umschließt. Zum Beispiel kann im Falle einer videobasierten Personendetektion die Bounding Box einen Bereich eines Bildes markieren, in dem sich eine Person befindet. Alternativ kann die Bounding Box auch quaderförmig sein, wenn Objekte im 3-dimensionalen Raum erfasst werden sollen. Dies kann zum Beispiel von Nutzen sein, wenn im oben genannten Beispiel die Positionskoordinaten der Person in der realen Welt direkt detektiert werden sollen. Pro Datum des Datensatzes können mehrere zu detektierende Objekte und damit mehrere Annotationen vorliegen. Beispielsweise können mehrere Personen auf einem Bild zu sehen sein, die alle detektiert werden sollen.
Es können unterschiedliche Daten herangezogen werden. Insbesondere können von einer oder mehreren Kameras aufgezeichnete Bilddaten verwendet werden. Es können aber auch Daten von anderen Sensoren, beispielsweise Radar-, Lidar- oder Ultraschallsensoren oder Mikrofonen, verwendet werden. Bei der Verwendung von akustischen Signalen können insbesondere visualisierte Geräuschspektren oder dergleichen als Grundlage für die Objekterkennung herangezogen werden.
Die Herkunft der Annotationen kann unterschiedlich sein. Wenn Datensätze beispielsweise aus externen Quellen, wie dem Internet, bezogen werden, sind sie häufig bereits mit Annotationen versehen, die dann entsprechend ausgelesen werden können. Alternativ kann die Annotation manuell erstellt und mit dem Datensatz verknüpft werden. Eine weitere Alternative ist die automatische und/oder semi automatische Erstellung von Annotationen. Bei der semi-automatischen Annotation werden Bilder von einem Annotationsalgorithmus gelabelt, wobei in einem zweiten Schritt lediglich die Korrektheit der Label durch einen Menschen überprüft wird.
Die Aufgabe des Objektdetektionsalgorithmus ist es, Objekte möglichst akkurat zu detektieren. Der Objektdetektionsalgorithmus berechnet hierfür Objektdetektionen, wobei unter Objektdetektionen insbesondere Bounding Boxes verstanden werden. Generell können sowohl Annotationen als auch Objektdetektionen durch Bounding Boxes repräsentiert werden. Der Unterschied liegt darin, dass die Bounding Box der Annotation ein zu detektierendes Objekt bestimmt, während die Bounding Box der Objektdetektion eine vom Objektdetektionsalgorithmus ermittelte Bounding Box repräsentiert.
Um zu bestimmen, wie genau die Objektdetektionen eines gegebenen Objektdetektionsalgorithmus sind, kann er zunächst auf einen ausgewählten Datensatz angewendet werden, um für den Datensatz Objektdetektionen zu berechnen. Anschließend können die so erzeugten Objektdetektionen den Annotationen des Datensatzes zugeordnet werden. Dies kann durchgeführt werden, indem eine Annotation der Objektdetektion zugeordnet wird, die die höchste Überlappung mit dieser Annotation aufweist. Alternativ kann auch der Abstand einer Objektdetektion zu einer Annotation als Zuweisungskriterium genutzt werden, indem eine Annotation der Objektdetektion zugewiesen wird, die den geringsten Abstand zu ihr aufweist.
Nachdem die Zuweisung durchgeführt wurde, ergeben sich drei mögliche Situationen. Eine Objektdetektion wurde keiner Annotation zugewiesen, beispielsweise, weil sie keine Überlappung mit irgendeiner der Annotationen aufweist. Dies wird als False Positive bezeichnet. Die zweite Möglichkeit ist, dass einer Annotation keine Objektdetektion zugeordnet wurde. Dies wird als False Negative bezeichnet. Der dritte Fall ist, dass eine Zuweisung erfolgt ist und es ein Paar von Objektdetektion und Annotation gibt. Dieser Fall wird als Match bezeichnet.
Für alle Paare von Objektdetektionen und Annotationen, die den dritten Fall erfüllen, kann nun ein Qualitätsmaß bestimmt werden, welches die Genauigkeit widerspiegelt, mit der eine Objektdetektion eine Annotation und damit ein zu detektierendes Objekt erkennt.
Unter Qualitätsmaß kann im Folgenden eine Wahrscheinlichkeit verstanden werden, mit der der Abstand einer Objektdetektion zu der ihr zugeordneten Annotation einen vorgegebenen Abstandsschwellenwert unterschreitet. Unter einem Abstand kann hierbei eine Distanz zwischen einem Punkt auf einem Rand einer Objektdetektion und einem Punkt auf einem Rand der zugehörigen Annotation verstanden werden. Insbesondere kann es sich um die kleinste oder größte Distanz zwischen dem Abstand des Rands einer Objektdetektion und der zugehörigen Annotation handeln. Der Vorteil der Erfindung liegt darin, dass eine Wahrscheinlich ermittelt werden kann, mit der der Objektdetektionsalgorithmus ein Sicherheitsrisiko bei Objektdetektionen verursachen kann. Das Sicherheitsrisiko kann hier als Wahrscheinlichkeit verstanden werden, dass die Objektdetektionen ihre entsprechend zugeordneten Annotationen nicht mehr komplett umschließen. Dieser Fall ist besonders kritisch für Roboter, Drohnen und andere autonom agierende Vehikel, die einen Objektdetektionsalgorithmus als Teil ihrer Umfeldmodellierung und Bewegungsplanung verwenden. Im Umkehrschluss kann die Erfindung genutzt werden, um einen Objektdetektionsalgorithmus im Falle einer Objektdetektion als sicher einzustufen, wenn die ermittelte Wahrscheinlich einen vordefinierten Wert unterschreitet.
In einerweiteren Ausführungsform der Erfindung ist die Abweichung eine Distanz zwischen einem Punkt der Objektdetektion zu einem Punkt ihrer zugeordneten Annotation.
Der Vorteil dieser Ausführungsform liegt darin, dass der Objektdetektionsalgorithmus nicht auf Objektdetektionen beschränkt ist, deren Seiten parallel zu den Seiten der Annotationen sind. Beispielsweise kann der Objektdetektionsalgorithmus eine Objektdetektion ausgeben, die im Verhältnis zu der ihr zugeordneten Annotation rotiert ist. In diesem Fall kann die Abweichung als Distanz zwischen einer Ecke der Annotation und einer Seite der Objektdetektion verstanden werden.
In einerweiteren Ausführungsform des Verfahrens stellt die Abweichung eine Verschiebung zwischen einem Punkt der Objektdetektion zu einem Punkt ihrer zugeordneten Annotation dar, wobei die Verschiebung ein vorzeichenbehafteter Skalar ist, dessen Betrag eine Distanz und dessen Vorzeichen eine Richtung repräsentiert, in die der Punkt der Annotation vom Punkt der Objektdetektion verschoben ist.
Der Vorteil dieser Erweiterung ist, dass beispielsweise über die kleinste Verschiebung bestimmt werden kann, in wie weit die Annotation innerhalb der ihr zugeordneten Objektdetektion liegt oder andernfalls wie weit die Annotation aus der Objektdetektion herausragt. Für den Fall, dass die Objektdetektion die Annotation komplett umschließt ist die kleinste Verschiebung größer als Null. Für den Fall, dass Teile der Annotation außerhalb der Objektdetektion liegen, ist die kleinste Verschiebung kleiner als Null. Dies kann dafür eingesetzt werden, um zu bestimmen, wie wahrscheinlich es ist, dass Teile der Annotation oder die gesamte Annotation außerhalb der Objektdetektion liegen.
In einer weiteren Ausführungsform des Verfahrens entspricht die Abweichung der kleinsten Verschiebung aus einer Menge von Verschiebungen.
Der Vorteil dieser Ausführungsform liegt darin, dass eine gegebene Objektdetektion durch ihre - aus Sicherheitssicht - potentiell gefährlichste Abweichung zur Annotation charakterisiert werden kann. Für eine Sicherheitsargumentation können die gefährlichsten Abweichungen aller Objektdetektionen herangezogen werden und statistisch ausgewertet werden.
In einerweiteren Ausführungsform des Verfahrens besteht die Menge von Verschiebungen aus Verschiebungen der Seiten der Annotation zu den korrespondierenden Seiten der zugeordneten Objektdetektion, wobei die Verschiebungen orthogonal zur jeweiligen Seite sind. Unter korrespondierenden Seiten werden die Seiten einer Objektdetektion und Annotation verstanden, die gleiche Begrenzungen symbolisieren. Bei 2-dimensionalen Objektdetektionen und Annotation sind dies die jeweils linken, rechten, oberen und unteren Seiten. Zum Beispiel korrespondiert die linke Seite einer Objektdetektion mit der linken Seite der ihr zugeordneten Annotation. Um die kleinste Verschiebung zwischen korrespondieren Seiten zu bestimmen, wird für jedes Paar von korrespondieren Seiten die zur jeweiligen Annotationsseite parallele Verschiebung ermittelt, mit der die Seite von der korrespondierenden Seite der Objektdetektion verschoben. Die kleinste Verschiebung ist dann die Verschiebung kleinster Länge.
Der Vorteil dieser Erweiterung ist, dass bestimmt werden kann, in wie weit die Annotation maximal aus der Objektdetektion hinausragt. Es kann so für jedes Paar von Annotation und zugeordneter Objektdetektion eine Abschätzung der - aus Sicherheitssicht - gefährlichsten Abweichung bestimmt werden. Umgekehrt kann bestimmt werden, wie viel Spielraum der Objektdetektionsalgorithmus noch hat, bis er einen potentiell sicherheitskritischen Fehler begeht.
In einer weiteren Ausführungsform des Verfahrens wird die Abweichung als Fläche verstanden, die dem Teil der Annotation entspricht, der keine Überlappung mit der Objektdetektion aufweist. Der Vorteil dieser Ausführungsform liegt darin, dass die Fläche unter Umständen besser beschreiben kann, in wie weit mehrere Abweichungen (z.B. Höhe und Breite) von der Annotation sicherheitskritisch sein können. Bei dreidimensionalen Objekten kann die Abweichung entsprechend durch ein Volumen angegeben werden, wobei die Abweichung durch das Volumen repräsentiert wird, das keine Überlappung mit dem Volumen der Objektdetektion aufweist.
In einer weiteren Ausführungsformen der oben aufgeführten Verfahren erfolgt die Berechnung der Wahrscheinlichkeit basierend auf einem Modell, welches basierend auf den bestimmten Abweichungen ermittelt wird.
Bei dem Modell kann es sich beispielsweise um eine Ausprägung einer Wahrscheinlichkeitsverteilung handeln. Die Ermittlung dieses Modells kann ebenfalls auf den bestimmten Abweichungen basieren. Beispielsweise können dessen Parameter basierend auf einem bekannten Verfahren, insbesondere Maximum Likelihood Estimation oder Bayes’scher Parameterschätzung, ermittelt werden. Alternativ können die Parameter basierend auf Expertenwissen so eingestellt werden, dass das Modell ein gewünschtes Verhalten zeigt. Der Vorteil liegt darin, dass über ein so gewähltes Modell geeignete Vorannahmen mit in die Bestimmung der Wahrscheinlichkeit integriert werden können.
Alternativ kann das Modell allein aus den bestimmten Abweichungen Wissen extrahieren und entsprechend eine Wahrscheinlichkeit ausgeben. Hierfür können bekannte Machine Learning Verfahren verwendet werden, insbesondere Neuronale Netze.
Der Vorteil liegt darin, dass über diese Art von Modellen andere und/oder weniger Vorannahmen mit in die Wahrscheinlichkeitsermittlung aufgenommen werden können und Informationen allein auf Grundlage der Daten, also der bestimmten Abweichungen, extrahiert werden. Dies kann sinnvoll sein, wenn beispielsweise keine sinnvollen Vorannahmen bezüglich der Verteilung der Abweichungen bekannt sind.
In einerweiteren Ausführungsform ist das oben beschriebene Modell ein parametrierbares Modell, insbesondere eine parametrierbare Wahrscheinlichkeitsverteilung, dessen Parameter aus den bestimmten Abweichungen ermittelt werden können.
Der Vorteil dieser Ausführungsform liegt darin, dass die Vorannahmen über die Familie der gewählten Wahrscheinlichkeitsverteilung klar formuliert sind und die tatsächliche Verteilung der bestimmten Abweichungen über bekannte Verfahren gut bestimmt werden kann, z. B. mit Hilfe von Maximum Likelihood Estimation. Alternativ können Bayes’sche Verfahren benutzt werden, um zusätzliche Vorannahmen bezüglich der Parameter mit in die Bestimmung aufzunehmen.
In einer weiteren Ausführungsform ist das oben beschriebene parametrierbare Modell eine Ausprägungsform einer allgemeinen Extremwertverteilung, wobei die Parameter die konkrete Verteilung definieren.
Der Vorteil dieser Ausführungsform des Verfahrens liegt darin, dass allgemeine Extremwertverteilungen seltene Ereignisse sehr gut modellieren. Es kann im Allgemeinen davon ausgegangen werden, dass die oben beschriebenen Abweichungen einer Extremwertverteilung folgen. Um dies in einem konkreten Fall zu belegen, können statistische Tests, insbesondere ein Kolmogorow-Smirnoff-Test, verwendet werden.
Des Weiteren wird ein computerimplementiertes Verfahren beansprucht, welches zur Anpassung eines computerimplementierten Objektdetektionsalgorithmus zur Ermittlung von Objektdetektionen benutzt werden kann. Das Verfahren umfasst die folgenden Schritte:
• Ermitteln von Annotationen von mittels des Objektdetektionsalgorithmus zu detektierenden Objekten;
• Ermitteln von Objektdetektionen mittels des Objektdetektionsalgorithmus; • Berechnung eines Qualitätsmaßes des Objektdetektionsalgorithmus nach einem der oben beschriebenen Verfahren zur Berechnung eines Qualitätsmaßes eines Objektdetektionsalgorithmus;
• Anpassung des Detektionsalgorithmus basierend auf dem berechneten Qualitätsmaß derart, dass eine erneute Ausführung des Objektdetektionsalgorithmus in einer Skalierung der mittels des Objektdetektionsalgorithmus ermittelten Objektdetektionen resultiert.
Die Ermittlung der Annotationen und Objektdetektionen, sowie die Berechnung des Qualitätsmaßes können hierbei analog zu den Ausführungen zum oben beschriebenen Verfahren erfolgen. Es können zum Beispiel Datensätze verwendet werden, aus denen die Annotationen extrahiert werden. Anschließend werden in diesem Verfahren die zu detektierenden Objekte mit dem Objektdetektionsalgorithmus durch Objektdetektionen prädiziert. Anschließend werden die Objektdetektionen den Annotationen zugeordnet und eines der oben beschriebenen Verfahren zur Bestimmung eines Qualitätsmaßes angewendet, um die Prädiktionen zu bewerten.
Für den Schritt der Anpassung des Objektdetektionsalgorithmus kann das berechnete Qualitätsmaß derart verwendet werden, dass der zu Grunde liegenden Objektdetektionsalgorithmus sicherer wird. Wie bereits dargelegt, kann eine prädizierte Objektdetektion eines Objektdetektionsalgorithmus als sicherheitskritisch verstanden werden, wenn die ihr zugeordnete Annotation ganz oder teilweise außerhalb der Objektdetektion liegt. Um den Objektdetektionsalgorithmus so zu verändern, dass er sicherer wird, kann die prädizierte Objektdetektion beispielsweise derart skaliert - also in ihrer Form und Größe verändert - werden, dass die zugeordnete Annotation komplett umschlossen wird.
Der Vorteil dieses Verfahrens liegt darin, dass ein Objektdetektionsalgorithmus messbar durch eine Erhöhung des Qualitätsmaßes derart angepasst werden kann, dass der Objektdetektionsalgorithmus eine bessere oder sicherere Detektion von Objekten ermöglicht. Das Verfahren kann daher als Baustein einer Sicherheitsargumentation zur Freigabe eines Produkts, beispielsweise einer automatisierten Fahrfunktion und/oder einer Fahrerassistenzfunktion, verwendet werden, welches auf dem Objektdetektionsalgorithmus basiert.
In einer weiteren Ausführungsform werden die Schritte zur Ermittlung der Objektdetektionen, Berechnung des Qualitätsmaßes und Anpassung des Objektdetektionsalgorithmus mit dem jeweils angepassten
Objektdetektionsalgorithmus wiederholt, bis das Qualitätsmaß einen vordefinierten Qualitätswert unter- oder überschreitet und/oder eine vordefinierte Anzahl von Wiederholungen erreicht wurde.
Der Vorteil dieser Ausführungsform liegt darin, dass Objektdetektionsalgorithmen, die auf iterativen Verfahren beruhen, sehr einfach angepasst werden können, um die Sicherheit der prädizierten Objektdetektionen zu erhöhen.
In einer weiteren Ausführungsform des Verfahrens basiert der Objektdetektionsalgorithmus auf einem parametrierbaren Modell, insbesondere einem Neuronalen Netz.
Der Vorteil dieser Ausführungsform liegt darin, dass die aktuell performantesten Objektdetektionsalgorithmen auf Neuronalen Netzen basieren. Diese Ausführungsform erlaubt es, dass die Sicherheit eine Neuronalen Netzes über eines der oben beschrienen Qualitätsmaße bewertet werden kann.
In einer weiteren Ausführungsform erfolgt die Skalierung basierend auf Eigenschaften der ermittelten Objektdetektionen, insbesondere der Größe, der Größenverhältnisse und/oder der Position im Bild. Zum Beispiel kann festgelegt werden, dass kleinere Objektdetektionen anders skaliert werden müssen als größere, da Abweichungen der Objektdetektionen zu den zugeordneten Annotationen für größere Annotationen sicherheitskritischer sind als für kleine und/oder umgekehrt. Alternativ und/oder zusätzlich kann auch die Position der Objektdetektion zur Bestimmung der Skalierung verwendet werden. Im Falle eines autonomen Fahrzeugs kann Beispielsweise bestimmt werden, dass Objekte am oberen Rand eines Videobildes weiter weg vom Fahrzeug selbst und daher weniger sicherheitskritisch sind. In einer weiteren Ausführungsform des Verfahrens erfolgt die Skalierung unabhängig von den ermittelten Objektdetektionen, insbesondere basierend auf einem vordefinierten Faktor.
Der Vorteil dieser Ausführungsform liegt darin, dass der Faktor ohne Annahmen allein basierend auf dem Qualitätsmaß optimiert werden kann und eine rechensparsame Maßnahme darstellt, durch die ein bestehender Objektdetektionsalgorithmus einfach und schnell messbar sicherer gemacht werden kann.
In einer weiteren Ausführungsform des Verfahrens basiert der Objektdetektionsalgorithmus auf einem parametrierbaren Modell, insbesondere einem Neuronalen Netz, wobei die Anpassung auf einer Veränderung der Parameter des parametrierbaren Modells basiert, umfassend die Schritte:
• Ermitteln von skalierten Annotationen, basierend auf den ermittelten Annotationen;
• Ermitteln von Objektdetektionen mittels des Detektionsalgorithmus;
• Zuordnung der Objektdetektionen zu den skalierten Annotationen, basierend auf den ermittelten Annotationen;
• Ermitteln eines Fehlers zwischen den Objektdetektionen und den ihnen zugeordneten skalierten Annotationen;
• Verkleinerung des Fehlers durch Anpassen der Parameter.
Die Kernidee dieser Ausführungsform des Verfahrens ist es, dass ein Neuronales Netz derart trainiert wird, dass es bereits skalierte Objektdetektionen ausgibt, die kein nachgelagertes Skalieren mehr benötigen, um die zugeordnete Annotation zu umschließen. Hierfür werden zunächst skalierte Annotationen benötigt. Unter skalierten Annotationen werden Annotation verstanden, die aus den ursprünglich extrahierten Annotationen durch Skalierung erzeugt wurden. Diese skalierten Annotationen können dann zum Training des Neuronalen Netzes verwendet werden, wodurch das Neuronale Netz angeleitet wird die Skalierung bereits intrinsisch vorzunehmen. Es ist empirisch belegt, dass Neuronale Netze derzeit die performantesten Objektdetektionsalgorithmen darstellen. Der Vorteil dieser Ausführungsform liegt daher darin, dass zusätzlich zur hohen Performanz ein hohes Maß an Sicherheit bezüglich der Prädiktion von Objektdetektionen erzielt werden kann.
In einer weiteren Ausführungsform des Verfahrens werden die einzelnen Schritte der vorherigen Ausführungsform mit den jeweils angepassten Parametern wiederholt, bis ein vordefinierter Fehlerschwellenwert unterschritten und/oder eine vordefinierte Anzahl von Wiederholungen erreicht wird.
Der Vorteil dieser Ausführungsform liegt darin, dass das Neuronale Netz iterativ angepasst werden kann. Es ist bekannt, dass dieses iterative Vorgehen zum Training von Neuronalen Netzen die besten Prädiktionsleistungen ermöglicht.
Des Weiteren wird ein Computerprogramm beansprucht, welches Befehle umfasst, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, eines der oben angeführten Verfahren auszuführen.
Des Weiteren wird ein maschinenlesbares Speichermedium beansprucht, auf welchem dieses Computerprogramm gespeichert ist.
Des Weiteren wird eine Vorrichtung beansprucht, die dazu eingerichtet ist, eines der oben beschrieben Verfahren auszuführen.
Zeichnungen
Figur 1 zeigt ein schematisches Verfahrensdiagramm zur Bestimmung eines Qualitätsmaßes des Objektdetektionsalgorithmus.
Figur 2 zeigt exemplarisch die Verhältnisse von Annotation, Objektdetektion und Skalierung einer Objektdetektion zueinander. Figur 3 zeigt exemplarisch die Bestimmung von Verschiebungen von korrespondierenden Seiten einer Annotation und der ihr zugeordneten Objektdetektion.
Figur 4 zeigt schematisch eine allgemeine Extremwertverteilung mit Schwellenwert.
Figur 5 zeigt den schematischen Ablauf zur Verbesserung eines Qualitätsmaßes eines Objektdetektionsalgorithmus.
Ausführungsbeispiele
In einem ersten Ausführungsbeispiel wird mittels eines computerimplementierten Verfahrens ein Qualitätsmaß eines Objektdetektionsalgorithmus bestimmt. Der Objektdetektionsalgorithmus ist hierbei derart ausgebildet, dass er vordefinierte Objekte erkennen kann, indem er diese in mittels einer Kamera aufgezeichneten Bilddaten mit einer Bounding Box markiert. Dies ist beispielsweise schematisch in Fig. 2a dargestellt, in welcher ein Fahrzeug mit einer Annotation 201 und eine mittels des Objektdetektionsalgorithmus bestimmte Bounding Box 202a abgebildet sind.
Um ein Maß für die Güte des Algorithmus bzw. einer Genauigkeit der Objekterkennung bestimmen zu können, wird in diesem Ausführungsbeispiel ein Satz von Bildern verwendet, in denen Objekte annotiert sind und der Objektdetektionsalgorithmus Bounding Boxes für die annotierten Objekte bestimmt hat. Dieser Datensatz wird für das in Fig. 1 schematisch dargestellte Verfahrens zur Bestimmung eines Qualitätsmaßes des Objekterkennungsalgorithmus verwendet.
In Schritt 101 dieses Verfahrens werden die Objektdetektionen, die mittels des Objektdetektionsalgorithmus bestimmt wurden, den von den Bilddaten umfassten Annotationen (201) zugeordnet. Dabei kann im Allgemeinen eine Annotation über eine zugehörige Objektdetektion (202a) hinausragen, dieser Fall wird beispielhaft in Fig. 2a gezeigt. Die andere Möglichkeit ist, dass die Annotation komplett von der Objektdetektion (202b) umschlossen ist, was schematisch in Fig. 2b und Fig. 3 gezeigt wird. Der Spezialfall, dass die Annotation genau der Objektdetektion entspricht, kann für die folgenden Schritte wahlweise einer der beiden in Fig. 2 gezeigten Kategorien zugeordnet werden. Die Zuordnung der Annotation zu einer Objektdetektion erfolgt in diesem Ausführungsbeispiel über die sogenannte Intersection over Union, also das Verhältnis von Überlappung der beiden Bounding Boxes zu der Fläche der Vereinigung beider Bounding Boxes.
(In alternativen Ausführungsbeispielen kann an dieser Stelle auch die Distanz der Mittelpunkte beider Bounding Boxes verwendet werden, um eine Zuordnung durchzuführen.)
In Schritt 102 wird für jedes Paar von Annotation und zugeordneter Objektdetektion die kleinste Abweichung ermittelt. Die kleinste Abweichung wird dabei aus einer Menge von Abweichungen der Objektdetektionen von den zugehörigen Annotationen ermittelt, was schematisch in Fig. 3 dargestellt wird. Die Abweichungen sind in diesem Ausführungsbeispiel eine jeweilige Verschiebung von korrespondierenden Seiten einer Objektdetektion und der ihr zugeordneten Annotation. Dass bedeutet, dass Verschiebungen für die linken (301), oberen (302), rechten (303) und unteren (304) korrespondieren Seiten ermittelt werden. Die Verschiebungen sind hierbei immer parallel zur entsprechenden Seite der Annotation (201). Des Weiteren gibt das Vorzeichen einer Verschiebung die Richtung an, in die die Objektdetektion von der Annotation (201) verschoben ist. Für den Fall, dass die Annotation (201) an einer Seite aus der Objektdetektion herausragt, ist die entsprechende Verschiebung negativ (301). Im anderen Fall ist die Verschiebung positiv ist (302, 303, 304). Aus den vier Verschiebungen (301, 302, 303, 304) wird anschließend die kleinste ermittelt.
In Schritt 103 wird das Qualitätsmaß berechnet. Hierfür wird aus den in Schritt 102 ermittelten Abweichungen ein Modell (401) ermittelt, welches die Verteilung der Abweichungen repräsentiert. In diesem Ausführungsbeispiel wird zu diesem Zweck eine allgemeine Extremwertverteilung verwendet.
Zur Ermittlung der Parameter der allgemeinen Extremwertverteilung wird das Verfahren der Maximum Likelihood Estimation verwendet. Zur Berechnung des Qualitätsmaßes wird die kumulative Verteilungsfunktion der allgemeinen Extremwertverteilung am Wert 0 ausgewertet (402). Dieser Schritt ist in Fig. 4 schematisch dargestellt. In der Figur ist auf der X-Achse die Verschiebung aufgetragen und auf der Y-Achse die Wahrscheinlichkeitsdichte der Extremwertverteilung. Das Ergebnis der Auswertung entspricht der Wahrscheinlichkeit, dass eine Annotation aus der ihr zugeordneten Objektdetektion hinausragt.
In einem zweiten Ausführungsbeispiel werden die gleichen Schritte wie im ersten Ausführungsbeispiel durchgeführt, es wird in Schritt 103 jedoch eine Bayes’sche Parameterschätzung anstatt der Maximum Likelihood Estimation durchgeführt.
In einem dritten Ausführungsbeispiel, welches in Fig. 5 schematisch dargestellt ist, wird ein Objektdetektionsalgorithmus derart verändert, dass er sicherer wird.
In Schritt 501 werden dazu für einen Datensatz von Kamera-basierten Sensordaten Annotationen manuell erzeugt. Alternativ können die Annotationen auch semi- oder vollautomatisch erzeugt werden.
In Schritt 502 werden für die Sensordaten Objektdetektionen mit dem Objektdetektionsalgorithmus ermittelt, die dann in Schritt 503 den Annotationen zugeordnet werden. Die Zuordnung geschieht dabei wie im ersten Ausführungsbeispiel.
In Schritt 504 wird das Qualitätsmaß des Objektdetektionsalgorithmus bestimmt. Dies geschieht wie im ersten Ausführungsbeispiel.
In Schritt 505 wird der Objektdetektionsalgorithmus derart angepasst, dass die Wahrscheinlichkeit kleiner wird, dass eine Annotation aus der ihr zugeordneten Objektdetektion hinausragt. Hierfür werden alle Objektdetektionen mit einem festen Faktor derart skaliert, dass sie die ihr zugeordnete Annotation umschließen.
In einem vierten Ausführungsbeispiel werden die gleichen Schritte durchgeführt, wie im dritten Ausführungsbeispiel, es werden jedoch LIDAR-basierte Sensordaten anstatt Kamera-basierter Sensordaten verwendet. Die restlichen Schritte laufen gleich ab.
In einem fünften Ausführungsbeispiel laufen die gleichen Schritte wie im dritten Ausführungsbeispiel ab, wobei Schritt 505 folgendermaßen abgeändert wird: Es werden die Objektdetektionen mit einem festen Faktor skaliert und das Qualitätsmaß für die skalierten Objektdetektionen berechnet. Fall das Qualitätsmaß nicht einem vordefinierten Schwellenwert genügt, werden die bereits skalierten Objektdetektionen mit einem Faktor so skaliert, dass die Objektdetektion größer wird. Dieses Anpassen der Größe mit Hilfe eines Skalierungsfaktors wird so lange durchgeführt, bis das Qualitätsmaß eine vordefinierte Wahrscheinlichkeit unterschreitet.
In einem sechsten Ausführungsbeispiel basiert der Objektdetektionsalgorithmus auf einem Neuronalen Netz. Es werden die gleichen Schritte, wie im dritten Ausführungsbeispiel durchgeführt, wobei Schritt 505 folgendermaßen abgeändert wird: Das Neuronale Netz wird mit Sensordaten und Annotationen eines zweiten Datensatzes so trainiert, dass es intrinsisch größere Objektdetektionen ausgibt.
Hierfür werden die Annotationen des zweiten Datensatzes so skaliert, dass sie größer werden. Beim anschließenden Training mit den skalierten Annotationen lernt das Neuronale Netz dann größere Objektdetektionen zu prädizieren. Nach dem Training wird das veränderte Neuronale Netz wieder auf den ersten Datensatz angewendet und das Qualitätsmaß erneut bestimmt. Falls das Qualitätsmaß über einem vordefinierten Wahrscheinlichkeitswert liegt, wird das Neuronale Netz auf dem zweiten Datensatz mit noch größer skalierten Annotationen trainiert. Das Anpassen des Neuronalen Netzes und auswerten des Qualitätsmaßes wird so lange wiederholt durchgeführt, bis dass Qualitätsmaß den vordefinierten Wahrscheinlichkeitswert unterschreitet.

Claims

Ansprüche
1. Verfahren zur Berechnung eines Qualitätsmaßes eines computerimplementierten Objektdetektionsalgorithmus, insbesondere zur Freigabe des Objektdetektionsalgorithmus für teil-, hoch- oder vollautomatisierte Roboter, umfassend die Schritte:
• Zuordnung (101, 503) von ermittelten Objektdetektionen (202a, 202b, 305) zu Annotationen (201), wobei die Objektdetektionen (202a, 202b, 305) und/oder Annotationen (201) Bounding Boxes entsprechen;
• Bestimmung (102) von Abweichungen (301, 302, 303, 304), insbesondere Abständen, der Annotationen zu ihren zugeordneten Objektdetektionen;
• Berechnen (103, 504) des Qualitätsmaßes des Objektdetektionsalgorithmus basierend auf den bestimmten Abweichungen (301, 302, 303, 304), wobei das Qualitätsmaß eine Wahrscheinlichkeit repräsentiert, mit der eine Abweichung einer Objektdetektion von ihrer zugeordneten Annotation (201) einen vordefinierten Schwellenwert (402) über- oder unterschreitet.
2. Verfahren nach Anspruch 1, wobei die Abweichung eine Verschiebung (203a, 203b, 301, 302, 303, 304) zwischen einem Punkt der Objektdetektion (202a, 202b, 305) zu einem Punkt ihrer zugeordneten Annotation (201) repräsentiert, wobei die Verschiebung ein vorzeichenbehafteter Skalar ist, dessen Betrag eine Distanz und dessen Vorzeichen eine Richtung repräsentiert, in die der Punkt der Annotation (201) vom Punkt der Objektdetektion (202a, 202b, 305) verschoben ist.
3. Verfahren nach Anspruch 2, wobei die Abweichung die kleinste Verschiebung (301) aus einer Menge von ermittelten Verschiebungen (301, 302, 303, 304) darstellt
4. Verfahren nach Anspruch 3, wobei die Menge aus Verschiebungen (301, 302, 303, 304) der Seiten der Annotation (201) zu den korrespondierenden Seiten der zugeordneten Objektdetektion besteht und wobei die Verschiebungen orthogonal zur jeweiligen Seite sind.
5. Verfahren nach Anspruch 1, wobei die Abweichung eine Fläche repräsentiert, die dem Teil der Annotation entspricht, der keine Überlappung mit der Objektdetektion aufweist.
6. Verfahren nach einem der Ansprüche 1 bis 5, wobei die Berechnung der Wahrscheinlichkeit auf einem Modell (401) basiert, welches basierend auf den bestimmten Abweichungen ermittelt wird.
7. Verfahren nach Anspruch 6, wobei das Modell (401) ein parametrierbares Modell ist, insbesondere eine parametrierbare Wahrscheinlichkeitsverteilung, dessen Parameter aus den bestimmten Abweichungen ermittelt werden.
8. Verfahren zur Anpassung eines computerimplementierten Objektdetektionsalgorithmus zur Ermittlung von Objektdetektionen (202a, 202b, 305), umfassend die Schritte: a) Ermitteln (501) von Annotationen (201) von mittels des Objektdetektionsalgorithmus zu detektierenden Objekten; b) Ermitteln (502) von Objektdetektionen mittels des Objektdetektionsalgorithmus; c) Berechnung eines Qualitätsmaßes des Objektdetektionsalgorithmus nach einem der Ansprüche 1 bis 6; d) Anpassung (505) des Objektdetektionsalgorithmus basierend auf dem berechneten Qualitätsmaß derart, dass eine erneute Ausführung des Objektdetektionsalgorithmus in einer Skalierung der mittels des Objektdetektionsalgorithmus ermittelten Objektdetektionen resultiert.
9. Verfahren nach Anspruch 8, wobei die Schritte b - d mit dem jeweils angepassten Objektdetektionsalgorithmus wiederholt werden, bis das Qualitätsmaß einen vordefinierten Qualitätswert (402) unter- oder überschreitet und/oder eine vordefinierte Anzahl von Wiederholungen erreicht wurde.
10. Verfahren nach einem der Ansprüche 8 oder 9, wobei die Skalierung basierend auf Eigenschaften der ermittelten Objektdetektion (202a, 202b, 305) erfolgt, insbesondere der Größe, der Größenverhältnisse und/oder der Position im Bild.
11. Verfahren nach einem der Ansprüche 8 oder 9, wobei die Skalierung unabhängig von den ermittelten Objektdetektionen erfolgt, insbesondere basierend auf einem vordefinierten Faktor.
12. Verfahren nach Anspruch 9, wobei der Objektdetektionsalgorithmus auf einem parametrierbaren Modell basiert, insbesondere einem Neuronalen Netz, wobei die Anpassung auf einer Veränderung der Parameter des parametrierbaren Modells basiert, umfassend die Schritte: e. Ermitteln von skalierten Annotationen, basierend auf den ermittelten Annotationen; f. Ermitteln von Objektdetektionen (202a, 202b, 305) mittels des Objektdetektionsalgorithmus; g. Zuordnung der Objektdetektionen (202a, 202b, 305) zu den skalierten Annotationen, basierend auf den ermittelten Annotationen (201); h. Ermitteln eines Fehlers zwischen den Objektdetektionen und den ihnen zugeordneten skalierten Annotationen; i. Verkleinerung des Fehlers durch Anpassen der Parameter.
13. Verfahren nach Anspruch 12, wobei die Schritte f bis i mit den jeweils angepassten Parametern wiederholt werden, bis ein vordefinierter Fehlerschwellenwert unterschritten und/oder eine vordefinierte Anzahl von Wiederholungen erreicht wird.
14. Computerprogramm, umfassend Befehle, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, ein Verfahren gemäß einem der Ansprüche 1 bis 13 auszuführen.
15. Maschinenlesbares Speichermedium mit einem darauf gespeicherten Computerprogramm nach Anspruch 14.
EP20800096.8A 2019-11-28 2020-10-29 VERFAHREN ZUR BERECHNUNG EINES QUALITÄTSMAßES ZUR BEWERTUNG EINES OBJEKTDETEKTIONSALGORITHMUS Pending EP4066156A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019218483.9A DE102019218483A1 (de) 2019-11-28 2019-11-28 Verfahren zur Berechnung eines Qualitätsmaßes zur Bewertung eines Objektdetektionsalgorithmus
PCT/EP2020/080377 WO2021104789A1 (de) 2019-11-28 2020-10-29 VERFAHREN ZUR BERECHNUNG EINES QUALITÄTSMAßES ZUR BEWERTUNG EINES OBJEKTDETEKTIONSALGORITHMUS

Publications (1)

Publication Number Publication Date
EP4066156A1 true EP4066156A1 (de) 2022-10-05

Family

ID=73040083

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20800096.8A Pending EP4066156A1 (de) 2019-11-28 2020-10-29 VERFAHREN ZUR BERECHNUNG EINES QUALITÄTSMAßES ZUR BEWERTUNG EINES OBJEKTDETEKTIONSALGORITHMUS

Country Status (5)

Country Link
US (1) US20220398837A1 (de)
EP (1) EP4066156A1 (de)
CN (1) CN114787877A (de)
DE (1) DE102019218483A1 (de)
WO (1) WO2021104789A1 (de)

Also Published As

Publication number Publication date
WO2021104789A1 (de) 2021-06-03
CN114787877A (zh) 2022-07-22
US20220398837A1 (en) 2022-12-15
DE102019218483A1 (de) 2021-06-02

Similar Documents

Publication Publication Date Title
AT521607B1 (de) Verfahren und Vorrichtung zum Testen eines Fahrerassistenzsystem
DE102018100469A1 (de) Generierten von simulierten sensordaten zum trainieren und überprüfen von erkennungsmodellen
EP3765927B1 (de) Verfahren zum erzeugen eines trainingsdatensatzes zum trainieren eines künstlichen-intelligenz-moduls für eine steuervorrichtung eines fahrzeugs
DE102018128289A1 (de) Verfahren und vorrichtung für eine autonome systemleistung und zur einstufung
DE102018200683A1 (de) Verfahren zur Detektion eines Objektes
DE102014208967A1 (de) Umfeldkarte für Fahrflächen mit beliebigem Höhenverlauf
WO2020048669A1 (de) Verfahren zum bestimmen einer spurwechselangabe eines fahrzeugs, ein computerlesbares speichermedium und ein fahrzeug
DE112020006045T5 (de) Formal sicheres symbolisches bestärkendes lernen anhand von visuellen eingaben
WO2019110177A1 (de) Trainieren und betreiben eines maschinen-lern-systems
DE102019002269A1 (de) Verfahren zum Ermitteln einer Orientierung eines Fahrzeugs relativ zu einem Kraftfahrzeug
WO2021165077A1 (de) Verfahren und vorrichtung zur bewertung eines bildklassifikators
DE102021207613A1 (de) Verfahren zur Qualitätssicherung eines Systems
DE102019213797A1 (de) Verfahren zur Bewertung einer Sequenz von Repräsentationen zumindest eines Szenarios
DE102019209463A1 (de) Verfahren zur Bestimmung eines Vertrauenswertes eines Objektes einer Klasse
EP4066156A1 (de) VERFAHREN ZUR BERECHNUNG EINES QUALITÄTSMAßES ZUR BEWERTUNG EINES OBJEKTDETEKTIONSALGORITHMUS
DE102022201679A1 (de) Verfahren und Vorrichtung zum Trainieren eines neuronalen Netzes
DE102018206743A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Egofahrzeugs mit wenigstens einem Umfeldsensor zum Erfassen eines Umfelds des Egofahrzeugs, Computer-lesbares Medium, System, und Fahrzeug
DE102018109680A1 (de) Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen durch parallele zweidimensionale und dreidimensionale Auswertung; Steuereinrichtung; Fahrassistenzsystem; sowie Computerprogrammprodukt
DE102021133977A1 (de) Verfahren und System zur Klassifikation von Szenarien eines virtuellen Tests sowie Trainingsverfahren
DE102021129864A1 (de) Verfahren und System zur Annotation von Sensordaten
DE102021213538A1 (de) Simulation zur Validierung einer automatisierenden Fahrfunktion für ein Fahrzeug
DE102020127051A1 (de) Verfahren zur Bestimmung von sicherheitskritischen Ausgabewerten mittels einer Datenanalyseeinrichtung für eine technische Entität
DE102019111608A1 (de) Verfahren zum Bestimmen einer Eigenbewegung eines Kraftfahrzeugs, elektronische Recheneinrichtung sowie elektronisches Fahrzeugführungssystem
DE102020213253A1 (de) Computerimplementierte konsistente klassifikationsverfahren
DE102019115352A1 (de) Objekterkennungsvorrichtung

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20220628

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS