DE102023004171A1 - Method for automatically assigning labels and/or objects to sensor data from a vehicle surroundings sensor system - Google Patents

Method for automatically assigning labels and/or objects to sensor data from a vehicle surroundings sensor system Download PDF

Info

Publication number
DE102023004171A1
DE102023004171A1 DE102023004171.8A DE102023004171A DE102023004171A1 DE 102023004171 A1 DE102023004171 A1 DE 102023004171A1 DE 102023004171 A DE102023004171 A DE 102023004171A DE 102023004171 A1 DE102023004171 A1 DE 102023004171A1
Authority
DE
Germany
Prior art keywords
sensor data
assigned
vehicle
computer
implemented method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102023004171.8A
Other languages
German (de)
Inventor
Eike Rehder
Larissa Triess
Erika Thierer
Fabian Poggenhans
Lukas Schneider
Sebastian Buck
Nick Schneider
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Priority to DE102023004171.8A priority Critical patent/DE102023004171A1/en
Publication of DE102023004171A1 publication Critical patent/DE102023004171A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/7635Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks based on graphs, e.g. graph cuts or spectral clustering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur automatischen Zuordnung eines Labels und/oder eines Objektes (O, O1, O2) zu Sensordaten (S, S', S.R, S'.R, S.L, S'.L) einer Fahrzeugumfeld-Sensorik. Zu verschiedenen Zeitpunkten (t, t', t1 bis t5) werden Sensordaten (S, S', S.R, S'.R, S.L, S'.L) jeweils mindestens eines Sensors der Fahrzeugumfeld-Sensorik erfasst. Daraus werden Objektkandidaten in ihrer Lage bezogen auf ein fahrzeugunabhängiges Weltkoordinatensystem (W) bestimmt. Aus deren Gesamtheit wird ein Graph (G) gebildet. Dabei werden jedem Objektkandidaten für einen Zeitpunkt (t, t', t1 bis t5) jeweils ein Objekt (O, O1, O2) sowie die diesem Objekt (O, O1, O2) zugeordneten Sensordaten (S, S', S.R, S'.R, S.L, S'.L) in einer Lage bezogen auf das Weltkoordinatensystem (W) zugeordnet. Dem Objekt (O, O1, O2) und den Sensordaten (S, S', S.R, S'.R, S.L, S'.L) wird jeweils ein Knoten des Graphen (G) zugeordnet. Der Graph (G) wird derart in Trajektorien (T1, T2) partitioniert, dass ein Gesamt-Kostenwert minimiert wird, der aus der Summe von Beobachtungs-Kostenwerten und Bewegungs-Kostenwerten gebildet wird. Einer Trajektorie (T1, T2) wird ein Objekt (O, O1, O2) und/oder ein Label zugewiesen.The invention relates to a method for automatically assigning a label and/or an object (O, O1, O2) to sensor data (S, S', S.R, S'.R, S.L, S'.L) of a vehicle environment sensor system. At different times (t, t', t1 to t5), sensor data (S, S', S.R, S'.R, S.L, S'.L) are recorded from at least one sensor of the vehicle surroundings sensor system. From this, the position of object candidates is determined in relation to a vehicle-independent world coordinate system (W). A graph (G) is formed from their entirety. Each object candidate is assigned an object (O, O1, O2) for a time (t, t', t1 to t5) as well as the sensor data (S, S', S.R, S') assigned to this object (O, O1, O2). .R, S.L, S'.L) in a position related to the world coordinate system (W). A node of the graph (G) is assigned to the object (O, O1, O2) and the sensor data (S, S', S.R, S'.R, S.L, S'.L). The graph (G) is partitioned into trajectories (T1, T2) in such a way that a total cost value is minimized, which is formed from the sum of observation cost values and movement cost values. A trajectory (T1, T2) is assigned an object (O, O1, O2) and/or a label.

Description

Die Erfindung betrifft ein computerimplementiertes Verfahren zur automatischen Zuordnung eines Labels und/oder eines Objektes zu Sensordaten einer Fahrzeugumfeld-Sensorik.The invention relates to a computer-implemented method for automatically assigning a label and/or an object to sensor data from a vehicle surroundings sensor system.

Die Erkennung von Objekten im Fahrzeugumfeld mit Perzeptionssystemen beruht zunehmend auf Verfahren des Maschinellen Lernens, insbesondere auf Verfahren des Deep Learning und erfordert in großem Umfang annotierte Daten, bei denen Objekte anhand von Sensordaten, beispielsweise Bilder von Fahrzeugumfeld-Kameras, Radar- oder Lidardaten, Objekte identifiziert und/oder klassifiziert werden.The detection of objects in the vehicle environment using perception systems is increasingly based on machine learning methods, in particular on deep learning methods, and requires large amounts of annotated data in which objects are identified based on sensor data, for example images from vehicle surroundings cameras, radar or lidar data identified and/or classified.

Manuelle Annotationsverfahren sind aufwändig und unflexibel, da sie bei Änderungen der Fahrzeugumfeld-Sensorik wiederholt werden müssen. Sie unterliegen zudem subjektiven Einflüssen.Manual annotation procedures are complex and inflexible because they have to be repeated when the vehicle's surroundings sensors change. They are also subject to subjective influences.

Verfahren der automatischen Annotation, mit denen Objekte erkannt und/oder klassifiziert werden, werden als Autolabeling bezeichnet. Ein Label, das einem Objekt automatisch zugeordnet wird, kann die Klasse (den Typ) des erfassten Objektes bezeichnen, beispielsweise „Person“, „Fußgänger“, „Radfahrer“, „fremdes Fahrzeug“, „Verkehrsleiteinrichtung“. Ein Label kann zusätzlich oder alternativ auch die Identität eines Objektes bezeichnen.Automatic annotation methods used to recognize and/or classify objects are referred to as autolabeling. A label that is automatically assigned to an object can designate the class (type) of the detected object, for example “person”, “pedestrian”, “cyclist”, “foreign vehicle”, “traffic control device”. A label can also or alternatively denote the identity of an object.

Einfache Verfahren des Autolabeling ordnen Labels basierend auf Sensordaten zu, die zu einem bestimmten Zeitpunkt von Sensoren einer Modalität (beispielsweise Radar-Sensordaten) oder mehreren Modalitäten (beispielsweise Lidar- und Radar-Sensordaten) erfasst wurden. Diese Verfahren weisen nur eine beschränkte Genauigkeit auf und setzen eine gute Kalibration der Fahrzeugumfeld-Sensorik voraus. Sie eignen sich für multimodale Sensordaten nur dann, wenn die Modalitäten zueinander kompatibel und kalibriert sind. Die Verifizierung eines Labels durch Vergleich von Sensordaten verschiedener Modalitäten ist nur eingeschränkt oder gar nicht möglich.Simple autolabeling methods assign labels based on sensor data collected at a particular time from sensors of one modality (e.g. radar sensor data) or multiple modalities (e.g. lidar and radar sensor data). These methods only have limited accuracy and require good calibration of the vehicle surroundings sensors. They are only suitable for multimodal sensor data if the modalities are compatible and calibrated. The verification of a label by comparing sensor data from different modalities is only possible to a limited extent or not at all.

Fortgeschrittene, fusionsbasierte Verfahren des Autolabeling ordnen Labels basierend auf Sensordaten zu, die zu verschiedenen (aufeinanderfolgenden) Zeitpunkten erfasst wurden. Objekte werden auf ein fahrzeugunabhängiges Weltkoordinatensystem abgebildet und in ihrer Bewegung (entsprechend der Abfolge der Erfassungszeitpunkte) in diesem Weltkoordinatensystem verfolgt. Derartige Verfahren sind rechenaufwändig und können akausale (in der Zukunft liegende) Sensordaten für die Zuordnung eines Labels nicht oder nur eingeschränkt verwenden.Advanced fusion-based autolabeling methods assign labels based on sensor data collected at different (consecutive) points in time. Objects are mapped to a vehicle-independent world coordinate system and their movement (according to the sequence of capture times) is tracked in this world coordinate system. Such methods are computationally complex and cannot use acausal (future) sensor data to assign a label, or can only use them to a limited extent.

Das Dokument EP 3635625 A1 beschreibt ein Verfahren, ein System, ein Medium und eine Implementierung eines globalen Modellaktualisierungszentrums. In dem Modellaktualisierungszentrum wird mindestens ein Modell zur Erkennung von Objekten in der Umgebung jedes autonom fahrenden Fahrzeugs einer Flotte erstellt. Eine Vielzahl von annotierten Datenelementen wird von der Flotte autonomer Fahrfahrzeuge empfangen, wobei jedes der annotierten Datenelemente auf der Grundlage des mindestens einen Modells aus Sensordaten, die die Umgebung der autonomen Fahrfahrzeuge charakterisieren, erkannt wird. Die annotierten Datenelemente werden von den autonom fahrenden Fahrzeugen automatisch im laufenden Betrieb erzeugt. Auf der Grundlage der empfangenen annotierten Datenelementen werden zumindest einige der Modelle aktualisiert, und es werden entsprechende Modellaktualisierungsinformationen erzeugt. Diese erzeugten Modellaktualisierungsinformationen werden dann an die Flotte autonom fahrender Fahrzeuge verteilt.The document EP 3635625 A1 describes a method, system, medium and implementation of a global model update center. At least one model for detecting objects in the surroundings of each autonomous vehicle in a fleet is created in the model update center. A plurality of annotated data items are received from the fleet of autonomous driving vehicles, each of the annotated data items being recognized based on the at least one model of sensor data that characterizes the environment of the autonomous driving vehicles. The annotated data elements are automatically generated by the autonomous vehicles during operation. Based on the received annotated data items, at least some of the models are updated and corresponding model update information is generated. This generated model update information is then distributed to the fleet of autonomous vehicles.

Der Erfindung liegt die Aufgabe zu Grunde, ein verbessertes Verfahren zur automatischen Zuordnung eines Labels und/oder eines Objektes zu Sensordaten einer Fahrzeugumfeld-Sensorik, das heißt: ein verbessertes Autolabeling-Verfahren, anzugeben.The invention is based on the object of specifying an improved method for automatically assigning a label and/or an object to sensor data from a vehicle surroundings sensor system, that is: an improved autolabeling method.

Die Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Anspruchs 1 gelöst.The object is achieved according to the invention by a method with the features of claim 1.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the subclaims.

Bei einem Verfahren zur automatischen Zuordnung eines Labels und/oder eines Objekts zu Sensordaten einer Fahrzeugumfeld-Sensorik werden zu verschiedenen Zeitpunkten jeweils Sensordaten mindestens eines Sensors der Fahrzeugumfeld-Sensorik erfasst. Aus den Sensordaten werden Objektkandidaten bestimmt und in ihrer Lage auf ein fahrzeugunabhängiges, zeitlich unveränderliches Weltkoordinatensystem projiziert. Aus der Gesamtheit der Objektkandidaten wird ein Graph mit Knoten und Kanten gebildet.In a method for automatically assigning a label and/or an object to sensor data of a vehicle surroundings sensor system, sensor data from at least one sensor of the vehicle surroundings sensor system are recorded at different times. Object candidates are determined from the sensor data and their position is projected onto a vehicle-independent, time-invariable world coordinate system. A graph with nodes and edges is formed from the entirety of the object candidates.

Dabei werden jedem Objektkandidaten für einen bestimmten Zeitpunkt jeweils ein Objekt sowie die diesem Objekt zugeordneten Sensordaten in einer diesem Zeitpunkt zugeordneten Lage in Bezug auf das Weltkoordinatensystem zugewiesen. Dem Objekt sowie den Sensordaten wird jeweils ein Knoten des Graphen zugeordnet.Each object candidate is assigned an object for a specific point in time as well as the sensor data assigned to this object in a position assigned to this point in time in relation to the world coordinate system. A graph node is assigned to the object and the sensor data.

Der Graph, der die Gesamtheit der für alle Zeitpunkte derart bestimmten Knoten umfasst, wird sodann derart in Trajektorien partitioniert, dass ein Gesamt-Kostenwert minimiert wird. Dabei wird der Gesamt-Kostenwert aus der Summe von Beobachtungs-Kostenwerten und Bewegungs-Kostenwerten gebildet, wobei ein Bewegungs-Kostenwert jeweils aus dem Abstand der zu aufeinanderfolgenden Zeitpunkten ermittelten Lagen eines Objektes bestimmt wird und wobei ein Beobachtungskostenwert jeweils aus dem Abstand zwischen der Lage der Sensordaten und der Lage des zum gleichen Zeitpunkt diesen Sensordaten zugeordneten Objekts bestimmt wird.The graph, which includes the entirety of the nodes determined in this way for all points in time, is then partitioned into trajectories in such a way that a Total cost value is minimized. The total cost value is formed from the sum of observation cost values and movement cost values, with a movement cost value being determined from the distance between the positions of an object determined at successive points in time and an observation cost value from the distance between the positions of the object Sensor data and the position of the object assigned to this sensor data at the same time is determined.

Sodann wird/werden jeder Trajektorie jeweils ein Objekt und/oder ein Label zugewiesen.An object and/or a label is then assigned to each trajectory.

Das vorgeschlagene Verfahren ermöglicht die schnelle und eigenständige Generierung von Annotationen aus Sensordaten, die von mindestens einem Fahrzeug, bevorzugt jedoch von zahlreichen Fahrzeugen einer Fahrzeugflotte erfasst werden. Mit derart automatisch annotierten Sensordaten können Perzeptionssysteme zur Objekterfassung im Fahrzeugumfeld verbessert und erweitert werden.The proposed method enables the rapid and independent generation of annotations from sensor data that are recorded by at least one vehicle, but preferably by numerous vehicles in a vehicle fleet. With such automatically annotated sensor data, perception systems for object detection in the vehicle environment can be improved and expanded.

Mit dem Verfahren gewonnene Labels ermöglichen, indem sie einer Trajektorie zugeordnet sind, zudem eine Verwendung in nachfolgenden Komponenten einer Datenauswertung, beispielsweise einer Bewegungsvorausschau und in der Sensorfusion.Labels obtained with the method, by being assigned to a trajectory, also enable use in subsequent components of data evaluation, for example movement forecasting and in sensor fusion.

Ferner ermöglicht das Verfahren eine nachträgliche Kalibrierung einer Fahrzeugumfeld-Sensorik dahingehend, dass diejenigen Fehlerterme optimiert (minimiert) werden, die durch die modalitätsabhängig und/oder zeitabhängig variierenden Sensordaten bewirkt werden.Furthermore, the method enables a subsequent calibration of a vehicle surroundings sensor system in such a way that those error terms that are caused by the sensor data that vary depending on the modality and/or time are optimized (minimized).

Bei einer Ausführungsform des Verfahrens werden Beobachtungs-Kostenwerte und/oder Bewegungs-Kostenwerte anhand des euklidischen Abstands zwischen Eckpunkten eines Quaders ermittelt, der die Lagen der Sensordaten und/oder die Lagen eines Objektes zu aufeinanderfolgenden Zeitpunkten im Weltkoordinatensystem umschreibt. Derartige Kostenwerte sind besonders leicht ermittelbar.In one embodiment of the method, observation cost values and/or movement cost values are determined based on the Euclidean distance between corner points of a cuboid, which describes the positions of the sensor data and/or the positions of an object at successive times in the world coordinate system. Such cost values are particularly easy to determine.

Bei einer Ausführungsform des Verfahrens werden Sensordaten als Radar-Sensordaten und/oder als Lidar-Sensordaten und/oder als Aufnahmen einer Fahrzeugumfeld-Kamera erfasst. Mittels derartiger Sensordaten sind Objekte im Fahrzeugumfeld besonders gut und zuverlässig erkennbar.In one embodiment of the method, sensor data is recorded as radar sensor data and/or as lidar sensor data and/or as recordings from a vehicle surroundings camera. Using such sensor data, objects in the vehicle environment can be recognized particularly well and reliably.

Bei einer Ausführungsform des Verfahrens ist die Bildung und Partitionierung des Graphen in einer fahrzeugunabhängigen Rechenarchitektur, bevorzugt in einer Cloud-Rechenarchitektur oder in einer Server-Rechenarchitektur, implementiert. Dadurch können von verschiedenen, bevorzugt von sehr vielen oder allen Fahrzeugen einer Fahrzeugflotte erfasste Sensordaten automatisch annotiert und somit besonders große Trainingsdatensätze für Perzeptionssysteme gebildet werden. Dies verbessert die Genauigkeit und Robustheit derart trainierter Perzeptionssysteme. Zudem wird die Wartbarkeit einer solchen Implementierung des Verfahrens gegenüber einer fahrzeugbasierten Implementierung verbessert. Ferner bietet eine Cloud- oder Server-Rechenarchitektur die Möglichkeit einer lastabhängigen Skalierbarkeit der Rechenleistung.In one embodiment of the method, the formation and partitioning of the graph is implemented in a vehicle-independent computing architecture, preferably in a cloud computing architecture or in a server computing architecture. This means that sensor data collected from various, preferably very many or all, vehicles in a vehicle fleet can be automatically annotated and particularly large training data sets can be formed for perception systems. This improves the accuracy and robustness of perception systems trained in this way. In addition, the maintainability of such an implementation of the method is improved compared to a vehicle-based implementation. Furthermore, a cloud or server computing architecture offers the possibility of load-dependent scalability of computing power.

Bei einer Ausführungsform des Verfahrens wird der Graph mit einem numerischen Optimierungsverfahren partitioniert. Implementierungen solcher Verfahren, beispielsweise die Ceres Bibliothek (https://github.com/ceres-solver/ceres-solver) sind besonders leicht und in hoher Softwarequalität verfügbar.In one embodiment of the method, the graph is partitioned using a numerical optimization method. Implementations of such methods, for example the Ceres library (https://github.com/ceres-solver/ceres-solver), are particularly easy and available in high software quality.

Bei einer Ausführungsform des Verfahrens werden anhand der automatisch zugeordneten Objekte und/oder Labels Sensordaten für eine manuelle Auswertung ausgewählt. Beispielsweise kann die Auswahl anhand eines Fehlerterms erfolgen, der aus den Beobachtungs-Kostenwerten und den Bewegungs-Kostenwerten entlang der Trajektorie ermittelt wird, welche einem Objekt/Label zugeordnet wurde. Dadurch ist es möglich, eine manuelle Auswertung auf potenziell kritische oder fehlerträchtige Sensordaten zu beschränken.In one embodiment of the method, sensor data are selected for manual evaluation based on the automatically assigned objects and/or labels. For example, the selection can be made based on an error term that is determined from the observation cost values and the movement cost values along the trajectory that was assigned to an object/label. This makes it possible to limit manual evaluation to potentially critical or error-prone sensor data.

Bei einer Ausführungsform des Verfahrens werden die automatisch zugeordneten Objekte und/oder Labels mit Annotation eines anderen Verfahrens verglichen. Dadurch ist eine Kreuzvalidierung verschiedener Verfahren möglich, die zu einer insgesamt verbesserten Annotationsqualität beiträgt.In one embodiment of the method, the automatically assigned objects and/or labels are compared with annotation from another method. This enables cross-validation of various methods, which contributes to an overall improved annotation quality.

Bei einer Ausführungsform des Verfahrens werden anhand der automatisch zugeordneten Objekte und/oder Labels Szenen ausgewählt, die jeweils eine Abfolge von zu verschiedenen Zeitpunkten erfassten Sensordaten umfassen. Derartige Szenen können beispielsweise zur Rekalibrierung von Sensoren verwendet werden.In one embodiment of the method, scenes are selected based on the automatically assigned objects and/or labels, each of which includes a sequence of sensor data recorded at different times. Such scenes can be used, for example, to recalibrate sensors.

Bei einer Ausführungsform des Verfahrens werden anhand der automatisch zugeordneten Objekte und/oder Labels Extremsituation (auch als „corner cases“ bezeichnet) identifiziert. Mittels derart ausgewählter Sensordaten und zugeordneter Objekte und/oder Labels kann die Robustheit sowohl des vorgeschlagenen Verfahrens zum Autolabeling, als auch darauf aufbauender weiterer Verfahrensschritte bewertet und verbessert werden.In one embodiment of the method, extreme situations (also referred to as “corner cases”) are identified based on the automatically assigned objects and/or labels. Using sensor data and associated objects and/or labels selected in this way, the robustness of both the proposed autolabeling method and further method steps based on it can be evaluated and improved.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Exemplary embodiments of the invention are explained in more detail below with reference to drawings.

Dabei zeigen:

  • 1 schematisch eine Verarbeitungspipeline für das Training von Perzeptionssystemen anhand von Roh- und Metadaten eines oder mehrerer Fahrzeuge,
  • 2 schematisch die Abbildung von anhand von Sensordaten zu aufeinanderfolgenden Zeitpunkten erkannten Objekten in einem Weltkoordinatensystem,
  • 3A, 3B schematisch die Optimierung der Abbildung von Objektkandidaten im Weltkoordinatensystem zu aufeinanderfolgenden Zeitpunkten, sowie
  • 4 einen aus Objektkandidaten gebildeten Graphen mit zwei, jeweils einem Objekt zugeordneten Trajektorien.
Show:
  • 1 schematically a processing pipeline for training perception systems using raw and metadata from one or more vehicles,
  • 2 schematically depicting objects recognized based on sensor data at successive times in a world coordinate system,
  • 3A , 3B schematically the optimization of the mapping of object candidates in the world coordinate system at successive times, as well as
  • 4 a graph formed from object candidates with two trajectories, each assigned to an object.

Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference numbers in all figures.

1 zeigt rein schematisch eine Verarbeitungspipeline P zur Verarbeitung von Rohdaten und/oder Metadaten, die von nicht näher dargestellten Fahrzeugen einer Fahrzeugflotte erfasst werden. Die Verarbeitungspipeline P umfasst einen ersten bis siebten Verarbeitungsschritt P.1 bis P.7. 1 shows purely schematically a processing pipeline P for processing raw data and / or metadata that is recorded by vehicles in a vehicle fleet (not shown in detail). The processing pipeline P includes first to seventh processing steps P.1 to P.7.

Im ersten Verarbeitungsschritt P.1 werden Rohdaten und/oder Metadaten erfasst. Rohdaten können mittels einer Fahrzeugumfeld-Sensorik erfasst werden, beispielsweise mit einer oder mehrerer Kameras, mit Radar-Sensoren oder mit Lidar-Sensoren. Metadaten können das erfassende Fahrzeug oder dessen Komponenten (beispielsweise Sensoren) hinsichtlich Typ, Ausstattung, Version oder Konfiguration beschreiben. Zudem können Ort und/oder Bewegungsparameter des Fahrzeugs sowie der Zeitpunkt bei einer Erfassung von Rohdaten erfasst werden.In the first processing step P.1, raw data and/or metadata are recorded. Raw data can be recorded using vehicle surroundings sensors, for example with one or more cameras, radar sensors or lidar sensors. Metadata can describe the capturing vehicle or its components (e.g. sensors) in terms of type, equipment, version or configuration. In addition, the location and/or movement parameters of the vehicle as well as the time can be recorded when raw data is recorded.

Im zweiten Verarbeitungsschritt P.2 werden anhand der Rohdaten und/oder Metadaten Objektkandidaten im Fahrzeugumfeld bestimmt. Der zweite Verarbeitungsschritt P.2 wird bevorzugt von einem On-Board-System des Fahrzeugs ausgeführt.In the second processing step P.2, object candidates in the vehicle environment are determined based on the raw data and/or metadata. The second processing step P.2 is preferably carried out by an on-board system of the vehicle.

Im dritten Verarbeitungsschritt P.3 werden mindestens einigen der ermittelten Objektkandidaten in einem automatisierten Verfahren Labels zugeordnet. Ein Label bezeichnet die Klasse eines Objektkandidaten (beispielsweise: Person, Fahrzeug, Verkehrsleiteinrichtung). Optional kann ein Label auch die Identität eines Objektkandidaten bezeichnen. Ein automatisiertes Verfahren der Zuordnung von Labels wird auch als Autolabeling bezeichnet und wird nachfolgend noch genauer erläutert.In the third processing step P.3, labels are assigned to at least some of the identified object candidates in an automated process. A label denotes the class of an object candidate (for example: person, vehicle, traffic control device). Optionally, a label can also denote the identity of an object candidate. An automated method of assigning labels is also known as autolabeling and is explained in more detail below.

Die mittels Autolabeling erfassten vorläufigen Objektklassifikationen werden in einem ersten (automatisch generierten) Trainingsdaten-Repository R.A abgelegt und mit manuell erfassten oder validierten Objektklassifikationen abgeglichen, die in einem zweiten (manuell generierten) Trainingsdaten-Repository R.M abgelegt sind.The preliminary object classifications captured using autolabeling are stored in a first (automatically generated) training data repository R.A and compared with manually captured or validated object classifications that are stored in a second (manually generated) training data repository R.M.

Im vierten Verarbeitungsschritt P.4 wird ein Klassifikator anhand der annotierten (das heißt: mit Labels versehenen) Daten des automatisch generierten Trainingsdaten-Repository R.A trainiert. Klassifikatoren können beispielsweise als Neuronale Netze ausgebildet und mit Verfahren des Deep Learning oder mit anderen Verfahren des Maschinellen Lernens (Machine Learning) trainiert werden.In the fourth processing step P.4, a classifier is trained using the annotated (i.e. labeled) data from the automatically generated training data repository R.A. Classifiers can, for example, be designed as neural networks and trained using deep learning methods or other machine learning methods.

Im fünften Verarbeitungsschritt P.5 wird ein derart trainierter Klassifikator optimiert. Beispielsweise kann ein Neuronales Netz hinsichtlich seiner Topologie optimiert werden.In the fifth processing step P.5, a classifier trained in this way is optimized. For example, a neural network can be optimized in terms of its topology.

Im sechsten Verarbeitungsschritt P.6 wird die Leistungsfähigkeit des trainierten und optimierten Klassifikators überprüft, beispielsweise anhand von Testdaten, die unabhängig von den Trainingsdaten der Trainingsdaten-Repositories R.A, R.M sind.In the sixth processing step P.6, the performance of the trained and optimized classifier is checked, for example using test data that is independent of the training data from the training data repositories R.A, R.M.

Bevorzugt werden der vierte bis sechste Verarbeitungsschritt P.4 bis P.6 mittels einer von dem erfassenden Fahrzeug unabhängigen Rechenarchitektur, beispielsweise in einer Cloud-Rechenarchitektur ausgeführt.The fourth to sixth processing steps P.4 to P.6 are preferably carried out using a computing architecture that is independent of the detecting vehicle, for example in a cloud computing architecture.

Nach erfolgreicher Überprüfung der Leistungsfähigkeit wird im siebten Verarbeitungsschritt P.7 der trainierte und optimierte Klassifikator auf Fahrzeuge einer Fahrzeugflotte ausgerollt. Diese Fahrzeuge können nachfolgend Objekte in ihrer Fahrzeugumgebung erkennen und klassifizieren, indem Rohdaten und/oder Metadaten von dem Klassifikator ausgewertet werden.After successfully checking the performance, the trained and optimized classifier is rolled out to vehicles in a vehicle fleet in the seventh processing step P.7. These vehicles can subsequently recognize and classify objects in their vehicle environment by evaluating raw data and/or metadata by the classifier.

Innerhalb der Verarbeitungspipeline P kommt dem dritten Verarbeitungsschritt P.3 besondere Bedeutung zu, weil Verfahren des Maschinellen Lernens auf umfangreiche klassifizierte (gelabelte) Trainingsdaten zurückgreifen. Eine manuelle Zuordnung von Klassifikationen zu Objektkandidaten ist daher unökonomisch, zeitaufwändig und unflexibel. Insbesondere müssen Trainingsdaten bei Veränderungen der Fahrzeugumfeld-Sensorik und/oder bei Veränderungen der den Objekten zuzuordnenden Klassen (Labels) nachgeführt werden. Ferner kann es sinnvoll sein, sensorisch erfasste Trainingsdaten zu variieren, um die Generalisierungsfähigkeit eines trainierten Klassifikators zu verbessern. Dadurch steigt der Aufwand für eine manuelle Klassifikation zusätzlich und potenziell um ein Mehrfaches.Within the processing pipeline P, the third processing step P.3 is particularly important because machine learning methods rely on extensive classified (labeled) training data. Manual assignment of classifications to object candidates is therefore uneconomical, time-consuming and inflexible. In particular, training data must be updated in the event of changes in the vehicle environment sensors and/or in the event of changes in the classes (labels) assigned to the objects. Furthermore, it may make sense to vary sensory-captured training data in order to improve the generalization ability of a trained classifier. This increases the effort required for manual classification, potentially several times over.

2 zeigt rein schematisch erste Sensordaten S, die von einer Fahrzeugumfeld-Sensorik zu einem ersten Zeitpunkt t erfasst werden, sowie zweite Sensordaten S', die von derselben Fahrzeugumfeld-Sensorik zu einem darauffolgenden Zeitpunkt t' erfasst werden. Rein beispielhaft können die Sensordaten S, S' jeweils ein Kamerabild sein, das mit einer Fahrzeugumfeld-Kamera zum Zeitpunkt t beziehungsweise t' aufgenommen wurde. 2 shows purely schematically first sensor data S, which are detected by a vehicle surroundings sensor system at a first time t, and second sensor data S', which are detected by the same vehicle surroundings sensor system at a subsequent time t'. Purely by way of example, the sensor data S, S' can each be a camera image that was recorded with a vehicle surroundings camera at time t or t'.

Anhand der Sensordaten S, S' wird ein Objekt O erkannt (das heißt: einem Objektkandidaten zugeordnet) und gelabelt (das heißt: mit einem Label versehen). In der in 2 dargestellten Ausführungsform wird das Objekt O in seiner Lage bezogen auf ein zeitlich unveränderliches Weltkoordinatensystem W bestimmt. Eine solche Lage kann beispielsweise als ein das Objekt O umschreibendes Rechteck oder ein umschreibender Quader (auch als bounding box bezeichnet) bestimmt werden, es sind aber auch weitere umschreibende Geometrien möglich.Based on the sensor data S, S', an object O is recognized (that is, assigned to an object candidate) and labeled (that is, provided with a label). In the in 2 In the embodiment shown, the position of the object O is determined in relation to a time-invariant world coordinate system W. Such a position can be defined, for example, as a rectangle circumscribing the object O or a circumscribing cuboid (also referred to as a bounding box), but other circumscribing geometries are also possible.

Demgegenüber werden die Sensordaten S, S' bezogen auf ein nicht näher dargestelltes Fahrzeugkoordinatensystem erfasst, das sich in seiner Lage und Ausrichtung gegenüber dem Weltkoordinatensystem W typischerweise zwischen dem ersten und dem zweiten Zeitpunkt t, t' verändert.In contrast, the sensor data S, S' are recorded based on a vehicle coordinate system, not shown, which typically changes in its position and orientation relative to the world coordinate system W between the first and the second time t, t'.

Die Bestimmung der Lage (beispielsweise der Koordinaten einer bounding box) eines Objektes 0 im Weltkoordinatensystem W erfolgt in einem Messschritt M. Durch Umkehrung der Transformation vom Fahrzeugkoordinatensystem in das Weltkoordinatensystem W wird in einem Projektionsschritt J die Lage des erkannten und klassifizierten Objektes O relativ zum Fahrzeugkoordinatensystem, und somit auch relativ zur Fahrzeugumfeld-Sensorik bestimmt.The position (for example the coordinates of a bounding box) of an object 0 in the world coordinate system W is determined in a measuring step M. By reversing the transformation from the vehicle coordinate system into the world coordinate system W, the position of the recognized and classified object O relative to the vehicle coordinate system is determined in a projection step J , and therefore also determined relative to the vehicle surroundings sensors.

Ein Vorteil des vorgeschlagenen Verfahrens besteht darin, dass zur Zuordnung eines Labels zu einem Objekt O mehrfach, in vorbestimmten oder mindestens näherungsweise bekannten Zeitabständen erfasste Sensordaten S, S' zur Verfügung stehen. Typischerweise wird sich die Lage eines Objekts O (in Bezug auf das Weltkoordinatensystem W), die anhand nur der ersten Sensordaten S bestimmt wird, von der Lage desselben Objekts 0, die anhand nur der zweiten Sensordaten S' bestimmt wird, mindestens geringfügig unterscheiden. Zudem ist es möglich, dass ein Objekt O anhand nur der ersten oder nur der zweiten Sensordaten S, S' nicht oder nicht vollständig korrekt erkannt wird.An advantage of the proposed method is that in order to assign a label to an object O, sensor data S, S' collected multiple times at predetermined or at least approximately known time intervals are available. Typically, the location of an object O (with respect to the world coordinate system W), which is determined using only the first sensor data S, will differ at least slightly from the location of the same object 0, which is determined using only the second sensor data S'. In addition, it is possible that an object O is not or not completely correctly recognized based on only the first or only the second sensor data S, S'.

Erfindungsgemäß werden die Repräsentationen eines Objekts O (das heißt: ein zugeordnetes Label und/oder dessen Lage und/oder Ausdehnung im Weltkoordinatensystem W) anhand der zu jeweils einem Zeitpunkt t, t' erfassten Sensordaten S, S' in einem Optimierungsschritt Z abgeglichen.According to the invention, the representations of an object O (that is: an assigned label and/or its position and/or extent in the world coordinate system W) are compared in an optimization step Z based on the sensor data S, S' recorded at a time t, t'.

Indem zu verschiedenen Zeitpunkten t, t' erfasste (dasselbe Objekt O beschreibende) Sensordaten S, S' ausgewertet werden, ist eine genauere und zuverlässigere Zuordnung zwischen den Sensordaten S, S' und der Repräsentation des Objekts O, und somit eine verbesserte Qualität der Trainingsdaten des automatisch generierten Trainingsdaten-Repository R.A möglich. Zudem können, insbesondere durch Erfassung und Einbeziehung der Bewegung des Fahrzeugs zwischen den Zeitpunkten t, t', Sensoren der Fahrzeugumfeld-Sensorik kalibriert und hinsichtlich ihrer Trägheit oder Latenz korrigiert werden. Das vorgeschlagene Verfahren ist daher besonders flexibel einsetzbar.By evaluating sensor data S, S' recorded at different times t, t' (describing the same object O), there is a more precise and reliable association between the sensor data S, S' and the representation of the object O, and thus an improved quality of the training data the automatically generated training data repository R.A possible. In addition, sensors of the vehicle surroundings sensor system can be calibrated and corrected for their inertia or latency, in particular by detecting and incorporating the movement of the vehicle between times t, t'. The proposed method can therefore be used particularly flexibly.

3A und 3B veranschaulichen den Optimierungsschritt Z. Ersten und zweiten Sensordaten S, S', die jeweils erste beziehungsweise zweite Lidar-Sensordaten S.L, S'.L und erste beziehungsweise zweite Radar-Sensordaten S.R, S'.R umfassen, ist zu einem ersten Zeitpunkt t (dargestellt in 3A) beziehungsweise zu einem zweiten Zeitpunkt t' (dargestellt in 3B) ein Objekt O zugeordnet. Das Objekt O weist in seiner Lage bezüglich des Weltkoordinatensystems W Fehler e auf, die vorliegend als euklidische Abstände zwischen Punkten oder Kanten des Objekts O und korrespondierenden Strukturen der Sensordaten S, S' veranschaulicht sind. 3A and 3B illustrate the optimization step Z. First and second sensor data S, S', each comprising first and second lidar sensor data SL, S'.L and first and second radar sensor data SR, S'.R, respectively, is at a first time t ( shown in 3A) or at a second time t' (shown in 3B) assigned an object O. The object O has errors e in its position with respect to the world coordinate system W, which are illustrated here as Euclidean distances between points or edges of the object O and corresponding structures of the sensor data S, S '.

Beispielhaft sind die Radar-Sensordaten S.R, S'.R korrespondierend zu einem Eckpunkt des als umschreibendes Rechteck erfassten Objekts O dargestellt. Die Lidar-Sensordaten S.L, S'.L sind beispielhaft als korrespondierend zu den Kanten des Objekts O dargestellt. Durch die Verfolgung des Objekts O über mehrere Zeitpunkte t, t' hinweg können die Fehler e verringert werden.By way of example, the radar sensor data S.R, S'.R are shown corresponding to a corner point of the object O detected as a circumscribing rectangle. The lidar sensor data S.L, S'.L are shown by way of example as corresponding to the edges of the object O. By tracking the object O over several times t, t', the errors e can be reduced.

4 zeigt einen Graphen G, der ein erstes und ein zweites Objekt O1, O2 jeweils zu verschiedenen Zeitpunkten t1 bis t5 umfasst. Die Bewegung der Objekte O1, O2 im Weltkoordinatensystem W wird durch Bewegungskanten G.B veranschaulicht. Zusammenhängende Bewegungskanten G.B bilden eine Trajektorie T1, T2. Die erste Trajektorie T1 ist somit dem ersten Objekt O1, die zweite Trajektorie T2 dem zweiten Objekt 02 zugeordnet. 4 shows a graph G, which includes a first and a second object O1, O2 at different times t1 to t5. The movement of the objects O1, O2 in the world coordinate system W is illustrated by movement edges GB. Connected movement edges GB form a trajectory T1, T2. The first trajectory T1 is therefore assigned to the first object O1, the second trajectory T2 to the second object 02.

Jedes der Objekte 01, 02 wird zu jedem der Zeitpunkte t1 bis t5 durch mehrere Sensoren der Fahrzeugumfeld-Sensorik erfasst. Beispielhaft sind in 4 Lidar-Sensordaten S.L und Radar-Sensordaten S.R dargestellt, die für jeden Zeitpunkt t1 bis t5 das erste sowie das zweite Objekt O1, O2 erfassen. Dabei ist es möglich, dass ein Objekt O1, O2 zu gewissen Zeitpunkten t3, t4 nur von jeweils einem Sensor erfasst wird.Each of the objects 01, 02 is detected at each of the times t1 to t5 by several sensors of the vehicle surroundings sensor system. Examples are in 4 Lidar sensor data SL and radar sensor data SR are shown, which detect the first and second objects O1, O2 for each time t1 to t5. It is possible for an object O1, O2 to certain times t3, t4 is only detected by one sensor.

Typischerweise werden anhand verschiedener Sensordaten S.L, S.R ermittelte Repräsentationen eines Objektes 01, 02 voneinander sowie von der tatsächlichen Lage des Objektes 01, 02 abweichen, wie bereits anhand der 3A und 3B und anhand der dort dargestellten Fehler e erläutert.Typically, representations of an object 01, 02 determined based on different sensor data SL, SR will deviate from one another and from the actual position of the object 01, 02, as already based on 3A and 3B and explained based on the errors shown there.

In der Darstellung des Graphen G sind die Abweichungen der Sensordaten S.L, S.R von dem tatsächlichen Objekt O1, O2 durch Abstände zwischen den zugeordneten Knoten verdeutlicht. Für jeden der Zeitpunkte t1 bis t5 ist/sind einem Objekt O1, O2 ein erster Knoten von Radar-Sensordaten S.R und/oder ein zweiter Knoten von Lidar-Sensordaten S.L zugeordnet, der sich jeweils in einem gewissen Abstand zu dem Knoten befindet, der dem Objekt O1, O2 zugeordnet ist. Dem Abstand zwischen einem Knoten, der den Sensordaten S.R, S.L zugeordnet ist und einem Knoten, der dem Objekt O1, O2 zugeordnet ist, welches anhand dieser Sensordaten S.R, S.L erkannt wurde, wird ein Kostenwert zugewiesen, der nachfolgend als Beobachtungs-Kostenwert bezeichnet wird.In the representation of graph G, the deviations of the sensor data S.L, S.R from the actual object O1, O2 are illustrated by distances between the assigned nodes. For each of the times t1 to t5, an object O1, O2 is/are assigned a first node of radar sensor data S.R and/or a second node of lidar sensor data S.L, which is each located at a certain distance from the node corresponding to the Object O1, O2 is assigned. The distance between a node that is assigned to the sensor data S.R, S.L and a node that is assigned to the object O1, O2, which was recognized based on these sensor data S.R, S.L, is assigned a cost value, which is referred to below as the observation cost value .

In analoger Weise wird dem Abstand zwischen einem Knoten, der einem Objekt O1, O2 zu einem gewissen Zeitpunkt t i zugeordnet ist, und einem Knoten, der demselben Objekt 01, 02 zum nachfolgenden Zeitpunkt t i+1 (i=1, 2, 3, 4) zugeordnet ist (mit anderen Worten: einer Bewegungskante G.B), ein Kostenwert zugewiesen, der nachfolgend als Bewegungs-Kostenwert bezeichnet wird.In an analogous manner, the distance between a node that is assigned to an object O1, O2 at a certain time t i and a node that is assigned to the same object 01, 02 at the subsequent time t i+1 (i=1, 2, 3, 4) is assigned (in other words: a movement edge G.B), a cost value is assigned, which is hereinafter referred to as a movement cost value.

Vereinfacht gesagt, resultieren die Beobachtungs-Kostenwerte aus Ungenauigkeiten der messtechnischen Erfassung und Auswertung von Objekten 01, 02 durch die Fahrzeugumfeld-Sensorik, während die Bewegungs-Kostenwerte aus der Bewegung dieser Objekte 01, 02 relativ zum Fahrzeug und/oder relativ zum Weltkoordinatensystem W resultierten.To put it simply, the observation cost values result from inaccuracies in the measurement detection and evaluation of objects 01, 02 by the vehicle surroundings sensor system, while the movement cost values result from the movement of these objects 01, 02 relative to the vehicle and/or relative to the world coordinate system W .

Die Aufgabe des Auffindens der Trajektorien T1, T2 (das heißt: einer Abfolge von jeweils demselben Objekt O1, O2 zugeordneten, über Bewegungskanten G.B verbundenen Knoten des Graphen G) lässt sich somit als Partitionierung des Graphen G formulieren, bei der ein Gesamtkostenwert (resultierend aus den Bewegungs-Kostenwerten und den Beobachtungs-Kostenwerten) minimiert wird. Derartige Probleme sind mit aus dem Stand der Technik bekannten Optimierungsverfahren, beispielsweise mit dem Ceres-Solver (https://github.com/ceres-solver/ceres-solver) zur Lösung numerischer Optimierungsprobleme, lösbar.The task of finding the trajectories T1, T2 (that is: a sequence of nodes of the graph G, each assigned to the same object O1, O2 and connected via movement edges G.B) can therefore be formulated as a partitioning of the graph G, in which a total cost value (resulting from the movement cost values and the observation cost values) is minimized. Such problems can be solved using optimization methods known from the prior art, for example using the Ceres solver (https://github.com/ceres-solver/ceres-solver) for solving numerical optimization problems.

Somit stellt das vorgeschlagene Verfahren eine Methode der Offline- Sensorfusion dar, bei der Objektkandidaten (welche vom zweiten Verarbeitungsschritt P.2 der Verarbeitungspipeline P gemäß 1 von der Umfeld-Sensorik eines Fahrzeugs ermittelt werden) als Eingangsdaten bereitgestellt werden und bei der Objekte 01, 02 erkannt und diesen Labels zugeordnet werden, ohne dass hierfür eine manuelle Interaktion erforderlich ist. Unter „Offline-Sensorfusion“ ist hierbei eine von dem Fahrzeug selbst (welches die Sensordaten S.R, S.L bereitstellt) unabhängige Verarbeitung, beispielsweise in einer Cloud-Rechenarchitektur oder auf einem fahrzeugunabhängigen lokalen Rechner. Die Objektkandidaten können beispielsweise als bounding boxes (umschreibende Rechtecke oder Quader), als Segmentierungskarten, als Objektskelette oder in ähnlicher Form bereitgestellt werden.The proposed method therefore represents a method of offline sensor fusion, in which object candidates (which from the second processing step P.2 of the processing pipeline P according to 1 determined by the surrounding sensor system of a vehicle) are provided as input data and in which objects 01, 02 are recognized and assigned to these labels without the need for manual interaction. “Offline sensor fusion” refers to processing that is independent of the vehicle itself (which provides the sensor data SR, SL), for example in a cloud computing architecture or on a vehicle-independent local computer. The object candidates can be provided, for example, as bounding boxes (circulating rectangles or cuboids), as segmentation maps, as object skeletons or in a similar form.

Indem das Verfahren bei der Ermittlung der Trajektorien T1, T2 eine vollständige Sequenz von (zu aufeinanderfolgenden Zeitpunkten t1 bis t5 erfassten) Objektkandidaten berücksichtigt, fließen in die Zuordnung von Labels zu Objekten O1, O2 nicht nur aktuelle, sondern auch zurückliegende und/oder künftige Sensordaten S.R, S.L ein. Zudem können in die Objektkandidaten Sensordaten S.R, S.L verschiedener Sensoren und/oder Sensormodalitäten, beispielsweise Radar-, Lidar- und Kameradaten einfließen.Since the method takes into account a complete sequence of object candidates (detected at successive times t1 to t5) when determining the trajectories T1, T2, not only current but also past and/or future sensor data flow into the assignment of labels to objects O1, O2 S.R, S.L a. In addition, sensor data S.R, S.L from various sensors and/or sensor modalities, for example radar, lidar and camera data, can flow into the object candidates.

Die Objektkandidaten werden in das gemeinsame Weltkoordinatensystem W abgebildet und darin anhand der Zeitpunkte t1 bis t5, zu denen die Sensordaten S.R, S.L jeweils erfasst wurden, miteinander in dem anhand von 4 erläuterten Graphen G assoziiert.The object candidates are mapped into the common world coordinate system W and, based on the times t1 to t5 at which the sensor data SR, SL were recorded, are compared with each other in the manner based on 4 explained graph G associated.

Der Graph G wird in Trajektorien T1, T2 partitioniert, welche jeweils einem Objekt 01, 02 zugeordnet werden. Dem Verfahren liegt die Erkenntnis zugrunde, dass gewisse Eigenschaften der Objekte 01, 02 (beispielsweise deren Größe) zeitlich unveränderlich sind. Dadurch wird die konsistente Zuordnung eines Labels zu je einem Objekt 01, 02 erzielt.The graph G is partitioned into trajectories T1, T2, each of which is assigned to an object 01, 02. The method is based on the knowledge that certain properties of objects 01, 02 (for example their size) are unchangeable over time. This ensures that a label is consistently assigned to an object 01, 02.

Die Bewegung des Objektes 01, 02 kann durch ein einfaches Bewegungsmodell modelliert werden. Anhand des Bewegungsmodells kann die Lage eines Objektes 01, 02 auch für Zeiten ermittelt werden, die zwischen den Zeitpunkten t1 bis t5 liegen, zu denen Sensordaten S.R, S.L erfasst wurden.The movement of object 01, 02 can be modeled using a simple movement model. Using the movement model, the position of an object 01, 02 can also be determined for times that lie between times t1 to t5 at which sensor data S.R, S.L were recorded.

Die Lage eines Objektes 01, 02 (und somit auch die Lage des zugeordneten Labels) kann anhand dieses Bewegungsmodells für künftige Zeiten und Zeitpunkte t1 bis t5 anhand der Lage desselben Objektes 01, 02 in zurückliegenden Zeitpunkten t1 bis t5 projiziert werden. Durch Überlagerung der zu verschiedenen (zurückliegenden und aktuellen) Zeitpunkten t1 bis t5 ermittelten Lagen können Trajektorien T1, T2 bestimmt und den Objekten O1, O2 (und somit den zugeordneten Labels) zugewiesen werden. The position of an object 01, 02 (and thus also the position of the assigned label) can be projected using this movement model for future times and times t1 to t5 based on the position of the same object 01, 02 in past times t1 to t5. By overlaying the different (past and current) From the positions determined at times t1 to t5, trajectories T1, T2 can be determined and assigned to the objects O1, O2 (and thus the assigned labels).

Dabei weisen die entlang einer Trajektorie T1, T2 assoziierten Sensordaten S.R, S.L (aus denen die Objektkandidaten bestimmt werden) und die Objekte 01, 02 Fehler e auf, welche sowohl durch Ungenauigkeiten der Messung und Auswertung durch die Fahrzeugumfeld-Sensorik, als auch durch die Bewegung der Objekte 01, 02 selbst bedingt sind. Die Fehler e können beispielsweise als euklidische Abstände zwischen den Eckpunkten eines dreidimensionalen Quaders beschrieben sein. Aus der Gesamtheit der Fehler e wird ein Gesamt-Fehlerterm ermittelt und eine Partitionierung des Graphen G in Trajektorien T1, T2 derart bestimmt, dass der Gesamt-Fehlerterm minimal wird. Zur Lösung dieses Optimierungsproblems sind Verfahren der numerischen Optimierung bekannt und verfügbar, die typischerweise iterativ (das heißt: in einer Abfolge von Optimierungs-Teilschritten) arbeiten.The sensor data S.R, S.L (from which the object candidates are determined) and the objects 01, 02 associated along a trajectory T1, T2 have errors e, which are caused both by inaccuracies in the measurement and evaluation by the vehicle surroundings sensors, as well as by the Movement of the objects 01, 02 themselves are caused. The errors e can be described, for example, as Euclidean distances between the corner points of a three-dimensional cuboid. A total error term is determined from the totality of errors e and a partitioning of the graph G into trajectories T1, T2 is determined such that the overall error term becomes minimal. To solve this optimization problem, numerical optimization methods are known and available, which typically work iteratively (that is, in a sequence of optimization substeps).

Als Ergebnis stellt das vorgeschlagene Verfahren verbesserte, insbesondere verfeinerte Zuordnungen von Objekten 01, 02 und Labels zu (typischerweise multimodalen) Sensordaten S.R, S.L bereit. Darüber hinaus stellt das Verfahren Restfehler-Informationen zu den Fehlern e und/oder dem daraus gebildeten Gesamt-Fehlerterm bereit, welche nach der Bestimmung der Trajektorien T1, T2 als Lösung des Optimierungsproblems verbleiben. Anhand dieser Restfehler-Informationen kann beispielsweise die Qualität der ermittelten Zuordnungen von Objekten O1, O2 und Labels bewertet werden.As a result, the proposed method provides improved, in particular refined, assignments of objects 01, 02 and labels to (typically multimodal) sensor data S.R, S.L. In addition, the method provides residual error information about the errors e and/or the overall error term formed therefrom, which remains as a solution to the optimization problem after the trajectories T1, T2 have been determined. Using this residual error information, for example, the quality of the determined assignments of objects O1, O2 and labels can be evaluated.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • EP 3635625 A1 [0007]EP 3635625 A1 [0007]

Claims (9)

Computerimplementiertes Verfahren zur automatischen Zuordnung eines Labels und/oder eines Objektes (O, O1, O2) zu Sensordaten (S, S', S.R, S'.R, S.L, S'.L) einer Fahrzeugumfeld-Sensorik, dadurch gekennzeichnet, dass - zu verschiedenen Zeitpunkten (t, t', t1 bis t5) Sensordaten (S, S', S.R, S'.R, S.L, S'.L) jeweils mindestens eines Sensors der Fahrzeugumfeld-Sensorik erfasst werden, - daraus Objektkandidaten in ihrer Lage bezogen auf ein fahrzeugunabhängiges Weltkoordinatensystem (W) bestimmt werden und aus der Gesamtheit der Objektkandidaten ein Graph (G) gebildet wird, wobei o jedem Objektkandidaten für einen Zeitpunkt (t, t', t1 bis t5) jeweils ein Objekt (O, O1, O2) sowie die diesem Objekt (O, O1, O2) zugeordneten Sensordaten (S, S', S.R, S'.R, S.L, S'.L) in einer Lage bezogen auf das Weltkoordinatensystem (W) zugeordnet werden, o dem Objekt (O, O1, O2) und den Sensordaten (S, S', S.R, S'.R, S.L, S'.L) jeweils ein Knoten des Graphen (G) zugeordnet wird, - der Graph (G) derart in Trajektorien (T1, T2) partitioniert wird, dass ein Gesamt-Kostenwert minimiert wird, wobei - der Gesamt-Kostenwert aus der Summe von Beobachtungs-Kostenwerten und Bewegungs-Kostenwerten gebildet wird, wobei o ein Bewegungs-Kostenwert jeweils aus dem Abstand der zu aufeinanderfolgenden Zeitpunkten (t, t', t1 bis t5) ermittelten Lagen eines Objekts (O, O1, O2) bestimmt wird und o ein Beobachtungskostenwert jeweils aus dem Abstand zwischen der Lage der Sensordaten (S, S', S.R, S'.R, S.L, S'.L) und der Lage des zum gleichen Zeitpunkt (t, t', t1 bis t5) diesen Sensordaten (S, S', S.R, S'.R, S.L, S'.L) zugeordneten Objekts (O, O1, O2) bestimmt wird und - einer Trajektorie (T1, T2) ein Objekt (0, 01, 02) und/oder ein Label zugewiesen wird.Computer-implemented method for automatically assigning a label and/or an object (O, O1, O2) to sensor data (S, S', SR, S'.R, SL, S'.L) of a vehicle environment sensor system, characterized in that - at different times (t, t', t1 to t5) sensor data (S, S', SR, S'.R, SL, S'.L) are recorded by at least one sensor of the vehicle environment sensor system, - from this, object candidates in their position is determined in relation to a vehicle-independent world coordinate system (W) and a graph (G) is formed from the entirety of the object candidates, whereby each object candidate is assigned one object (O, O1.) for a time (t, t', t1 to t5). , O2) as well as the sensor data (S, S', SR, S'.R, SL, S'.L) assigned to this object (O, O1, O2) are assigned in a position relative to the world coordinate system (W), o the object (O, O1, O2) and the sensor data (S, S', SR, S'.R, SL, S'.L) are each assigned a node of the graph (G), - the graph (G) in this way is partitioned into trajectories (T1, T2) so that a total cost value is minimized, whereby - the total cost value is formed from the sum of observation cost values and movement cost values, where o is a movement cost value in each case from the distance to positions of an object (O, O1, O2) determined at successive times (t, t', t1 to t5) and o an observation cost value is determined from the distance between the position of the sensor data (S, S', SR, S'.R , SL, S'.L) and the position of the object assigned to these sensor data (S, S', SR, S'.R, SL, S'.L) at the same time (t, t', t1 to t5) ( O, O1, O2) is determined and - an object (0, 01, 02) and/or a label is assigned to a trajectory (T1, T2). Computerimplementiertes Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass Beobachtungs-Kostenwerte und/oder Bewegungs-Kostenwerte anhand des euklidischen Abstands zwischen Eckpunkten eines Quaders ermittelt werden, der die Lagen der Sensordaten (S, S', S.R, S'.R, S.L, S'.L) und/oder die Lagen eines Objektes (O, O1, O2) zu aufeinanderfolgenden Zeitpunkten (t, t', t1 bis t5) im Weltkoordinatensystem (W) umschreibt.Computer-implemented method Claim 1 , characterized in that observation cost values and/or movement cost values are determined based on the Euclidean distance between corner points of a cuboid, which contains the positions of the sensor data (S, S', SR, S'.R, SL, S'.L) and/or describes the positions of an object (O, O1, O2) at successive times (t, t', t1 to t5) in the world coordinate system (W). Computerimplementiertes Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Sensordaten (S, S', S.R, S'.R, S.L, S'.L) als Radar-Sensordaten (S.R, S'.R) und/oder als Lidar-Sensordaten (S.L, S'.L) und/oder als Aufnahmen einer Fahrzeugumfeld-Kamera erfasst werden.Computer-implemented method according to one of the preceding claims, characterized in that sensor data (S, S', SR, S'.R, SL, S'.L) as radar sensor data (SR, S'.R) and/or as lidar -Sensor data (SL, S'.L) and/or recorded as recordings by a vehicle surroundings camera. Computerimplementiertes Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bildung und Partitionierung des Graphen (G) in einer fahrzeugunabhängigen Rechenarchitektur, bevorzugt in einer Cloud-Rechenarchitektur oder in einer Server-Rechenarchitektur, implementiert ist.Computer-implemented method according to one of the preceding claims, characterized in that the formation and partitioning of the graph (G) is implemented in a vehicle-independent computing architecture, preferably in a cloud computing architecture or in a server computing architecture. Computerimplementiertes Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Graph (G) mit einem numerischen Optimierungsverfahren in Trajektorien (T1, T2) partitioniert wird.Computer-implemented method according to one of the preceding claims, characterized in that the graph (G) is partitioned into trajectories (T1, T2) using a numerical optimization method. Computerimplementiertes Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass anhand der automatisch zugeordneten Objekte (O, 01, 02) und/oder Labels Sensordaten (S, S', S.R, S'.R, S.L, S'.L) für eine manuelle Annotation ausgewählt werden.Computer-implemented method according to one of the preceding claims, characterized in that based on the automatically assigned objects (O, 01, 02) and/or labels, sensor data (S, S', SR, S'.R, SL, S'.L) for a manual annotation can be selected. Computerimplementiertes Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die automatisch zugeordneten Objekte (O, O1, O2) und/oder Labels Annotationen eines anderen Verfahrens verglichen werden.Computer-implemented method according to one of the preceding claims, characterized in that the automatically assigned objects (O, O1, O2) and/or labels are compared with annotations of another method. Computerimplementiertes Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass anhand der automatisch zugeordneten Objekte (O, 01, 02) und/oder Labels aus Sensordaten (S, S', S.R, S'.R, S.L, S'.L) gebildete Szenen ausgewählt werden.Computer-implemented method according to one of the preceding claims, characterized in that based on the automatically assigned objects (O, 01, 02) and/or labels from sensor data (S, S', SR, S'.R, SL, S'.L) formed scenes can be selected. Computerimplementiertes Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass anhand der automatisch zugeordneten Objekte (O, O1, O2) und/oder Labels Extremsituationen identifiziert werden.Computer-implemented method according to one of the preceding claims, characterized in that extreme situations are identified based on the automatically assigned objects (O, O1, O2) and/or labels.
DE102023004171.8A 2023-10-14 2023-10-14 Method for automatically assigning labels and/or objects to sensor data from a vehicle surroundings sensor system Pending DE102023004171A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102023004171.8A DE102023004171A1 (en) 2023-10-14 2023-10-14 Method for automatically assigning labels and/or objects to sensor data from a vehicle surroundings sensor system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102023004171.8A DE102023004171A1 (en) 2023-10-14 2023-10-14 Method for automatically assigning labels and/or objects to sensor data from a vehicle surroundings sensor system

Publications (1)

Publication Number Publication Date
DE102023004171A1 true DE102023004171A1 (en) 2024-01-04

Family

ID=89167706

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023004171.8A Pending DE102023004171A1 (en) 2023-10-14 2023-10-14 Method for automatically assigning labels and/or objects to sensor data from a vehicle surroundings sensor system

Country Status (1)

Country Link
DE (1) DE102023004171A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3635625A1 (en) 2017-06-06 2020-04-15 PlusAI Corp Method and system for close loop perception in autonomous driving vehicles

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3635625A1 (en) 2017-06-06 2020-04-15 PlusAI Corp Method and system for close loop perception in autonomous driving vehicles

Similar Documents

Publication Publication Date Title
DE102018206208A1 (en) Method, device, product and computer program for operating a technical system
DE112017002154T5 (en) Mobile robot and control method for a mobile robot
DE102018119682A1 (en) Image processing device, image processing method and non-temporary computer readable memory
DE112017008149T5 (en) DEVICE FOR COMMUNICATION FROM A VEHICLE, METHOD FOR COMMUNICATING A VEHICLE OUTSIDE, INFORMATION PROCESSING DEVICE AND PROGRAM FOR COMMUNICATION FROM A VEHICLE
WO2020048669A1 (en) Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle
DE102020200169B3 (en) Method for merging several data sets for the generation of a current lane model of a roadway and device for data processing
DE102019117559A1 (en) Method and system for merging two-dimensional semantic information from images with a three-dimensional point cloud
DE102018220892A1 (en) Device and method for generating label objects for the surroundings of a vehicle
DE102022110889A1 (en) SEMI-SUPERVISED TRAINING OF COARSE LABELS IN IMAGE SEGMENTATION
DE102016124888A1 (en) A method for assisting a driver of a motor vehicle when parking using a driver assistance device, corresponding computer program product and driver assistance device
DE102021003567A1 (en) Process for the recognition of object relationships and attributions from sensor data
DE102018113621A1 (en) A method of training a convolutional neural network for processing image data for use in a driving support system
DE102023004171A1 (en) Method for automatically assigning labels and/or objects to sensor data from a vehicle surroundings sensor system
EP3576013A1 (en) Estimation of a path of a rail path
DE102019209463A1 (en) Method for determining the trust value of an object of a class
DE102019203623A1 (en) Method of providing a card
DE102018109680A1 (en) Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product
DE102021213538A1 (en) Simulation to validate an automated driving function for a vehicle
DE102017223264A1 (en) Method and device for driving an actuator
DE102021006166A1 (en) Procedure for data transfer between two digital road maps
DE102021206625A1 (en) Computer-implemented method and system for supporting an imaging sensor installation and training method
DE112021000251T5 (en) PROCEDURE FOR SELECTING RECORDS TO UPDATE AN ARTIFICIAL INTELLIGENCE MODULE
WO2021175783A1 (en) Computer-implemented method and system for generating synthetic sensor data, and training method
DE102019219927A1 (en) Method and device for recognizing an alienation of a sensor data domain from a reference data domain
DE102019001450A1 (en) Method for providing data for locating a vehicle

Legal Events

Date Code Title Description
R230 Request for early publication