DE102023004171A1 - Method for automatically assigning labels and/or objects to sensor data from a vehicle surroundings sensor system - Google Patents
Method for automatically assigning labels and/or objects to sensor data from a vehicle surroundings sensor system Download PDFInfo
- Publication number
- DE102023004171A1 DE102023004171A1 DE102023004171.8A DE102023004171A DE102023004171A1 DE 102023004171 A1 DE102023004171 A1 DE 102023004171A1 DE 102023004171 A DE102023004171 A DE 102023004171A DE 102023004171 A1 DE102023004171 A1 DE 102023004171A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor data
- assigned
- vehicle
- computer
- implemented method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000005457 optimization Methods 0.000 claims description 11
- 238000000638 solvent extraction Methods 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 19
- 238000012549 training Methods 0.000 description 13
- 230000008447 perception Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000011157 data evaluation Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/7635—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks based on graphs, e.g. graph cuts or spectral clustering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur automatischen Zuordnung eines Labels und/oder eines Objektes (O, O1, O2) zu Sensordaten (S, S', S.R, S'.R, S.L, S'.L) einer Fahrzeugumfeld-Sensorik. Zu verschiedenen Zeitpunkten (t, t', t1 bis t5) werden Sensordaten (S, S', S.R, S'.R, S.L, S'.L) jeweils mindestens eines Sensors der Fahrzeugumfeld-Sensorik erfasst. Daraus werden Objektkandidaten in ihrer Lage bezogen auf ein fahrzeugunabhängiges Weltkoordinatensystem (W) bestimmt. Aus deren Gesamtheit wird ein Graph (G) gebildet. Dabei werden jedem Objektkandidaten für einen Zeitpunkt (t, t', t1 bis t5) jeweils ein Objekt (O, O1, O2) sowie die diesem Objekt (O, O1, O2) zugeordneten Sensordaten (S, S', S.R, S'.R, S.L, S'.L) in einer Lage bezogen auf das Weltkoordinatensystem (W) zugeordnet. Dem Objekt (O, O1, O2) und den Sensordaten (S, S', S.R, S'.R, S.L, S'.L) wird jeweils ein Knoten des Graphen (G) zugeordnet. Der Graph (G) wird derart in Trajektorien (T1, T2) partitioniert, dass ein Gesamt-Kostenwert minimiert wird, der aus der Summe von Beobachtungs-Kostenwerten und Bewegungs-Kostenwerten gebildet wird. Einer Trajektorie (T1, T2) wird ein Objekt (O, O1, O2) und/oder ein Label zugewiesen.The invention relates to a method for automatically assigning a label and/or an object (O, O1, O2) to sensor data (S, S', S.R, S'.R, S.L, S'.L) of a vehicle environment sensor system. At different times (t, t', t1 to t5), sensor data (S, S', S.R, S'.R, S.L, S'.L) are recorded from at least one sensor of the vehicle surroundings sensor system. From this, the position of object candidates is determined in relation to a vehicle-independent world coordinate system (W). A graph (G) is formed from their entirety. Each object candidate is assigned an object (O, O1, O2) for a time (t, t', t1 to t5) as well as the sensor data (S, S', S.R, S') assigned to this object (O, O1, O2). .R, S.L, S'.L) in a position related to the world coordinate system (W). A node of the graph (G) is assigned to the object (O, O1, O2) and the sensor data (S, S', S.R, S'.R, S.L, S'.L). The graph (G) is partitioned into trajectories (T1, T2) in such a way that a total cost value is minimized, which is formed from the sum of observation cost values and movement cost values. A trajectory (T1, T2) is assigned an object (O, O1, O2) and/or a label.
Description
Die Erfindung betrifft ein computerimplementiertes Verfahren zur automatischen Zuordnung eines Labels und/oder eines Objektes zu Sensordaten einer Fahrzeugumfeld-Sensorik.The invention relates to a computer-implemented method for automatically assigning a label and/or an object to sensor data from a vehicle surroundings sensor system.
Die Erkennung von Objekten im Fahrzeugumfeld mit Perzeptionssystemen beruht zunehmend auf Verfahren des Maschinellen Lernens, insbesondere auf Verfahren des Deep Learning und erfordert in großem Umfang annotierte Daten, bei denen Objekte anhand von Sensordaten, beispielsweise Bilder von Fahrzeugumfeld-Kameras, Radar- oder Lidardaten, Objekte identifiziert und/oder klassifiziert werden.The detection of objects in the vehicle environment using perception systems is increasingly based on machine learning methods, in particular on deep learning methods, and requires large amounts of annotated data in which objects are identified based on sensor data, for example images from vehicle surroundings cameras, radar or lidar data identified and/or classified.
Manuelle Annotationsverfahren sind aufwändig und unflexibel, da sie bei Änderungen der Fahrzeugumfeld-Sensorik wiederholt werden müssen. Sie unterliegen zudem subjektiven Einflüssen.Manual annotation procedures are complex and inflexible because they have to be repeated when the vehicle's surroundings sensors change. They are also subject to subjective influences.
Verfahren der automatischen Annotation, mit denen Objekte erkannt und/oder klassifiziert werden, werden als Autolabeling bezeichnet. Ein Label, das einem Objekt automatisch zugeordnet wird, kann die Klasse (den Typ) des erfassten Objektes bezeichnen, beispielsweise „Person“, „Fußgänger“, „Radfahrer“, „fremdes Fahrzeug“, „Verkehrsleiteinrichtung“. Ein Label kann zusätzlich oder alternativ auch die Identität eines Objektes bezeichnen.Automatic annotation methods used to recognize and/or classify objects are referred to as autolabeling. A label that is automatically assigned to an object can designate the class (type) of the detected object, for example “person”, “pedestrian”, “cyclist”, “foreign vehicle”, “traffic control device”. A label can also or alternatively denote the identity of an object.
Einfache Verfahren des Autolabeling ordnen Labels basierend auf Sensordaten zu, die zu einem bestimmten Zeitpunkt von Sensoren einer Modalität (beispielsweise Radar-Sensordaten) oder mehreren Modalitäten (beispielsweise Lidar- und Radar-Sensordaten) erfasst wurden. Diese Verfahren weisen nur eine beschränkte Genauigkeit auf und setzen eine gute Kalibration der Fahrzeugumfeld-Sensorik voraus. Sie eignen sich für multimodale Sensordaten nur dann, wenn die Modalitäten zueinander kompatibel und kalibriert sind. Die Verifizierung eines Labels durch Vergleich von Sensordaten verschiedener Modalitäten ist nur eingeschränkt oder gar nicht möglich.Simple autolabeling methods assign labels based on sensor data collected at a particular time from sensors of one modality (e.g. radar sensor data) or multiple modalities (e.g. lidar and radar sensor data). These methods only have limited accuracy and require good calibration of the vehicle surroundings sensors. They are only suitable for multimodal sensor data if the modalities are compatible and calibrated. The verification of a label by comparing sensor data from different modalities is only possible to a limited extent or not at all.
Fortgeschrittene, fusionsbasierte Verfahren des Autolabeling ordnen Labels basierend auf Sensordaten zu, die zu verschiedenen (aufeinanderfolgenden) Zeitpunkten erfasst wurden. Objekte werden auf ein fahrzeugunabhängiges Weltkoordinatensystem abgebildet und in ihrer Bewegung (entsprechend der Abfolge der Erfassungszeitpunkte) in diesem Weltkoordinatensystem verfolgt. Derartige Verfahren sind rechenaufwändig und können akausale (in der Zukunft liegende) Sensordaten für die Zuordnung eines Labels nicht oder nur eingeschränkt verwenden.Advanced fusion-based autolabeling methods assign labels based on sensor data collected at different (consecutive) points in time. Objects are mapped to a vehicle-independent world coordinate system and their movement (according to the sequence of capture times) is tracked in this world coordinate system. Such methods are computationally complex and cannot use acausal (future) sensor data to assign a label, or can only use them to a limited extent.
Das Dokument
Der Erfindung liegt die Aufgabe zu Grunde, ein verbessertes Verfahren zur automatischen Zuordnung eines Labels und/oder eines Objektes zu Sensordaten einer Fahrzeugumfeld-Sensorik, das heißt: ein verbessertes Autolabeling-Verfahren, anzugeben.The invention is based on the object of specifying an improved method for automatically assigning a label and/or an object to sensor data from a vehicle surroundings sensor system, that is: an improved autolabeling method.
Die Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Anspruchs 1 gelöst.The object is achieved according to the invention by a method with the features of claim 1.
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the subclaims.
Bei einem Verfahren zur automatischen Zuordnung eines Labels und/oder eines Objekts zu Sensordaten einer Fahrzeugumfeld-Sensorik werden zu verschiedenen Zeitpunkten jeweils Sensordaten mindestens eines Sensors der Fahrzeugumfeld-Sensorik erfasst. Aus den Sensordaten werden Objektkandidaten bestimmt und in ihrer Lage auf ein fahrzeugunabhängiges, zeitlich unveränderliches Weltkoordinatensystem projiziert. Aus der Gesamtheit der Objektkandidaten wird ein Graph mit Knoten und Kanten gebildet.In a method for automatically assigning a label and/or an object to sensor data of a vehicle surroundings sensor system, sensor data from at least one sensor of the vehicle surroundings sensor system are recorded at different times. Object candidates are determined from the sensor data and their position is projected onto a vehicle-independent, time-invariable world coordinate system. A graph with nodes and edges is formed from the entirety of the object candidates.
Dabei werden jedem Objektkandidaten für einen bestimmten Zeitpunkt jeweils ein Objekt sowie die diesem Objekt zugeordneten Sensordaten in einer diesem Zeitpunkt zugeordneten Lage in Bezug auf das Weltkoordinatensystem zugewiesen. Dem Objekt sowie den Sensordaten wird jeweils ein Knoten des Graphen zugeordnet.Each object candidate is assigned an object for a specific point in time as well as the sensor data assigned to this object in a position assigned to this point in time in relation to the world coordinate system. A graph node is assigned to the object and the sensor data.
Der Graph, der die Gesamtheit der für alle Zeitpunkte derart bestimmten Knoten umfasst, wird sodann derart in Trajektorien partitioniert, dass ein Gesamt-Kostenwert minimiert wird. Dabei wird der Gesamt-Kostenwert aus der Summe von Beobachtungs-Kostenwerten und Bewegungs-Kostenwerten gebildet, wobei ein Bewegungs-Kostenwert jeweils aus dem Abstand der zu aufeinanderfolgenden Zeitpunkten ermittelten Lagen eines Objektes bestimmt wird und wobei ein Beobachtungskostenwert jeweils aus dem Abstand zwischen der Lage der Sensordaten und der Lage des zum gleichen Zeitpunkt diesen Sensordaten zugeordneten Objekts bestimmt wird.The graph, which includes the entirety of the nodes determined in this way for all points in time, is then partitioned into trajectories in such a way that a Total cost value is minimized. The total cost value is formed from the sum of observation cost values and movement cost values, with a movement cost value being determined from the distance between the positions of an object determined at successive points in time and an observation cost value from the distance between the positions of the object Sensor data and the position of the object assigned to this sensor data at the same time is determined.
Sodann wird/werden jeder Trajektorie jeweils ein Objekt und/oder ein Label zugewiesen.An object and/or a label is then assigned to each trajectory.
Das vorgeschlagene Verfahren ermöglicht die schnelle und eigenständige Generierung von Annotationen aus Sensordaten, die von mindestens einem Fahrzeug, bevorzugt jedoch von zahlreichen Fahrzeugen einer Fahrzeugflotte erfasst werden. Mit derart automatisch annotierten Sensordaten können Perzeptionssysteme zur Objekterfassung im Fahrzeugumfeld verbessert und erweitert werden.The proposed method enables the rapid and independent generation of annotations from sensor data that are recorded by at least one vehicle, but preferably by numerous vehicles in a vehicle fleet. With such automatically annotated sensor data, perception systems for object detection in the vehicle environment can be improved and expanded.
Mit dem Verfahren gewonnene Labels ermöglichen, indem sie einer Trajektorie zugeordnet sind, zudem eine Verwendung in nachfolgenden Komponenten einer Datenauswertung, beispielsweise einer Bewegungsvorausschau und in der Sensorfusion.Labels obtained with the method, by being assigned to a trajectory, also enable use in subsequent components of data evaluation, for example movement forecasting and in sensor fusion.
Ferner ermöglicht das Verfahren eine nachträgliche Kalibrierung einer Fahrzeugumfeld-Sensorik dahingehend, dass diejenigen Fehlerterme optimiert (minimiert) werden, die durch die modalitätsabhängig und/oder zeitabhängig variierenden Sensordaten bewirkt werden.Furthermore, the method enables a subsequent calibration of a vehicle surroundings sensor system in such a way that those error terms that are caused by the sensor data that vary depending on the modality and/or time are optimized (minimized).
Bei einer Ausführungsform des Verfahrens werden Beobachtungs-Kostenwerte und/oder Bewegungs-Kostenwerte anhand des euklidischen Abstands zwischen Eckpunkten eines Quaders ermittelt, der die Lagen der Sensordaten und/oder die Lagen eines Objektes zu aufeinanderfolgenden Zeitpunkten im Weltkoordinatensystem umschreibt. Derartige Kostenwerte sind besonders leicht ermittelbar.In one embodiment of the method, observation cost values and/or movement cost values are determined based on the Euclidean distance between corner points of a cuboid, which describes the positions of the sensor data and/or the positions of an object at successive times in the world coordinate system. Such cost values are particularly easy to determine.
Bei einer Ausführungsform des Verfahrens werden Sensordaten als Radar-Sensordaten und/oder als Lidar-Sensordaten und/oder als Aufnahmen einer Fahrzeugumfeld-Kamera erfasst. Mittels derartiger Sensordaten sind Objekte im Fahrzeugumfeld besonders gut und zuverlässig erkennbar.In one embodiment of the method, sensor data is recorded as radar sensor data and/or as lidar sensor data and/or as recordings from a vehicle surroundings camera. Using such sensor data, objects in the vehicle environment can be recognized particularly well and reliably.
Bei einer Ausführungsform des Verfahrens ist die Bildung und Partitionierung des Graphen in einer fahrzeugunabhängigen Rechenarchitektur, bevorzugt in einer Cloud-Rechenarchitektur oder in einer Server-Rechenarchitektur, implementiert. Dadurch können von verschiedenen, bevorzugt von sehr vielen oder allen Fahrzeugen einer Fahrzeugflotte erfasste Sensordaten automatisch annotiert und somit besonders große Trainingsdatensätze für Perzeptionssysteme gebildet werden. Dies verbessert die Genauigkeit und Robustheit derart trainierter Perzeptionssysteme. Zudem wird die Wartbarkeit einer solchen Implementierung des Verfahrens gegenüber einer fahrzeugbasierten Implementierung verbessert. Ferner bietet eine Cloud- oder Server-Rechenarchitektur die Möglichkeit einer lastabhängigen Skalierbarkeit der Rechenleistung.In one embodiment of the method, the formation and partitioning of the graph is implemented in a vehicle-independent computing architecture, preferably in a cloud computing architecture or in a server computing architecture. This means that sensor data collected from various, preferably very many or all, vehicles in a vehicle fleet can be automatically annotated and particularly large training data sets can be formed for perception systems. This improves the accuracy and robustness of perception systems trained in this way. In addition, the maintainability of such an implementation of the method is improved compared to a vehicle-based implementation. Furthermore, a cloud or server computing architecture offers the possibility of load-dependent scalability of computing power.
Bei einer Ausführungsform des Verfahrens wird der Graph mit einem numerischen Optimierungsverfahren partitioniert. Implementierungen solcher Verfahren, beispielsweise die Ceres Bibliothek (https://github.com/ceres-solver/ceres-solver) sind besonders leicht und in hoher Softwarequalität verfügbar.In one embodiment of the method, the graph is partitioned using a numerical optimization method. Implementations of such methods, for example the Ceres library (https://github.com/ceres-solver/ceres-solver), are particularly easy and available in high software quality.
Bei einer Ausführungsform des Verfahrens werden anhand der automatisch zugeordneten Objekte und/oder Labels Sensordaten für eine manuelle Auswertung ausgewählt. Beispielsweise kann die Auswahl anhand eines Fehlerterms erfolgen, der aus den Beobachtungs-Kostenwerten und den Bewegungs-Kostenwerten entlang der Trajektorie ermittelt wird, welche einem Objekt/Label zugeordnet wurde. Dadurch ist es möglich, eine manuelle Auswertung auf potenziell kritische oder fehlerträchtige Sensordaten zu beschränken.In one embodiment of the method, sensor data are selected for manual evaluation based on the automatically assigned objects and/or labels. For example, the selection can be made based on an error term that is determined from the observation cost values and the movement cost values along the trajectory that was assigned to an object/label. This makes it possible to limit manual evaluation to potentially critical or error-prone sensor data.
Bei einer Ausführungsform des Verfahrens werden die automatisch zugeordneten Objekte und/oder Labels mit Annotation eines anderen Verfahrens verglichen. Dadurch ist eine Kreuzvalidierung verschiedener Verfahren möglich, die zu einer insgesamt verbesserten Annotationsqualität beiträgt.In one embodiment of the method, the automatically assigned objects and/or labels are compared with annotation from another method. This enables cross-validation of various methods, which contributes to an overall improved annotation quality.
Bei einer Ausführungsform des Verfahrens werden anhand der automatisch zugeordneten Objekte und/oder Labels Szenen ausgewählt, die jeweils eine Abfolge von zu verschiedenen Zeitpunkten erfassten Sensordaten umfassen. Derartige Szenen können beispielsweise zur Rekalibrierung von Sensoren verwendet werden.In one embodiment of the method, scenes are selected based on the automatically assigned objects and/or labels, each of which includes a sequence of sensor data recorded at different times. Such scenes can be used, for example, to recalibrate sensors.
Bei einer Ausführungsform des Verfahrens werden anhand der automatisch zugeordneten Objekte und/oder Labels Extremsituation (auch als „corner cases“ bezeichnet) identifiziert. Mittels derart ausgewählter Sensordaten und zugeordneter Objekte und/oder Labels kann die Robustheit sowohl des vorgeschlagenen Verfahrens zum Autolabeling, als auch darauf aufbauender weiterer Verfahrensschritte bewertet und verbessert werden.In one embodiment of the method, extreme situations (also referred to as “corner cases”) are identified based on the automatically assigned objects and/or labels. Using sensor data and associated objects and/or labels selected in this way, the robustness of both the proposed autolabeling method and further method steps based on it can be evaluated and improved.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Exemplary embodiments of the invention are explained in more detail below with reference to drawings.
Dabei zeigen:
-
1 schematisch eine Verarbeitungspipeline für das Training von Perzeptionssystemen anhand von Roh- und Metadaten eines oder mehrerer Fahrzeuge, -
2 schematisch die Abbildung von anhand von Sensordaten zu aufeinanderfolgenden Zeitpunkten erkannten Objekten in einem Weltkoordinatensystem, -
3A ,3B schematisch die Optimierung der Abbildung von Objektkandidaten im Weltkoordinatensystem zu aufeinanderfolgenden Zeitpunkten, sowie -
4 einen aus Objektkandidaten gebildeten Graphen mit zwei, jeweils einem Objekt zugeordneten Trajektorien.
-
1 schematically a processing pipeline for training perception systems using raw and metadata from one or more vehicles, -
2 schematically depicting objects recognized based on sensor data at successive times in a world coordinate system, -
3A ,3B schematically the optimization of the mapping of object candidates in the world coordinate system at successive times, as well as -
4 a graph formed from object candidates with two trajectories, each assigned to an object.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference numbers in all figures.
Im ersten Verarbeitungsschritt P.1 werden Rohdaten und/oder Metadaten erfasst. Rohdaten können mittels einer Fahrzeugumfeld-Sensorik erfasst werden, beispielsweise mit einer oder mehrerer Kameras, mit Radar-Sensoren oder mit Lidar-Sensoren. Metadaten können das erfassende Fahrzeug oder dessen Komponenten (beispielsweise Sensoren) hinsichtlich Typ, Ausstattung, Version oder Konfiguration beschreiben. Zudem können Ort und/oder Bewegungsparameter des Fahrzeugs sowie der Zeitpunkt bei einer Erfassung von Rohdaten erfasst werden.In the first processing step P.1, raw data and/or metadata are recorded. Raw data can be recorded using vehicle surroundings sensors, for example with one or more cameras, radar sensors or lidar sensors. Metadata can describe the capturing vehicle or its components (e.g. sensors) in terms of type, equipment, version or configuration. In addition, the location and/or movement parameters of the vehicle as well as the time can be recorded when raw data is recorded.
Im zweiten Verarbeitungsschritt P.2 werden anhand der Rohdaten und/oder Metadaten Objektkandidaten im Fahrzeugumfeld bestimmt. Der zweite Verarbeitungsschritt P.2 wird bevorzugt von einem On-Board-System des Fahrzeugs ausgeführt.In the second processing step P.2, object candidates in the vehicle environment are determined based on the raw data and/or metadata. The second processing step P.2 is preferably carried out by an on-board system of the vehicle.
Im dritten Verarbeitungsschritt P.3 werden mindestens einigen der ermittelten Objektkandidaten in einem automatisierten Verfahren Labels zugeordnet. Ein Label bezeichnet die Klasse eines Objektkandidaten (beispielsweise: Person, Fahrzeug, Verkehrsleiteinrichtung). Optional kann ein Label auch die Identität eines Objektkandidaten bezeichnen. Ein automatisiertes Verfahren der Zuordnung von Labels wird auch als Autolabeling bezeichnet und wird nachfolgend noch genauer erläutert.In the third processing step P.3, labels are assigned to at least some of the identified object candidates in an automated process. A label denotes the class of an object candidate (for example: person, vehicle, traffic control device). Optionally, a label can also denote the identity of an object candidate. An automated method of assigning labels is also known as autolabeling and is explained in more detail below.
Die mittels Autolabeling erfassten vorläufigen Objektklassifikationen werden in einem ersten (automatisch generierten) Trainingsdaten-Repository R.A abgelegt und mit manuell erfassten oder validierten Objektklassifikationen abgeglichen, die in einem zweiten (manuell generierten) Trainingsdaten-Repository R.M abgelegt sind.The preliminary object classifications captured using autolabeling are stored in a first (automatically generated) training data repository R.A and compared with manually captured or validated object classifications that are stored in a second (manually generated) training data repository R.M.
Im vierten Verarbeitungsschritt P.4 wird ein Klassifikator anhand der annotierten (das heißt: mit Labels versehenen) Daten des automatisch generierten Trainingsdaten-Repository R.A trainiert. Klassifikatoren können beispielsweise als Neuronale Netze ausgebildet und mit Verfahren des Deep Learning oder mit anderen Verfahren des Maschinellen Lernens (Machine Learning) trainiert werden.In the fourth processing step P.4, a classifier is trained using the annotated (i.e. labeled) data from the automatically generated training data repository R.A. Classifiers can, for example, be designed as neural networks and trained using deep learning methods or other machine learning methods.
Im fünften Verarbeitungsschritt P.5 wird ein derart trainierter Klassifikator optimiert. Beispielsweise kann ein Neuronales Netz hinsichtlich seiner Topologie optimiert werden.In the fifth processing step P.5, a classifier trained in this way is optimized. For example, a neural network can be optimized in terms of its topology.
Im sechsten Verarbeitungsschritt P.6 wird die Leistungsfähigkeit des trainierten und optimierten Klassifikators überprüft, beispielsweise anhand von Testdaten, die unabhängig von den Trainingsdaten der Trainingsdaten-Repositories R.A, R.M sind.In the sixth processing step P.6, the performance of the trained and optimized classifier is checked, for example using test data that is independent of the training data from the training data repositories R.A, R.M.
Bevorzugt werden der vierte bis sechste Verarbeitungsschritt P.4 bis P.6 mittels einer von dem erfassenden Fahrzeug unabhängigen Rechenarchitektur, beispielsweise in einer Cloud-Rechenarchitektur ausgeführt.The fourth to sixth processing steps P.4 to P.6 are preferably carried out using a computing architecture that is independent of the detecting vehicle, for example in a cloud computing architecture.
Nach erfolgreicher Überprüfung der Leistungsfähigkeit wird im siebten Verarbeitungsschritt P.7 der trainierte und optimierte Klassifikator auf Fahrzeuge einer Fahrzeugflotte ausgerollt. Diese Fahrzeuge können nachfolgend Objekte in ihrer Fahrzeugumgebung erkennen und klassifizieren, indem Rohdaten und/oder Metadaten von dem Klassifikator ausgewertet werden.After successfully checking the performance, the trained and optimized classifier is rolled out to vehicles in a vehicle fleet in the seventh processing step P.7. These vehicles can subsequently recognize and classify objects in their vehicle environment by evaluating raw data and/or metadata by the classifier.
Innerhalb der Verarbeitungspipeline P kommt dem dritten Verarbeitungsschritt P.3 besondere Bedeutung zu, weil Verfahren des Maschinellen Lernens auf umfangreiche klassifizierte (gelabelte) Trainingsdaten zurückgreifen. Eine manuelle Zuordnung von Klassifikationen zu Objektkandidaten ist daher unökonomisch, zeitaufwändig und unflexibel. Insbesondere müssen Trainingsdaten bei Veränderungen der Fahrzeugumfeld-Sensorik und/oder bei Veränderungen der den Objekten zuzuordnenden Klassen (Labels) nachgeführt werden. Ferner kann es sinnvoll sein, sensorisch erfasste Trainingsdaten zu variieren, um die Generalisierungsfähigkeit eines trainierten Klassifikators zu verbessern. Dadurch steigt der Aufwand für eine manuelle Klassifikation zusätzlich und potenziell um ein Mehrfaches.Within the processing pipeline P, the third processing step P.3 is particularly important because machine learning methods rely on extensive classified (labeled) training data. Manual assignment of classifications to object candidates is therefore uneconomical, time-consuming and inflexible. In particular, training data must be updated in the event of changes in the vehicle environment sensors and/or in the event of changes in the classes (labels) assigned to the objects. Furthermore, it may make sense to vary sensory-captured training data in order to improve the generalization ability of a trained classifier. This increases the effort required for manual classification, potentially several times over.
Anhand der Sensordaten S, S' wird ein Objekt O erkannt (das heißt: einem Objektkandidaten zugeordnet) und gelabelt (das heißt: mit einem Label versehen). In der in
Demgegenüber werden die Sensordaten S, S' bezogen auf ein nicht näher dargestelltes Fahrzeugkoordinatensystem erfasst, das sich in seiner Lage und Ausrichtung gegenüber dem Weltkoordinatensystem W typischerweise zwischen dem ersten und dem zweiten Zeitpunkt t, t' verändert.In contrast, the sensor data S, S' are recorded based on a vehicle coordinate system, not shown, which typically changes in its position and orientation relative to the world coordinate system W between the first and the second time t, t'.
Die Bestimmung der Lage (beispielsweise der Koordinaten einer bounding box) eines Objektes 0 im Weltkoordinatensystem W erfolgt in einem Messschritt M. Durch Umkehrung der Transformation vom Fahrzeugkoordinatensystem in das Weltkoordinatensystem W wird in einem Projektionsschritt J die Lage des erkannten und klassifizierten Objektes O relativ zum Fahrzeugkoordinatensystem, und somit auch relativ zur Fahrzeugumfeld-Sensorik bestimmt.The position (for example the coordinates of a bounding box) of an
Ein Vorteil des vorgeschlagenen Verfahrens besteht darin, dass zur Zuordnung eines Labels zu einem Objekt O mehrfach, in vorbestimmten oder mindestens näherungsweise bekannten Zeitabständen erfasste Sensordaten S, S' zur Verfügung stehen. Typischerweise wird sich die Lage eines Objekts O (in Bezug auf das Weltkoordinatensystem W), die anhand nur der ersten Sensordaten S bestimmt wird, von der Lage desselben Objekts 0, die anhand nur der zweiten Sensordaten S' bestimmt wird, mindestens geringfügig unterscheiden. Zudem ist es möglich, dass ein Objekt O anhand nur der ersten oder nur der zweiten Sensordaten S, S' nicht oder nicht vollständig korrekt erkannt wird.An advantage of the proposed method is that in order to assign a label to an object O, sensor data S, S' collected multiple times at predetermined or at least approximately known time intervals are available. Typically, the location of an object O (with respect to the world coordinate system W), which is determined using only the first sensor data S, will differ at least slightly from the location of the
Erfindungsgemäß werden die Repräsentationen eines Objekts O (das heißt: ein zugeordnetes Label und/oder dessen Lage und/oder Ausdehnung im Weltkoordinatensystem W) anhand der zu jeweils einem Zeitpunkt t, t' erfassten Sensordaten S, S' in einem Optimierungsschritt Z abgeglichen.According to the invention, the representations of an object O (that is: an assigned label and/or its position and/or extent in the world coordinate system W) are compared in an optimization step Z based on the sensor data S, S' recorded at a time t, t'.
Indem zu verschiedenen Zeitpunkten t, t' erfasste (dasselbe Objekt O beschreibende) Sensordaten S, S' ausgewertet werden, ist eine genauere und zuverlässigere Zuordnung zwischen den Sensordaten S, S' und der Repräsentation des Objekts O, und somit eine verbesserte Qualität der Trainingsdaten des automatisch generierten Trainingsdaten-Repository R.A möglich. Zudem können, insbesondere durch Erfassung und Einbeziehung der Bewegung des Fahrzeugs zwischen den Zeitpunkten t, t', Sensoren der Fahrzeugumfeld-Sensorik kalibriert und hinsichtlich ihrer Trägheit oder Latenz korrigiert werden. Das vorgeschlagene Verfahren ist daher besonders flexibel einsetzbar.By evaluating sensor data S, S' recorded at different times t, t' (describing the same object O), there is a more precise and reliable association between the sensor data S, S' and the representation of the object O, and thus an improved quality of the training data the automatically generated training data repository R.A possible. In addition, sensors of the vehicle surroundings sensor system can be calibrated and corrected for their inertia or latency, in particular by detecting and incorporating the movement of the vehicle between times t, t'. The proposed method can therefore be used particularly flexibly.
Beispielhaft sind die Radar-Sensordaten S.R, S'.R korrespondierend zu einem Eckpunkt des als umschreibendes Rechteck erfassten Objekts O dargestellt. Die Lidar-Sensordaten S.L, S'.L sind beispielhaft als korrespondierend zu den Kanten des Objekts O dargestellt. Durch die Verfolgung des Objekts O über mehrere Zeitpunkte t, t' hinweg können die Fehler e verringert werden.By way of example, the radar sensor data S.R, S'.R are shown corresponding to a corner point of the object O detected as a circumscribing rectangle. The lidar sensor data S.L, S'.L are shown by way of example as corresponding to the edges of the object O. By tracking the object O over several times t, t', the errors e can be reduced.
Jedes der Objekte 01, 02 wird zu jedem der Zeitpunkte t1 bis t5 durch mehrere Sensoren der Fahrzeugumfeld-Sensorik erfasst. Beispielhaft sind in
Typischerweise werden anhand verschiedener Sensordaten S.L, S.R ermittelte Repräsentationen eines Objektes 01, 02 voneinander sowie von der tatsächlichen Lage des Objektes 01, 02 abweichen, wie bereits anhand der
In der Darstellung des Graphen G sind die Abweichungen der Sensordaten S.L, S.R von dem tatsächlichen Objekt O1, O2 durch Abstände zwischen den zugeordneten Knoten verdeutlicht. Für jeden der Zeitpunkte t1 bis t5 ist/sind einem Objekt O1, O2 ein erster Knoten von Radar-Sensordaten S.R und/oder ein zweiter Knoten von Lidar-Sensordaten S.L zugeordnet, der sich jeweils in einem gewissen Abstand zu dem Knoten befindet, der dem Objekt O1, O2 zugeordnet ist. Dem Abstand zwischen einem Knoten, der den Sensordaten S.R, S.L zugeordnet ist und einem Knoten, der dem Objekt O1, O2 zugeordnet ist, welches anhand dieser Sensordaten S.R, S.L erkannt wurde, wird ein Kostenwert zugewiesen, der nachfolgend als Beobachtungs-Kostenwert bezeichnet wird.In the representation of graph G, the deviations of the sensor data S.L, S.R from the actual object O1, O2 are illustrated by distances between the assigned nodes. For each of the times t1 to t5, an object O1, O2 is/are assigned a first node of radar sensor data S.R and/or a second node of lidar sensor data S.L, which is each located at a certain distance from the node corresponding to the Object O1, O2 is assigned. The distance between a node that is assigned to the sensor data S.R, S.L and a node that is assigned to the object O1, O2, which was recognized based on these sensor data S.R, S.L, is assigned a cost value, which is referred to below as the observation cost value .
In analoger Weise wird dem Abstand zwischen einem Knoten, der einem Objekt O1, O2 zu einem gewissen Zeitpunkt t i zugeordnet ist, und einem Knoten, der demselben Objekt 01, 02 zum nachfolgenden Zeitpunkt t i+1 (i=1, 2, 3, 4) zugeordnet ist (mit anderen Worten: einer Bewegungskante G.B), ein Kostenwert zugewiesen, der nachfolgend als Bewegungs-Kostenwert bezeichnet wird.In an analogous manner, the distance between a node that is assigned to an object O1, O2 at a certain time t i and a node that is assigned to the
Vereinfacht gesagt, resultieren die Beobachtungs-Kostenwerte aus Ungenauigkeiten der messtechnischen Erfassung und Auswertung von Objekten 01, 02 durch die Fahrzeugumfeld-Sensorik, während die Bewegungs-Kostenwerte aus der Bewegung dieser Objekte 01, 02 relativ zum Fahrzeug und/oder relativ zum Weltkoordinatensystem W resultierten.To put it simply, the observation cost values result from inaccuracies in the measurement detection and evaluation of
Die Aufgabe des Auffindens der Trajektorien T1, T2 (das heißt: einer Abfolge von jeweils demselben Objekt O1, O2 zugeordneten, über Bewegungskanten G.B verbundenen Knoten des Graphen G) lässt sich somit als Partitionierung des Graphen G formulieren, bei der ein Gesamtkostenwert (resultierend aus den Bewegungs-Kostenwerten und den Beobachtungs-Kostenwerten) minimiert wird. Derartige Probleme sind mit aus dem Stand der Technik bekannten Optimierungsverfahren, beispielsweise mit dem Ceres-Solver (https://github.com/ceres-solver/ceres-solver) zur Lösung numerischer Optimierungsprobleme, lösbar.The task of finding the trajectories T1, T2 (that is: a sequence of nodes of the graph G, each assigned to the same object O1, O2 and connected via movement edges G.B) can therefore be formulated as a partitioning of the graph G, in which a total cost value (resulting from the movement cost values and the observation cost values) is minimized. Such problems can be solved using optimization methods known from the prior art, for example using the Ceres solver (https://github.com/ceres-solver/ceres-solver) for solving numerical optimization problems.
Somit stellt das vorgeschlagene Verfahren eine Methode der Offline- Sensorfusion dar, bei der Objektkandidaten (welche vom zweiten Verarbeitungsschritt P.2 der Verarbeitungspipeline P gemäß
Indem das Verfahren bei der Ermittlung der Trajektorien T1, T2 eine vollständige Sequenz von (zu aufeinanderfolgenden Zeitpunkten t1 bis t5 erfassten) Objektkandidaten berücksichtigt, fließen in die Zuordnung von Labels zu Objekten O1, O2 nicht nur aktuelle, sondern auch zurückliegende und/oder künftige Sensordaten S.R, S.L ein. Zudem können in die Objektkandidaten Sensordaten S.R, S.L verschiedener Sensoren und/oder Sensormodalitäten, beispielsweise Radar-, Lidar- und Kameradaten einfließen.Since the method takes into account a complete sequence of object candidates (detected at successive times t1 to t5) when determining the trajectories T1, T2, not only current but also past and/or future sensor data flow into the assignment of labels to objects O1, O2 S.R, S.L a. In addition, sensor data S.R, S.L from various sensors and/or sensor modalities, for example radar, lidar and camera data, can flow into the object candidates.
Die Objektkandidaten werden in das gemeinsame Weltkoordinatensystem W abgebildet und darin anhand der Zeitpunkte t1 bis t5, zu denen die Sensordaten S.R, S.L jeweils erfasst wurden, miteinander in dem anhand von
Der Graph G wird in Trajektorien T1, T2 partitioniert, welche jeweils einem Objekt 01, 02 zugeordnet werden. Dem Verfahren liegt die Erkenntnis zugrunde, dass gewisse Eigenschaften der Objekte 01, 02 (beispielsweise deren Größe) zeitlich unveränderlich sind. Dadurch wird die konsistente Zuordnung eines Labels zu je einem Objekt 01, 02 erzielt.The graph G is partitioned into trajectories T1, T2, each of which is assigned to an
Die Bewegung des Objektes 01, 02 kann durch ein einfaches Bewegungsmodell modelliert werden. Anhand des Bewegungsmodells kann die Lage eines Objektes 01, 02 auch für Zeiten ermittelt werden, die zwischen den Zeitpunkten t1 bis t5 liegen, zu denen Sensordaten S.R, S.L erfasst wurden.The movement of
Die Lage eines Objektes 01, 02 (und somit auch die Lage des zugeordneten Labels) kann anhand dieses Bewegungsmodells für künftige Zeiten und Zeitpunkte t1 bis t5 anhand der Lage desselben Objektes 01, 02 in zurückliegenden Zeitpunkten t1 bis t5 projiziert werden. Durch Überlagerung der zu verschiedenen (zurückliegenden und aktuellen) Zeitpunkten t1 bis t5 ermittelten Lagen können Trajektorien T1, T2 bestimmt und den Objekten O1, O2 (und somit den zugeordneten Labels) zugewiesen werden. The position of an
Dabei weisen die entlang einer Trajektorie T1, T2 assoziierten Sensordaten S.R, S.L (aus denen die Objektkandidaten bestimmt werden) und die Objekte 01, 02 Fehler e auf, welche sowohl durch Ungenauigkeiten der Messung und Auswertung durch die Fahrzeugumfeld-Sensorik, als auch durch die Bewegung der Objekte 01, 02 selbst bedingt sind. Die Fehler e können beispielsweise als euklidische Abstände zwischen den Eckpunkten eines dreidimensionalen Quaders beschrieben sein. Aus der Gesamtheit der Fehler e wird ein Gesamt-Fehlerterm ermittelt und eine Partitionierung des Graphen G in Trajektorien T1, T2 derart bestimmt, dass der Gesamt-Fehlerterm minimal wird. Zur Lösung dieses Optimierungsproblems sind Verfahren der numerischen Optimierung bekannt und verfügbar, die typischerweise iterativ (das heißt: in einer Abfolge von Optimierungs-Teilschritten) arbeiten.The sensor data S.R, S.L (from which the object candidates are determined) and the
Als Ergebnis stellt das vorgeschlagene Verfahren verbesserte, insbesondere verfeinerte Zuordnungen von Objekten 01, 02 und Labels zu (typischerweise multimodalen) Sensordaten S.R, S.L bereit. Darüber hinaus stellt das Verfahren Restfehler-Informationen zu den Fehlern e und/oder dem daraus gebildeten Gesamt-Fehlerterm bereit, welche nach der Bestimmung der Trajektorien T1, T2 als Lösung des Optimierungsproblems verbleiben. Anhand dieser Restfehler-Informationen kann beispielsweise die Qualität der ermittelten Zuordnungen von Objekten O1, O2 und Labels bewertet werden.As a result, the proposed method provides improved, in particular refined, assignments of
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- EP 3635625 A1 [0007]EP 3635625 A1 [0007]
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102023004171.8A DE102023004171A1 (en) | 2023-10-14 | 2023-10-14 | Method for automatically assigning labels and/or objects to sensor data from a vehicle surroundings sensor system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102023004171.8A DE102023004171A1 (en) | 2023-10-14 | 2023-10-14 | Method for automatically assigning labels and/or objects to sensor data from a vehicle surroundings sensor system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102023004171A1 true DE102023004171A1 (en) | 2024-01-04 |
Family
ID=89167706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102023004171.8A Pending DE102023004171A1 (en) | 2023-10-14 | 2023-10-14 | Method for automatically assigning labels and/or objects to sensor data from a vehicle surroundings sensor system |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102023004171A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3635625A1 (en) | 2017-06-06 | 2020-04-15 | PlusAI Corp | Method and system for close loop perception in autonomous driving vehicles |
-
2023
- 2023-10-14 DE DE102023004171.8A patent/DE102023004171A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3635625A1 (en) | 2017-06-06 | 2020-04-15 | PlusAI Corp | Method and system for close loop perception in autonomous driving vehicles |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018206208A1 (en) | Method, device, product and computer program for operating a technical system | |
DE112017002154T5 (en) | Mobile robot and control method for a mobile robot | |
DE102018119682A1 (en) | Image processing device, image processing method and non-temporary computer readable memory | |
DE112017008149T5 (en) | DEVICE FOR COMMUNICATION FROM A VEHICLE, METHOD FOR COMMUNICATING A VEHICLE OUTSIDE, INFORMATION PROCESSING DEVICE AND PROGRAM FOR COMMUNICATION FROM A VEHICLE | |
WO2020048669A1 (en) | Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle | |
DE102020200169B3 (en) | Method for merging several data sets for the generation of a current lane model of a roadway and device for data processing | |
DE102019117559A1 (en) | Method and system for merging two-dimensional semantic information from images with a three-dimensional point cloud | |
DE102018220892A1 (en) | Device and method for generating label objects for the surroundings of a vehicle | |
DE102022110889A1 (en) | SEMI-SUPERVISED TRAINING OF COARSE LABELS IN IMAGE SEGMENTATION | |
DE102016124888A1 (en) | A method for assisting a driver of a motor vehicle when parking using a driver assistance device, corresponding computer program product and driver assistance device | |
DE102021003567A1 (en) | Process for the recognition of object relationships and attributions from sensor data | |
DE102018113621A1 (en) | A method of training a convolutional neural network for processing image data for use in a driving support system | |
DE102023004171A1 (en) | Method for automatically assigning labels and/or objects to sensor data from a vehicle surroundings sensor system | |
EP3576013A1 (en) | Estimation of a path of a rail path | |
DE102019209463A1 (en) | Method for determining the trust value of an object of a class | |
DE102019203623A1 (en) | Method of providing a card | |
DE102018109680A1 (en) | Method for distinguishing lane markings and curbs by parallel two-dimensional and three-dimensional evaluation; Control means; Driving assistance system; as well as computer program product | |
DE102021213538A1 (en) | Simulation to validate an automated driving function for a vehicle | |
DE102017223264A1 (en) | Method and device for driving an actuator | |
DE102021006166A1 (en) | Procedure for data transfer between two digital road maps | |
DE102021206625A1 (en) | Computer-implemented method and system for supporting an imaging sensor installation and training method | |
DE112021000251T5 (en) | PROCEDURE FOR SELECTING RECORDS TO UPDATE AN ARTIFICIAL INTELLIGENCE MODULE | |
WO2021175783A1 (en) | Computer-implemented method and system for generating synthetic sensor data, and training method | |
DE102019219927A1 (en) | Method and device for recognizing an alienation of a sensor data domain from a reference data domain | |
DE102019001450A1 (en) | Method for providing data for locating a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication |