DE102021126079A1 - Method and processor system for generating training data for training a machine learning model for object detection - Google Patents

Method and processor system for generating training data for training a machine learning model for object detection Download PDF

Info

Publication number
DE102021126079A1
DE102021126079A1 DE102021126079.5A DE102021126079A DE102021126079A1 DE 102021126079 A1 DE102021126079 A1 DE 102021126079A1 DE 102021126079 A DE102021126079 A DE 102021126079A DE 102021126079 A1 DE102021126079 A1 DE 102021126079A1
Authority
DE
Germany
Prior art keywords
training data
vector
data set
displacement
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021126079.5A
Other languages
German (de)
Inventor
Alexander Lehner
Alvaro Marcos-Ramiro
Mohammad-Ali Nikouei Mahani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102021126079.5A priority Critical patent/DE102021126079A1/en
Publication of DE102021126079A1 publication Critical patent/DE102021126079A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erzeugen von Trainingsdaten (34) zum Trainieren eines Modells (74) des maschinellen Lernens zur Objektdetektion, wofür durch ein Prozessorsystem (30) ein Trainingsdatensatz (35), der Messpunkte (39) einer 3D-Messung eines Verkehrsobjekts (15, 16) enthält, ermittelt wird. Die Erfindung sieht vor, dass mittels eines vorbestimmten Erzeugungsverfahrens (70) ein Vektorfeld (38), das jeweils zu mehreren unterschiedlichen Raumpunkten (50) eines vorbestimmten Raumvolumens (51) einen jeweiligen Verschiebevektor angibt, erzeugt wird und die Messpunkte (39) des Trainingsdatensatzes (35) gemäß dem Vektorfeld (38) verschoben werden und hierdurch verschobene Messpunkte (39) erzeugt werden, die ein verformtes Verkehrsobjekt (42) darstellen, und die verschobenen Messpunkte (39) zu einem neuen Trainingsdatensatz (40) zusammengefasst werden, der als Bestandteil der Trainingsdaten (34) bereitgestellt wird.The invention relates to a method for generating training data (34) for training a model (74) of machine learning for object detection, for which a training data set (35) containing the measuring points (39) of a 3D measurement of a traffic object ( 15, 16) is determined. The invention provides that a vector field (38), which indicates a respective displacement vector for a plurality of different spatial points (50) of a predetermined spatial volume (51), is generated by means of a predetermined generation method (70) and the measuring points (39) of the training data set ( 35) are shifted according to the vector field (38) and thereby shifted measuring points (39) are generated, which represent a deformed traffic object (42), and the shifted measuring points (39) are combined to form a new training data set (40), which is part of the Training data (34) is provided.

Description

Die Erfindung betrifft ein Verfahren zum Erzeugen von Trainingsdaten zum Trainieren eines Modells des maschinellen Lernens (ML) zur Objektdetektion. Ein solches Modell kann auf einem künstlichen neuronalen Netzwerk beruhen. Die Objektdetektion kann das automatisierte Erkennen von Verkehrsteilnehmern in der Umgebung eines Kraftfahrzeugs betreffen, welches das Modell betreibt. Die besagten Trainingsdaten werden künstlich generiert, wobei initial von einem Trainingsdatensatz ausgegangen wird, der Messpunkte einer (realen oder simulierten) 3D-Messung eines zu erkennenden Verkehrsobjekts enthält. Die Erfindung umfasst auch ein Prozessorsystem, das zum Durchführen des Verfahrens eingerichtet ist.The invention relates to a method for generating training data for training a machine learning (ML) model for object detection. Such a model can be based on an artificial neural network. The object detection can relate to the automated recognition of road users in the vicinity of a motor vehicle that operates the model. Said training data are generated artificially, initially starting from a training data set that contains measurement points of a (real or simulated) 3D measurement of a traffic object to be recognized. The invention also includes a processor system set up to carry out the method.

Für das autonome Fahren ist die Wahrnehmung der Umgebung sowohl für die Sicherheit als auch für den Komfort von großer Bedeutung. Die Objekterkennung ist eine der Säulen der Umgebungswahrnehmung, da sie die Erkennung von Verkehrsteilnehmern, wie Verkehrsfahrzeuge (z. B. Autos, Fahrräder) und ungeschützten Verkehrsteilnehmern (z. B. Fußgängern) beinhaltet. Störungen in der Objekterkennung können schwerwiegende Folgen für autonom fahrende Autos haben, da sie nicht mehr in der Lage sind, andere Verkehrsteilnehmer korrekt zu erkennen und sich damit im Straßenverkehr zu orientieren. Es ist wichtig, die Ursachen für diese Störungen zu finden und die Objektdetektion robust dagegen zu machen.For autonomous driving, the perception of the environment is of great importance for both safety and comfort. Object recognition is one of the pillars of environmental perception as it includes the recognition of road users such as traffic vehicles (e.g. cars, bicycles) and vulnerable road users (e.g. pedestrians). Disturbances in object recognition can have serious consequences for autonomously driving cars, as they are no longer able to correctly recognize other road users and thus orientate themselves in traffic. It is important to find the causes of these disturbances and to make object detection robust against them.

Als eine Quelle für solche Störungen haben sich ungewöhnlich Formen bei Fahrzeugen erwiesen, also Formen, die von herstellerseitig nicht vorgesehen sind, z.B. nutzerseitig angebrachte Aufbauten. Mit Methoden des maschinellen Lernens (konkreter z.B. Deep Learning oder Neuronale Netze) lassen sich physikalisch realistische Verformungen von Autos entwerfen, die die Objektdetektoren stören. Da Laserscanner (auch als LI DAR bekannt) in der Regel die bevorzugten Sensoren in autonomen Fahrzeugen sind, ist für diesen Sensortyp die Robustheit der Objektdetektion von verformten Verkehrsteilnehmern besonders interessant.Unusual shapes in vehicles have proven to be a source of such disturbances, i.e. shapes that are not intended by the manufacturer, e.g. superstructures attached by the user. Machine learning methods (more specifically, e.g. deep learning or neural networks) can be used to design physically realistic deformations of cars that disrupt the object detectors. Since laser scanners (also known as LI DAR) are usually the preferred sensors in autonomous vehicles, the robustness of the object detection of deformed road users is particularly interesting for this type of sensor.

Störungen für Modelle des maschinellen Lernens, die das neuronale Netz absichtlich täuschen, werden als „gegnerische Beispiele“ (adversarial examples) oder „Angriffe“ (attacks) bezeichnet. Die Objektdetektoren, die für Angriffe bevorzugt in Betracht gezogen werden, sind PointPillars [1], SECOND[2] und Part-A2[3], da sie populäre Modelle nach dem Stand der Technik sind. Es gibt zwei Hauptrichtungen von Angriffen auf LIDAR-Objektdetektoren im Kontext des Autonomen Fahrens (AD - autonomous driving): Spoofing und physikalisch realisierbare Angriffe.Perturbations to machine learning models that intentionally fool the neural network are called "adversarial examples" or "attacks." The object detectors that are preferably considered for attacks are PointPillars[1], SECOND[2] and Part-A2[3] as they are popular prior art models. There are two main directions of attacks on LIDAR object detectors in the autonomous driving (AD) context: spoofing and physically feasible attacks.

Spoofing: Bei dieser Angriffsklasse wird ein Gerät verwendet, um falsche LIDAR-Punkte (3D-Messpunkte) direkt in den Sensor einzuspeisen. Das Gerät besteht aus einer Fotodiode, die die Laserimpulse vom LIDAR empfängt und eine Verzögerungskomponente aktiviert, die den Laser des Angreifers auslöst, um echte Echoimpulse zu simulieren. Dies wird in der Arbeit von [4] und [5] verwendet, um ein gegnerisches Muster in der Punktwolke der LIDAR-Punkte zu erzeugen, das als Objekt erkannt wird (und z. B. das autonom fahrende Auto zum Stillstand bringt).Spoofing: This class of attack uses a device to inject fake lidar points (3D measurement points) directly into the sensor. The device consists of a photodiode that receives the laser pulses from the LIDAR and activates a delay component that triggers the attacker's laser to simulate true echo pulses. This is used in the work of [4] and [5] to generate an opposing pattern in the point cloud of the LIDAR points, which is recognized as an object (and e.g. brings the autonomously driving car to a standstill).

Physikalisch realisierbare Angriffe: Diese Art von Angriffen zielt darauf ab, in der realen Welt ausgeführt zu werden. In der Arbeit von [6] werden Kisten mit einer Kantenlänge von 50 cm und 75 cm gezielt so erzeugt, dass sie von einem Objektdetektor nicht erkannt werden. Diese Kästen können theoretisch in 3D gedruckt und in der realen Welt platziert werden. Diese Art von Angriffen erfordert jedoch die explizite Konstruktion eines gegnerischen Objekts und dessen Platzierung auf dem Dach des Fahrzeugs. Um auf dieser Basis ausreichend abwechslungsreiche Trainingsdaten zu erzeugen, ist ein großer Aufwand erforderlich.

  • [1] Lang, Alex H., et al. „Pointpillars: Schnelle Kodierer für die Objekterkennung aus Punktwolken.“ Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019.
  • [2] Yan Yan, Yuxing Mao, and Bo Li. SECOND: Sparsely Em- 920 bedded Convolutional Detection. Sensors, 18(10):3337, Oct. 921 2018.
  • [3] Shaoshuai Shi, Zhe Wang, Jianping Shi, Xiaogang Wang, and Hongsheng Li. From Points to Parts: 3D Object Detec- tion from Point Cloud with Part-aware and Partaggregation Network. arXiv: 1907.03670 [cs], Mar. 2020.
  • [4] Cao, Yulong, et al. „Adversarial sensor attack on LIDAR-based perception in autonomous driving.“ Proceedings of the 2019 ACM SIGSAC conference on computer and communications security.
  • [5] Sun, Jiachen, et al. „Towards robust LIDAR-based perception in autonomous driving: General black-box adversarial sensor attack and countermeasures.“ 29. {USENIX} Security Symposium ({USENIX} Security 20). 2020.
  • [6] Cao, Yulong, et al. „Adversarial objects against LIDAR-based autonomous driving systems.“ arXiv preprint arXiv:1907.05418(2019). [6] Tu, James, et al. „Physically realizable adversarial examples for LIDAR object detection.“ Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020.
Physically viable attacks: These types of attacks aim to be carried out in the real world. In the work by [6], boxes with an edge length of 50 cm and 75 cm are specifically created in such a way that they are not recognized by an object detector. These boxes can theoretically be 3D printed and placed in the real world. However, this type of attack requires the explicit construction of an enemy object and its placement on the vehicle's roof. Generating sufficiently varied training data on this basis requires a great deal of effort.
  • [1] Lang, Alex H., et al. "Pointpillars: Fast Encoders for Object Recognition from Point Clouds." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019
  • [2] Yan Yan, Yuxing Mao, and Bo Li. SECOND: Sparsely Em- 920 bedded Convolutional Detection. Sensors, 18(10):3337, Oct. 921 2018.
  • [3] Shaoshuai Shi, Zhe Wang, Jianping Shi, Xiaogang Wang, and Hongsheng Li. From Points to Parts: 3D Object Detection from Point Cloud with Part-aware and Part Aggregation Network. arXiv: 1907.03670 [cs], Mar 2020.
  • [4] Cao, Yulong, et al. "Adversarial sensor attack on LIDAR-based perception in autonomous driving." Proceedings of the 2019 ACM SIGSAC conference on computer and communications security.
  • [5] Sun, Jiachen, et al. "Towards robust LIDAR-based perception in autonomous driving: General black-box adversarial sensor attack and countermeasures." 29th {USENIX} Security Symposium ({USENIX} Security 20). 2020
  • [6] Cao, Yulong, et al. "Adversarial objects against LIDAR-based autonomous driving systems." arXiv preprint arXiv:1907.05418(2019). [6] Tu, James, et al. "Physically realizable adversarial examples for LIDAR object detection." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020

Aus der US 10,262,236 B2 ist bekannt, dass zum Trainieren eines künstlichen neuronalen Netzwerks künstliche Bilder generiert werden können, indem Bildinhalte zweiter Ausgangsbilder überlagert werden können. Hierbei ist es aber schwierig, realistische Bildeindrücke zu schaffen.From the U.S. 10,262,236 B2 It is known that artificial images can be generated in order to train an artificial neural network, in that image contents of second output images can be superimposed. Here, however, it is difficult to create realistic image impressions.

Es ist Aufgabe der Erfindung, ein Modell des maschinellen Lernens, also beispielsweise ein künstliches neuronales Netzwerk, daraufhin zu trainieren, dass eine damit durchgeführte Objektdetektion auch robust gegen ungewöhnliche Verformungen ist, um mittels des derart trainierten Modells zuverlässig Verkehrsteilnehmer im Straßenverkehr detektieren zu können.The object of the invention is to train a model of machine learning, for example an artificial neural network, so that object detection carried out with it is also robust against unusual deformations, in order to be able to reliably detect road users in road traffic using the model trained in this way.

Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsformen sind durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren beschrieben.The object is solved by the subject matter of the independent patent claims. Advantageous embodiments are described by the dependent patent claims, the following description and the figures.

Als eine Lösung umfasst die Erfindung ein Verfahren zum Erzeugen von Trainingsdaten zum Trainieren eines Modells des maschinellen Lernens für eine Objektdetektion. Durch ein Prozessorsystem wird hierzu ein Trainingsdatensatz erzeugt oder ermittelt, der jeweils Messpunkte einer 3D-Messung (z.B. LIDAR-Punkte) eines Verkehrsobjekts enthält. Der Trainingsdatensatz beschreibt somit eine Punktwolke aus Messpunkten. Der Trainingsdatensatz kann aus einer realen oder einer simulierten Messung erhalten werden. Die Messpunkte können 3D-Koordinaten von Oberflächenpunkten darstellen, an welchen eine Reflexion einer elektromagnetischen Strahlung, beispielsweise eines Laserlichts oder eines Radarsignals, erfasst oder gemessen wurde. Ein einzelner Trainingsdatensatz stellt dabei eine Abbildung oder Momentaufnahme einer Umgebung eines Sensors dar, der die Messpunkte erzeugt. Es kann sich beispielsweise um einen LIDAR-Sensor handeln, mittels welchem der Trainingsdatensatz ermittelt wird. Die Messpunkte können ein Verkehrsobjekt oder auch mehrere Verkehrsobjekte und/oder eine Umgebung des Sensors beschreiben, beispielsweise eine Oberfläche einer Fahrbahn und/oder einer Straßenbegrenzung und/oder eines Gebäudes. Der Trainingsdatensatz kann beispielsweise während einer Messfahrt mittels eines Messfahrzeugs erzeugt werden, das den Sensor zum Erzeugen der Messpunkte für den Messdatensatz transportiert. Im Folgenden wird die Erfindung auf der Grundlage eines einzelnen Trainingsdatensatzes dieser Art beschrieben, aber natürlich kann das Verfahren auch auf mehrere Trainingsdatensätze angewendet werden, um eine größere Menge an Trainingsdaten zu erhalten.As a solution, the invention includes a method for generating training data for training a machine learning model for object detection. For this purpose, a training data record is generated or determined by a processor system, each of which contains measurement points of a 3D measurement (e.g. LIDAR points) of a traffic object. The training data set thus describes a point cloud made up of measurement points. The training data set can be obtained from a real or a simulated measurement. The measurement points can represent 3D coordinates of surface points at which a reflection of an electromagnetic radiation, for example a laser light or a radar signal, was detected or measured. A single training data set represents an image or snapshot of the surroundings of a sensor that generates the measurement points. It can be a LIDAR sensor, for example, which is used to determine the training data set. The measuring points can describe a traffic object or also a number of traffic objects and/or an area surrounding the sensor, for example a surface of a roadway and/or a road boundary and/or a building. The training data record can be generated, for example, during a measurement drive using a measurement vehicle that transports the sensor for generating the measurement points for the measurement data record. The invention is described below on the basis of a single training data set of this type, but of course the method can also be applied to multiple training data sets in order to obtain a larger amount of training data.

Ausgehend von einem solchen Trainingsdatensatz kann nun mittels des Verfahrens ein weiterer, neuer Trainingsdatensatz künstlich generiert oder berechnet werden. Dieser neue Trainingsdatensatz macht das Modell des maschinellen Lernens robuster bei der Objektdetektion, weil durch das Eintrainieren des neuen Trainingsdatensatzes beispielsweise auch ein Kraftfahrzeug mit einer Beule oder einem eingedrückten Heck dennoch korrekt erkannt oder detektiert werden kann. Dazu ist erfindungsgemäß Folgendes vorgesehen.Starting from such a training data set, a further, new training data set can now be artificially generated or calculated using the method. This new training data set makes the machine learning model more robust when it comes to object detection, because by training the new training data set, for example, a motor vehicle with a dent or a dented rear can still be correctly recognized or detected. The following is provided for this purpose according to the invention.

Mittels eines vorbestimmten Erzeugungsverfahrens, also einer vorbestimmten Programmroutine, wird ein Vektorfeld erzeug, das jeweils zu mehreren unterschiedlichen Raumpunkten eines vorbestimmten Raumvolumens einen jeweiligen Verschiebevektor angibt. Das Raumvolumen kann z.B. ein Quader mit vorgegebenen Abmessungen sein. Beispielhafte Kantenlängen des Quaders können in einem Bereich von 1m bis 12m (für Lastkraftwagen) liegen.A vector field is generated by means of a predetermined generation method, ie a predetermined program routine, which indicates a respective displacement vector for a plurality of different spatial points of a predetermined spatial volume. The spatial volume can, for example, be a cuboid with specified dimensions. Exemplary edge lengths of the cuboid can be in a range from 1m to 12m (for trucks).

Die Messpunkte des vorgegebenen Trainingsdatensatzes (also z.B. aus einer realen Messfahrt) werden gemäß dem Vektorfeld verschoben. Hierdurch werden verschobene Messpunkte erzeugt, die ein verformtes Verkehrsobjekt darstellen. Die verschobenen Messpunkte werden zu dem besagten neuen Trainingsdatensatz zusammengefasst, der als Bestandteil der Trainingsdaten bereitgestellt wird. Werden mehre neue Trainingsdatensätze erzeugt, bilden diese zusammen die künstlich generierten Trainingsdaten. Die Raumpunkte stellen jeweils einen Fußpunkt eines Verschiebevektors dar. Innerhalb des Raumvolumens kann sich also für die Messpunkte eine unterschiedliche Verschiebung ergeben, je nachdem, wo in dem Raumvolumen oder Quader der jeweilige Messpunkt angeordnet ist, so dass der dort gültige oder definierte Verschiebevektor auf den Messpunkt angewendet wird.The measurement points of the specified training data set (e.g. from a real test drive) are shifted according to the vector field. As a result, shifted measurement points are generated that represent a deformed traffic object. The shifted measurement points are combined into the said new training data set, which is provided as part of the training data. If several new training data sets are generated, these together form the artificially generated training data. The spatial points each represent a base point of a displacement vector. Within the volume of space, there can be a different displacement for the measurement points, depending on where in the volume of space or cuboid the respective measurement point is arranged, so that the displacement vector that is valid or defined there is on the measurement point is applied.

Mittels des neuen Trainingsdatensatzes oder allgemein mittels der daraus resultierenden Trainingsdaten, die zumindest einen solchen neuen Trainingsdatensatz umfassen, kann das besagte Modell des maschinellen Lernens trainiert werden. Es können hierzu ein aus dem Stand der Technik bekanntes Modell und Trainingsverfahren genutzt werden. Das derart trainierte Modell kann dann beispielsweise in einem Kraftfahrzeug betrieben werden, um mittels des Modells eine Objektdetektion durchzuführen, wofür zumindest ein Sensor des Kraftfahrzeugs Sensordaten als Eingangsdaten für das Modell bereitstellen kann. Mittels der Objektdetektion kann beispielsweise eine Fahrerassistenzfunktion, beziehungsweise ein Bremsassistent, und/oder eine autonome Fahrfunktion in dem Kraftfahrzeug betrieben oder unterstützt werden, indem mittels des Modells detektierte Objekte an die Fahrerassistenzfunktion und/oder die autonome Fahrfunktion signalisiert werden.Said machine learning model can be trained by means of the new training data set or generally by means of the training data resulting therefrom, which comprise at least one such new training data set. A model and training method known from the prior art can be used for this purpose. The model trained in this way can then be operated in a motor vehicle, for example, in order to use the model to carry out object detection, for which at least one sensor of the motor vehicle can provide sensor data as input data for the model. By means of the object detection, for example, a driver assistance function, or a brake assistant, and/or an autonomous driving function in the motor vehicle can be operated or supported by objects detected by the model being signaled to the driver assistance function and/or the autonomous driving function.

Durch die Erfindung ergibt sich der Vorteil, dass ausgehend von einem Trainingsdatensatz, wie er beispielsweise mittels einer realen Messung und/oder Simulation ermittelt werden kann, ein weiterer, neuer Trainingsdatensatz durch eine berechnete Verformung ermittelt werden kann, die durch ein Vektorfeld definiert ist. Es ist somit nicht notwendig, entsprechende tatsächlich verformte Verkehrsobjekte, beispielsweise verformte Kraftfahrzeuge, zu finden oder bereitzustellen, bei denen beispielsweise ein Außenblech verformt oder verbeult ist, um mittels eines Sensors entsprechende Trainingsdatensätze mittels realer Messungen zu erzeugen. Stattdessen kann ein Trainingsdatensatz eines unbeschädigten Kraftfahrzeugs mittels des Vektorfelds in einen neuen Trainingsdatensatz eines verformten Kraftfahrzeugs umgewandelt werden. Durch eine vektorielle Verschiebung der Messpunkte, die beispielsweise eine Verbeulung nachbildet, kann eine ursprüngliche Bauform eines Verkehrsteilnehmers nachgebildet werden. Wird der resultierende neue Trainingsdatensatz in einem Training eines Modelles des maschinellen Lernens trainiert oder berücksichtigt, so ist dieses Modell entsprechend in der Lage, die Objektdetektion auch korrekt auf ein Verkehrsobjekt anzuwenden, das eine solche Verformung, beispielsweise eine Verbeulung, aufweist. The advantage of the invention is that, based on a training data set, such as can be determined using a real measurement and/or simulation, another new training data set can be determined using a calculated deformation that is defined by a vector field. It is therefore not necessary to find or provide corresponding traffic objects that are actually deformed, for example deformed motor vehicles, in which, for example, an outer panel is deformed or dented in order to generate corresponding training data sets using real measurements using a sensor. Instead, a training data record of an undamaged motor vehicle can be converted into a new training data record of a deformed motor vehicle using the vector field. An original design of a road user can be simulated by a vector displacement of the measuring points, which simulates a buckling, for example. If the resulting new training data set is trained or taken into account in a training of a machine learning model, then this model is accordingly able to also correctly apply the object detection to a traffic object that has such a deformation, for example a buckling.

Der Trainingsdatensatz, dessen Messpunkte mittels des Vektorfelds verschoben werden, kann zusätzlich zu den Messpunkten auch so genannte Labeldaten enthalten, also Daten, welche eine Information oder Angabe über das durch die Messpunkte beschriebene Verkehrsobjekt oder die beschriebenen Verkehrsobjekte angeben. Beispielsweise können die Messpunkte eine Umgebung eines Kraftfahrzeugs darstellen oder beschreiben, in welcher sich zumindest ein anderer Verkehrsteilnehmer, beispielsweise ein anderes Kraftfahrzeug, befindet, z.B. in einer Fahrtrichtung des Messfahrzeugs vor dem Messfahrzeug, so dass in den Trainingsdaten durch die Messpunkte ein Heck des anderen Kraftfahrzeugs dargestellt ist. Die Labeldaten können entsprechend angeben, dass welches Verkehrsobjekt dargestellt ist und mit welcher relativen räumlichen Ausrichtung bezüglich des Sensors und/oder in welcher Distanz und/oder durch wie viele Messpunkt es abgebildet ist. Es kann also zusätzlich zu dem Typ des Verkehrsobjekts (Kraftfahrzeug, Fußgänger, Radfahrer, Fahrbahnoberfläche, Randbebauung) auch eine räumliche Orientierung oder Ausrichtung des jeweiligen Verkehrsobjekts durch die Labeldaten angegeben sein. Die Labeldaten können z.B. eine sogenannte Bounding-Box für jedes Verkehrsobjekt angeben. Die Labeldaten können in an sich bekannte Weise generiert werden, z.B. manuell oder automatisiert.The training data set, whose measuring points are shifted using the vector field, can also contain so-called label data in addition to the measuring points, i.e. data which provide information or details about the traffic object or traffic objects described by the measuring points. For example, the measuring points can represent or describe an environment of a motor vehicle in which at least one other road user, for example another motor vehicle, is located, e.g is shown. The label data can correspondingly indicate which traffic object is represented and with which relative spatial alignment with respect to the sensor and/or at which distance and/or through how many measurement points it is imaged. In addition to the type of traffic object (vehicle, pedestrian, cyclist, roadway surface, edge development), a spatial orientation or orientation of the respective traffic object can also be indicated by the label data. The label data can, for example, specify a so-called bounding box for each traffic object. The label data can be generated in a manner known per se, e.g. manually or automatically.

Die Erfindung umfasst auch Ausführungsformen, durch die sich zusätzliche Vorteile ergeben.The invention also includes embodiments that result in additional advantages.

Eine Weiterbildung umfasst, dass eine Richtung einer Verbindungslinie des jeweiligen Messpunkts zu einer Position eines Sensors, welcher den Messpunkt erzeugt hat, ermittelt wird und das Verschieben des jeweiligen Messpunkts nur entlang der Verbindungslinie erfolgt. Mit anderen Worten wird eine Verschiebung auf einen Messpunkt lediglich entlang einer Blickrichtung desjenigen Sensors, der die Messpunkte des Trainingsdatensatzes erzeugt hat, vorgenommen, also hin zu der Position des Sensors oder von dieser weg. Hierdurch ergibt sich der Vorteil, dass ein Muster einer Abtastung oder eines Rasters, das der Sensor in der Umgebung des Kraftfahrzeugs beim Erzeugen der Messpunkte angewendet hat, im neuen Trainingsdatensatz unverzerrt ist oder das Muster erhalten bleibt. Es ergeben sich pro Messpunkt lediglich Abstandsunterschiede oder Tiefenunterschiede im Vergleich zum unverschobenen Messpunkt. Die Messpunkte können beispielsweise Koordinaten bezüglich eines Koordinatenursprungs angeben, der der Position des messenden Sensors entsprechen kann. Mittels an sich bekannter geometrischer Berechnungen kann die Verbindungslinie zwischen Messpunkt und Sensor berechnet werden. Für einen gegebenen Messpunkt kann ein Verschiebevektor des Vektorfelds angewendet werden, indem der Verschiebevektor zunächst auf die Verbindungslinie projiziert wird und dann der projizierte Verschiebevektor auf den Messpunkt angewendet wird, wodurch sich dann der verschobene Messpunkt ergibt, dessen Verschiebung sich lediglich entlang der Verschiebelinie ergibt. Die Projektion eines Vektors auf eine Linie ist an sich aus dem Stand der Technik bekannt und kann z.B. auf dem Skalarprodukt beruhen.A development includes that a direction of a connecting line of the respective measuring point to a position of a sensor that generated the measuring point is determined and the displacement of the respective measuring point only takes place along the connecting line. In other words, a shift to a measurement point is performed only along a viewing direction of the sensor that generated the measurement points of the training data set, ie toward or away from the position of the sensor. This results in the advantage that a pattern of a scan or a grid that the sensor used in the area surrounding the motor vehicle when generating the measurement points is undistorted in the new training data record or the pattern is retained. There are only differences in distance or depth per measurement point compared to the non-displaced measurement point. The measuring points can, for example, indicate coordinates with respect to a coordinate origin, which can correspond to the position of the measuring sensor. The connecting line between the measuring point and the sensor can be calculated by means of geometric calculations that are known per se. For a given measurement point, a displacement vector of the vector field can be applied by first projecting the displacement vector onto the connecting line and then applying the projected displacement vector to the measurement point, which then gives the displaced measurement point, whose displacement is only along the displacement line. The projection of a vector onto a line is known per se from the prior art and can be based, for example, on the dot product.

Eine Weiterbildung umfasst, dass für das Verschieben der Messpunkte eine Skalierung des Raumvolumens auf eine Größe des durch die Messpunkte beschriebenen Verkehrsobjekts durchgeführt wird. In dem Trainingsdatensatz kann das Verkehrsobjekt beispielsweise durch eine so genannte Boundingbox identifiziert oder beschrieben sein, wie sie beispielsweise in den besagten Labeldaten definiert sein kann. Das Raumvolumen kann in der beschriebenen Weise ebenfalls als Quader oder Box definiert sein. Durch Angleichen der Boundingbox des Verkehrsobjekts und der Boundingbox des Raumvolumens wird das Vektorfeld an das Verkehrsobjekt angepasst. Dies ergibt den Vorteil, dass das Vektorfeld bei unterschiedlich großen Verkehrsobjekten dennoch eine einheitliche oder dieselbe Verformung ergibt. Somit hat beispielsweise ein Abstand des Verkehrsobjekts zum Sensor, der den Trainingsdatensatz erzeugt hat, keinen Einfluss auf die resultierende Verformung der Messpunkte.A further development includes that, for the displacement of the measurement points, the spatial volume is scaled to a size of the traffic object described by the measurement points. The traffic object can be identified or described in the training data record, for example, by a so-called bounding box, as can be defined, for example, in the said label data. The spatial volume can also be defined as a cuboid or box in the manner described. By matching the bounding box of the traffic object and the bounding box of the volume of space, the vector field is fitted to the traffic object. This results in the advantage that the vector field nevertheless results in a uniform or the same deformation for traffic objects of different sizes. Thus, for example, a distance between the traffic object and the sensor that generated the training data set has no influence on the resulting deformation of the measurement points.

Eine Weiterbildung umfasst, dass für das Verschieben der Messpunkte eine Anpassung einer räumlichen Ausrichtung des Raumvolumens bezüglich des Verkehrsobjekts durchgeführt wird. Wie bereits ausgeführt, kann eine Orientierung oder Ausrichtung des Verkehrsobjekts in dem Trainingsdatensatz durch die beschriebenen Labeldaten angegeben sein. Indem das Raumvolumen oder der Quader mit den Verschiebevektoren in der Ausrichtung oder relativen Rotation an das Verkehrsobjekt im Trainingsdatensatz angepasst wird, kann erreicht werden, dass Verschiebevektoren, die beispielsweise für eine Verformung eines Hecks eines Kraftfahrzeugs oder allgemein eines vorgegebenen Bereichs des Verkehrsobjekts vorgesehen sind, auch korrekt in dem Trainingsdatensatz auf diesen Bereich des Verkehrsteilnehmers, also beispielsweise dessen Heck, angewendet werden.A development includes that a spatial alignment of the spatial volume with respect to the traffic object is adapted for the displacement of the measurement points. As already stated, an orientation or orientation of the traffic object can be indicated in the training data set by the described label data. By adapting the spatial volume or the cuboid with the displacement vectors in the orientation or relative rotation to the traffic object in the training data set, displacement vectors that are provided, for example, for a deformation of a rear end of a motor vehicle or generally a predetermined area of the traffic object, can also be achieved be applied correctly in the training data set to this area of the road user, ie, for example, to the rear.

Eine Weiterbildung umfasst, dass beim Verschieben der Messpunkte ein maximaler Verschiebeweg auf einen vorbestimmten maximalen Verschiebewertbegrenzt wird. Der maximale Verschiebewert kann beispielsweise in einem Bereich von 5 cm bis 40 cm liegen. Durch Begrenzen des Verschiebewerts ergibt sich der Vorteil, dass eine physikalisch realistische Verformung des Verkehrsobjekts resultiert, also beispielsweise eine Beule in einem Kraftfahrzeug, die nicht derart groß ist, dass das Kraftfahrzeug eigentlich fahruntüchtig sein müsste oder sich ein Durchbruch ergeben müsste. Das Begrenzen des Verschiebewegs kann erfolgen, indem der Betrag des angewendeten Verschiebevektors auf den maximalen Verschiebewert begrenzt oder gekürzt wird.A development includes that when the measuring points are displaced, a maximum displacement path is limited to a predetermined maximum displacement value. The maximum displacement value can be in a range from 5 cm to 40 cm, for example. Limiting the displacement value has the advantage that a physically realistic deformation of the traffic object results, for example a dent in a motor vehicle that is not so large that the motor vehicle would actually have to be unroadworthy or a breakthrough would have to occur. Limiting the displacement distance can be done by limiting or truncating the magnitude of the applied displacement vector to the maximum displacement value.

Eine Weiterbildung umfasst, dass beim Verschieben der Messpunkte ein Unterschied von jeweiligen Verschiebeweiten benachbarter Messpunkte auf einen vorbestimmten maximalen Unterschiedswert begrenzt wird. Der maximale Unterschiedswert kann in einem Bereich von 0,5 cm bis 10 cm liegen. Durch Begrenzung eines Unterschieds der Verschiebeweiten benachbarter Messpunkte ergibt sich der Vorteil, dass eine physikalisch realistische Verformung nachgebildet wird, wie sie bei einem Blech eines Kraftfahrzeugs erwartet werden kann oder realistisch ist. Im Englischen wird diese Begrenzung als Erhalt der „Smoothness“ bezeichnet.A development includes that when the measuring points are shifted, a difference between the respective shifting distances of adjacent measuring points is limited to a predetermined maximum difference value. The maximum difference value can range from 0.5 cm to 10 cm. Limiting a difference in the displacement ranges of adjacent measurement points results in the advantage that a physically realistic deformation is simulated, as can be expected or is realistic in the case of a metal panel of a motor vehicle. In English, this limitation is referred to as maintaining "smoothness".

Eine Weiterbildung umfasst, dass die Raumpunkte der Verschiebevektoren in dem Raumvolumen in einem Raster beabstandet zueinander angeordnet sind und für den jeweiligen Messpunkt als der zu verwendende Verschiebevektor derjenige mit dem räumlich am nächsten angeordnete Raumpunkt oder ein aus mehreren benachbarten Verschiebevektoren interpolierter Verschiebevektor verwendet wird. Das Raster, in welchem die Raumpunkte oder Fußpunkte der Verschiebevektoren angeordnet sind, kann beispielsweise einen Abstand benachbarter Raumpunkte in einem Bereich von 1 cm bis 40 cm vorsehen. Fällt nun ein Messpunkt nicht genau auf einen solchen Raumpunkt, sondern liegt er zwischen mehreren Raumpunkten, so kann der räumlich nächstliegende Raumpunkt oder Fußpunkt ermittelt und der zugehörige Verschiebevektor angewendet werden. Alternativ dazu kann eine Interpolation der Verschiebevektoren der den Messpunkt umgebenden entlang der Rasterlinien nächsten Raumpunkte oder Fußpunkte vorgenommen werden. Die Interpolation kann beispielsweise eine gewichtete Überlagerung oder Summe der ausgewählten Verschiebevektoren vorsehen. Die Gewichtung kann dabei proportional dem Abstand des zugehörigen Raumpunktes oder Fußpunktes zu dem Messpunkt sein. Die Summe der gewichteten Verschiebevektoren kann dann durch die Anzahl der verwendeten Verschiebevektoren geteilt werden, woraus sich ein geeigneter Verschiebevektor ergibt. Durch beabstandete Raumpunkte ergibt sich der Vorteil, dass das Vektorfeld mit einem geringen Datenaufwand beschrieben werden kann. Zudem kann ein iteratives Verfahren zum Berechnen eines Vektorfelds effizient durchgeführt werden. Ein solches Erzeugungsverfahren ist im Folgenden beschrieben.A further development comprises that the spatial points of the displacement vectors in the volume of space are arranged at a distance from one another in a grid and that the displacement vector to be used for the respective measuring point is the one with the spatially closest spatial point or a displacement vector interpolated from several neighboring displacement vectors. The grid in which the spatial points or base points of the displacement vectors are arranged can, for example, provide a distance between adjacent spatial points in a range of 1 cm to 40 cm. If a measuring point does not fall exactly on such a point in space, but lies between several points in space, the spatially closest point in space or base point can be determined and the associated displacement vector can be used. As an alternative to this, an interpolation of the displacement vectors of the next spatial points or base points surrounding the measuring point along the grid lines can be undertaken. For example, the interpolation can provide a weighted superimposition or sum of the selected displacement vectors. The weighting can be proportional to the distance of the associated spatial point or base point from the measuring point. The sum of the weighted displacement vectors can then be divided by the number of displacement vectors used, resulting in an appropriate displacement vector. Spaced points in space result in the advantage that the vector field can be described with a small amount of data. In addition, an iterative method for calculating a vector field can be performed efficiently. Such a generation method is described below.

Eine Weiterbildung umfasst, dass das Erzeugungsverfahren zum Erzeugen des Vektorfelds umfasst, dass das Vektorfeld mit vorbestimmten initialen Verschiebevektoren initialisiert wird und dann einmalig oder iterativ mittels eines bereits vortrainierten Vorläufermodells des maschinellen Lernens, das mittels des Trainingsdatensatzes und/oder zumindest eines weiteren Trainingsdatensatzes für eine Objektdetektion trainiert ist, dann zu dem Trainingsdatensatz und/oder zu dem zumindest einem weiteren Trainingsdatensatz ein Erkennungsergebnis erzeugt wird, das angibt, ob ein und/oder welches Verkehrsobjekt erkannt wurde. Für zumindest einen der Verschiebevektoren wird dann jeweils eine Vektorveränderung ermittelt, durch welche eine Verschlechterung des Erkennungsergebnisses bewirkt wird. Diese Vektorveränderung wird dann auf den jeweiligen Verschiebevektor angewendet. Ein beispielhafter initialer Verschiebevektor ist ein Nullvektor, also eine Verschiebung mit dem Betrag oder einem Verschiebeweg von Null. Somit ist der in der ersten Iteration erzeugte neue Trainingsdatensatz identisch mit dem ursprünglich verwendeten Trainingsdatensatz (die Messpunkte bleiben unverschoben). Wird dann ein Vorläufermodell des maschinellen Lernens angewendet, also ein Modell des maschinellen Lernens, das auf die Objektdetektion unverformter Verkehrsobjekte, also beispielsweise unbeschädigter Kraftfahrzeuge, trainiert ist, so ergibt sich ein Erkennungsergebnis, das beispielsweise angeben kann, welches Verkehrsobjekt erkannt wurde und/oder welche räumliche Ausrichtung dieses aufweist. Sodann kann in der jeweiligen Iteration durch Verändern der Verschiebevektoren oder zumindest eines Verschiebevektors ein neuer Trainingsdatensatz erzeugt werden und das sich bei einer erneuten Objektdetektion ergebende neue Erkennungsergebnis daraufhin geprüft werden, ob eine Erkennungsleistung verschlechtert wurde. Beispielsweise kann die an sich bekannte Erkennungskonfidenz und/oder eine Klassifizierungswahrscheinlichkeit für eine einzelne Objektdetektion und/oder eine Erkennungsstatistik (Anteil korrekter Detektionen) für eine Vielzahl von Objektdetektionen unterschiedlicher Verkehrsobjekte ausgewertet werden. Hier ist nun eine Verschlechterung des Erkennungsergebnisses das Ziel oder erwünscht, um eine effektive Vektorveränderung zu ermitteln. Hierbei kann pro Iteration die Vektorveränderung des zumindest einen Verschiebevektors beispielsweise im Betrag begrenzt sein, also ein beschränktes Delta oder eine beschränkter Veränderungsschritt vorgesehen sein. Die Vektorveränderung des zumindest einen Verschiebevektors kann beispielsweise zufällig gewählt werden, also einen Zufallsprozess bei der Auswahl zumindest eines Verschiebevektors oder mehrerer Verschiebevektoren in dem Vektorfeld und/oder beim Festlegen oder Ermitteln des Betrags und/oder der Richtung der Vektorveränderung umfassen.A further development includes that the generation method for generating the vector field includes that the vector field is initialized with predetermined initial displacement vectors and then once or iteratively using an already pre-trained predecessor model of machine learning, which uses the training data set and/or at least one further training data set for an object detection is trained, then a recognition result is generated for the training data record and/or for the at least one further training data record, which indicates whether and/or which traffic object was recognized. A vector change is then determined for at least one of the displacement vectors, which causes a deterioration in the recognition result. This vector change is then applied to the respective displacement vector. An exemplary initial displacement vector is a zero vector, ie a displacement with the absolute value or a displacement distance of zero. Thus, the new training data set generated in the first iteration is identical to the training data set originally used (the measurement points remain unchanged). If a precursor model of machine learning is then applied, i.e. a model of machine learning that is trained to detect undeformed traffic objects, i.e. undamaged motor vehicles, for example, a recognition result is obtained that can indicate, for example, which traffic object was recognized and/or which spatial orientation of this has. Then in the respective iteration by changing the displacement vectors or at least one displacement vector, a new training data record is generated and the new recognition result obtained when an object is detected again is checked to determine whether a recognition performance has deteriorated. For example, the known recognition confidence and/or a classification probability for a single object detection and/or a recognition statistic (proportion of correct detections) for a large number of object detections of different traffic objects can be evaluated. Here, a worsening of the recognition result is the goal or desired in order to determine an effective vector change. In this case, the vector change of the at least one displacement vector can be limited in amount per iteration, for example, ie a limited delta or a limited change step can be provided. The vector change of the at least one displacement vector can be chosen randomly, for example, i.e. it can include a random process when selecting at least one displacement vector or several displacement vectors in the vector field and/or when determining or determining the amount and/or the direction of the vector change.

Bevorzugt wird aber ausgehend von dem initialen Vektorfeld die Veränderung oder Vektorveränderung des zumindest einen Verschiebevektors jedoch systematisch durchgeführt, um eine pro Iteration eine maximal mögliche Verschlechterung des Erkennungsergebnisses bei vordefinierter begrenzter Vektorveränderung, beispielsweise bei vordefinierter maximaler Betragsänderung und/oder Richtungsänderung eines jeweiligen Verschiebevektors zu erreichen.However, starting from the initial vector field, the change or vector change of the at least one displacement vector is preferably carried out systematically in order to achieve a maximum possible deterioration of the recognition result per iteration in the case of a predefined limited vector change, for example in the case of a predefined maximum change in magnitude and/or change in direction of a respective displacement vector.

Eine Weiterbildung umfasst hierzu, dass als Modell des maschinellen Lernens ein künstliches neuronales Netzwerk verwendet wird und die Vektorveränderung mittels eines Gradientenverfahrens ermittelt wird. Ein solches Gradientenverfahren kann beispielsweise ermittelt werden oder gebildet werden auf der Grundlage des an sich bekannten Gradienten-Abstiegsverfahrens. Im vorliegenden Fall ist man allerdings an einer Verschlechterung des Erkennungsergebnisses interessiert, so dass auch von einem Gradienten-Aufstiegsverfahren gesprochen werden kann. Im Zusammenhang mit einem künstlichen neuronalen Netzwerk kann die Tatsache ausgenutzt werden, dass ausgehend von einem Trainingsdatensatz das Anwenden des Vektorfeldes und das anschließende Eingeben der verschobenen Messpunkte in eine Eingangsschicht oder Eingabeschicht des künstlichen neuronalen Netzwerks sowie die Verarbeitung in den Zwischenschichten des Netzwerks und das Erzeugen des Erkennungsergebnisses an der Ausgangsschicht insgesamt als ein Berechnungsvorgang beschrieben oder als eine analytische Berechnungsvorschrift zusammengefasst werden kann, zu welcher ein Gradient berechnet werden kann. Dies ist an sich im Zusammenhang mit dem Back-Propagation-Training für künstliche neuronale Netze bekannt. Vorliegend wird dies nun genutzt, um den sich ergebenden Gradienten auf das Vektorfeld zu projizieren oder zu übertragen, um dort die beschriebene Vektorveränderung in Abhängigkeit von dem propagierten oder projizierten Gradienten zu verändern. Somit ist sichergestellt, dass pro Iteration eine Maximierung der Verschlechterung oder Verringerung der Erkennungsleistung aufgrund der Anwendung des Vektorfelds gegeben ist. Dies macht das Verfahren besonders effizient. Die Zwischenschichten des künstlichen neuronalen Netzwerks selbst können hierbei unverändert bleiben, d.h. das Netzwerk selbst „lernt“ nicht.A further development in this respect includes using an artificial neural network as the model for machine learning and determining the vector change using a gradient method. Such a gradient method can, for example, be determined or formed on the basis of the gradient descent method known per se. In the present case, however, one is interested in a worsening of the recognition result, so that one can also speak of a gradient ascent method. In connection with an artificial neural network, the fact can be exploited that, starting from a training data set, the application of the vector field and the subsequent input of the shifted measurement points into an input layer or input layer of the artificial neural network as well as the processing in the intermediate layers of the network and the generation of the Recognition result at the output layer can be described overall as a calculation process or can be summarized as an analytical calculation rule for which a gradient can be calculated. This is known per se in connection with back-propagation training for artificial neural networks. This is now used in the present case in order to project or transfer the resulting gradient onto the vector field in order to change the vector change described there as a function of the propagated or projected gradient. This ensures that the deterioration or reduction in recognition performance due to the application of the vector field is maximized per iteration. This makes the process particularly efficient. The intermediate layers of the artificial neural network itself can remain unchanged, i.e. the network itself does not "learn".

Eine Weiterbildung umfasst, dass zumindest ein weiteres Vektorfeld erzeugt wird und jedes Vektorfeld einer anderen vorbestimmten möglichen Messsituation des Verkehrsobjekts zugeordnet wird und zum Verschieben der Messpunkte eine tatsächliche Messsituation des in dem Trainingsdatensatz abgebildeten Verkehrsobjekts ermittelt wird und das zugeordnete Vektorfeld für die Verschiebung der Messpunkte verwendet wird. Die Messsituation kann dabei durch eine Angabe zur relativen räumlichen Ausrichtung und/oder eine Angabe zur Distanz des Verkehrsobjekts zum Sensor und/oder eine Angabe zur Anzahl der ermittelten Messpunkte eines Verkehrsobjekts beschrieben sein. Mit anderen Worten kann für eine Verformung eines Verkehrsobjekts aus unterschiedlichen Blickrichtungen und/oder Entfernungen und/oder Messpunkt-Wolken jeweils ein eigenes Vektorfeld definiert sein. Es kann somit z.B. ein Vektorfeld für eine Verformung eines Kraftfahrzeugs aus einer Rückansicht, eine Verformung des Kraftfahrzeugs aus einer Seitenansicht und eine Verformung des Kraftfahrzeugs aus einer Frontalansicht definiert sein, um nur Beispiele zu nennen. Es kann beispielsweise für eine Veränderung des Blickwinkels in horizontaler Richtung um 20 Grad bis 50 Grad jeweils ein Vektorfeld definiert sein. Entsprechend können Trainingsdatensätze in Gruppen eingeteilt werden, wobei jede Gruppe sich durch den Blickwinkel ergeben kann, also beispielsweise die Gruppe der Trainingsdatensätze von Kraftfahrzeugen in Frontalansicht. Für jede dieser Gruppen ist dann ein Vektorfeld verfügbar. Um in einem Trainingsdatensatz die darin enthaltene Gruppe oder Ausrichtung zu erkennen, kann auf die beschriebenen Labeldaten zurückgegriffen werden. Genauso kann für eine ermittelte Distanz und/oder die Anzahl oder Menge der Messpunkte vorgegangen werden. Die Distanz kann z.B. mittels eines Radar-Sensors und/oder LIDAR-Sensors und/oder eine TOF-Sensors (TOF - Time of Flight) ermittelt werden.A further development includes that at least one further vector field is generated and each vector field is assigned to another predetermined possible measurement situation of the traffic object and to shift the measurement points an actual measurement situation of the traffic object depicted in the training data set is determined and the assigned vector field is used to shift the measurement points . The measurement situation can be described by an indication of the relative spatial alignment and/or an indication of the distance of the traffic object from the sensor and/or an indication of the number of measuring points of a traffic object determined. In other words, a separate vector field can be defined for a deformation of a traffic object from different viewing directions and/or distances and/or measurement point clouds. Thus, for example, a vector field can be defined for a deformation of a motor vehicle from a rear view, a deformation of the motor vehicle from a side view and a deformation of the motor vehicle from a front view, just to name examples. For example, a vector field can be defined for a change in the viewing angle in the horizontal direction by 20 degrees to 50 degrees. Correspondingly, training data sets can be divided into groups, each group being able to result from the viewing angle, ie for example the group of training data sets of motor vehicles in frontal view. A vector field is then available for each of these groups. In order to recognize the group or alignment contained in a training data record, the described label data can be used. The same procedure can be used for a determined distance and/or the number or quantity of measurement points. The distance can be determined, for example, using a radar sensor and/or LIDAR sensor and/or a TOF sensor (TOF—Time of Flight).

Eine Weiterbildung umfasst, dass der Trainingsdatensatz Messpunkte eines LIDAR-Sensors und/oder eines Radar-Sensors und/oder eines Stereo-Bilds einer Stereokamera oder Messpunkte eines TOF-Sensors (TOF - time of flight) umfasst. Die angegebenen Sensoren ergeben Punktwolken aus Messpunkten als Sensorergebnis, so dass sich auf diese Sensoren das Verfahren in vorteilhafter Weise anwenden lässt.A further development includes that the training data set includes measuring points of a LIDAR sensor and/or a radar sensor and/or a stereo image of a stereo camera or measuring points of a TOF sensor (TOF—time of flight). The specified sensors result in point clouds from measurement points as the sensor result, so that the method can be applied to these sensors in an advantageous manner.

Als eine Lösung umfasst die Erfindung ein Prozessorsystem mit einer Prozessorschaltung, die dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen. Die Prozessorschaltung kann auf einem Mikroprozessor oder mehreren Mikroprozessoren beruhen. Das Verfahren kann beispielsweise als ein Programmcode oder als Programminstruktionen implementiert sein, die in einem Datenspeicher des Prozessorsystems gespeichert sein können und die dazu eingerichtet sein können, bei Ausführung durch den zumindest einen Mikroprozessor, die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen.As a solution, the invention comprises a processor system with a processor circuit that is set up to carry out a method according to any one of the preceding claims. The processor circuitry can be based on one or more microprocessors. The method can be implemented, for example, as a program code or as program instructions, which can be stored in a data memory of the processor system and which can be set up to carry out the embodiment of the method according to the invention when executed by the at least one microprocessor.

Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar.Further features of the invention result from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description and the features and combinations of features mentioned below in the description of the figures and/or shown alone in the figures can be used not only in the combination specified in each case, but also in other combinations or on their own.

Die Erfindung wird nun anhand eines bevorzugten Ausführungsbeispiels sowie unter Bezugnahme auf die Zeichnungen näher erläutert. Es zeigen:

  • 1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Prozessorsystems;
  • 2 ein Diagramm zur Veranschaulichung einer Anwendung eines Vektorfelds auf einen Trainingsdatensatz;
  • 3 eine schematische Darstellung zur Veranschaulichung eines Erzeugungsverfahrens eines Vektorfelds.
The invention will now be explained in more detail using a preferred exemplary embodiment and with reference to the drawings. Show it:
  • 1 a schematic representation of an embodiment of the processor system according to the invention;
  • 2 a diagram for illustrating an application of a vector field to a training data set;
  • 3 a schematic representation to illustrate a generation method of a vector field.

1 zeigt ein Kraftfahrzeug 10, das beispielsweise ein Personenkraftwagen oder ein Personenbus oder ein Lastkraftwagen sein kann. Das Kraftfahrzeug 10 kann sich in einem Straßenverkehr fortbewegen oder im Straßenverkehr fahren. Dabei kann in dem Kraftfahrzeug 10 durch ein Steuergerät 11 eine Fahrerassistenzfunktion 12 und/oder eine autonome Fahrfunktion 13 aktiv sein, durch welche jeweils in dem Kraftfahrzeug 10 zumindest ein Aktuator 14 gesteuert werden kann, durch welchen eine Längsführung (Beschleunigen und/oder Abbremsen) und/oder eine Querführung (Lenken) in dem Kraftfahrzeug 10 automatisiert, das heißt ohne ein Zutun eines Fahrers, durchgeführt werden kann. Beispielsweise kann das Kraftfahrzeug 10 entlang einer geplanten Fahrroute geführt werden und/oder es kann auf zumindest ein Verkehrshindernis automatisiert mittels eines Lenkeingriffs und/oder einer Bremsung reagiert werden. Durch die Fahrerassistenzfunktion 12 und/oder die autonome Fahrfunktion 13 kann dabei auf zumindest ein anderes Verkehrsobjekt 15, 16 reagiert werden, das in einem Umfeld oder einer Umgebung 17 des Kraftfahrzeugs 10 detektiert oder erkannt werden kann. Für diese Objektdetektion kann das Kraftfahrzeug 10 zumindest einen Sensor 18 aufweisen, bei dem es sich jeweils beispielsweise um einen Lidar-Sensor oder einen Radar-Sensor handeln kann. Sensordaten 19 des zumindest einen Sensors 18 können zu einem Steuergerät 20 übertragen werden, bei dem es sich um das Steuergerät 11 oder, wie in 1 gezeigt, um ein anderes Steuergerät, handeln kann. Die jeweiligen Sensordaten 19 können 3D-Messpunkte umfassen, die angeben, wo im Raum der Umgebung 17 eine Reflexion an einer Oberfläche eines Verkehrsobjekts 15, 16 erfasst wurde oder stattgefunden hat. Die Sensordaten 19 enthalten somit Messpunkte, die jeweils 3D-Korrdinaten von Reflexionsereignissen eines reflektierten Laserlichts oder Radarsignals des zumindest einen Sensors 18 in der Umgebung 17 angeben. 1 shows a motor vehicle 10, which can be, for example, a passenger car or a passenger bus or a truck. The motor vehicle 10 can move in a traffic or drive in a traffic. A driver assistance function 12 and/or an autonomous driving function 13 can be active in motor vehicle 10 via a control unit 11, by means of which at least one actuator 14 can be controlled in motor vehicle 10, by means of which longitudinal guidance (accelerating and/or braking) and / or a lateral guidance (steering) in the motor vehicle 10 can be carried out automatically, that is to say without any action on the part of the driver. For example, the motor vehicle 10 can be guided along a planned driving route and/or it can react to at least one traffic obstacle in an automated manner by means of a steering intervention and/or braking. The driver assistance function 12 and/or the autonomous driving function 13 can react to at least one other traffic object 15, 16 that can be detected or recognized in an environment or an environment 17 of the motor vehicle 10. For this object detection, motor vehicle 10 can have at least one sensor 18, which can be a lidar sensor or a radar sensor, for example. Sensor data 19 of the at least one sensor 18 can be transmitted to a control unit 20, which is control unit 11 or, as in 1 shown to another control unit, may act. The respective sensor data 19 can include 3D measurement points that indicate where in the space of the environment 17 a reflection on a surface of a traffic object 15, 16 was detected or has taken place. The sensor data 19 thus contain measurement points that each indicate 3D coordinates of reflection events of a reflected laser light or radar signal of the at least one sensor 18 in the area 17 .

In dem Steuergerät 20 kann ein Modell 21 des maschinellen Lernens, beispielsweise ein künstliches neuronales Netzwerk oder ein Decision-Tree-Modell oder eine Support-Vector-Machine (SVM), betrieben werden, durch welches auf Grundlage der Sensordaten 19 die Objektdetektion oder Objekterkennung durchgeführt werden kann. Auf der Grundlage der Objektdetektion kann ein Erkennungsergebnis 22 erzeugt werden, welches angibt, welches Verkehrsobjekt 15, 16 aktuell in der Umgebung 17 auf Grundlage der Sensordaten 19 erkannt wurde. Das Erkennungsergebnis 22 kann beispielsweise entsprechende Erkennungsdaten umfassen, die beispielsweise eine Koordinate des jeweiligen Verkehrsobjekts 15, 16 relativ zu einem Koordinatensystem des Kraftfahrzeugs 10 und/oder des zumindest einen Sensors 18 und/oder eines absoluten Welt-Koordinatensystems (Geo-Koordinaten) beschreiben kann. Das Erkennungsergebnis 22 kann der Fahrerassistenzfunktion 12 und/oder der autonomen Fahrfunktion 13 bereitgestellt werden, so dass dort durch eine Anpassung einer Fahrtrajektorie 23 das jeweilige Verkehrsobjekt 15, 16 beim Führen des Kraftfahrzeugs 10 für eine kollisionsfreie Fahrzeugführung berücksichtigt werden kann.A machine learning model 21, for example an artificial neural network or a decision tree model or a support vector machine (SVM), can be operated in the control unit 20, by means of which the object detection or object recognition is carried out on the basis of the sensor data 19 can be. On the basis of the object detection, a recognition result 22 can be generated which indicates which traffic object 15, 16 was currently recognized in the area 17 on the basis of the sensor data 19. The recognition result 22 can, for example, include corresponding recognition data that can describe, for example, a coordinate of the respective traffic object 15, 16 relative to a coordinate system of the motor vehicle 10 and/or the at least one sensor 18 and/or an absolute world coordinate system (geo coordinates). The recognition result 22 can be provided to the driver assistance function 12 and/or the autonomous driving function 13, so that the respective traffic object 15, 16 can be taken into account there by adapting a driving trajectory 23 when driving the motor vehicle 10 for collision-free vehicle guidance.

Um die Objektdetektion mittels des Modells 21 auf Grundlage der Sensordaten 19 durchführen zu können, kann das Modell 21 durch ein Prozessorsystem 30 auf der Grundlage eines Lernverfahrens 31 für maschinelles Lernen erzeugt werden. Das fertig trainierte Modell 21 kann dann beispielsweise bei einer Herstellung des Steuergeräts 20 und/oder bei einer Herstellung des Kraftfahrzeugs 10 und/oder nachträglich über eine Kommunikationsverbindung 32 in dem Kraftfahrzeug 10 bereitgestellt worden sein. Die Kommunikationsverbindung 32 kann beispielsweise auf einer Internetverbindung und/oder einer Funkverbindung (z. B. WiFi/WLAN und/oder Mobilfunk und/oder kabelgebunden) übertragen werden.In order to carry out the object detection using the model 21 on the basis of the sensor data 19 To be able to, the model 21 can be generated by a processor system 30 based on a learning method 31 for machine learning. The fully trained model 21 can then have been made available, for example, when the control unit 20 was manufactured and/or when the motor vehicle 10 was manufactured and/or subsequently via a communication link 32 in the motor vehicle 10 . The communication connection 32 can be transmitted, for example, on an Internet connection and/or a radio connection (e.g. WiFi/WLAN and/or mobile radio and/or wired).

Um das Modell 21 mittels des Lernverfahrens 31 erzeugen zu können, können in einem Schritt S10 Trainingsdaten 34 mit Trainingsdatensätzen 35 ermittelt oder bereitgestellt werden. Die Trainingsdatensätze 35 können jeweils Sensordaten mit Messpunkten aus zumindest einem Sensor wie dem Sensor 18, also beispielsweise Lidar-Sensordaten und/oder Radar-Sensordaten, sowie die bereits beschriebenen Labeldaten umfassen. In Labeldaten kann angegeben sein, was für ein Verkehrsobjekt durch die jeweiligen Sensordaten in dem Trainingsdatensatz 35 beschrieben ist. Die Labeldaten können in an sich bekannter Weise beispielsweise durch einen Operateur oder eine Bedienperson oder automatisiert zu Sensordaten erzeugt werden. Die Trainingsdaten 34 können in an sich bekannter Weise dem Lernverfahren 31 zur Verfügung gestellt werden. Ein Beispiel für ein Lernverfahren 31 für maschinelles Lernen ist überwachtes Lernen, unüberwachtes Lernen.In order to be able to generate the model 21 using the learning method 31, training data 34 with training data records 35 can be determined or provided in a step S10. The training data records 35 can each include sensor data with measuring points from at least one sensor such as the sensor 18, ie for example lidar sensor data and/or radar sensor data, as well as the label data already described. Label data can indicate what kind of traffic object is described by the respective sensor data in the training data set 35 . The label data can be generated in a manner known per se, for example by an operator or an operator, or automatically to form sensor data. The training data 34 can be made available to the learning method 31 in a manner known per se. An example of a machine learning method 31 is supervised learning, unsupervised learning.

Bei dem Prozessorsystem 30 ist zusätzlich vorgesehen, dass zusätzlich weitere Trainingsdaten 36 bereitgestellt werden, die aus den Trainingsdaten 34 erzeugt werden können. Für jeden Trainingsdatensatz 35 einer Messung aus den Trainingsdaten 34 kann zumindest ein neuer Trainingsdatensatz 40 erzeugt werden. Mit anderen Worten ist zum Erzeugen der weiteren Trainingsdaten 36 keine weitere Testfahrt und/oder Messung mit einem Sensor notwendig. Es handelt sich somit um künstlich generierte oder augmentierte Trainingsdaten 36 auf Basis der Trainingsdatensätze 35.In the processor system 30 it is additionally provided that additional training data 36 are provided, which can be generated from the training data 34 . At least one new training data set 40 can be generated for each training data set 35 of a measurement from the training data 34 . In other words, no further test drive and/or measurement with a sensor is necessary to generate the further training data 36 . It is therefore artificially generated or augmented training data 36 based on the training data records 35.

Hierzu kann in dem Prozessorsystem 30 mittels zumindest eines Mikroprozessors ein Verschiebeverfahren 37 betrieben werden, das die einzelnen Trainingsdatensätze 35 in einem Schritt S12 mittels jeweils einem Vektorfeld 38 verändert oder verzerrt, indem Messpunkte 39 aus dem jeweiligen Trainingsdatensatz 35 räumlich verschoben werden, also ihre Koordinaten verändert werden, wobei dies in dem Vektorfeld 38 abhängig davon ist, welche Raumkoordinate den ursprünglichen Messpunkt 39 jeweils beschreibt oder angibt. Das Vektorfeld 38 kann zuvor in einem Schritt S11 aus mehreren vorbereiteten Vektorfeldern ausgewählt werden, was noch im Zusammenhang mit 3 und dem dort veranschaulichten Erzeugungsverfahren 70 erläutert wird.For this purpose, a shifting method 37 can be operated in the processor system 30 by means of at least one microprocessor, which in a step S12 changes or distorts the individual training data sets 35 by means of a vector field 38 in each case by measuring points 39 from the respective training data set 35 being spatially shifted, i.e. changing their coordinates be, this being dependent in the vector field 38 on which spatial coordinates the original measurement point 39 describes or indicates in each case. The vector field 38 can be previously selected in a step S11 from several prepared vector fields, which is still related to 3 and the generation method 70 illustrated there.

Das Vektorfeld 38 kann, wie in 1 gezeigt, beispielsweise additiv auf die einzelnen Messpunkte 39 angewendet werden. Hierdurch ergibt sich jeweils in einem Schritt S13 ein neuer Trainingsdatensatz 40 mit verschobenen Messpunkten 41, das heißt, in dem neuen Trainingsdatensatz 40 ist das jeweilige Verkehrsobjekt 15 als ein verformtes Verkehrsobjekt 42 dargestellt. Im Falle eines Kraftfahrzeugs als Verkehrsobjekt 15 kann durch den neuen Trainingsdatensatz 40 ein verformtes Verkehrsobjekt 42 in Form eines verbeulten und/oder deformierten Kraftfahrzeugs dargestellt sein. Im Falle einer Person als Verkehrsobjekt 15 kann beispielsweise die Person in ihrer Körperstatur verzerrt oder verändert sein, beispielsweise in die Breite gezogen sein. Der neue Trainingsdatensatz 40 kann als Teil der weiteren Trainingsdaten 36 ebenfalls dem Lernverfahren 31 als weiteres Trainingsmaterial oder als weitere Trainingsdaten bereitgestellt werden. Somit wird in dem Modell 21 auch die Erkennung eines Verkehrsobjekts 15, 16 trainiert, falls dieses Verkehrsobjekt jeweils verformt ist, also ein Kraftfahrzeug beispielsweise durch Beulen verändert oder in seiner ursprünglichen Form verändert wurde.The vector field 38 can, as in 1 shown, for example applied additively to the individual measurement points 39 . This results in a step S13 in each case in a new training data record 40 with shifted measuring points 41, that is to say the respective traffic object 15 is represented in the new training data record 40 as a deformed traffic object 42. In the case of a motor vehicle as the traffic object 15, a deformed traffic object 42 in the form of a dented and/or deformed motor vehicle can be represented by the new training data record 40. In the case of a person as the traffic object 15, for example, the person's physical stature can be distorted or altered, for example stretched out in width. The new training data set 40 can also be made available to the learning method 31 as part of the further training data 36 as further training material or as further training data. Thus, the recognition of a traffic object 15, 16 is also trained in the model 21 if this traffic object is deformed in each case, ie a motor vehicle has been changed, for example by bumps, or has been changed in its original form.

In dem Kraftfahrzeug 10 kann somit mittels des Modells 21 auch dann ein Verkehrsobjekt 15, 16 in der Umgebung 17 erkannt werden, wenn dieses von seiner ursprünglichen herstellungsbedingten Bauform abweicht, weil beispielsweise ein Kraftfahrzeug durch einen Unfall verformt ist, beispielsweise eine Beule im Außenblech aufweist.A traffic object 15, 16 in the surroundings 17 can thus be detected in the motor vehicle 10 by means of the model 21 even if this deviates from its original production-related design, for example because a motor vehicle has been deformed by an accident, for example has a dent in the outer panel.

2 veranschaulicht, welches Erkennungsergebnis 22 sich ergeben kann, wenn ein Modell des maschinellen Lernens noch nicht auf die mittels des jeweiligen Vektorfelds 38 eingeführte Verformung trainiert ist. Die Vektorfelder 38, die in 2 dargestellt sind, zeigen jeweils Fußpunkte oder Raumpunkte 50, an denen jeweils ein Vektor definiert ist. Die Vektoren selbst sind hier der Übersichtlichkeit halber nicht dargestellt. Wie dargestellt ist, können durch die Raumpunkte 50 in einem vorgegebenen Raumvolumen 51 jeweils Vektoren in einem Raster definiert sein. Das Raumvolumen 51, in welchem das Vektorfeld 38 definiert ist, kann beispielsweise als ein Quader oder als eine so genannte Boundingbox definiert sein. 2 12 illustrates which recognition result 22 can result if a machine learning model has not yet been trained on the deformation introduced by means of the respective vector field 38 . The vector fields 38 contained in 2 are shown each show base points or spatial points 50, at each of which a vector is defined. The vectors themselves are not shown here for the sake of clarity. As shown, the spatial points 50 in a given spatial volume 51 can each define vectors in a grid. The spatial volume 51 in which the vector field 38 is defined can be defined, for example, as a cuboid or as a so-called bounding box.

2 zeigt auf der linken Seite einen Trainingsdatensatz 35 mit Messpunkten 39, die als Verkehrsobjekte 15 zwei Kraftfahrzeuge, einen Fahruntergrund 52 und eine Randbebauung 53 beispielhaft als Messergebnis in den Sensordaten beschreiben können. Zu dem Trainingsdatensatz 35, das heißt, zu den Messpunkten 39, ebenfalls beschriebenen Labeldaten 54 ist angegeben, dass es sich bei den Verkehrsobjekten 15 jeweils um ein Kraftfahrzeug handelt und es kann auch eine räumliche Orientierung 55 durch die Labeldaten beschrieben sein. 2 shows on the left side a training data set 35 with measurement points 39 which, as traffic objects 15, can describe two motor vehicles, a driving surface 52 and a development 53 as an example of a measurement result in the sensor data. Also described for the training data set 35, that is, for the measurement points 39 Label data 54 indicates that the traffic objects 15 are in each case a motor vehicle and a spatial orientation 55 can also be described by the label data.

Es kann nun anhand des Objekttyps des jeweiligen Verkehrsobjekts 15, also hier des Objekttyps Kraftfahrzeug, beispielsweise als Objekttyp kann auch Personenkraftwagen, Lastkraftwagen, Personenbus, Radfahrer, Passant, angegeben sein, und die relative Orientierung 55 bezüglich des erfassenden Sensors, also beispielsweise des Sensors 18, kann jeweils eines aus mehreren bereitgestellten Vektorfeldern 38 ausgewählt werden, das für diesen Objekttyp und/oder diese Orientierung oder Ausrichtung und/oder die Distanz des Verkehrsobjekts zum Sensor und/oder die Anzahl der verfügbaren Messpunkte vorgesehen ist. Des Weiteren kann eine Skalierung 56 auf das Raumvolumen angewendet werden, um das Raumvolumen 51 auf die in dem Trainingsdatensatz 35 vorhandene Größe des jeweiligen Verkehrsobjekts 15 anzupassen. Dies hat den Vorteil, dass Raumpunkte 50 stets im selben Bereich eines Verkehrsobjekts des verwendeten Objekttyps angewendet werden, also Raumpunkte für Heckleuchten bei unterschiedlich weit entfernten Kraftfahrzeugen dennoch durch die Anpassung des Raumvolumens 51 auch auf die Messpunkte 39 der Heckleuchten angewendet werden.It can now be specified on the basis of the object type of the respective traffic object 15, i.e. here the object type motor vehicle, for example a car, truck, passenger bus, cyclist, pedestrian can also be specified as the object type, and the relative orientation 55 with regard to the detecting sensor, i.e. for example the sensor 18 , one of several provided vector fields 38 can be selected, which is provided for this object type and/or this orientation or orientation and/or the distance of the traffic object from the sensor and/or the number of available measuring points. Furthermore, a scaling 56 can be applied to the spatial volume in order to adapt the spatial volume 51 to the size of the respective traffic object 15 present in the training data set 35 . This has the advantage that spatial points 50 are always applied in the same area of a traffic object of the object type used, i.e. spatial points for rear lights in motor vehicles that are at different distances are nevertheless also applied to the measuring points 39 of the rear lights by adapting the spatial volume 51 .

Die Vektoren des Vektorfelds 38 können dann additiv auf die Messpunkte 39 beispielsweise in der jeweiligen Boundingbox der Verkehrsobjekts (z.B. aus den Labeldaten 54 bekannt) angewendet werden. Hierbei kann auch vorgesehen sein, dass nicht der jeweilige Verschiebevektor an dem Raumpunkt 50 vollständig angewendet wird, sondern nur derjenige Anteil, der in Blickrichtung verlängert zu der Position des Sensors hin oder von diesem weg weist, so dass sich ein Messraster durch das Anwenden des Vektorfelds 38 in dem neuen Trainingsdatensatz 40 im Verhältnis zum ursprünglichen Trainingsdatensatz 35 nicht verändert oder unverändert bleibt. Auf der rechten Seite ist dargestellt, wie bei Anwenden des Modells 21 auf den neuen Trainingsdatensatz 40 das Erkennungsergebnis 22 ergibt, dass eines der Kraftfahrzeuge mit einer falschen Orientierung 60 erkannt wird und bei einem zweiten der Kraftfahrzeuge eine Nicht-Erkennung 61 erfolgt, also keine Boundingbox für das nicht-erkannte Verkehrsobjekt ausgegeben wird in dem Erkennungsergebnis 22.The vectors of the vector field 38 can then be applied additively to the measuring points 39, for example in the respective bounding box of the traffic object (known, for example, from the label data 54). It can also be provided that the respective displacement vector is not applied in full at the point in space 50, but only that portion that is extended in the viewing direction towards or away from the position of the sensor, so that a measurement grid is created by applying the vector field 38 in the new training data set 40 in relation to the original training data set 35 does not change or remains unchanged. The right-hand side shows how the recognition result 22 when applying the model 21 to the new training data set 40 shows that one of the motor vehicles is recognized with an incorrect orientation 60 and a second of the motor vehicles is not recognized 61, i.e. no bounding box for the unrecognized traffic object is output in the recognition result 22.

3 veranschaulicht ein Erzeugungsverfahren 70, mittels welchem die beschriebenen Vektorfelder 38 jeweils erzeugt werden können. Dargestellt ist, wie iterativ in einer Iterationsschleife der Iteration 71 oder auch einmalig ausgehend von einem initialen Vektorfeld 72 ein pro Iteration 71 verändertes Vektorfeld 38 gebildet werden kann. Hierzu kann in der im Zusammenhang mit 2 beschriebenen Weise das Vektorfeld 38 in seinem aktuellen Zustand mit einem Trainingsdatensatz 35 beispielsweise durch Vektoraddition 73 überlagert werden und der hierdurch entstehende neue Trainingsdatensatz 40 kann einem Modell 74 des maschinellen Lernens als Eingabe für eine Objektdetektion bereitgestellt werden, wodurch sich in der beschriebenen Weise ein Erkennungsergebnis 22 ergibt. Das Erkennungsergebnis 22 ist auch auf der rechten Seite visualisiert. Ausgehend von dem Erkennungsergebnis 22 kann mittels eines Gradientenverfahrens 75 eine Vektorveränderung 76 ermittelt werden, die auf zumindest einige der Verschiebevektoren V angewendet werden kann. 3 illustrates a generation method 70 by means of which the described vector fields 38 can be generated in each case. It is shown how a vector field 38 changed per iteration 71 can be formed iteratively in an iteration loop of the iteration 71 or also once starting from an initial vector field 72 . This can be done in connection with 2 described, the vector field 38 in its current state can be overlaid with a training data set 35, for example by vector addition 73, and the new training data set 40 that is created as a result can be provided to a machine learning model 74 as input for object detection, resulting in a recognition result 22 in the manner described results. The recognition result 22 is also visualized on the right. Starting from the recognition result 22, a vector change 76 can be determined using a gradient method 75, which can be applied to at least some of the displacement vectors V.

In 3 ist auf der linken Seite im initialen Vektorfeld 72 noch einmal dargestellt, wie das Raumvolumen 51 durch einzelne Raumpunkte 50 unterteilt sein kann oder Raumpunkte 50 in dem Raumvolumen 51 angeordnet oder definiert sein können. Jeder Raumpunkt 50 kann ein Fußpunkt für einen Verschiebevektor V sein, wie sie in 3 für das Vektorfeld 38 symbolisch als Strich einer Länge, der dem Vektorbetrag entspricht, dargestellt sind. Eine Ausrichtung des Striches zeigt jeweils die Richtung des Verschiebevektors V.In 3 is shown again on the left side in the initial vector field 72 how the spatial volume 51 can be subdivided by individual spatial points 50 or spatial points 50 can be arranged or defined in the spatial volume 51 . Each point in space 50 can be a base point for a displacement vector V, as shown in 3 for the vector field 38 are represented symbolically as a line of a length which corresponds to the vector absolute value. An orientation of the line shows the direction of the displacement vector V.

Das Gradientenverfahren 75 kann dabei dazu verwendet werden, diejenige Vektorveränderung 76 zu ermitteln, durch welche sich eine größtmögliche Verschlechterung oder Abweichung für das nächste Erkennungsergebnis bei der nächsten Iteration 71 ergeben würde. Da die Vektorveränderung 76 hierbei beispielsweise in Bezug auf den Betrag und/oder die Richtung begrenzt sein kann, kann durch mehrere Iterationen 71 ausgehend von dem initialen Vektorfeld 72 das Vektorfeld 38 mit einer geringstmöglichen Anzahl an Iterationen 71, also besonders effizient, hergeleitet oder definiert werden. Es kann hierbei vorgesehen sein, dass als Trainingsdatensätze 35 eine Gruppe 77 verwendet wird, die Verkehrsobjekte aus einer vorgegebenen Blickrichtung zeigen, beispielsweise werden für das Ermitteln eines Vektorfelds 38 in den Iterationen 71 unterschiedliche Trainingsdatensätze 35 von Verkehrsobjekten gezeigt, die vom selben Objekttyp, beispielsweise Kraftfahrzeug, sind und das jeweilige Verkehrsobjekt aus derselben Perspektive, beispielsweise das Fahrzeugheck oder die Fahrzeugfront, zeigen. Somit ergeben sich also spezialisierte oder typspezifische und perspektivisch spezifische Vektorfelder 38. Diese können dann, wie in 2 dargestellt, als die Vektorfelder 38 bereitgestellt werden, aus denen dann abhängig von den Labeldaten 54 ausgewählt werden kann.The gradient method 75 can be used to determine that vector change 76 which would result in the greatest possible deterioration or deviation for the next recognition result in the next iteration 71 . Since the vector change 76 can be limited here, for example with regard to the amount and/or the direction, the vector field 38 can be derived or defined with the lowest possible number of iterations 71, i.e. particularly efficiently, by a plurality of iterations 71 starting from the initial vector field 72 . It can be provided here that a group 77 is used as training data records 35, which show traffic objects from a predetermined viewing direction, for example, for determining a vector field 38 in the iterations 71, different training data records 35 of traffic objects are shown that are of the same object type, for example motor vehicles , are and show the respective traffic object from the same perspective, for example the rear of the vehicle or the front of the vehicle. This results in specialized or type-specific and perspective-specific vector fields 38. These can then, as in 2 shown when the vector fields 38 are provided, from which a selection can then be made depending on the label data 54 .

Beulen an Kraftfahrzeugen können im Straßenverkehr beobachtet werden und moderne Objektdetektoren können durch solche Verformungen erfolgreich „angegriffen“ oder durch sie gestört werden. Ein Objektdetektor kann nun so trainiert, dass er gegen diesen „Angriff“ resistent ist, selbst wenn kein gemessener Trainingsdatensatz, auf dem dieses Modell trainiert werden soll, verbeulte Kraftfahrzeuge enthält. Indem explizit Gegenbeispiele mit verbeulten Kraftfahrzeugen erzeugt werden, können die Trainingsdaten für die Modelle erweitert werden. Das Ergebnis sind Objektdetektoren, die zuverlässiger sind, wenn sie in der realen Welt auf ähnliche Verformungen treffen. Ohne diesen Ansatz wäre das Auffinden und Sammeln von Tausenden von verbeulten Autos in der realen Welt aus Kosten- und Zeitgründen nicht machbar.Bumps on motor vehicles can be observed on the road and modern object detectors can be affected by such deformation genes are successfully "attacked" or disrupted by them. An object detector can now be trained to be resistant to this "attack" even if no measured training data set on which to train this model contains dented automobiles. By explicitly generating counter-examples with dented motor vehicles, the training data for the models can be extended. The result is object detectors that are more reliable when encountering similar deformations in the real world. Without this approach, finding and collecting thousands of dented cars in the real world would not be feasible due to cost and time constraints.

Um einen Angriff physikalisch realisierbar und realistisch zu machen, werden Vektorfelder erlernt, die z.B. 3D-LIDAR-Messpunktwolken deformieren, so dass sie mit einem Modell, das auf die Detektion unverbeulter Verkehrsteilnehmer trainiert ist, nicht mehr oder nicht mehr richtig erkannt werden (z. B. weil eine falsche Ausrichtung erkannt wird). Dieser Ansatz hat mehrere entscheidende Vorteile: Die Verformung der Punktwolke kann physikalisch realistisch gestaltet werden und einen gültigen LIDAR-Scan erzeugen. Diese Vektorfelder ähneln realen Anwendungsfällen, wie z. B. verbeulten Autos nach Unfällen oder Personen in ungewöhnlicher Kleidung. Dies ist ein einzigartiger Beitrag im Vergleich zu früheren Arbeiten, und im Vergleich zum Stand der Technik kann der Angriff viel subtiler gestaltet sein. Die Vektorfelder können zur Erweiterung der Trainingsdaten verwendet werden, um die Objekterkennungsmodelle robuster gegen Fahrzeuge mit Dellen in der realen Welt zu machen.In order to make an attack physically realizable and realistic, vector fields are learned which, for example, deform 3D LIDAR measurement point clouds so that they are no longer or no longer correctly recognized with a model that is trained to detect undamaged road users (e.g. B. because a wrong orientation is detected). This approach has several key advantages: The deformation of the point cloud can be made physically realistic and produce a valid LIDAR scan. These vector fields are similar to real-world use cases, such as B. dented cars after accidents or people in unusual clothing. This is a unique contribution compared to previous work and compared to the prior art, the attack can be made much more subtle. The vector fields can be used to augment the training data to make the object detection models more robust to dented vehicles in the real world.

Das Beispiel zeigt somit physikalisch realisierbare „Angriffe“ auf LIDAR-basierte 3D-Objektdetektoren durch Verformung von Punktwolken aus Messpunkten mittels szenenkonsistenten Vektorfeldern.The example thus shows physically realizable "attacks" on LIDAR-based 3D object detectors by deforming point clouds from measurement points using scene-consistent vector fields.

Bezugszeichenlistereference list

1010
Kraftfahrzeugmotor vehicle
1111
Steuergerätcontrol unit
1212
Fahrerassistenzfunktiondriver assistance function
1313
Fahrfunktiondriving function
1414
Aktuatoractuator
1515
Verkehrsobjekttraffic object
1616
Verkehrsobjekttraffic object
1717
UmgebungVicinity
1818
Sensorsensor
1919
Sensordatensensor data
2020
Steuergerätcontrol unit
2121
ModellModel
2222
Erkennungsergebnisrecognition result
2323
Fahrtrajektoriedriving trajectory
3030
Prozessorsystemprocessor system
3131
Lernverfahrenlearning method
3232
Kommunikationsverbindungcommunication link
3434
Trainingsdatentraining data
3535
Trainingsdatentraining data
3636
Trainingsdatentraining data
3737
Verschiebeverfahrenmove procedure
3838
Vektorfeldvector field
3939
Messpunktmeasuring point
4040
Trainingsdatensatztraining data set
4141
Messpunktenmeasuring points
4242
Verkehrsobjekttraffic object
5050
Raumpunktspace point
5151
Raumvolumenroom volume
5252
Fahruntergrunddriving surface
5353
Randbebauungperipheral development
5454
Labeldatenlabel data
5555
Orientierungorientation
5656
Skalierungscaling
6060
Orientierungorientation
6161
Nicht-Erkennungnon-detection
7070
Erzeugungsverfahrenproduction process
7171
Iterationiteration
7272
Initiales VektorfeldInitial vector field
7373
Vektoradditionvector addition
7474
ModellModel
7575
Gradientenverfahrengradient method
7676
VektorveränderungVector Alteration
7777
Gruppegroup

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • US 10262236 B2 [0007]US 10262236 B2 [0007]

Claims (10)

Verfahren zum Erzeugen von Trainingsdaten (34) zum Trainieren eines Modells (74) des maschinellen Lernens für eine Objektdetektion, wobei durch ein Prozessorsystem (30) ein Trainingsdatensatz (35), der Messpunkte (39) einer 3D-Messung eines Verkehrsobjekts (15, 16) enthält, ermittelt wird, dadurch gekennzeichnet, dass mittels eines vorbestimmten Erzeugungsverfahrens (70) ein Vektorfeld (38), das jeweils zu mehreren unterschiedlichen Raumpunkten (50) eines vorbestimmten Raumvolumens (51) einen jeweiligen Verschiebevektor (V) angibt, erzeugt wird und die Messpunkte (39) des Trainingsdatensatzes (35) gemäß dem Vektorfeld (38) verschoben werden und hierdurch verschobene Messpunkte (39) erzeugt werden, die ein verformtes Verkehrsobjekt (42) darstellen, und die verschobenen Messpunkte (39) zu einem neuen Trainingsdatensatz (40) zusammengefasst werden, der als Bestandteil der Trainingsdaten (34) bereitgestellt wird.Method for generating training data (34) for training a machine learning model (74) for object detection, a training data record (35) containing the measuring points (39) of a 3D measurement of a traffic object (15, 16 ) contains, is determined, characterized in that a vector field (38), which indicates a respective displacement vector (V) for a plurality of different spatial points (50) of a predetermined spatial volume (51), is generated by means of a predetermined generation method (70) and the Measuring points (39) of the training data set (35) are shifted according to the vector field (38) and thereby shifted measuring points (39) are generated, which represent a deformed traffic object (42), and the shifted measuring points (39) to a new training data set (40) are summarized, which is provided as part of the training data (34). Verfahren nach Anspruch 1, wobei eine Richtung einer Verbindungslinie des jeweiligen Messpunkts (39) zu einer Position eines Sensors (18), welcher den Messpunkt (39) erzeugt hat, ermittelt wird und das Verschieben des jeweiligen Messpunkts (39) nur entlang der Verbindungslinie erfolgt.procedure after claim 1 , wherein a direction of a connecting line of the respective measuring point (39) to a position of a sensor (18) which has generated the measuring point (39) is determined and the respective measuring point (39) is shifted only along the connecting line. Verfahren nach einem der vorhergehenden Ansprüche, wobei für das Verschieben der Messpunkte (39) • eine Skalierung (56) des Raumvolumens (51) auf eine Größe des durch die Messpunkte (39) beschriebenen Verkehrsobjekts (15, 16) und/oder • eine Anpassung einer räumlichen Ausrichtung des Raumvolumens (51) bezüglich des Verkehrsobjekts (15, 16) durchgeführt wird.Method according to one of the preceding claims, wherein for the displacement of the measuring points (39) • a scaling (56) of the spatial volume (51) to a size of the traffic object (15, 16) described by the measuring points (39) and/or • a spatial alignment of the spatial volume (51) with respect to the traffic object (15, 16) is adapted. Verfahren nach einem der vorhergehenden Ansprüche, wobei beim Verschieben der Messpunkte (39) • ein maximaler Verschiebeweg auf einen vorbestimmten maximalen Verschiebewert und /oder • ein Unterschied von jeweiligen Verschiebeweiten benachbarter Messpunkte (39) auf einen vorbestimmten maximalen Unterschiedswert begrenzt wird.Method according to one of the preceding claims, wherein when moving the measuring points (39) • a maximum displacement path to a predetermined maximum displacement value and/or • a difference between the respective shifting distances of adjacent measuring points (39) is limited to a predetermined maximum difference value. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Raumpunkte (50) der Verschiebevektoren in dem Raumvolumen (51) zueinander in einem Raster beabstandet angeordnet sind und für den jeweiligen Messpunkt (39) als der zu verwendende Verschiebevektor derjenige Verschiebevektor (V) des räumlich am nächsten angeordneten Raumpunkts (50) oder ein aus mehreren benachbarten Verschiebevektoren (V)interpolierter Verschiebevektor verwendet wird.Method according to one of the preceding claims, wherein the spatial points (50) of the displacement vectors in the spatial volume (51) are arranged at a distance from one another in a grid and for the respective measuring point (39) as the displacement vector to be used that displacement vector (V) of the spatially closest arranged space point (50) or from a plurality of adjacent displacement vectors (V) interpolated displacement vector is used. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Erzeugungsverfahren (70) zum Erzeugen des Vektorfelds (38) umfasst, dass das Vektorfeld (38) mit vorbestimmten initialen Verschiebevektoren (72) initialisiert wird und einmalig oder iterativ mittels eines bereits vortrainierten Vorläufermodells (74) des maschinellen Lernens, das mittels des Trainingsdatensatzes (35) und/oder zumindest eines weiteren Trainingsdatensatzes (35) für eine Objektdetektion trainiert ist, zu dem Trainingsdatensatz (35) und/oder zu dem zumindest einem weiteren Trainingsdatensatz (35) ein Erkennungsergebnis (22) erzeugt wird, das angibt, ob ein und/oder welches Verkehrsobjekt (15, 16) erkannt wurde, und für zumindest einen der Verschiebevektoren des Vektorfelds (38) jeweils eine Vektorveränderung (76), durch welche eine Verschlechterung des Erkennungsergebnisses (22) bewirkt wird, ermittelt und auf den jeweiligen Verschiebevektor (V) angewendet wird.Method according to one of the preceding claims, wherein the generation method (70) for generating the vector field (38) comprises that the vector field (38) is initialized with predetermined initial displacement vectors (72) and is generated once or iteratively by means of an already pre-trained predecessor model (74) of the machine learning, which is trained for object detection using the training data set (35) and/or at least one further training data set (35), generates a recognition result (22) for the training data set (35) and/or for the at least one further training data set (35). which indicates whether and/or which traffic object (15, 16) was detected, and a vector change (76) for at least one of the displacement vectors of the vector field (38), which causes a deterioration in the detection result (22), is determined and applied to the respective displacement vector (V). Verfahren nach Anspruch 6, wobei als Modell (74) des maschinellen Lernens ein künstliches neuronales Netzwerk verwendet wird und die Vektorveränderung (76) mittels eines Gradientenverfahrens (75) ermittelt wird.procedure after claim 6 , wherein an artificial neural network is used as the model (74) of the machine learning and the vector change (76) is determined by means of a gradient method (75). Verfahren nach einem der vorhergehenden Ansprüche, wobei zumindest ein weiteres Vektorfeld (38) erzeugt wird und jedes Vektorfeld (38) einer anderen vorbestimmten möglichen Messsituation des Verkehrsobjekts (15, 16) zugeordnet wird und zum Verschieben der Messpunkte (39) eine tatsächliche Messsituation des in dem Trainingsdatensatz (35) abgebildeten Verkehrsobjekts (15, 16) ermittelt wird und das dieser Messsituation zugeordnete Vektorfeld (38) für die Verschiebung der Messpunkte (39) verwendet wird, wobei die Messsituation eine Angabe zur relativen räumlichen Ausrichtung und/oder eine Distanz des Verkehrsobjekts zum Sensor und/oder eine Anzahl der ermittelten Messpunkte eines Verkehrsobjekts umfasst.Method according to one of the preceding claims, wherein at least one further vector field (38) is generated and each vector field (38) is assigned to another predetermined possible measurement situation of the traffic object (15, 16) and to shift the measurement points (39) an actual measurement situation of the in the traffic object (15, 16) depicted in the training data set (35) is determined and the vector field (38) assigned to this measurement situation is used to shift the measurement points (39), the measurement situation providing information on the relative spatial orientation and/or a distance of the traffic object to the sensor and/or a number of the determined measuring points of a traffic object. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Trainingsdatensatz (35) Messpunkte (39) eines LIDAR-Sensors (18) und/oder eines Radar-Sensors (18) und/oder eines Stereo-Bilds einer Stereokamera oder Messpunkte (39) eines Time-of-Flight-Sensors (18) umfasst.Method according to one of the preceding claims, wherein the training data set (35) measuring points (39) of a LIDAR sensor (18) and / or a radar sensor (18) and / or a stereo image of a stereo camera or measuring points (39) of a time -of-flight sensors (18) included. Prozessorsystem (30) mit einer Prozessorschaltung, die dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.Processor system (30) with a processor circuit which is set up to carry out a method according to one of the preceding claims.
DE102021126079.5A 2021-10-07 2021-10-07 Method and processor system for generating training data for training a machine learning model for object detection Pending DE102021126079A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021126079.5A DE102021126079A1 (en) 2021-10-07 2021-10-07 Method and processor system for generating training data for training a machine learning model for object detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021126079.5A DE102021126079A1 (en) 2021-10-07 2021-10-07 Method and processor system for generating training data for training a machine learning model for object detection

Publications (1)

Publication Number Publication Date
DE102021126079A1 true DE102021126079A1 (en) 2023-04-13

Family

ID=85705260

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021126079.5A Pending DE102021126079A1 (en) 2021-10-07 2021-10-07 Method and processor system for generating training data for training a machine learning model for object detection

Country Status (1)

Country Link
DE (1) DE102021126079A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10262236B2 (en) 2017-05-02 2019-04-16 General Electric Company Neural network training image generation system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10262236B2 (en) 2017-05-02 2019-04-16 General Electric Company Neural network training image generation system

Similar Documents

Publication Publication Date Title
DE102018204494B3 (en) Generation of synthetic radar signals
EP3497476B1 (en) Motor vehicle and method for a 360° detection of the surroundings
DE102020214283A1 (en) DEVICE FOR DETECTION OF OBSTACLES, VEHICLE SYSTEM WITH THIS AND METHOD FOR IT
DE102020113848A1 (en) ECCENTRICITY FUSION
EP3475936B1 (en) Method for verifying a collision between two driverless transporting vehicles, a driverless transport vehicle and a system with several driverless transport vehicles
EP3543985A1 (en) Simulation of different traffic situations for a test vehicle
WO2016020347A1 (en) Method for detecting an object in a surrounding region of a motor vehicle using an ultrasonic sensor, driver assistance system, and motor vehicle
DE102021002798A1 (en) Process for camera-based environment detection
DE102013113960A1 (en) Road surface shape determining device
DE102016105238A1 (en) VEHICLE AND VEHICLE PARKING SYSTEM
DE112020006045T5 (en) FORMAL SECURE SYMBOLIC REINFORCEMENT LEARNING THROUGH VISUAL INPUTS
DE102021128041A1 (en) IMPROVEMENT OF A VEHICLE NEURAL NETWORK
EP3520024A1 (en) Detection and validation of objects from sequential images from a camera by means of homographs
WO2020064453A1 (en) Method and apparatus for improving object identification of a radar device with the aid of a lidar map of the surroundings
DE102019208735A1 (en) Method for operating a driver assistance system for a vehicle and a driver assistance system for a vehicle
DE102021213021A1 (en) PARKING ASSISTANCE SYSTEM WITH IMPROVED ESCAPE CONTROL AND METHOD THEREOF
DE112020002753T5 (en) VEHICLE CONTROL METHOD, VEHICLE CONTROL DEVICE AND VEHICLE CONTROL SYSTEM INCLUDING THEM
WO2019110177A1 (en) Training and operating a machine learning system
DE102022123859A1 (en) OBJECT POSITION DETECTION THROUGH A NEURAL NETWORK
DE102008036219A1 (en) Method for identification of object i.e. traffic sign, in surrounding area of e.g. passenger car, involves determining similarity measure between multiple characteristics of image region and multiple characteristics of characteristic set
DE102022123499B3 (en) Computer-implemented method, processor circuit and computer program for processing measurement points received from an environment sensor, in particular radar measurement points, for object detection and a correspondingly equipped motor vehicle
DE102017121052A1 (en) Processing a point cloud generated by an environment detection device of a motor vehicle to a Poincaré-invariant symmetrical input vector for a neural network
EP3809316A1 (en) Prediction of a road route based on radar data
WO2020224970A1 (en) Method and device for locating a vehicle
DE102021126079A1 (en) Method and processor system for generating training data for training a machine learning model for object detection

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009660000

Ipc: G06V0030194000

R163 Identified publications notified