DE102021126079A1 - Method and processor system for generating training data for training a machine learning model for object detection - Google Patents
Method and processor system for generating training data for training a machine learning model for object detection Download PDFInfo
- Publication number
- DE102021126079A1 DE102021126079A1 DE102021126079.5A DE102021126079A DE102021126079A1 DE 102021126079 A1 DE102021126079 A1 DE 102021126079A1 DE 102021126079 A DE102021126079 A DE 102021126079A DE 102021126079 A1 DE102021126079 A1 DE 102021126079A1
- Authority
- DE
- Germany
- Prior art keywords
- training data
- vector
- data set
- displacement
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 119
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000001514 detection method Methods 0.000 title claims abstract description 26
- 238000010801 machine learning Methods 0.000 title claims abstract description 23
- 239000013598 vector Substances 0.000 claims abstract description 136
- 238000006073 displacement reaction Methods 0.000 claims abstract description 65
- 238000005259 measurement Methods 0.000 claims abstract description 65
- 230000008859 change Effects 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 230000006866 deterioration Effects 0.000 claims description 5
- 238000011161 development Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 230000008901 benefit Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000002243 precursor Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Erzeugen von Trainingsdaten (34) zum Trainieren eines Modells (74) des maschinellen Lernens zur Objektdetektion, wofür durch ein Prozessorsystem (30) ein Trainingsdatensatz (35), der Messpunkte (39) einer 3D-Messung eines Verkehrsobjekts (15, 16) enthält, ermittelt wird. Die Erfindung sieht vor, dass mittels eines vorbestimmten Erzeugungsverfahrens (70) ein Vektorfeld (38), das jeweils zu mehreren unterschiedlichen Raumpunkten (50) eines vorbestimmten Raumvolumens (51) einen jeweiligen Verschiebevektor angibt, erzeugt wird und die Messpunkte (39) des Trainingsdatensatzes (35) gemäß dem Vektorfeld (38) verschoben werden und hierdurch verschobene Messpunkte (39) erzeugt werden, die ein verformtes Verkehrsobjekt (42) darstellen, und die verschobenen Messpunkte (39) zu einem neuen Trainingsdatensatz (40) zusammengefasst werden, der als Bestandteil der Trainingsdaten (34) bereitgestellt wird.The invention relates to a method for generating training data (34) for training a model (74) of machine learning for object detection, for which a training data set (35) containing the measuring points (39) of a 3D measurement of a traffic object ( 15, 16) is determined. The invention provides that a vector field (38), which indicates a respective displacement vector for a plurality of different spatial points (50) of a predetermined spatial volume (51), is generated by means of a predetermined generation method (70) and the measuring points (39) of the training data set ( 35) are shifted according to the vector field (38) and thereby shifted measuring points (39) are generated, which represent a deformed traffic object (42), and the shifted measuring points (39) are combined to form a new training data set (40), which is part of the Training data (34) is provided.
Description
Die Erfindung betrifft ein Verfahren zum Erzeugen von Trainingsdaten zum Trainieren eines Modells des maschinellen Lernens (ML) zur Objektdetektion. Ein solches Modell kann auf einem künstlichen neuronalen Netzwerk beruhen. Die Objektdetektion kann das automatisierte Erkennen von Verkehrsteilnehmern in der Umgebung eines Kraftfahrzeugs betreffen, welches das Modell betreibt. Die besagten Trainingsdaten werden künstlich generiert, wobei initial von einem Trainingsdatensatz ausgegangen wird, der Messpunkte einer (realen oder simulierten) 3D-Messung eines zu erkennenden Verkehrsobjekts enthält. Die Erfindung umfasst auch ein Prozessorsystem, das zum Durchführen des Verfahrens eingerichtet ist.The invention relates to a method for generating training data for training a machine learning (ML) model for object detection. Such a model can be based on an artificial neural network. The object detection can relate to the automated recognition of road users in the vicinity of a motor vehicle that operates the model. Said training data are generated artificially, initially starting from a training data set that contains measurement points of a (real or simulated) 3D measurement of a traffic object to be recognized. The invention also includes a processor system set up to carry out the method.
Für das autonome Fahren ist die Wahrnehmung der Umgebung sowohl für die Sicherheit als auch für den Komfort von großer Bedeutung. Die Objekterkennung ist eine der Säulen der Umgebungswahrnehmung, da sie die Erkennung von Verkehrsteilnehmern, wie Verkehrsfahrzeuge (z. B. Autos, Fahrräder) und ungeschützten Verkehrsteilnehmern (z. B. Fußgängern) beinhaltet. Störungen in der Objekterkennung können schwerwiegende Folgen für autonom fahrende Autos haben, da sie nicht mehr in der Lage sind, andere Verkehrsteilnehmer korrekt zu erkennen und sich damit im Straßenverkehr zu orientieren. Es ist wichtig, die Ursachen für diese Störungen zu finden und die Objektdetektion robust dagegen zu machen.For autonomous driving, the perception of the environment is of great importance for both safety and comfort. Object recognition is one of the pillars of environmental perception as it includes the recognition of road users such as traffic vehicles (e.g. cars, bicycles) and vulnerable road users (e.g. pedestrians). Disturbances in object recognition can have serious consequences for autonomously driving cars, as they are no longer able to correctly recognize other road users and thus orientate themselves in traffic. It is important to find the causes of these disturbances and to make object detection robust against them.
Als eine Quelle für solche Störungen haben sich ungewöhnlich Formen bei Fahrzeugen erwiesen, also Formen, die von herstellerseitig nicht vorgesehen sind, z.B. nutzerseitig angebrachte Aufbauten. Mit Methoden des maschinellen Lernens (konkreter z.B. Deep Learning oder Neuronale Netze) lassen sich physikalisch realistische Verformungen von Autos entwerfen, die die Objektdetektoren stören. Da Laserscanner (auch als LI DAR bekannt) in der Regel die bevorzugten Sensoren in autonomen Fahrzeugen sind, ist für diesen Sensortyp die Robustheit der Objektdetektion von verformten Verkehrsteilnehmern besonders interessant.Unusual shapes in vehicles have proven to be a source of such disturbances, i.e. shapes that are not intended by the manufacturer, e.g. superstructures attached by the user. Machine learning methods (more specifically, e.g. deep learning or neural networks) can be used to design physically realistic deformations of cars that disrupt the object detectors. Since laser scanners (also known as LI DAR) are usually the preferred sensors in autonomous vehicles, the robustness of the object detection of deformed road users is particularly interesting for this type of sensor.
Störungen für Modelle des maschinellen Lernens, die das neuronale Netz absichtlich täuschen, werden als „gegnerische Beispiele“ (adversarial examples) oder „Angriffe“ (attacks) bezeichnet. Die Objektdetektoren, die für Angriffe bevorzugt in Betracht gezogen werden, sind PointPillars [1], SECOND[2] und Part-A2[3], da sie populäre Modelle nach dem Stand der Technik sind. Es gibt zwei Hauptrichtungen von Angriffen auf LIDAR-Objektdetektoren im Kontext des Autonomen Fahrens (AD - autonomous driving): Spoofing und physikalisch realisierbare Angriffe.Perturbations to machine learning models that intentionally fool the neural network are called "adversarial examples" or "attacks." The object detectors that are preferably considered for attacks are PointPillars[1], SECOND[2] and Part-A2[3] as they are popular prior art models. There are two main directions of attacks on LIDAR object detectors in the autonomous driving (AD) context: spoofing and physically feasible attacks.
Spoofing: Bei dieser Angriffsklasse wird ein Gerät verwendet, um falsche LIDAR-Punkte (3D-Messpunkte) direkt in den Sensor einzuspeisen. Das Gerät besteht aus einer Fotodiode, die die Laserimpulse vom LIDAR empfängt und eine Verzögerungskomponente aktiviert, die den Laser des Angreifers auslöst, um echte Echoimpulse zu simulieren. Dies wird in der Arbeit von [4] und [5] verwendet, um ein gegnerisches Muster in der Punktwolke der LIDAR-Punkte zu erzeugen, das als Objekt erkannt wird (und z. B. das autonom fahrende Auto zum Stillstand bringt).Spoofing: This class of attack uses a device to inject fake lidar points (3D measurement points) directly into the sensor. The device consists of a photodiode that receives the laser pulses from the LIDAR and activates a delay component that triggers the attacker's laser to simulate true echo pulses. This is used in the work of [4] and [5] to generate an opposing pattern in the point cloud of the LIDAR points, which is recognized as an object (and e.g. brings the autonomously driving car to a standstill).
Physikalisch realisierbare Angriffe: Diese Art von Angriffen zielt darauf ab, in der realen Welt ausgeführt zu werden. In der Arbeit von [6] werden Kisten mit einer Kantenlänge von 50 cm und 75 cm gezielt so erzeugt, dass sie von einem Objektdetektor nicht erkannt werden. Diese Kästen können theoretisch in 3D gedruckt und in der realen Welt platziert werden. Diese Art von Angriffen erfordert jedoch die explizite Konstruktion eines gegnerischen Objekts und dessen Platzierung auf dem Dach des Fahrzeugs. Um auf dieser Basis ausreichend abwechslungsreiche Trainingsdaten zu erzeugen, ist ein großer Aufwand erforderlich.
- [1] Lang, Alex H., et al. „Pointpillars: Schnelle Kodierer für die Objekterkennung aus Punktwolken.“ Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019.
- [2] Yan Yan, Yuxing Mao, and Bo Li. SECOND: Sparsely Em- 920 bedded Convolutional Detection. Sensors, 18(10):3337, Oct. 921 2018.
- [3] Shaoshuai Shi, Zhe Wang, Jianping Shi, Xiaogang Wang, and Hongsheng Li. From Points to Parts: 3D Object Detec- tion from Point Cloud with Part-aware and Partaggregation Network. arXiv: 1907.03670 [cs], Mar. 2020.
- [4] Cao, Yulong, et al. „Adversarial sensor attack on LIDAR-based perception in autonomous driving.“ Proceedings of the 2019 ACM SIGSAC conference on computer and communications security.
- [5] Sun, Jiachen, et al. „Towards robust LIDAR-based perception in autonomous driving: General black-box adversarial sensor attack and countermeasures.“ 29. {USENIX} Security Symposium ({USENIX} Security 20). 2020.
- [6] Cao, Yulong, et al. „Adversarial objects against LIDAR-based autonomous driving systems.“ arXiv preprint arXiv:1907.05418(2019). [6] Tu, James, et al. „Physically realizable adversarial examples for LIDAR object detection.“ Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020.
- [1] Lang, Alex H., et al. "Pointpillars: Fast Encoders for Object Recognition from Point Clouds." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019
- [2] Yan Yan, Yuxing Mao, and Bo Li. SECOND: Sparsely Em- 920 bedded Convolutional Detection. Sensors, 18(10):3337, Oct. 921 2018.
- [3] Shaoshuai Shi, Zhe Wang, Jianping Shi, Xiaogang Wang, and Hongsheng Li. From Points to Parts: 3D Object Detection from Point Cloud with Part-aware and Part Aggregation Network. arXiv: 1907.03670 [cs], Mar 2020.
- [4] Cao, Yulong, et al. "Adversarial sensor attack on LIDAR-based perception in autonomous driving." Proceedings of the 2019 ACM SIGSAC conference on computer and communications security.
- [5] Sun, Jiachen, et al. "Towards robust LIDAR-based perception in autonomous driving: General black-box adversarial sensor attack and countermeasures." 29th {USENIX} Security Symposium ({USENIX} Security 20). 2020
- [6] Cao, Yulong, et al. "Adversarial objects against LIDAR-based autonomous driving systems." arXiv preprint arXiv:1907.05418(2019). [6] Tu, James, et al. "Physically realizable adversarial examples for LIDAR object detection." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020
Aus der
Es ist Aufgabe der Erfindung, ein Modell des maschinellen Lernens, also beispielsweise ein künstliches neuronales Netzwerk, daraufhin zu trainieren, dass eine damit durchgeführte Objektdetektion auch robust gegen ungewöhnliche Verformungen ist, um mittels des derart trainierten Modells zuverlässig Verkehrsteilnehmer im Straßenverkehr detektieren zu können.The object of the invention is to train a model of machine learning, for example an artificial neural network, so that object detection carried out with it is also robust against unusual deformations, in order to be able to reliably detect road users in road traffic using the model trained in this way.
Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsformen sind durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren beschrieben.The object is solved by the subject matter of the independent patent claims. Advantageous embodiments are described by the dependent patent claims, the following description and the figures.
Als eine Lösung umfasst die Erfindung ein Verfahren zum Erzeugen von Trainingsdaten zum Trainieren eines Modells des maschinellen Lernens für eine Objektdetektion. Durch ein Prozessorsystem wird hierzu ein Trainingsdatensatz erzeugt oder ermittelt, der jeweils Messpunkte einer 3D-Messung (z.B. LIDAR-Punkte) eines Verkehrsobjekts enthält. Der Trainingsdatensatz beschreibt somit eine Punktwolke aus Messpunkten. Der Trainingsdatensatz kann aus einer realen oder einer simulierten Messung erhalten werden. Die Messpunkte können 3D-Koordinaten von Oberflächenpunkten darstellen, an welchen eine Reflexion einer elektromagnetischen Strahlung, beispielsweise eines Laserlichts oder eines Radarsignals, erfasst oder gemessen wurde. Ein einzelner Trainingsdatensatz stellt dabei eine Abbildung oder Momentaufnahme einer Umgebung eines Sensors dar, der die Messpunkte erzeugt. Es kann sich beispielsweise um einen LIDAR-Sensor handeln, mittels welchem der Trainingsdatensatz ermittelt wird. Die Messpunkte können ein Verkehrsobjekt oder auch mehrere Verkehrsobjekte und/oder eine Umgebung des Sensors beschreiben, beispielsweise eine Oberfläche einer Fahrbahn und/oder einer Straßenbegrenzung und/oder eines Gebäudes. Der Trainingsdatensatz kann beispielsweise während einer Messfahrt mittels eines Messfahrzeugs erzeugt werden, das den Sensor zum Erzeugen der Messpunkte für den Messdatensatz transportiert. Im Folgenden wird die Erfindung auf der Grundlage eines einzelnen Trainingsdatensatzes dieser Art beschrieben, aber natürlich kann das Verfahren auch auf mehrere Trainingsdatensätze angewendet werden, um eine größere Menge an Trainingsdaten zu erhalten.As a solution, the invention includes a method for generating training data for training a machine learning model for object detection. For this purpose, a training data record is generated or determined by a processor system, each of which contains measurement points of a 3D measurement (e.g. LIDAR points) of a traffic object. The training data set thus describes a point cloud made up of measurement points. The training data set can be obtained from a real or a simulated measurement. The measurement points can represent 3D coordinates of surface points at which a reflection of an electromagnetic radiation, for example a laser light or a radar signal, was detected or measured. A single training data set represents an image or snapshot of the surroundings of a sensor that generates the measurement points. It can be a LIDAR sensor, for example, which is used to determine the training data set. The measuring points can describe a traffic object or also a number of traffic objects and/or an area surrounding the sensor, for example a surface of a roadway and/or a road boundary and/or a building. The training data record can be generated, for example, during a measurement drive using a measurement vehicle that transports the sensor for generating the measurement points for the measurement data record. The invention is described below on the basis of a single training data set of this type, but of course the method can also be applied to multiple training data sets in order to obtain a larger amount of training data.
Ausgehend von einem solchen Trainingsdatensatz kann nun mittels des Verfahrens ein weiterer, neuer Trainingsdatensatz künstlich generiert oder berechnet werden. Dieser neue Trainingsdatensatz macht das Modell des maschinellen Lernens robuster bei der Objektdetektion, weil durch das Eintrainieren des neuen Trainingsdatensatzes beispielsweise auch ein Kraftfahrzeug mit einer Beule oder einem eingedrückten Heck dennoch korrekt erkannt oder detektiert werden kann. Dazu ist erfindungsgemäß Folgendes vorgesehen.Starting from such a training data set, a further, new training data set can now be artificially generated or calculated using the method. This new training data set makes the machine learning model more robust when it comes to object detection, because by training the new training data set, for example, a motor vehicle with a dent or a dented rear can still be correctly recognized or detected. The following is provided for this purpose according to the invention.
Mittels eines vorbestimmten Erzeugungsverfahrens, also einer vorbestimmten Programmroutine, wird ein Vektorfeld erzeug, das jeweils zu mehreren unterschiedlichen Raumpunkten eines vorbestimmten Raumvolumens einen jeweiligen Verschiebevektor angibt. Das Raumvolumen kann z.B. ein Quader mit vorgegebenen Abmessungen sein. Beispielhafte Kantenlängen des Quaders können in einem Bereich von 1m bis 12m (für Lastkraftwagen) liegen.A vector field is generated by means of a predetermined generation method, ie a predetermined program routine, which indicates a respective displacement vector for a plurality of different spatial points of a predetermined spatial volume. The spatial volume can, for example, be a cuboid with specified dimensions. Exemplary edge lengths of the cuboid can be in a range from 1m to 12m (for trucks).
Die Messpunkte des vorgegebenen Trainingsdatensatzes (also z.B. aus einer realen Messfahrt) werden gemäß dem Vektorfeld verschoben. Hierdurch werden verschobene Messpunkte erzeugt, die ein verformtes Verkehrsobjekt darstellen. Die verschobenen Messpunkte werden zu dem besagten neuen Trainingsdatensatz zusammengefasst, der als Bestandteil der Trainingsdaten bereitgestellt wird. Werden mehre neue Trainingsdatensätze erzeugt, bilden diese zusammen die künstlich generierten Trainingsdaten. Die Raumpunkte stellen jeweils einen Fußpunkt eines Verschiebevektors dar. Innerhalb des Raumvolumens kann sich also für die Messpunkte eine unterschiedliche Verschiebung ergeben, je nachdem, wo in dem Raumvolumen oder Quader der jeweilige Messpunkt angeordnet ist, so dass der dort gültige oder definierte Verschiebevektor auf den Messpunkt angewendet wird.The measurement points of the specified training data set (e.g. from a real test drive) are shifted according to the vector field. As a result, shifted measurement points are generated that represent a deformed traffic object. The shifted measurement points are combined into the said new training data set, which is provided as part of the training data. If several new training data sets are generated, these together form the artificially generated training data. The spatial points each represent a base point of a displacement vector. Within the volume of space, there can be a different displacement for the measurement points, depending on where in the volume of space or cuboid the respective measurement point is arranged, so that the displacement vector that is valid or defined there is on the measurement point is applied.
Mittels des neuen Trainingsdatensatzes oder allgemein mittels der daraus resultierenden Trainingsdaten, die zumindest einen solchen neuen Trainingsdatensatz umfassen, kann das besagte Modell des maschinellen Lernens trainiert werden. Es können hierzu ein aus dem Stand der Technik bekanntes Modell und Trainingsverfahren genutzt werden. Das derart trainierte Modell kann dann beispielsweise in einem Kraftfahrzeug betrieben werden, um mittels des Modells eine Objektdetektion durchzuführen, wofür zumindest ein Sensor des Kraftfahrzeugs Sensordaten als Eingangsdaten für das Modell bereitstellen kann. Mittels der Objektdetektion kann beispielsweise eine Fahrerassistenzfunktion, beziehungsweise ein Bremsassistent, und/oder eine autonome Fahrfunktion in dem Kraftfahrzeug betrieben oder unterstützt werden, indem mittels des Modells detektierte Objekte an die Fahrerassistenzfunktion und/oder die autonome Fahrfunktion signalisiert werden.Said machine learning model can be trained by means of the new training data set or generally by means of the training data resulting therefrom, which comprise at least one such new training data set. A model and training method known from the prior art can be used for this purpose. The model trained in this way can then be operated in a motor vehicle, for example, in order to use the model to carry out object detection, for which at least one sensor of the motor vehicle can provide sensor data as input data for the model. By means of the object detection, for example, a driver assistance function, or a brake assistant, and/or an autonomous driving function in the motor vehicle can be operated or supported by objects detected by the model being signaled to the driver assistance function and/or the autonomous driving function.
Durch die Erfindung ergibt sich der Vorteil, dass ausgehend von einem Trainingsdatensatz, wie er beispielsweise mittels einer realen Messung und/oder Simulation ermittelt werden kann, ein weiterer, neuer Trainingsdatensatz durch eine berechnete Verformung ermittelt werden kann, die durch ein Vektorfeld definiert ist. Es ist somit nicht notwendig, entsprechende tatsächlich verformte Verkehrsobjekte, beispielsweise verformte Kraftfahrzeuge, zu finden oder bereitzustellen, bei denen beispielsweise ein Außenblech verformt oder verbeult ist, um mittels eines Sensors entsprechende Trainingsdatensätze mittels realer Messungen zu erzeugen. Stattdessen kann ein Trainingsdatensatz eines unbeschädigten Kraftfahrzeugs mittels des Vektorfelds in einen neuen Trainingsdatensatz eines verformten Kraftfahrzeugs umgewandelt werden. Durch eine vektorielle Verschiebung der Messpunkte, die beispielsweise eine Verbeulung nachbildet, kann eine ursprüngliche Bauform eines Verkehrsteilnehmers nachgebildet werden. Wird der resultierende neue Trainingsdatensatz in einem Training eines Modelles des maschinellen Lernens trainiert oder berücksichtigt, so ist dieses Modell entsprechend in der Lage, die Objektdetektion auch korrekt auf ein Verkehrsobjekt anzuwenden, das eine solche Verformung, beispielsweise eine Verbeulung, aufweist. The advantage of the invention is that, based on a training data set, such as can be determined using a real measurement and/or simulation, another new training data set can be determined using a calculated deformation that is defined by a vector field. It is therefore not necessary to find or provide corresponding traffic objects that are actually deformed, for example deformed motor vehicles, in which, for example, an outer panel is deformed or dented in order to generate corresponding training data sets using real measurements using a sensor. Instead, a training data record of an undamaged motor vehicle can be converted into a new training data record of a deformed motor vehicle using the vector field. An original design of a road user can be simulated by a vector displacement of the measuring points, which simulates a buckling, for example. If the resulting new training data set is trained or taken into account in a training of a machine learning model, then this model is accordingly able to also correctly apply the object detection to a traffic object that has such a deformation, for example a buckling.
Der Trainingsdatensatz, dessen Messpunkte mittels des Vektorfelds verschoben werden, kann zusätzlich zu den Messpunkten auch so genannte Labeldaten enthalten, also Daten, welche eine Information oder Angabe über das durch die Messpunkte beschriebene Verkehrsobjekt oder die beschriebenen Verkehrsobjekte angeben. Beispielsweise können die Messpunkte eine Umgebung eines Kraftfahrzeugs darstellen oder beschreiben, in welcher sich zumindest ein anderer Verkehrsteilnehmer, beispielsweise ein anderes Kraftfahrzeug, befindet, z.B. in einer Fahrtrichtung des Messfahrzeugs vor dem Messfahrzeug, so dass in den Trainingsdaten durch die Messpunkte ein Heck des anderen Kraftfahrzeugs dargestellt ist. Die Labeldaten können entsprechend angeben, dass welches Verkehrsobjekt dargestellt ist und mit welcher relativen räumlichen Ausrichtung bezüglich des Sensors und/oder in welcher Distanz und/oder durch wie viele Messpunkt es abgebildet ist. Es kann also zusätzlich zu dem Typ des Verkehrsobjekts (Kraftfahrzeug, Fußgänger, Radfahrer, Fahrbahnoberfläche, Randbebauung) auch eine räumliche Orientierung oder Ausrichtung des jeweiligen Verkehrsobjekts durch die Labeldaten angegeben sein. Die Labeldaten können z.B. eine sogenannte Bounding-Box für jedes Verkehrsobjekt angeben. Die Labeldaten können in an sich bekannte Weise generiert werden, z.B. manuell oder automatisiert.The training data set, whose measuring points are shifted using the vector field, can also contain so-called label data in addition to the measuring points, i.e. data which provide information or details about the traffic object or traffic objects described by the measuring points. For example, the measuring points can represent or describe an environment of a motor vehicle in which at least one other road user, for example another motor vehicle, is located, e.g is shown. The label data can correspondingly indicate which traffic object is represented and with which relative spatial alignment with respect to the sensor and/or at which distance and/or through how many measurement points it is imaged. In addition to the type of traffic object (vehicle, pedestrian, cyclist, roadway surface, edge development), a spatial orientation or orientation of the respective traffic object can also be indicated by the label data. The label data can, for example, specify a so-called bounding box for each traffic object. The label data can be generated in a manner known per se, e.g. manually or automatically.
Die Erfindung umfasst auch Ausführungsformen, durch die sich zusätzliche Vorteile ergeben.The invention also includes embodiments that result in additional advantages.
Eine Weiterbildung umfasst, dass eine Richtung einer Verbindungslinie des jeweiligen Messpunkts zu einer Position eines Sensors, welcher den Messpunkt erzeugt hat, ermittelt wird und das Verschieben des jeweiligen Messpunkts nur entlang der Verbindungslinie erfolgt. Mit anderen Worten wird eine Verschiebung auf einen Messpunkt lediglich entlang einer Blickrichtung desjenigen Sensors, der die Messpunkte des Trainingsdatensatzes erzeugt hat, vorgenommen, also hin zu der Position des Sensors oder von dieser weg. Hierdurch ergibt sich der Vorteil, dass ein Muster einer Abtastung oder eines Rasters, das der Sensor in der Umgebung des Kraftfahrzeugs beim Erzeugen der Messpunkte angewendet hat, im neuen Trainingsdatensatz unverzerrt ist oder das Muster erhalten bleibt. Es ergeben sich pro Messpunkt lediglich Abstandsunterschiede oder Tiefenunterschiede im Vergleich zum unverschobenen Messpunkt. Die Messpunkte können beispielsweise Koordinaten bezüglich eines Koordinatenursprungs angeben, der der Position des messenden Sensors entsprechen kann. Mittels an sich bekannter geometrischer Berechnungen kann die Verbindungslinie zwischen Messpunkt und Sensor berechnet werden. Für einen gegebenen Messpunkt kann ein Verschiebevektor des Vektorfelds angewendet werden, indem der Verschiebevektor zunächst auf die Verbindungslinie projiziert wird und dann der projizierte Verschiebevektor auf den Messpunkt angewendet wird, wodurch sich dann der verschobene Messpunkt ergibt, dessen Verschiebung sich lediglich entlang der Verschiebelinie ergibt. Die Projektion eines Vektors auf eine Linie ist an sich aus dem Stand der Technik bekannt und kann z.B. auf dem Skalarprodukt beruhen.A development includes that a direction of a connecting line of the respective measuring point to a position of a sensor that generated the measuring point is determined and the displacement of the respective measuring point only takes place along the connecting line. In other words, a shift to a measurement point is performed only along a viewing direction of the sensor that generated the measurement points of the training data set, ie toward or away from the position of the sensor. This results in the advantage that a pattern of a scan or a grid that the sensor used in the area surrounding the motor vehicle when generating the measurement points is undistorted in the new training data record or the pattern is retained. There are only differences in distance or depth per measurement point compared to the non-displaced measurement point. The measuring points can, for example, indicate coordinates with respect to a coordinate origin, which can correspond to the position of the measuring sensor. The connecting line between the measuring point and the sensor can be calculated by means of geometric calculations that are known per se. For a given measurement point, a displacement vector of the vector field can be applied by first projecting the displacement vector onto the connecting line and then applying the projected displacement vector to the measurement point, which then gives the displaced measurement point, whose displacement is only along the displacement line. The projection of a vector onto a line is known per se from the prior art and can be based, for example, on the dot product.
Eine Weiterbildung umfasst, dass für das Verschieben der Messpunkte eine Skalierung des Raumvolumens auf eine Größe des durch die Messpunkte beschriebenen Verkehrsobjekts durchgeführt wird. In dem Trainingsdatensatz kann das Verkehrsobjekt beispielsweise durch eine so genannte Boundingbox identifiziert oder beschrieben sein, wie sie beispielsweise in den besagten Labeldaten definiert sein kann. Das Raumvolumen kann in der beschriebenen Weise ebenfalls als Quader oder Box definiert sein. Durch Angleichen der Boundingbox des Verkehrsobjekts und der Boundingbox des Raumvolumens wird das Vektorfeld an das Verkehrsobjekt angepasst. Dies ergibt den Vorteil, dass das Vektorfeld bei unterschiedlich großen Verkehrsobjekten dennoch eine einheitliche oder dieselbe Verformung ergibt. Somit hat beispielsweise ein Abstand des Verkehrsobjekts zum Sensor, der den Trainingsdatensatz erzeugt hat, keinen Einfluss auf die resultierende Verformung der Messpunkte.A further development includes that, for the displacement of the measurement points, the spatial volume is scaled to a size of the traffic object described by the measurement points. The traffic object can be identified or described in the training data record, for example, by a so-called bounding box, as can be defined, for example, in the said label data. The spatial volume can also be defined as a cuboid or box in the manner described. By matching the bounding box of the traffic object and the bounding box of the volume of space, the vector field is fitted to the traffic object. This results in the advantage that the vector field nevertheless results in a uniform or the same deformation for traffic objects of different sizes. Thus, for example, a distance between the traffic object and the sensor that generated the training data set has no influence on the resulting deformation of the measurement points.
Eine Weiterbildung umfasst, dass für das Verschieben der Messpunkte eine Anpassung einer räumlichen Ausrichtung des Raumvolumens bezüglich des Verkehrsobjekts durchgeführt wird. Wie bereits ausgeführt, kann eine Orientierung oder Ausrichtung des Verkehrsobjekts in dem Trainingsdatensatz durch die beschriebenen Labeldaten angegeben sein. Indem das Raumvolumen oder der Quader mit den Verschiebevektoren in der Ausrichtung oder relativen Rotation an das Verkehrsobjekt im Trainingsdatensatz angepasst wird, kann erreicht werden, dass Verschiebevektoren, die beispielsweise für eine Verformung eines Hecks eines Kraftfahrzeugs oder allgemein eines vorgegebenen Bereichs des Verkehrsobjekts vorgesehen sind, auch korrekt in dem Trainingsdatensatz auf diesen Bereich des Verkehrsteilnehmers, also beispielsweise dessen Heck, angewendet werden.A development includes that a spatial alignment of the spatial volume with respect to the traffic object is adapted for the displacement of the measurement points. As already stated, an orientation or orientation of the traffic object can be indicated in the training data set by the described label data. By adapting the spatial volume or the cuboid with the displacement vectors in the orientation or relative rotation to the traffic object in the training data set, displacement vectors that are provided, for example, for a deformation of a rear end of a motor vehicle or generally a predetermined area of the traffic object, can also be achieved be applied correctly in the training data set to this area of the road user, ie, for example, to the rear.
Eine Weiterbildung umfasst, dass beim Verschieben der Messpunkte ein maximaler Verschiebeweg auf einen vorbestimmten maximalen Verschiebewertbegrenzt wird. Der maximale Verschiebewert kann beispielsweise in einem Bereich von 5 cm bis 40 cm liegen. Durch Begrenzen des Verschiebewerts ergibt sich der Vorteil, dass eine physikalisch realistische Verformung des Verkehrsobjekts resultiert, also beispielsweise eine Beule in einem Kraftfahrzeug, die nicht derart groß ist, dass das Kraftfahrzeug eigentlich fahruntüchtig sein müsste oder sich ein Durchbruch ergeben müsste. Das Begrenzen des Verschiebewegs kann erfolgen, indem der Betrag des angewendeten Verschiebevektors auf den maximalen Verschiebewert begrenzt oder gekürzt wird.A development includes that when the measuring points are displaced, a maximum displacement path is limited to a predetermined maximum displacement value. The maximum displacement value can be in a range from 5 cm to 40 cm, for example. Limiting the displacement value has the advantage that a physically realistic deformation of the traffic object results, for example a dent in a motor vehicle that is not so large that the motor vehicle would actually have to be unroadworthy or a breakthrough would have to occur. Limiting the displacement distance can be done by limiting or truncating the magnitude of the applied displacement vector to the maximum displacement value.
Eine Weiterbildung umfasst, dass beim Verschieben der Messpunkte ein Unterschied von jeweiligen Verschiebeweiten benachbarter Messpunkte auf einen vorbestimmten maximalen Unterschiedswert begrenzt wird. Der maximale Unterschiedswert kann in einem Bereich von 0,5 cm bis 10 cm liegen. Durch Begrenzung eines Unterschieds der Verschiebeweiten benachbarter Messpunkte ergibt sich der Vorteil, dass eine physikalisch realistische Verformung nachgebildet wird, wie sie bei einem Blech eines Kraftfahrzeugs erwartet werden kann oder realistisch ist. Im Englischen wird diese Begrenzung als Erhalt der „Smoothness“ bezeichnet.A development includes that when the measuring points are shifted, a difference between the respective shifting distances of adjacent measuring points is limited to a predetermined maximum difference value. The maximum difference value can range from 0.5 cm to 10 cm. Limiting a difference in the displacement ranges of adjacent measurement points results in the advantage that a physically realistic deformation is simulated, as can be expected or is realistic in the case of a metal panel of a motor vehicle. In English, this limitation is referred to as maintaining "smoothness".
Eine Weiterbildung umfasst, dass die Raumpunkte der Verschiebevektoren in dem Raumvolumen in einem Raster beabstandet zueinander angeordnet sind und für den jeweiligen Messpunkt als der zu verwendende Verschiebevektor derjenige mit dem räumlich am nächsten angeordnete Raumpunkt oder ein aus mehreren benachbarten Verschiebevektoren interpolierter Verschiebevektor verwendet wird. Das Raster, in welchem die Raumpunkte oder Fußpunkte der Verschiebevektoren angeordnet sind, kann beispielsweise einen Abstand benachbarter Raumpunkte in einem Bereich von 1 cm bis 40 cm vorsehen. Fällt nun ein Messpunkt nicht genau auf einen solchen Raumpunkt, sondern liegt er zwischen mehreren Raumpunkten, so kann der räumlich nächstliegende Raumpunkt oder Fußpunkt ermittelt und der zugehörige Verschiebevektor angewendet werden. Alternativ dazu kann eine Interpolation der Verschiebevektoren der den Messpunkt umgebenden entlang der Rasterlinien nächsten Raumpunkte oder Fußpunkte vorgenommen werden. Die Interpolation kann beispielsweise eine gewichtete Überlagerung oder Summe der ausgewählten Verschiebevektoren vorsehen. Die Gewichtung kann dabei proportional dem Abstand des zugehörigen Raumpunktes oder Fußpunktes zu dem Messpunkt sein. Die Summe der gewichteten Verschiebevektoren kann dann durch die Anzahl der verwendeten Verschiebevektoren geteilt werden, woraus sich ein geeigneter Verschiebevektor ergibt. Durch beabstandete Raumpunkte ergibt sich der Vorteil, dass das Vektorfeld mit einem geringen Datenaufwand beschrieben werden kann. Zudem kann ein iteratives Verfahren zum Berechnen eines Vektorfelds effizient durchgeführt werden. Ein solches Erzeugungsverfahren ist im Folgenden beschrieben.A further development comprises that the spatial points of the displacement vectors in the volume of space are arranged at a distance from one another in a grid and that the displacement vector to be used for the respective measuring point is the one with the spatially closest spatial point or a displacement vector interpolated from several neighboring displacement vectors. The grid in which the spatial points or base points of the displacement vectors are arranged can, for example, provide a distance between adjacent spatial points in a range of 1 cm to 40 cm. If a measuring point does not fall exactly on such a point in space, but lies between several points in space, the spatially closest point in space or base point can be determined and the associated displacement vector can be used. As an alternative to this, an interpolation of the displacement vectors of the next spatial points or base points surrounding the measuring point along the grid lines can be undertaken. For example, the interpolation can provide a weighted superimposition or sum of the selected displacement vectors. The weighting can be proportional to the distance of the associated spatial point or base point from the measuring point. The sum of the weighted displacement vectors can then be divided by the number of displacement vectors used, resulting in an appropriate displacement vector. Spaced points in space result in the advantage that the vector field can be described with a small amount of data. In addition, an iterative method for calculating a vector field can be performed efficiently. Such a generation method is described below.
Eine Weiterbildung umfasst, dass das Erzeugungsverfahren zum Erzeugen des Vektorfelds umfasst, dass das Vektorfeld mit vorbestimmten initialen Verschiebevektoren initialisiert wird und dann einmalig oder iterativ mittels eines bereits vortrainierten Vorläufermodells des maschinellen Lernens, das mittels des Trainingsdatensatzes und/oder zumindest eines weiteren Trainingsdatensatzes für eine Objektdetektion trainiert ist, dann zu dem Trainingsdatensatz und/oder zu dem zumindest einem weiteren Trainingsdatensatz ein Erkennungsergebnis erzeugt wird, das angibt, ob ein und/oder welches Verkehrsobjekt erkannt wurde. Für zumindest einen der Verschiebevektoren wird dann jeweils eine Vektorveränderung ermittelt, durch welche eine Verschlechterung des Erkennungsergebnisses bewirkt wird. Diese Vektorveränderung wird dann auf den jeweiligen Verschiebevektor angewendet. Ein beispielhafter initialer Verschiebevektor ist ein Nullvektor, also eine Verschiebung mit dem Betrag oder einem Verschiebeweg von Null. Somit ist der in der ersten Iteration erzeugte neue Trainingsdatensatz identisch mit dem ursprünglich verwendeten Trainingsdatensatz (die Messpunkte bleiben unverschoben). Wird dann ein Vorläufermodell des maschinellen Lernens angewendet, also ein Modell des maschinellen Lernens, das auf die Objektdetektion unverformter Verkehrsobjekte, also beispielsweise unbeschädigter Kraftfahrzeuge, trainiert ist, so ergibt sich ein Erkennungsergebnis, das beispielsweise angeben kann, welches Verkehrsobjekt erkannt wurde und/oder welche räumliche Ausrichtung dieses aufweist. Sodann kann in der jeweiligen Iteration durch Verändern der Verschiebevektoren oder zumindest eines Verschiebevektors ein neuer Trainingsdatensatz erzeugt werden und das sich bei einer erneuten Objektdetektion ergebende neue Erkennungsergebnis daraufhin geprüft werden, ob eine Erkennungsleistung verschlechtert wurde. Beispielsweise kann die an sich bekannte Erkennungskonfidenz und/oder eine Klassifizierungswahrscheinlichkeit für eine einzelne Objektdetektion und/oder eine Erkennungsstatistik (Anteil korrekter Detektionen) für eine Vielzahl von Objektdetektionen unterschiedlicher Verkehrsobjekte ausgewertet werden. Hier ist nun eine Verschlechterung des Erkennungsergebnisses das Ziel oder erwünscht, um eine effektive Vektorveränderung zu ermitteln. Hierbei kann pro Iteration die Vektorveränderung des zumindest einen Verschiebevektors beispielsweise im Betrag begrenzt sein, also ein beschränktes Delta oder eine beschränkter Veränderungsschritt vorgesehen sein. Die Vektorveränderung des zumindest einen Verschiebevektors kann beispielsweise zufällig gewählt werden, also einen Zufallsprozess bei der Auswahl zumindest eines Verschiebevektors oder mehrerer Verschiebevektoren in dem Vektorfeld und/oder beim Festlegen oder Ermitteln des Betrags und/oder der Richtung der Vektorveränderung umfassen.A further development includes that the generation method for generating the vector field includes that the vector field is initialized with predetermined initial displacement vectors and then once or iteratively using an already pre-trained predecessor model of machine learning, which uses the training data set and/or at least one further training data set for an object detection is trained, then a recognition result is generated for the training data record and/or for the at least one further training data record, which indicates whether and/or which traffic object was recognized. A vector change is then determined for at least one of the displacement vectors, which causes a deterioration in the recognition result. This vector change is then applied to the respective displacement vector. An exemplary initial displacement vector is a zero vector, ie a displacement with the absolute value or a displacement distance of zero. Thus, the new training data set generated in the first iteration is identical to the training data set originally used (the measurement points remain unchanged). If a precursor model of machine learning is then applied, i.e. a model of machine learning that is trained to detect undeformed traffic objects, i.e. undamaged motor vehicles, for example, a recognition result is obtained that can indicate, for example, which traffic object was recognized and/or which spatial orientation of this has. Then in the respective iteration by changing the displacement vectors or at least one displacement vector, a new training data record is generated and the new recognition result obtained when an object is detected again is checked to determine whether a recognition performance has deteriorated. For example, the known recognition confidence and/or a classification probability for a single object detection and/or a recognition statistic (proportion of correct detections) for a large number of object detections of different traffic objects can be evaluated. Here, a worsening of the recognition result is the goal or desired in order to determine an effective vector change. In this case, the vector change of the at least one displacement vector can be limited in amount per iteration, for example, ie a limited delta or a limited change step can be provided. The vector change of the at least one displacement vector can be chosen randomly, for example, i.e. it can include a random process when selecting at least one displacement vector or several displacement vectors in the vector field and/or when determining or determining the amount and/or the direction of the vector change.
Bevorzugt wird aber ausgehend von dem initialen Vektorfeld die Veränderung oder Vektorveränderung des zumindest einen Verschiebevektors jedoch systematisch durchgeführt, um eine pro Iteration eine maximal mögliche Verschlechterung des Erkennungsergebnisses bei vordefinierter begrenzter Vektorveränderung, beispielsweise bei vordefinierter maximaler Betragsänderung und/oder Richtungsänderung eines jeweiligen Verschiebevektors zu erreichen.However, starting from the initial vector field, the change or vector change of the at least one displacement vector is preferably carried out systematically in order to achieve a maximum possible deterioration of the recognition result per iteration in the case of a predefined limited vector change, for example in the case of a predefined maximum change in magnitude and/or change in direction of a respective displacement vector.
Eine Weiterbildung umfasst hierzu, dass als Modell des maschinellen Lernens ein künstliches neuronales Netzwerk verwendet wird und die Vektorveränderung mittels eines Gradientenverfahrens ermittelt wird. Ein solches Gradientenverfahren kann beispielsweise ermittelt werden oder gebildet werden auf der Grundlage des an sich bekannten Gradienten-Abstiegsverfahrens. Im vorliegenden Fall ist man allerdings an einer Verschlechterung des Erkennungsergebnisses interessiert, so dass auch von einem Gradienten-Aufstiegsverfahren gesprochen werden kann. Im Zusammenhang mit einem künstlichen neuronalen Netzwerk kann die Tatsache ausgenutzt werden, dass ausgehend von einem Trainingsdatensatz das Anwenden des Vektorfeldes und das anschließende Eingeben der verschobenen Messpunkte in eine Eingangsschicht oder Eingabeschicht des künstlichen neuronalen Netzwerks sowie die Verarbeitung in den Zwischenschichten des Netzwerks und das Erzeugen des Erkennungsergebnisses an der Ausgangsschicht insgesamt als ein Berechnungsvorgang beschrieben oder als eine analytische Berechnungsvorschrift zusammengefasst werden kann, zu welcher ein Gradient berechnet werden kann. Dies ist an sich im Zusammenhang mit dem Back-Propagation-Training für künstliche neuronale Netze bekannt. Vorliegend wird dies nun genutzt, um den sich ergebenden Gradienten auf das Vektorfeld zu projizieren oder zu übertragen, um dort die beschriebene Vektorveränderung in Abhängigkeit von dem propagierten oder projizierten Gradienten zu verändern. Somit ist sichergestellt, dass pro Iteration eine Maximierung der Verschlechterung oder Verringerung der Erkennungsleistung aufgrund der Anwendung des Vektorfelds gegeben ist. Dies macht das Verfahren besonders effizient. Die Zwischenschichten des künstlichen neuronalen Netzwerks selbst können hierbei unverändert bleiben, d.h. das Netzwerk selbst „lernt“ nicht.A further development in this respect includes using an artificial neural network as the model for machine learning and determining the vector change using a gradient method. Such a gradient method can, for example, be determined or formed on the basis of the gradient descent method known per se. In the present case, however, one is interested in a worsening of the recognition result, so that one can also speak of a gradient ascent method. In connection with an artificial neural network, the fact can be exploited that, starting from a training data set, the application of the vector field and the subsequent input of the shifted measurement points into an input layer or input layer of the artificial neural network as well as the processing in the intermediate layers of the network and the generation of the Recognition result at the output layer can be described overall as a calculation process or can be summarized as an analytical calculation rule for which a gradient can be calculated. This is known per se in connection with back-propagation training for artificial neural networks. This is now used in the present case in order to project or transfer the resulting gradient onto the vector field in order to change the vector change described there as a function of the propagated or projected gradient. This ensures that the deterioration or reduction in recognition performance due to the application of the vector field is maximized per iteration. This makes the process particularly efficient. The intermediate layers of the artificial neural network itself can remain unchanged, i.e. the network itself does not "learn".
Eine Weiterbildung umfasst, dass zumindest ein weiteres Vektorfeld erzeugt wird und jedes Vektorfeld einer anderen vorbestimmten möglichen Messsituation des Verkehrsobjekts zugeordnet wird und zum Verschieben der Messpunkte eine tatsächliche Messsituation des in dem Trainingsdatensatz abgebildeten Verkehrsobjekts ermittelt wird und das zugeordnete Vektorfeld für die Verschiebung der Messpunkte verwendet wird. Die Messsituation kann dabei durch eine Angabe zur relativen räumlichen Ausrichtung und/oder eine Angabe zur Distanz des Verkehrsobjekts zum Sensor und/oder eine Angabe zur Anzahl der ermittelten Messpunkte eines Verkehrsobjekts beschrieben sein. Mit anderen Worten kann für eine Verformung eines Verkehrsobjekts aus unterschiedlichen Blickrichtungen und/oder Entfernungen und/oder Messpunkt-Wolken jeweils ein eigenes Vektorfeld definiert sein. Es kann somit z.B. ein Vektorfeld für eine Verformung eines Kraftfahrzeugs aus einer Rückansicht, eine Verformung des Kraftfahrzeugs aus einer Seitenansicht und eine Verformung des Kraftfahrzeugs aus einer Frontalansicht definiert sein, um nur Beispiele zu nennen. Es kann beispielsweise für eine Veränderung des Blickwinkels in horizontaler Richtung um 20 Grad bis 50 Grad jeweils ein Vektorfeld definiert sein. Entsprechend können Trainingsdatensätze in Gruppen eingeteilt werden, wobei jede Gruppe sich durch den Blickwinkel ergeben kann, also beispielsweise die Gruppe der Trainingsdatensätze von Kraftfahrzeugen in Frontalansicht. Für jede dieser Gruppen ist dann ein Vektorfeld verfügbar. Um in einem Trainingsdatensatz die darin enthaltene Gruppe oder Ausrichtung zu erkennen, kann auf die beschriebenen Labeldaten zurückgegriffen werden. Genauso kann für eine ermittelte Distanz und/oder die Anzahl oder Menge der Messpunkte vorgegangen werden. Die Distanz kann z.B. mittels eines Radar-Sensors und/oder LIDAR-Sensors und/oder eine TOF-Sensors (TOF - Time of Flight) ermittelt werden.A further development includes that at least one further vector field is generated and each vector field is assigned to another predetermined possible measurement situation of the traffic object and to shift the measurement points an actual measurement situation of the traffic object depicted in the training data set is determined and the assigned vector field is used to shift the measurement points . The measurement situation can be described by an indication of the relative spatial alignment and/or an indication of the distance of the traffic object from the sensor and/or an indication of the number of measuring points of a traffic object determined. In other words, a separate vector field can be defined for a deformation of a traffic object from different viewing directions and/or distances and/or measurement point clouds. Thus, for example, a vector field can be defined for a deformation of a motor vehicle from a rear view, a deformation of the motor vehicle from a side view and a deformation of the motor vehicle from a front view, just to name examples. For example, a vector field can be defined for a change in the viewing angle in the horizontal direction by 20 degrees to 50 degrees. Correspondingly, training data sets can be divided into groups, each group being able to result from the viewing angle, ie for example the group of training data sets of motor vehicles in frontal view. A vector field is then available for each of these groups. In order to recognize the group or alignment contained in a training data record, the described label data can be used. The same procedure can be used for a determined distance and/or the number or quantity of measurement points. The distance can be determined, for example, using a radar sensor and/or LIDAR sensor and/or a TOF sensor (TOF—Time of Flight).
Eine Weiterbildung umfasst, dass der Trainingsdatensatz Messpunkte eines LIDAR-Sensors und/oder eines Radar-Sensors und/oder eines Stereo-Bilds einer Stereokamera oder Messpunkte eines TOF-Sensors (TOF - time of flight) umfasst. Die angegebenen Sensoren ergeben Punktwolken aus Messpunkten als Sensorergebnis, so dass sich auf diese Sensoren das Verfahren in vorteilhafter Weise anwenden lässt.A further development includes that the training data set includes measuring points of a LIDAR sensor and/or a radar sensor and/or a stereo image of a stereo camera or measuring points of a TOF sensor (TOF—time of flight). The specified sensors result in point clouds from measurement points as the sensor result, so that the method can be applied to these sensors in an advantageous manner.
Als eine Lösung umfasst die Erfindung ein Prozessorsystem mit einer Prozessorschaltung, die dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen. Die Prozessorschaltung kann auf einem Mikroprozessor oder mehreren Mikroprozessoren beruhen. Das Verfahren kann beispielsweise als ein Programmcode oder als Programminstruktionen implementiert sein, die in einem Datenspeicher des Prozessorsystems gespeichert sein können und die dazu eingerichtet sein können, bei Ausführung durch den zumindest einen Mikroprozessor, die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen.As a solution, the invention comprises a processor system with a processor circuit that is set up to carry out a method according to any one of the preceding claims. The processor circuitry can be based on one or more microprocessors. The method can be implemented, for example, as a program code or as program instructions, which can be stored in a data memory of the processor system and which can be set up to carry out the embodiment of the method according to the invention when executed by the at least one microprocessor.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar.Further features of the invention result from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description and the features and combinations of features mentioned below in the description of the figures and/or shown alone in the figures can be used not only in the combination specified in each case, but also in other combinations or on their own.
Die Erfindung wird nun anhand eines bevorzugten Ausführungsbeispiels sowie unter Bezugnahme auf die Zeichnungen näher erläutert. Es zeigen:
-
1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Prozessorsystems; -
2 ein Diagramm zur Veranschaulichung einer Anwendung eines Vektorfelds auf einen Trainingsdatensatz; -
3 eine schematische Darstellung zur Veranschaulichung eines Erzeugungsverfahrens eines Vektorfelds.
-
1 a schematic representation of an embodiment of the processor system according to the invention; -
2 a diagram for illustrating an application of a vector field to a training data set; -
3 a schematic representation to illustrate a generation method of a vector field.
In dem Steuergerät 20 kann ein Modell 21 des maschinellen Lernens, beispielsweise ein künstliches neuronales Netzwerk oder ein Decision-Tree-Modell oder eine Support-Vector-Machine (SVM), betrieben werden, durch welches auf Grundlage der Sensordaten 19 die Objektdetektion oder Objekterkennung durchgeführt werden kann. Auf der Grundlage der Objektdetektion kann ein Erkennungsergebnis 22 erzeugt werden, welches angibt, welches Verkehrsobjekt 15, 16 aktuell in der Umgebung 17 auf Grundlage der Sensordaten 19 erkannt wurde. Das Erkennungsergebnis 22 kann beispielsweise entsprechende Erkennungsdaten umfassen, die beispielsweise eine Koordinate des jeweiligen Verkehrsobjekts 15, 16 relativ zu einem Koordinatensystem des Kraftfahrzeugs 10 und/oder des zumindest einen Sensors 18 und/oder eines absoluten Welt-Koordinatensystems (Geo-Koordinaten) beschreiben kann. Das Erkennungsergebnis 22 kann der Fahrerassistenzfunktion 12 und/oder der autonomen Fahrfunktion 13 bereitgestellt werden, so dass dort durch eine Anpassung einer Fahrtrajektorie 23 das jeweilige Verkehrsobjekt 15, 16 beim Führen des Kraftfahrzeugs 10 für eine kollisionsfreie Fahrzeugführung berücksichtigt werden kann.A
Um die Objektdetektion mittels des Modells 21 auf Grundlage der Sensordaten 19 durchführen zu können, kann das Modell 21 durch ein Prozessorsystem 30 auf der Grundlage eines Lernverfahrens 31 für maschinelles Lernen erzeugt werden. Das fertig trainierte Modell 21 kann dann beispielsweise bei einer Herstellung des Steuergeräts 20 und/oder bei einer Herstellung des Kraftfahrzeugs 10 und/oder nachträglich über eine Kommunikationsverbindung 32 in dem Kraftfahrzeug 10 bereitgestellt worden sein. Die Kommunikationsverbindung 32 kann beispielsweise auf einer Internetverbindung und/oder einer Funkverbindung (z. B. WiFi/WLAN und/oder Mobilfunk und/oder kabelgebunden) übertragen werden.In order to carry out the object detection using the
Um das Modell 21 mittels des Lernverfahrens 31 erzeugen zu können, können in einem Schritt S10 Trainingsdaten 34 mit Trainingsdatensätzen 35 ermittelt oder bereitgestellt werden. Die Trainingsdatensätze 35 können jeweils Sensordaten mit Messpunkten aus zumindest einem Sensor wie dem Sensor 18, also beispielsweise Lidar-Sensordaten und/oder Radar-Sensordaten, sowie die bereits beschriebenen Labeldaten umfassen. In Labeldaten kann angegeben sein, was für ein Verkehrsobjekt durch die jeweiligen Sensordaten in dem Trainingsdatensatz 35 beschrieben ist. Die Labeldaten können in an sich bekannter Weise beispielsweise durch einen Operateur oder eine Bedienperson oder automatisiert zu Sensordaten erzeugt werden. Die Trainingsdaten 34 können in an sich bekannter Weise dem Lernverfahren 31 zur Verfügung gestellt werden. Ein Beispiel für ein Lernverfahren 31 für maschinelles Lernen ist überwachtes Lernen, unüberwachtes Lernen.In order to be able to generate the
Bei dem Prozessorsystem 30 ist zusätzlich vorgesehen, dass zusätzlich weitere Trainingsdaten 36 bereitgestellt werden, die aus den Trainingsdaten 34 erzeugt werden können. Für jeden Trainingsdatensatz 35 einer Messung aus den Trainingsdaten 34 kann zumindest ein neuer Trainingsdatensatz 40 erzeugt werden. Mit anderen Worten ist zum Erzeugen der weiteren Trainingsdaten 36 keine weitere Testfahrt und/oder Messung mit einem Sensor notwendig. Es handelt sich somit um künstlich generierte oder augmentierte Trainingsdaten 36 auf Basis der Trainingsdatensätze 35.In the
Hierzu kann in dem Prozessorsystem 30 mittels zumindest eines Mikroprozessors ein Verschiebeverfahren 37 betrieben werden, das die einzelnen Trainingsdatensätze 35 in einem Schritt S12 mittels jeweils einem Vektorfeld 38 verändert oder verzerrt, indem Messpunkte 39 aus dem jeweiligen Trainingsdatensatz 35 räumlich verschoben werden, also ihre Koordinaten verändert werden, wobei dies in dem Vektorfeld 38 abhängig davon ist, welche Raumkoordinate den ursprünglichen Messpunkt 39 jeweils beschreibt oder angibt. Das Vektorfeld 38 kann zuvor in einem Schritt S11 aus mehreren vorbereiteten Vektorfeldern ausgewählt werden, was noch im Zusammenhang mit
Das Vektorfeld 38 kann, wie in
In dem Kraftfahrzeug 10 kann somit mittels des Modells 21 auch dann ein Verkehrsobjekt 15, 16 in der Umgebung 17 erkannt werden, wenn dieses von seiner ursprünglichen herstellungsbedingten Bauform abweicht, weil beispielsweise ein Kraftfahrzeug durch einen Unfall verformt ist, beispielsweise eine Beule im Außenblech aufweist.A
Es kann nun anhand des Objekttyps des jeweiligen Verkehrsobjekts 15, also hier des Objekttyps Kraftfahrzeug, beispielsweise als Objekttyp kann auch Personenkraftwagen, Lastkraftwagen, Personenbus, Radfahrer, Passant, angegeben sein, und die relative Orientierung 55 bezüglich des erfassenden Sensors, also beispielsweise des Sensors 18, kann jeweils eines aus mehreren bereitgestellten Vektorfeldern 38 ausgewählt werden, das für diesen Objekttyp und/oder diese Orientierung oder Ausrichtung und/oder die Distanz des Verkehrsobjekts zum Sensor und/oder die Anzahl der verfügbaren Messpunkte vorgesehen ist. Des Weiteren kann eine Skalierung 56 auf das Raumvolumen angewendet werden, um das Raumvolumen 51 auf die in dem Trainingsdatensatz 35 vorhandene Größe des jeweiligen Verkehrsobjekts 15 anzupassen. Dies hat den Vorteil, dass Raumpunkte 50 stets im selben Bereich eines Verkehrsobjekts des verwendeten Objekttyps angewendet werden, also Raumpunkte für Heckleuchten bei unterschiedlich weit entfernten Kraftfahrzeugen dennoch durch die Anpassung des Raumvolumens 51 auch auf die Messpunkte 39 der Heckleuchten angewendet werden.It can now be specified on the basis of the object type of the
Die Vektoren des Vektorfelds 38 können dann additiv auf die Messpunkte 39 beispielsweise in der jeweiligen Boundingbox der Verkehrsobjekts (z.B. aus den Labeldaten 54 bekannt) angewendet werden. Hierbei kann auch vorgesehen sein, dass nicht der jeweilige Verschiebevektor an dem Raumpunkt 50 vollständig angewendet wird, sondern nur derjenige Anteil, der in Blickrichtung verlängert zu der Position des Sensors hin oder von diesem weg weist, so dass sich ein Messraster durch das Anwenden des Vektorfelds 38 in dem neuen Trainingsdatensatz 40 im Verhältnis zum ursprünglichen Trainingsdatensatz 35 nicht verändert oder unverändert bleibt. Auf der rechten Seite ist dargestellt, wie bei Anwenden des Modells 21 auf den neuen Trainingsdatensatz 40 das Erkennungsergebnis 22 ergibt, dass eines der Kraftfahrzeuge mit einer falschen Orientierung 60 erkannt wird und bei einem zweiten der Kraftfahrzeuge eine Nicht-Erkennung 61 erfolgt, also keine Boundingbox für das nicht-erkannte Verkehrsobjekt ausgegeben wird in dem Erkennungsergebnis 22.The vectors of the
In
Das Gradientenverfahren 75 kann dabei dazu verwendet werden, diejenige Vektorveränderung 76 zu ermitteln, durch welche sich eine größtmögliche Verschlechterung oder Abweichung für das nächste Erkennungsergebnis bei der nächsten Iteration 71 ergeben würde. Da die Vektorveränderung 76 hierbei beispielsweise in Bezug auf den Betrag und/oder die Richtung begrenzt sein kann, kann durch mehrere Iterationen 71 ausgehend von dem initialen Vektorfeld 72 das Vektorfeld 38 mit einer geringstmöglichen Anzahl an Iterationen 71, also besonders effizient, hergeleitet oder definiert werden. Es kann hierbei vorgesehen sein, dass als Trainingsdatensätze 35 eine Gruppe 77 verwendet wird, die Verkehrsobjekte aus einer vorgegebenen Blickrichtung zeigen, beispielsweise werden für das Ermitteln eines Vektorfelds 38 in den Iterationen 71 unterschiedliche Trainingsdatensätze 35 von Verkehrsobjekten gezeigt, die vom selben Objekttyp, beispielsweise Kraftfahrzeug, sind und das jeweilige Verkehrsobjekt aus derselben Perspektive, beispielsweise das Fahrzeugheck oder die Fahrzeugfront, zeigen. Somit ergeben sich also spezialisierte oder typspezifische und perspektivisch spezifische Vektorfelder 38. Diese können dann, wie in
Beulen an Kraftfahrzeugen können im Straßenverkehr beobachtet werden und moderne Objektdetektoren können durch solche Verformungen erfolgreich „angegriffen“ oder durch sie gestört werden. Ein Objektdetektor kann nun so trainiert, dass er gegen diesen „Angriff“ resistent ist, selbst wenn kein gemessener Trainingsdatensatz, auf dem dieses Modell trainiert werden soll, verbeulte Kraftfahrzeuge enthält. Indem explizit Gegenbeispiele mit verbeulten Kraftfahrzeugen erzeugt werden, können die Trainingsdaten für die Modelle erweitert werden. Das Ergebnis sind Objektdetektoren, die zuverlässiger sind, wenn sie in der realen Welt auf ähnliche Verformungen treffen. Ohne diesen Ansatz wäre das Auffinden und Sammeln von Tausenden von verbeulten Autos in der realen Welt aus Kosten- und Zeitgründen nicht machbar.Bumps on motor vehicles can be observed on the road and modern object detectors can be affected by such deformation genes are successfully "attacked" or disrupted by them. An object detector can now be trained to be resistant to this "attack" even if no measured training data set on which to train this model contains dented automobiles. By explicitly generating counter-examples with dented motor vehicles, the training data for the models can be extended. The result is object detectors that are more reliable when encountering similar deformations in the real world. Without this approach, finding and collecting thousands of dented cars in the real world would not be feasible due to cost and time constraints.
Um einen Angriff physikalisch realisierbar und realistisch zu machen, werden Vektorfelder erlernt, die z.B. 3D-LIDAR-Messpunktwolken deformieren, so dass sie mit einem Modell, das auf die Detektion unverbeulter Verkehrsteilnehmer trainiert ist, nicht mehr oder nicht mehr richtig erkannt werden (z. B. weil eine falsche Ausrichtung erkannt wird). Dieser Ansatz hat mehrere entscheidende Vorteile: Die Verformung der Punktwolke kann physikalisch realistisch gestaltet werden und einen gültigen LIDAR-Scan erzeugen. Diese Vektorfelder ähneln realen Anwendungsfällen, wie z. B. verbeulten Autos nach Unfällen oder Personen in ungewöhnlicher Kleidung. Dies ist ein einzigartiger Beitrag im Vergleich zu früheren Arbeiten, und im Vergleich zum Stand der Technik kann der Angriff viel subtiler gestaltet sein. Die Vektorfelder können zur Erweiterung der Trainingsdaten verwendet werden, um die Objekterkennungsmodelle robuster gegen Fahrzeuge mit Dellen in der realen Welt zu machen.In order to make an attack physically realizable and realistic, vector fields are learned which, for example, deform 3D LIDAR measurement point clouds so that they are no longer or no longer correctly recognized with a model that is trained to detect undamaged road users (e.g. B. because a wrong orientation is detected). This approach has several key advantages: The deformation of the point cloud can be made physically realistic and produce a valid LIDAR scan. These vector fields are similar to real-world use cases, such as B. dented cars after accidents or people in unusual clothing. This is a unique contribution compared to previous work and compared to the prior art, the attack can be made much more subtle. The vector fields can be used to augment the training data to make the object detection models more robust to dented vehicles in the real world.
Das Beispiel zeigt somit physikalisch realisierbare „Angriffe“ auf LIDAR-basierte 3D-Objektdetektoren durch Verformung von Punktwolken aus Messpunkten mittels szenenkonsistenten Vektorfeldern.The example thus shows physically realizable "attacks" on LIDAR-based 3D object detectors by deforming point clouds from measurement points using scene-consistent vector fields.
Bezugszeichenlistereference list
- 1010
- Kraftfahrzeugmotor vehicle
- 1111
- Steuergerätcontrol unit
- 1212
- Fahrerassistenzfunktiondriver assistance function
- 1313
- Fahrfunktiondriving function
- 1414
- Aktuatoractuator
- 1515
- Verkehrsobjekttraffic object
- 1616
- Verkehrsobjekttraffic object
- 1717
- UmgebungVicinity
- 1818
- Sensorsensor
- 1919
- Sensordatensensor data
- 2020
- Steuergerätcontrol unit
- 2121
- ModellModel
- 2222
- Erkennungsergebnisrecognition result
- 2323
- Fahrtrajektoriedriving trajectory
- 3030
- Prozessorsystemprocessor system
- 3131
- Lernverfahrenlearning method
- 3232
- Kommunikationsverbindungcommunication link
- 3434
- Trainingsdatentraining data
- 3535
- Trainingsdatentraining data
- 3636
- Trainingsdatentraining data
- 3737
- Verschiebeverfahrenmove procedure
- 3838
- Vektorfeldvector field
- 3939
- Messpunktmeasuring point
- 4040
- Trainingsdatensatztraining data set
- 4141
- Messpunktenmeasuring points
- 4242
- Verkehrsobjekttraffic object
- 5050
- Raumpunktspace point
- 5151
- Raumvolumenroom volume
- 5252
- Fahruntergrunddriving surface
- 5353
- Randbebauungperipheral development
- 5454
- Labeldatenlabel data
- 5555
- Orientierungorientation
- 5656
- Skalierungscaling
- 6060
- Orientierungorientation
- 6161
- Nicht-Erkennungnon-detection
- 7070
- Erzeugungsverfahrenproduction process
- 7171
- Iterationiteration
- 7272
- Initiales VektorfeldInitial vector field
- 7373
- Vektoradditionvector addition
- 7474
- ModellModel
- 7575
- Gradientenverfahrengradient method
- 7676
- VektorveränderungVector Alteration
- 7777
- Gruppegroup
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- US 10262236 B2 [0007]US 10262236 B2 [0007]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021126079.5A DE102021126079A1 (en) | 2021-10-07 | 2021-10-07 | Method and processor system for generating training data for training a machine learning model for object detection |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021126079.5A DE102021126079A1 (en) | 2021-10-07 | 2021-10-07 | Method and processor system for generating training data for training a machine learning model for object detection |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021126079A1 true DE102021126079A1 (en) | 2023-04-13 |
Family
ID=85705260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021126079.5A Pending DE102021126079A1 (en) | 2021-10-07 | 2021-10-07 | Method and processor system for generating training data for training a machine learning model for object detection |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021126079A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10262236B2 (en) | 2017-05-02 | 2019-04-16 | General Electric Company | Neural network training image generation system |
-
2021
- 2021-10-07 DE DE102021126079.5A patent/DE102021126079A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10262236B2 (en) | 2017-05-02 | 2019-04-16 | General Electric Company | Neural network training image generation system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018204494B3 (en) | Generation of synthetic radar signals | |
EP3497476B1 (en) | Motor vehicle and method for a 360° detection of the surroundings | |
DE102020214283A1 (en) | DEVICE FOR DETECTION OF OBSTACLES, VEHICLE SYSTEM WITH THIS AND METHOD FOR IT | |
DE102020113848A1 (en) | ECCENTRICITY FUSION | |
EP3475936B1 (en) | Method for verifying a collision between two driverless transporting vehicles, a driverless transport vehicle and a system with several driverless transport vehicles | |
EP3543985A1 (en) | Simulation of different traffic situations for a test vehicle | |
WO2016020347A1 (en) | Method for detecting an object in a surrounding region of a motor vehicle using an ultrasonic sensor, driver assistance system, and motor vehicle | |
DE102021002798A1 (en) | Process for camera-based environment detection | |
DE102013113960A1 (en) | Road surface shape determining device | |
DE102016105238A1 (en) | VEHICLE AND VEHICLE PARKING SYSTEM | |
DE112020006045T5 (en) | FORMAL SECURE SYMBOLIC REINFORCEMENT LEARNING THROUGH VISUAL INPUTS | |
DE102021128041A1 (en) | IMPROVEMENT OF A VEHICLE NEURAL NETWORK | |
EP3520024A1 (en) | Detection and validation of objects from sequential images from a camera by means of homographs | |
WO2020064453A1 (en) | Method and apparatus for improving object identification of a radar device with the aid of a lidar map of the surroundings | |
DE102019208735A1 (en) | Method for operating a driver assistance system for a vehicle and a driver assistance system for a vehicle | |
DE102021213021A1 (en) | PARKING ASSISTANCE SYSTEM WITH IMPROVED ESCAPE CONTROL AND METHOD THEREOF | |
DE112020002753T5 (en) | VEHICLE CONTROL METHOD, VEHICLE CONTROL DEVICE AND VEHICLE CONTROL SYSTEM INCLUDING THEM | |
WO2019110177A1 (en) | Training and operating a machine learning system | |
DE102022123859A1 (en) | OBJECT POSITION DETECTION THROUGH A NEURAL NETWORK | |
DE102008036219A1 (en) | Method for identification of object i.e. traffic sign, in surrounding area of e.g. passenger car, involves determining similarity measure between multiple characteristics of image region and multiple characteristics of characteristic set | |
DE102022123499B3 (en) | Computer-implemented method, processor circuit and computer program for processing measurement points received from an environment sensor, in particular radar measurement points, for object detection and a correspondingly equipped motor vehicle | |
DE102017121052A1 (en) | Processing a point cloud generated by an environment detection device of a motor vehicle to a Poincaré-invariant symmetrical input vector for a neural network | |
EP3809316A1 (en) | Prediction of a road route based on radar data | |
WO2020224970A1 (en) | Method and device for locating a vehicle | |
DE102021126079A1 (en) | Method and processor system for generating training data for training a machine learning model for object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009660000 Ipc: G06V0030194000 |
|
R163 | Identified publications notified |