DE102022204767A1 - Method and device for processing sensor data from a sensor system of a vehicle - Google Patents
Method and device for processing sensor data from a sensor system of a vehicle Download PDFInfo
- Publication number
- DE102022204767A1 DE102022204767A1 DE102022204767.2A DE102022204767A DE102022204767A1 DE 102022204767 A1 DE102022204767 A1 DE 102022204767A1 DE 102022204767 A DE102022204767 A DE 102022204767A DE 102022204767 A1 DE102022204767 A1 DE 102022204767A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- coordinate system
- sensor
- vehicle
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000012545 processing Methods 0.000 title claims abstract description 20
- 238000013528 artificial neural network Methods 0.000 claims abstract description 19
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 12
- 230000007613 environmental effect Effects 0.000 claims description 7
- 230000004927 fusion Effects 0.000 description 16
- 238000004422 calculation algorithm Methods 0.000 description 11
- 230000008901 benefit Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 230000008447 perception Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000007257 malfunction Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- JOCBASBOOFNAJA-UHFFFAOYSA-N N-tris(hydroxymethyl)methyl-2-aminoethanesulfonic acid Chemical compound OCC(CO)(CO)NCCS(O)(=O)=O JOCBASBOOFNAJA-UHFFFAOYSA-N 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/87—Combinations of radar systems, e.g. primary radar and secondary radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/408—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle for navigation systems
Abstract
Ein Verfahren zum Verarbeiten von Sensordaten (13, 15, 29, 33) einer Sensorik (5) zum Erfassen einer Umgebung eines Fahrzeugs (1) umfasst: Empfangen erster Sensordaten (13), die von einem ersten Sensor (9) erzeugt wurden, und zweiter Sensordaten (15), die von einem in seinem Typ vom ersten Sensor abweichenden zweiten Sensor (11) erzeugt wurden; Eingeben der ersten Sensordaten in ein erstes neuronales Netz (35), das trainiert wurde, um die ersten Sensordaten in erste Objektdaten (39) umzuwandeln, und Eingeben der zweiten Sensordaten in ein zweites neuronales Netz (37), das trainiert wurde, um die zweiten Sensordaten in zweite Objektdaten (41) umzuwandeln, wobei die Objektdaten Parameter von Objekten in der Umgebung zugeordneten Objektmodellen (43) definieren, wobei die Parameter neben einer Objektklasse eine Position und/oder Orientierung der Objekte umfassen, wobei die Objektmodelle der ersten Objektdaten in ihrem Typ mit den Objektmodellen der zweiten Objektdaten übereinstimmen; Aktualisieren eines die Umgebung repräsentierenden Umgebungsmodells (44) mit den Objektdaten.A method for processing sensor data (13, 15, 29, 33) of a sensor system (5) for detecting an environment of a vehicle (1) comprises: receiving first sensor data (13) generated by a first sensor (9), and second sensor data (15), which were generated by a second sensor (11) which differs in type from the first sensor; Entering the first sensor data into a first neural network (35) that has been trained to convert the first sensor data into first object data (39), and entering the second sensor data into a second neural network (37) that has been trained to convert the second Converting sensor data into second object data (41), the object data defining parameters of object models (43) assigned to objects in the environment, the parameters comprising, in addition to an object class, a position and/or orientation of the objects, the object models of the first object data in their type match the object models of the second object data; Updating an environment model (44) representing the environment with the object data.
Description
Gebiet der ErfindungField of invention
Die Erfindung betrifft ein computerimplementiertes Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs. Zudem betrifft die Erfindung eine Datenverarbeitungsvorrichtung und ein Computerprogramm zum Ausführen des Verfahrens sowie ein computerlesbares Medium, auf dem das Computerprogramm gespeichert ist.The invention relates to a computer-implemented method for processing sensor data from a sensor system of a vehicle. The invention also relates to a data processing device and a computer program for carrying out the method, as well as a computer-readable medium on which the computer program is stored.
Stand der TechnikState of the art
Ein Fahrzeug wie beispielsweise ein Pkw oder Lkw kann mit einem Fahrerassistenzsystem ausgestattet sein, das eine teil- oder vollautomatisierte Steuerung des Fahrzeugs ermöglicht. Hierzu kann das Fahrerassistenzsystem beispielsweise mittels einer geeigneten Sensorik Positionen, Orientierungen und/oder Typen von Objekten in der Umgebung des Fahrzeugs erkennen und das Fahrzeug unter Berücksichtigung dieser Objekte lenken, bremsen und/oder beschleunigen.A vehicle such as a car or truck can be equipped with a driver assistance system that enables partially or fully automated control of the vehicle. For this purpose, the driver assistance system can, for example, use suitable sensors to detect positions, orientations and/or types of objects in the area surrounding the vehicle and steer, brake and/or accelerate the vehicle taking these objects into account.
Die Umgebung des Fahrzeugs kann beispielsweise gleichzeitig von mehreren Sensoren unterschiedlichen Typs erfasst werden. In diesem Fall können die jeweiligen Sensor- und/oder Objektdaten mithilfe eines geeigneten Fusionsalgorithmus miteinander fusioniert, d. h. verknüpft werden, etwa um aktuelle und/oder zukünftige Zustände der erkannten Objekte und/oder des Fahrzeugs in einer digitalen Karte zu schätzen. Eine solche Datenfusion kann je nach Anzahl der unterschiedlichen Sensortypen sehr komplex sein und entsprechend leistungsfähige Hardwarekomponenten erfordern.For example, the vehicle's surroundings can be detected simultaneously by several sensors of different types. In this case, the respective sensor and/or object data can be fused together using a suitable fusion algorithm, i.e. H. be linked, for example to estimate current and/or future states of the detected objects and/or the vehicle in a digital map. Depending on the number of different sensor types, such data fusion can be very complex and require correspondingly powerful hardware components.
Offenbarung der ErfindungDisclosure of the invention
Vor diesem Hintergrund werden nachstehend ein computerimplementiertes Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs, eine entsprechende Datenverarbeitungsvorrichtung, ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Medium gemäß den unabhängigen Ansprüchen vorgestellt. Vorteilhafte Weiterbildungen und Verbesserungen des hier vorgestellten Ansatzes ergeben sich aus der Beschreibung und sind in den abhängigen Ansprüchen beschrieben.Against this background, a computer-implemented method for processing sensor data from a sensor system of a vehicle, a corresponding data processing device, a corresponding computer program and a corresponding computer-readable medium according to the independent claims are presented below. Advantageous developments and improvements to the approach presented here result from the description and are described in the dependent claims.
Vorteile der ErfindungAdvantages of the invention
Ausführungsformen der vorliegenden Erfindung ermöglichen eine verbesserte Datenfusion von Sensordaten, die von verschiedenen Sensormodalitäten einer Sensorik zum Erfassen einer Umgebung eines Fahrzeugs erzeugt wurden. Zum Beispiel kann die Robustheit der Datenfusion gegenüber einem Ausfall oder einer Fehlfunktion einer oder mehrerer Sensormodalitäten verbessert werden, was insbesondere im Zusammenhang mit autonomem Fahren wichtig ist. Im günstigsten Fall funktioniert die Datenfusion so gut, dass auf bestimmte Sensormodalitäten, beispielsweise auf einen Lidarsensor, ganz verzichtet werden kann, was die Entwicklung und Herstellung stark verbilligen kann.Embodiments of the present invention enable improved data fusion of sensor data generated by various sensor modalities of a sensor system for detecting a vehicle's surroundings. For example, the robustness of data fusion against failure or malfunction of one or more sensor modalities can be improved, which is particularly important in the context of autonomous driving. In the best case scenario, data fusion works so well that certain sensor modalities, such as a lidar sensor, can be dispensed with entirely, which can make development and production significantly cheaper.
Ein erster Aspekt der Erfindung betrifft ein computerimplementiertes Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs. Die Sensorik umfasst mindestens einen ersten Sensor und einen in seinem Typ vom ersten Sensor abweichenden zweiten Sensor zum Erfassen einer Umgebung des Fahrzeugs. Das Verfahren umfasst zumindest die folgenden Schritte (die im Betrieb des Fahrzeugs fortlaufend ausgeführt werden können): Empfangen erster Sensordaten, die vom ersten Sensor erzeugt wurden, und zweiter Sensordaten, die vom zweiten Sensor erzeugt wurden; Eingeben der ersten Sensordaten in ein erstes künstliches neuronales Netz, das trainiert wurde, um die ersten Sensordaten in erste Objektdaten umzuwandeln, und Eingeben der zweiten Sensordaten in ein zweites künstliches neuronales Netz, das trainiert wurde, um die zweiten Sensordaten in zweite Objektdaten umzuwandeln, wobei die ersten Objektdaten und die zweiten Objektdaten jeweils Parameter von Objektmodellen definieren, die Objekten in der Umgebung des Fahrzeugs zugeordnet sind, wobei die Parameter eines jeden Objektmodells neben einer Objektklasse eine Position und/oder Orientierung des dem Objektmodell zugeordneten Objekts umfassen, wobei die durch die ersten Objektdaten definierten Objektmodelle in ihrem Typ, insbesondere in ihrer (geometrischen) Darstellungsform in einem der Umgebung des Fahrzeugs zugeordneten Koordinatensystem, mit den durch die zweiten Objektdaten definierten Objektmodellen übereinstimmen; Aktualisieren eines die Umgebung des Fahrzeugs repräsentierenden Umgebungsmodells mit den ersten Objektdaten und den zweiten Objektdaten.A first aspect of the invention relates to a computer-implemented method for processing sensor data from a sensor system of a vehicle. The sensor system includes at least a first sensor and a second sensor, which differs in type from the first sensor, for detecting an environment of the vehicle. The method includes at least the following steps (which may be performed continuously during operation of the vehicle): receiving first sensor data generated by the first sensor and second sensor data generated by the second sensor; inputting the first sensor data into a first artificial neural network trained to convert the first sensor data into first object data, and inputting the second sensor data into a second artificial neural network trained to convert the second sensor data into second object data, wherein the first object data and the second object data each define parameters of object models that are assigned to objects in the environment of the vehicle, wherein the parameters of each object model include, in addition to an object class, a position and / or orientation of the object assigned to the object model, wherein the first Object models defined by object data correspond in their type, in particular in their (geometric) representation form in a coordinate system assigned to the environment of the vehicle, to the object models defined by the second object data; Updating an environment model representing the environment of the vehicle with the first object data and the second object data.
Anders ausgedrückt liefert jede Sensormodalität (beispielsweise Kamera, Lidar- oder Radarsensor) das gleiche Umgebungsmodell bezüglich der Umgebung des Fahrzeugs, wobei das Umgebungsmodell alle notwendigen Informationen für einen sicheren und effizienten Betrieb des Fahrzeugs umfassen kann. Dabei können Schwächen der einzelnen Sensormodalitäten durch Verarbeiten ihrer Sensordaten mithilfe eines geeigneten Algorithmus kompensiert werden. Dies hat die Wirkung, dass die Sensormodalitäten unabhängig voneinander mit ausreichender Genauigkeit betrieben werden können, sodass das System bei einem Ausfall oder einer Fehlfunktion einer oder sogar mehrerer Sensormodalitäten auf der Grundlage der übrigen Sensormodalität(en) weiterarbeiten kann.In other words, each sensor modality (e.g. camera, lidar or radar sensor) provides the same environmental model regarding the vehicle's surroundings, where the environmental model can include all necessary information for safe and efficient operation of the vehicle. Weaknesses in the individual sensor modalities can be compensated for by processing their sensor data using a suitable algorithm. This has the effect of allowing the sensor modalities to operate independently of each other with sufficient accuracy so that in the event of a failure or malfunction of one or even more sensors, the system sensor modalities can continue to work on the basis of the remaining sensor modality(s).
Beispielsweise kann durch Ausführen des Verfahrens bewirkt werden, dass ein 3D-Modell der Umgebung einschließlich statischer Objekte (beispielsweise Gebäude, Vegetation oder Fahrbahnoberfläche) erstellt wird und dynamische Objekte (beispielsweise Autos, Fahrräder, Fußgänger oder Tiere) in diesem 3D-Modell zeitlich verfolgt werden. Hierzu können die Sensordaten zweier oder mehrerer Sensoren unterschiedlichen Typs (beispielsweise eine Kamera in Kombination mit einem Radarsensor und/oder einem Lidarsensor) miteinander kombiniert werden.For example, executing the method can cause a 3D model of the environment including static objects (e.g. buildings, vegetation or road surface) to be created and dynamic objects (e.g. cars, bicycles, pedestrians or animals) to be tracked over time in this 3D model . For this purpose, the sensor data from two or more sensors of different types (for example a camera in combination with a radar sensor and/or a lidar sensor) can be combined with one another.
Verschiedene Sensortypen haben in der Regel verschiedene Vor- und Nachteile. Kameras ermöglichen beispielsweise eine genaue semantische Segmentierung, indem verschiedene Abschnitte des aufgenommenen Bilds, etwa eines jeden Pixels des Bilds, einer oder mehreren Klassen zugeordnet werden können. Lidarsensoren hingegen liefern hochpräzise 3D-Punktwolken, was jedoch die Klassifizierung erschweren kann. Radardaten sind in der Regel weniger detailliert als Lidardaten. Zudem können Radardaten durch Reflexionen und/oder Rauschen verfälscht sein. Dafür können Radarsensoren auch bei Nebel und Regen eingesetzt werden. Zudem liefern Radarsensoren sehr genaue Geschwindigkeitswerte. Die Kombination dieser verschiedenen Sensoren dient im Allgemeinen dazu, die Schwächen des einen Sensors durch die Stärken des anderen Sensors zu kompensieren. Im Unterschied zu herkömmlichen Systemen, bei denen die Leistungsfähigkeit stark beeinträchtigt wird oder sogar das komplette System ausfallen kann, wenn einer der Sensoren ausfällt, bietet der hier vorgestellte Ansatz den Vorteil, dass die Leistungsfähigkeit des Systems bei solchen Störungen aufrechterhalten werden kann oder nur in sehr geringem, vernachlässigbarem Maß beeinträchtigt wird.Different types of sensors usually have different advantages and disadvantages. Cameras, for example, enable precise semantic segmentation by assigning different sections of the captured image, such as each pixel of the image, to one or more classes. Lidar sensors, on the other hand, provide high-precision 3D point clouds, but this can make classification difficult. Radar data is typically less detailed than lidar data. In addition, radar data can be corrupted by reflections and/or noise. Radar sensors can also be used in fog and rain. Radar sensors also provide very precise speed values. The combination of these different sensors generally serves to compensate for the weaknesses of one sensor with the strengths of the other sensor. In contrast to conventional systems, in which the performance is severely impaired or even the entire system can fail if one of the sensors fails, the approach presented here offers the advantage that the performance of the system can be maintained in the event of such disruptions or only to a very limited extent to a small, negligible extent.
Das Verfahren kann automatisch durch einen Prozessor, beispielsweise eines Steuergeräts des Fahrzeugs, ausgeführt werden.The method can be carried out automatically by a processor, for example a control unit of the vehicle.
Unter „Fahrzeug“ kann vor- und nachstehend beispielsweise ein Pkw, ein Lkw, ein Bus, ein Motorrad oder ein sich autonom fortbewegender Roboter verstanden werden.“Vehicle” can be understood, for example, as a car, a truck, a bus, a motorcycle or an autonomously moving robot.
Die Sensorik kann beispielsweise eine Kamera, einen Radar-, Lidar- oder Ultraschallsensor oder eine Kombination aus mindestens zwei dieser Beispiele als den ersten bzw. zweiten Sensor umfassen. Neben solchen Umfeldsensoren kann die Sensorik zusätzlich einen Fahrdynamiksensor zum Erfassen einer Fahrdynamik des Fahrzeugs und/oder einen Ortungssensor zur Bestimmung geografischer Koordinaten des Fahrzeugs mithilfe eines globalen Navigationssatellitensystems wie GPS, GLONASS o. Ä. umfassen. Ein solcher Fahrdynamiksensor kann beispielsweise ein Beschleunigungs-, Raddrehzahl-, Lenkradwinkel-, Lenkmoment-, Bremsdruck- oder Bremspedalwegsensor oder eine Kombination aus mindestens zwei dieser Beispiele sein.The sensor system can include, for example, a camera, a radar, lidar or ultrasonic sensor or a combination of at least two of these examples as the first or second sensor. In addition to such environmental sensors, the sensor system can also include a driving dynamics sensor for detecting driving dynamics of the vehicle and/or a location sensor for determining geographical coordinates of the vehicle using a global navigation satellite system such as GPS, GLONASS or similar. include. Such a driving dynamics sensor can be, for example, an acceleration, wheel speed, steering wheel angle, steering torque, brake pressure or brake pedal travel sensor or a combination of at least two of these examples.
Die vom Fahrdynamiksensor erzeugten Fahrdynamikdaten können zusätzlich zu den Objektdaten zum Aktualisieren des Umgebungsmodells, insbesondere zur Bestimmung einer (aktuellen und/oder zukünftigen) Position und/oder Orientierung des Fahrzeugs, verwendet werden.The driving dynamics data generated by the driving dynamics sensor can be used in addition to the object data to update the environmental model, in particular to determine a (current and/or future) position and/or orientation of the vehicle.
Der erste und der zweite Sensor können beispielsweise so ausgerichtet sein, dass sich ihre Erfassungsbereiche zumindest teilweise überlappen. Somit können Objekte in der Umgebung des Fahrzeugs gleichzeitig durch unterschiedliche Sensortypen erfasst werden. Dies kann die Genauigkeit des Verfahrens verbessern.The first and second sensors can, for example, be aligned so that their detection areas at least partially overlap. This means that objects in the area surrounding the vehicle can be detected simultaneously by different types of sensors. This can improve the accuracy of the procedure.
Eine Objektklasse kann eine semantische Information wie beispielsweise „Pkw“, „Lkw“, „Bus“, „Motorrad“, „Fahrrad“, „Fußgänger“, „Gebäude“, „Baum“ oder „Verkehrsschild“ sein.An object class can be semantic information such as "car", "truck", "bus", "motorcycle", "bicycle", "pedestrian", "building", "tree" or "road sign".
Ein und demselben Objektmodell können gleichzeitig auch mehrere Objektklassen zugeordnet sein.Several object classes can be assigned to one and the same object model at the same time.
Unter „künstliches neuronales Netz“ kann beispielsweise ein (mehrlagiges) Perzeptron, ein faltendes neuronales Netz (convolutional neural network), ein rekurrentes neuronales Netz (recurrent neural network; z. B. als long short-term memory) oder eine Kombination aus unterschiedlichen Netztypen verstanden werden.“Artificial neural network” can, for example, include a (multi-layer) perceptron, a convolutional neural network, a recurrent neural network; e.g. as long short-term memory) or a combination of different network types be understood.
Ein solches Netz kann im Allgemeinen als eine Funktion mit maschinell trainierbaren Parametern zum Umwandeln von Eingabedaten in Ausgabedaten, beispielsweise durch Klassifikation und/oder Regression, aufgefasst werden. Zum Trainieren der Parameter (auch Gewichte genannt) können reale (d. h. durch einen Sensor gemessene) und/oder simulierte (d. h. durch einen Computer berechnete) Beispielwerte in das Netz eingegeben werden und die resultierenden Ausgabewerte mit vordefinierten Zielwerten (auch Label genannt) verglichen werden. Dabei kann eine Abweichung zwischen den Ausgabe- und den Zielwerten mithilfe einer geeigneten Kosten- und/oder Nutzenfunktion quantifiziert werden. Die Parameter können dann in einem geeigneten Optimierungsverfahren, beispielsweise in einem Gradientenverfahren durch Backpropagation, abhängig von der durch die Kosten- bzw. Nutzenfunktion quantifizierten Abweichung bis zum Erreichen eines lokalen oder globalen Optimums iterativ angepasst werden. Dies kann auch als überwachtes Lernen bezeichnet werden. Theoretisch kann das Netz jedoch auch durch unüberwachtes und/oder bestärkendes Lernen trainiert werden.Such a network can generally be viewed as a function with machine-trainable parameters for converting input data into output data, for example through classification and/or regression. To train the parameters (also called weights), real (ie measured by a sensor) and/or simulated (ie calculated by a computer) example values can be entered into the network and the resulting output values can be compared with predefined target values (also called labels). A deviation between the output and target values can be quantified using a suitable cost and/or benefit function. The parameters can then be achieved in a suitable optimization method, for example in a gradient method using backpropagation, depending on the deviation quantified by the cost or benefit function chen of a local or global optimum can be adjusted iteratively. This can also be called supervised learning. Theoretically, however, the network can also be trained using unsupervised and/or reinforcement learning.
Das erste und das zweite Netz können in ihrem Typ voneinander abweichen oder miteinander übereinstimmen.The first and second networks can differ in type or match one another.
Alternativ können auch andere Algorithmen des maschinellen Lernens zum Verarbeiten der ersten und der zweiten Sensordaten eingesetzt werden, beispielsweise ein Entscheidungsbaum, ein Random Forest, ein k-nächste-Nachbarn-Algorithmus, eine Support-Vector-Maschine, ein Bayes-Klassifikator, ein k-Means-Algorithmus, ein genetischer Algorithmus, ein Kernelregressionsalgorithmus, ein Diskriminanzanalyse-Algorithmus oder eine Kombination aus mindestens zwei dieser Beispiele.Alternatively, other machine learning algorithms can also be used to process the first and second sensor data, for example a decision tree, a random forest, a k-nearest neighbors algorithm, a support vector machine, a Bayes classifier, a k -Means algorithm, a genetic algorithm, a kernel regression algorithm, a discriminant analysis algorithm, or a combination of at least two of these examples.
Das Umgebungsmodell kann konfiguriert sein, um Parameter von Objekten in der Umgebung des Fahrzeugs zugeordneten Objektmodellen zu speichern, beispielsweise in einer digitalen Karte, und laufend zu aktualisieren. Das Umgebungsmodell kann zudem konfiguriert sein, um aktuelle und/oder zukünftige Zustände der Objekte und/oder des Fahrzeugs basierend auf den ersten und den zweiten Objektdaten zu schätzen. Wie weiter oben erwähnt, kann das Umgebungsmodell zum Schätzen einer Position und/oder Orientierung des Fahrzeugs relativ zu den Objekten zusätzlich Fahrdynamikdaten bezüglich des Fahrzeugs auswerten.The environment model can be configured to store parameters of objects in the environment of the vehicle associated with object models, for example in a digital map, and to continuously update them. The environment model may also be configured to estimate current and/or future states of the objects and/or the vehicle based on the first and second object data. As mentioned above, the environmental model can additionally evaluate driving dynamics data regarding the vehicle to estimate a position and/or orientation of the vehicle relative to the objects.
Zum Aktualisieren des Umgebungsmodells können die ersten und die zweiten Objektdaten beispielweise in ein Fusionsmodul eingegeben werden, das einen Fusionsalgorithmus zum Zusammenführen oder Verknüpfen der ersten und der zweiten Objektdaten (beispielsweise in einer digitalen Karte) ausführt. Allgemein ausgedrückt können im Fusionsmodul die ersten Objektdaten unter Berücksichtigung der zweiten Objektdaten und/oder die zweiten Objektdaten unter Berücksichtigung der ersten Objektdaten verarbeitet werden. Ein solcher Fusionsalgorithmus kann auch einen oder mehrere Zustandsschätzer zum Schätzen von Zuständen der Objekte und/oder des Fahrzeugs, beispielsweise einen (erweiterten) Kalman-Filter oder einen Partikelfilter, umfassen.To update the environment model, the first and second object data may, for example, be input into a fusion module that executes a fusion algorithm to merge or link the first and second object data (for example, in a digital map). Generally speaking, in the fusion module the first object data can be processed taking into account the second object data and/or the second object data can be processed taking into account the first object data. Such a fusion algorithm may also include one or more state estimators for estimating states of the objects and/or the vehicle, for example an (extended) Kalman filter or a particle filter.
Die aus dieser Datenfusion resultierenden Daten können insbesondere zur Ansteuerung einer Aktorik des Fahrzeugs verwendet werden. Eine solche Aktorik kann beispielsweise einen Bremsaktor, einen Lenkaktor, ein Motorsteuergerät, einen elektrischen Antriebsmotor oder eine Kombination aus mindestens zwei dieser Beispiele umfassen.The data resulting from this data fusion can be used in particular to control an actuator system of the vehicle. Such actuators can include, for example, a brake actuator, a steering actuator, an engine control unit, an electric drive motor or a combination of at least two of these examples.
Beispielsweise kann auf dem Steuergerät des Fahrzeugs ein Fahrerassistenzsystem laufen, das Objekte in Sensordaten mithilfe des hier beschriebenen Verfahrens erkennt und das Fahrzeug durch entsprechendes Ansteuern der Aktorik in Abhängigkeit von den erkannten Objekten automatisch steuert, also lenkt, beschleunigt und/oder abbremst.For example, a driver assistance system can run on the control unit of the vehicle, which detects objects in sensor data using the method described here and automatically controls the vehicle, i.e. steers, accelerates and/or brakes, by appropriately controlling the actuators depending on the detected objects.
Ein zweiter Aspekt der Erfindung betrifft eine Datenverarbeitungsvorrichtung, die einen Prozessor umfasst, der konfiguriert ist, um das vor- und nachstehend beschriebene Verfahren auszuführen. Die Datenverarbeitungsvorrichtung kann Hardware- und/oder Softwaremodule umfassen. Zusätzlich zum Prozessor kann die Datenverarbeitungsvorrichtung einen Speicher und Datenkommunikationsschnittstellen zur Datenkommunikation mit Peripheriegeräten umfassen. Die Datenverarbeitungsvorrichtung kann beispielsweise ein Steuergerät eines Fahrzeugs oder eines Roboters, ein PC, ein Server, ein Laptop, ein Tablet oder ein Smartphone sein.A second aspect of the invention relates to a data processing device comprising a processor configured to carry out the method described above and below. The data processing device can include hardware and/or software modules. In addition to the processor, the data processing device may include a memory and data communication interfaces for data communication with peripheral devices. The data processing device can be, for example, a control device of a vehicle or a robot, a PC, a server, a laptop, a tablet or a smartphone.
Weitere Aspekte der Erfindung betreffen ein Computerprogramm und ein computerlesbares Medium, auf dem das Computerprogramm gespeichert ist.Further aspects of the invention relate to a computer program and a computer-readable medium on which the computer program is stored.
Das Computerprogramm umfasst Befehle, die einen Prozessor bei Ausführung des Computerprogramms durch den Prozessor veranlassen, das vor- und nachstehend beschriebene Verfahren auszuführen.The computer program includes instructions that cause a processor to carry out the method described above and below when the computer program is executed by the processor.
Das computerlesbare Medium kann ein flüchtiger oder nicht flüchtiger Datenspeicher sein. Beispielsweise kann das computerlesbare Medium eine Festplatte, ein USB-Speichergerät, ein RAM, ein ROM, ein EPROM, ein Flash-Speicher oder eine Kombination aus mindestens zwei dieser Beispiele sein. Das computerlesbare Medium kann auch ein einen Download eines Programmcodes ermöglichendes Datenkommunikationsnetzwerk wie etwa das Internet oder eine Datenwolke (Cloud) sein.The computer-readable medium may be a volatile or non-volatile data storage device. For example, the computer-readable medium may be a hard drive, a USB storage device, a RAM, a ROM, an EPROM, a flash memory, or a combination of at least two of these examples. The computer-readable medium can also be a data communication network that enables a download of program code, such as the Internet or a data cloud.
Merkmale des vor- und nachstehend beschriebenen Verfahrens können auch als Merkmale der Datenverarbeitungsvorrichtung, des Computerprogramms und/oder des computerlesbaren Mediums aufgefasst werden (und umgekehrt).Features of the method described above and below can also be understood as features of the data processing device, the computer program and/or the computer-readable medium (and vice versa).
Ausführungsformen der Erfindung können, ohne die Erfindung einzuschränken, als auf den nachstehend beschriebenen Ideen und Erkenntnissen beruhend angesehen werden.Embodiments of the invention may be considered based on the ideas and findings described below, without limiting the invention.
Gemäß einer Ausführungsform können die in ihrem Typ miteinander übereinstimmenden Objektmodelle dreidimensionale geometrische Modelle sein. Dadurch können die realen (dreidimensionalen) Objekte möglichst realitätsnah in Objektmodellen abgebildet werden. According to one embodiment, the object models of the same type can be three-dimensional geometric models be. This allows the real (three-dimensional) objects to be depicted in object models as realistically as possible.
Alternativ können die in ihrem Typ miteinander übereinstimmenden Objektmodelle zweidimensionale geometrische Modelle, beispielsweise Rechtecke, sein.Alternatively, the object models of the same type can be two-dimensional geometric models, for example rectangles.
Zusätzlich zu den Objektmodellen kann das Umgebungsmodell ein dem Fahrzeug zugeordnetes (zwei- oder dreidimensionales) Fahrzeugmodell umfassen.In addition to the object models, the environment model can include a (two- or three-dimensional) vehicle model assigned to the vehicle.
Weitere mögliche Parameter der Objektmodelle, insbesondere in Form dreidimensionaler geometrischer Modelle, sind Schwerpunktposition, Länge, Breite, Höhe, Roll-, Nick-, Gierwinkel und davon abgeleitete Werte wie Geschwindigkeit, Beschleunigung oder Ruck.Other possible parameters of the object models, especially in the form of three-dimensional geometric models, are the position of the center of gravity, length, width, height, roll, pitch, yaw angle and values derived therefrom such as speed, acceleration or jerk.
Gemäß einer Ausführungsform können die dreidimensionalen geometrischen Modelle Quader sein. Dies ermöglicht eine genaue und recheneffiziente Modellierung der Objekte.According to one embodiment, the three-dimensional geometric models can be cuboids. This enables accurate and computationally efficient modeling of the objects.
Gemäß einer Ausführungsform kann das erste künstliche neuronale Netz ein erstes Modul und ein zweites Modul umfassen. In diesem Fall kann das erste Modul trainiert worden sein, um die ersten Sensordaten zu klassifizieren, während das zweite Modul trainiert worden sein kann, um Eingabedaten, die Ausgaben des ersten Moduls und/oder aus Ausgaben des ersten Moduls erzeugte Daten umfassen, in die ersten Objektdaten umzuwandeln. Zusätzlich oder alternativ kann das zweite künstliche neuronale Netz ein drittes Modul und ein viertes Modul umfassen. In diesem Fall kann das dritte Modul trainiert worden sein, um die zweiten Sensordaten zu klassifizieren, während das vierte Modul trainiert worden sein kann, um Eingabedaten, die Ausgaben des dritten Moduls und/oder aus Ausgaben des dritten Moduls erzeugte Daten umfassen, in die zweiten Objektdaten umzuwandeln. Dies kann die Implementierung des ersten bzw. zweiten Netzes vereinfachen.According to one embodiment, the first artificial neural network may include a first module and a second module. In this case, the first module may have been trained to classify the first sensor data, while the second module may have been trained to classify input data comprising outputs of the first module and/or data generated from outputs of the first module into the first Convert object data. Additionally or alternatively, the second artificial neural network may include a third module and a fourth module. In this case, the third module may have been trained to classify the second sensor data, while the fourth module may have been trained to integrate input data comprising outputs of the third module and/or data generated from outputs of the third module into the second Convert object data. This can simplify the implementation of the first or second network.
Insbesondere kann die Klassifizierung der ersten bzw. zweiten Sensordaten in einem Modul, das unabhängig vom Rest des jeweiligen künstlichen neuronalen Netzes trainierbar ist, den Trainingsaufwand reduzieren. So braucht beispielsweise bei einer Aktualisierung mit neuen Trainingsdaten für die Klassifizierung nur ein Teil des jeweiligen künstlichen neuronalen Netzes (und nicht das gesamte Netz) neu trainiert zu werden.In particular, the classification of the first or second sensor data in a module that can be trained independently of the rest of the respective artificial neural network can reduce the training effort. For example, when updating with new training data for classification, only part of the respective artificial neural network (and not the entire network) needs to be retrained.
Es ist möglich, dass die Ausgaben des ersten bzw. dritten Moduls in einem Zwischenschritt konvertiert werden, bevor sie ins zweite bzw. vierte Modul eingegeben werden. Dieser Zwischenschritt kann beispielsweise von einem externen Konvertierungsmodul, das nicht Teil des jeweiligen künstlichen neuronalen Netzes ist, ausgeführt werden. Damit kann das jeweilige künstliche neuronale Netz insgesamt einfacher aufgebaut werden. Dies kann den Trainingsaufwand weiter reduzieren.It is possible that the outputs of the first and third modules are converted in an intermediate step before they are input into the second or fourth module. This intermediate step can, for example, be carried out by an external conversion module that is not part of the respective artificial neural network. This means that the respective artificial neural network can be constructed more simply overall. This can further reduce the training effort.
Das zweite bzw. vierte Modul kann beispielweise trainiert worden sein, um die dreidimensionalen geometrischen Modelle aus den jeweiligen Eingabedaten zu extrahieren.The second or fourth module may, for example, have been trained to extract the three-dimensional geometric models from the respective input data.
Das erste und das zweite Modul können zumindest teilweise mit den gleichen Trainingsdaten trainiert worden sein. Zusätzlich oder alternativ können das dritte und das vierte Modul zumindest teilweise mit den gleichen Trainingsdaten trainiert worden sein. Dadurch kann der Aufwand zum Trainieren des ersten bzw. zweiten Netzes stark verringert werden.The first and second modules may have been trained at least partially with the same training data. Additionally or alternatively, the third and fourth modules may have been trained at least partially with the same training data. As a result, the effort required to train the first or second network can be greatly reduced.
Gemäß einer Ausführungsform können die Eingabedaten für das zweite Modul die den Ausgaben des ersten Moduls zugrunde liegenden ersten Sensordaten umfassen. Zusätzlich oder alternativ können die Eingabedaten für das vierte Modul die den Ausgaben des dritten Moduls zugrunde liegenden zweiten Sensordaten umfassen. Anders ausgedrückt kann das zweite bzw. vierte Modul konfiguriert sein, um die jeweiligen (geschätzten) Eingabedaten und die diesen Eingabedaten entsprechenden (gemessenen) Sensordaten miteinander zu vergleichen. Dies verbessert die Schätzung der Objektmodelle.According to one embodiment, the input data for the second module may include the first sensor data underlying the outputs of the first module. Additionally or alternatively, the input data for the fourth module can include the second sensor data underlying the outputs of the third module. In other words, the second or fourth module can be configured to compare the respective (estimated) input data and the (measured) sensor data corresponding to these input data with one another. This improves the estimation of the object models.
Gemäß einer Ausführungsform können die Eingabedaten für das zweite Modul auf ein der Umgebung des Fahrzeugs zugeordnetes erstes Koordinatensystem bezogen sein, während die ersten Objektdaten auf ein der Umgebung des Fahrzeugs zugeordnetes zweites Koordinatensystem, das vom ersten Koordinatensystem abweicht, bezogen sein können. Zusätzlich oder alternativ können die Eingabedaten für das dritte Modul auf ein der Umgebung des Fahrzeugs zugeordnetes drittes Koordinatensystem bezogen sein, während die zweiten Objektdaten auf ein der Umgebung des Fahrzeugs zugeordnetes viertes Koordinatensystem, das vom dritten Koordinatensystem abweicht, bezogen sein können. Anders ausgedrückt kann die Generierung der ersten bzw. zweiten Objektdaten eine oder mehrere Koordinatentransformationen umfassen (die vom zweiten bzw. vierten Modul durchgeführt werden können).According to one embodiment, the input data for the second module may be related to a first coordinate system assigned to the environment of the vehicle, while the first object data may be related to a second coordinate system assigned to the environment of the vehicle, which deviates from the first coordinate system. Additionally or alternatively, the input data for the third module can be related to a third coordinate system assigned to the surroundings of the vehicle, while the second object data can be related to a fourth coordinate system assigned to the surroundings of the vehicle, which deviates from the third coordinate system. In other words, the generation of the first or second object data may include one or more coordinate transformations (which can be carried out by the second or fourth module).
Es ist möglich, dass das erste Koordinatensystem eine oder mehrere gemeinsame Ebenen mit dem zweiten Koordinatensystem hat und/oder das dritte Koordinatensystem eine oder mehrere gemeinsame Ebenen mit dem vierten Koordinatensystem hat.It is possible for the first coordinate system to have one or more common planes with the second coordinate system and/or for the third coordinate system to have one or more in common has same planes with the fourth coordinate system.
Gemäß einer Ausführungsform kann das zweite Koordinatensystem in der Anzahl seiner Dimensionen vom ersten Koordinatensystem abweichen. Zusätzlich oder alternativ kann das vierte Koordinatensystem in der Anzahl seiner Dimensionen vom dritten Koordinatensystem abweichen. Insbesondere kann das zweite Koordinatensystem mehr Dimensionen als das erste Koordinatensystem und/oder das vierte Koordinatensystem mehr Dimensionen als das dritte Koordinatensystem umfassen.According to one embodiment, the second coordinate system can differ from the first coordinate system in the number of its dimensions. Additionally or alternatively, the fourth coordinate system can differ from the third coordinate system in the number of its dimensions. In particular, the second coordinate system can include more dimensions than the first coordinate system and/or the fourth coordinate system can include more dimensions than the third coordinate system.
Gemäß einer Ausführungsform kann das erste Koordinatensystem zweidimensional (beispielsweise ein xy-Koordinatensystem) sein und das zweite Koordinatensystem dreidimensional (beispielsweise ein xyz-Koordinatensystem) sein. Zusätzlich oder alternativ kann das dritte Koordinatensystem zweidimensional (beispielsweise ein xy-Koordinatensystem) sein und das vierte Koordinatensystem dreidimensional (beispielsweise ein xyz-Koordinatensystem) sein.According to one embodiment, the first coordinate system may be two-dimensional (e.g. an xy coordinate system) and the second coordinate system may be three-dimensional (e.g. an xyz coordinate system). Additionally or alternatively, the third coordinate system may be two-dimensional (e.g. an xy coordinate system) and the fourth coordinate system may be three-dimensional (e.g. an xyz coordinate system).
Gemäß einer Ausführungsform können das erste Koordinatensystem und das zweite Koordinatensystem unterschiedlichen Perspektiven, aus denen die Umgebung des Fahrzeugs betrachtet wird, zugeordnet sein. Zusätzlich oder alternativ können das dritte Koordinatensystem und das vierte Koordinatensystem unterschiedlichen Perspektiven, aus denen die Umgebung des Fahrzeugs betrachtet wird, zugeordnet sein. Unter „Perspektive“ kann eine vordefinierte Richtung und/oder ein vordefinierter Winkelbereich verstanden werden, in der bzw. in dem ein realer oder virtueller Betrachter die Umgebung des Fahrzeugs betrachtet.According to one embodiment, the first coordinate system and the second coordinate system can be assigned to different perspectives from which the surroundings of the vehicle are viewed. Additionally or alternatively, the third coordinate system and the fourth coordinate system can be assigned to different perspectives from which the surroundings of the vehicle are viewed. “Perspective” can be understood as meaning a predefined direction and/or a predefined angular range in which a real or virtual viewer views the surroundings of the vehicle.
Gemäß einer Ausführungsform kann das erste Koordinatensystem einer Vogelperspektive zugeordnet sein, aus der auf die Umgebung des Fahrzeugs, beispielsweise einschließlich des Fahrzeugs, (senkrecht) herabgeblickt wird. Zusätzlich oder alternativ kann das zweite Koordinatensystem einer Fahrerperspektive zugeordnet sein, aus der die Umgebung des Fahrzeugs, beispielsweise einschließlich des Fahrzeugs, in einer aktuellen Fahrtrichtung des Fahrzeugs betrachtet wird. Zusätzlich oder alternativ kann das dritte Koordinatensystem einer Vogelperspektive zugeordnet sein, aus der auf die Umgebung des Fahrzeugs, beispielsweise einschließlich des Fahrzeugs, (senkrecht) herabgeblickt wird. Zusätzlich oder alternativ kann das vierte Koordinatensystem einer Fahrerperspektive zugeordnet sein, aus der die Umgebung des Fahrzeugs, beispielsweise einschließlich des Fahrzeugs, in einer aktuellen Fahrtrichtung des Fahrzeugs betrachtet wird.According to one embodiment, the first coordinate system can be assigned to a bird's eye view from which the surroundings of the vehicle, for example including the vehicle, are looked down (vertically). Additionally or alternatively, the second coordinate system can be assigned to a driver's perspective from which the surroundings of the vehicle, for example including the vehicle, are viewed in a current direction of travel of the vehicle. Additionally or alternatively, the third coordinate system can be assigned to a bird's eye view from which the surroundings of the vehicle, for example including the vehicle, are looked down (vertically). Additionally or alternatively, the fourth coordinate system can be assigned to a driver's perspective from which the surroundings of the vehicle, for example including the vehicle, are viewed in a current direction of travel of the vehicle.
Unter „aktueller Fahrtrichtung“ kann auch ein vordefinierter, d. h. horizontal und/oder vertikal begrenzter Winkelbereich verstanden werden, der einem aktuellen Sichtfeld des Fahrers des Fahrzeugs und/oder einem aktuellen Sichtfeld eines anderen (virtuellen) Fahrers eines dem Fahrzeug (unmittelbar) folgenden (virtuellen) Fahrzeugs entsprechen kann. Beispielsweise kann die Betrachtung der Umgebung des Fahrzeugs aus der Vogelperspektive zweidimensional sein, während die Betrachtung der Umgebung des Fahrzeugs aus der Fahrerperspektive dreidimensional sein kann. Möglich ist aber auch der umgekehrte Fall. “Current direction of travel” can also be a predefined, i.e. H. horizontally and / or vertically limited angular range can be understood, which can correspond to a current field of vision of the driver of the vehicle and / or a current field of vision of another (virtual) driver of a (virtual) vehicle (immediately) following the vehicle. For example, the view of the vehicle's surroundings from a bird's eye view may be two-dimensional, while the view of the vehicle's environment from the driver's perspective may be three-dimensional. But the opposite case is also possible.
Gemäß einer Ausführungsform kann das dritte Koordinatensystem das erste Koordinatensystem sein. Zusätzlich oder alternativ kann das vierte Koordinatensystem das zweite Koordinatensystem sein. Anders ausgedrückt können die Eingabedaten für das zweite Modul auf das gleiche (erste) Koordinatensystem wie die Eingabedaten für das vierte Modul bezogen sein. In diesem Fall können die ersten Objektdaten auf das gleiche (zweite) Koordinatensystem wie die zweiten Objektdaten bezogen sein. Das bedeutet, dass die Objektmodelle der ersten Objektdaten nicht nur in ihrer (geometrischen) Darstellungsform mit den Objektmodellen der zweiten Objektdaten übereinstimmen können, sondern darüber hinaus auf das gleiche Koordinatensystem wie die Objektmodelle der zweiten Objektdaten bezogen sein können.According to one embodiment, the third coordinate system may be the first coordinate system. Additionally or alternatively, the fourth coordinate system can be the second coordinate system. In other words, the input data for the second module may be referenced to the same (first) coordinate system as the input data for the fourth module. In this case, the first object data can be related to the same (second) coordinate system as the second object data. This means that the object models of the first object data can not only match the object models of the second object data in their (geometric) representation form, but can also be related to the same coordinate system as the object models of the second object data.
Gemäß einer Ausführungsform können die ersten Sensordaten von einer Kamera als dem ersten Sensor erzeugte Kameradaten umfassen und die zweiten Sensordaten keine Kameradaten umfassen. Beispielsweise können die zweiten Sensordaten in diesem Fall von einem Radarsensor als dem zweiten Sensor erzeugte Radardaten und/oder von einem Lidarsensor als dem zweiten Sensor erzeugte Lidardaten umfassen.According to one embodiment, the first sensor data may include camera data generated by a camera as the first sensor and the second sensor data may not include camera data. For example, in this case, the second sensor data may include radar data generated by a radar sensor as the second sensor and/or lidar data generated by a lidar sensor as the second sensor.
Zusätzlich oder alternativ können die ersten Sensordaten von einem Radarsensor als dem ersten Sensor erzeugte Radardaten umfassen und die zweiten Sensordaten keine Radardaten umfassen. Beispielsweise können die zweiten Sensordaten in diesem Fall von einer Kamera als dem zweiten Sensor erzeugte Kameradaten und/oder von einem Lidarsensor als dem zweiten Sensor erzeugte Lidardaten umfassen.Additionally or alternatively, the first sensor data may include radar data generated by a radar sensor as the first sensor and the second sensor data may not include radar data. For example, in this case, the second sensor data may include camera data generated by a camera as the second sensor and/or lidar data generated by a lidar sensor as the second sensor.
Zusätzlich oder alternativ können die ersten Sensordaten von einem Lidarsensor als dem ersten Sensor erzeugte Lidardaten umfassen und die zweiten Sensordaten keine Lidardaten umfassen. Beispielsweise können die zweiten Sensordaten in diesem Fall von einer Kamera als dem zweiten Sensor erzeugte Kameradaten und/oder von einem Radarsensor als dem zweiten Sensor erzeugte Radardaten umfassen.Additionally or alternatively, the first sensor data may include lidar data generated by a lidar sensor as the first sensor and the second sensor data may not include lidar data. For example, the second sensor data in this case can be camera data generated by a camera as the second sensor and/or by a radar sensor as the second sensor include radar data generated.
Kurze Beschreibung der ZeichnungenBrief description of the drawings
Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Weder die Beschreibung noch die Zeichnungen sind als die Erfindung einschränkend auszulegen.
-
1 zeigt ein Fahrzeug mit einem Fahrzeugsystem, das eine Sensorik zum Erfassen einer Umgebung des Fahrzeugs und eine Datenverarbeitungsvorrichtung gemäß einer Ausführungsform der Erfindung umfasst. -
2 zeigt ein Blockschaltbild des Fahrzeugsystems. -
3 zeigt einen Abschnitt eines dreidimensionalen Umgebungsmodells, das eine Umgebung des Fahrzeugs aus einer Fahrerperspektive darstellt. -
4 zeigt einen Abschnitt eines zweidimensionalen Umgebungsmodells, das eine Umgebung des Fahrzeugs aus der Vogelperspektive darstellt.
-
1 shows a vehicle with a vehicle system that includes a sensor system for detecting an environment of the vehicle and a data processing device according to an embodiment of the invention. -
2 shows a block diagram of the vehicle system. -
3 shows a section of a three-dimensional environment model that represents an environment of the vehicle from a driver's perspective. -
4 shows a section of a two-dimensional environment model that represents a bird's eye view of the vehicle's surroundings.
Die Figuren sind lediglich schematisch und nicht maßstabsgetreu. Gleiche Bezugszeichen in den Figuren bezeichnen gleiche oder gleichwirkende Merkmale.The figures are only schematic and not to scale. The same reference numerals in the figures indicate the same features or features that have the same effect.
Ausführungsformen der ErfindungEmbodiments of the invention
Die Kamera 9 erzeugt Kameradaten 13 als erste Sensordaten 13, während der Radarsensor 11 Radardaten 15 als zweite Sensordaten 15 erzeugt.The camera 9 generates
Das Steuergerät 7 ist konfiguriert, um die Sensordaten 13, 15 in einem nachstehend näher beschriebenen Verfahren auszuwerten. Das Steuergerät 7 kann einen Prozessor 17 und einen Speicher 19 umfassen, wobei der Prozessor 17 konfiguriert sein kann, um das Verfahren durch Ausführen von Befehlen eines Computerprogramms, das im Speicher 19 gespeichert sein kann, auszuführen.The
Beispielsweise kann das Steuergerät 7 konfiguriert sein, um in Abhängigkeit von den Ergebnissen dieser Auswertung eine Aktorik 21 des Fahrzeugs 1 automatisch anzusteuern.For example, the
Wie aus
Darüber hinaus kann die Sensorik 5 einen Fahrdynamiksensor 31 zum Erfassen einer Fahrdynamik des Fahrzeugs 1 umfassen. Die vom Fahrdynamiksensor 31 erzeugten Fahrdynamikdaten 33 können beispielsweise direkt ins Fusionsmodul 25 eingegeben und dort zusammen mit Ausgaben des Wahrnehmungsmoduls 23 verarbeitet werden.In addition, the
Das Verarbeiten der Sensordaten 13,15 kann folgende Schritte umfassen, die hier vom Wahrnehmungsmodul 23 ausgeführt werden (die dritten Sensordaten 29 können in gleicher oder ähnlicher Weise wie die Sensordaten 13 bzw. 15 verarbeitet werden).Processing the
In einem ersten Schritt werden die Sensordaten 13, 15 im Steuergerät 7 (hier also im Wahrnehmungsmodul 23) empfangen. Die Sensordaten 13, 15 können beispielsweise im Betrieb des Fahrzeugsystems 3 fortlaufend in mehreren aufeinanderfolgenden Zeitschritten empfangen und verarbeitet werden.In a first step, the
In einem zweiten Schritt werden die Kameradaten 13 in ein erstes künstliches neuronales Netz 35 und die Radardaten 15 in ein (vom ersten Netz 35 unabhängiges) zweites künstliches neuronales Netz 37 eingegeben.In a second step, the
Das erste Netz 35 wurde trainiert (beispielsweise in einem überwachten Lernprozess mit beispielhaften Kameradaten und den beispielhaften Kameradaten zugeordneten Referenzdaten, auch Labels genannt), um die Kameradaten 13 in erste Objektdaten 39 umzuwandeln.The
Das zweite Netz 37 wurde trainiert (beispielsweise in einem überwachten Lernprozess mit beispielhaften Radardaten und den beispielhaften Radardaten zugeordneten Referenzdaten), um die Radardaten 15 in zweite Objektdaten 41 umzuwandeln.The
Die Objektdaten 39, 41 definieren jeweils Parameter von Objektmodellen 43 in einem die Umgebung des Fahrzeugs 1 repräsentierenden Umgebungsmodell 44 (siehe
Wie in
Die Parameter eines jeden Objektmodells 43 können mindestens einen Klassenwert, der eine aus mehreren vordefinierten Objektklassen (beispielsweise „Baum“, „Stoppschild“, „Fußgänger“, „Gebäude“) anzeigt, sowie Werte für eine Position, Orientierung und/oder Größe des dem Objektmodell 43 zugeordneten Objekts (und/oder davon abgeleitete Werte) umfassen. In diesem Fall kann die Position, Orientierung und/oder Größe des Objekts durch eine Position, Orientierung und/oder Größe des (geometrischen) Objektmodells 43 im Koordinatensystem 45 vorgegeben sein.The parameters of each
Der Klassenwert kann beispielsweise ein boolescher Wert oder eine Wahrscheinlichkeit für eine der Objektklassen in Prozent sein.For example, the class value can be a Boolean value or a probability for one of the object classes in percent.
Um eine einfachere und robustere Datenverarbeitung im nachgeschalteten Fusionsmodul 25 zu ermöglichen, wurden die beiden Netze 35, 37 so trainiert, dass die durch die ersten Objektdaten 39 definierten Objektmodelle 43 in ihrem Typ, insbesondere in ihrer geometrischen Darstellungsform im Koordinatensystem 45, mit den durch die zweiten Objektdaten 41 definierten Objektmodellen 43 übereinstimmen.In order to enable simpler and more robust data processing in the
In diesem Beispiel sind alle Objektmodelle 43 als quaderförmige Gitter konfiguriert, die die jeweiligen Objekte kastenartig umgeben. Möglich sind aber auch andere Darstellungsformen, beispielsweise runde Darstellungsformen, eckige Darstellungsformen mit mehr als vier Ecken oder zweidimensionale, d. h. flächige Darstellungsformen.In this example, all object
In einem dritten Schritt wird das Umgebungsmodell 44 mit den Objektdaten 39, 41 aktualisiert. Die Aktualisierung wird hier vom Fusionsmodul 25 durchgeführt.In a third step, the
Zusätzlich können im zweiten Schritt die Lidardaten 29 in ein drittes künstliches neuronales Netz 49 eingegeben werden, das trainiert wurde (beispielsweise in einem überwachten Lernprozess mit beispielhaften Lidardaten und den beispielhaften Lidardaten zugeordneten Referenzdaten), um die Lidardaten 29 in dritte Objektdaten 51 umzuwandeln, die in ihrem Typ mit den übrigen Objektdaten 39, 41 übereinstimmen.Additionally, in the second step, the
Im dritten Schritt kann das Umgebungsmodell 44 dann zusätzlich mit den dritten Objektdaten 51 aktualisiert werden.In the third step, the
Bei jedem Netz 35, 37, 49 kann es sich um ein einziges Netz handeln. Möglich sind aber auch Netze, die jeweils aus mehreren unabhängig voneinander trainierbaren Modulen in Form von Teilnetzen aufgebaut sind. Dies kann zum einen das Training der Netze vereinfachen; zum anderen können für die kleineren Module einfachere Netzarchitekturen verwendet werden als für ein größeres Einzelnetz.Each
In diesem Beispiel ist das erste Netz 35 aus einem ersten Modul 35a und einem zweiten Modul 35b, das zweite Netz 37 aus einem dritten Modul 37a und einem vierten Modul 37b und das dritte Netz 49 aus einem fünften Modul 49a und einem sechsten Modul 49b aufgebaut.In this example, the
Das erste Modul 35a wurde trainiert, um die Kameradaten 13 zu klassifizieren. Das zweite Modul 35b wurde trainiert, um Eingabedaten 53, die Ausgaben des ersten Moduls 35a und/oder aus Ausgaben des ersten Moduls 35a erzeugte Daten umfassen, in die ersten Objektdaten 39 umzuwandeln.The
Das dritte Modul 37a wurde trainiert, um die Radardaten 15 zu klassifizieren. Das vierte Modul 37b wurde trainiert, um Eingabedaten 53, die Ausgaben des dritten Moduls 37a und/oder aus Ausgaben des dritten Moduls 37a erzeugte Daten umfassen, in die zweiten Objektdaten 41 umzuwandeln.The
Das fünfte Modul 49a wurde trainiert, um die Lidardaten 29 zu klassifizieren. Das sechste Modul 49b wurde trainiert, um Eingabedaten 53, die Ausgaben des fünften Moduls 49a und/oder aus Ausgaben des fünften Moduls 49a erzeugte Daten umfassen, in die dritten Objektdaten 51 umzuwandeln.The
Zusätzlich können die Eingabedaten 53 für das vierte Modul 37b die den Ausgaben des dritten Moduls 37a zugrunde liegenden Radardaten 15 und die Eingabedaten 53 für das sechste Modul 49b die den Ausgaben des fünften Moduls 49a zugrunde liegenden Lidardaten 29 umfassen.In addition, the
Insbesondere können sich die Eingabedaten 53 für eines oder mehrere der nachgeschalteten Module 35b, 37b, 49b auf ein erstes Koordinatensystem 55 (siehe
In diesem Beispiel ist das erste Koordinatensystem 55 ein zweidimensionales xy-Koordinatensystem, das die Umgebung des Fahrzeugs 1 aus der Vogelperspektive darstellt, wohingegen das zweite Koordinatensystem 45 ein dreidimensionales xyz-Koordinatensystem ist, das die Umgebung des Fahrzeugs 1 aus einer Fahrerperspektive darstellt, d. h. so, wie der Fahrer des Fahrzeugs 1 oder ein anderer Fahrer eines dem Fahrzeug 1 (unmittelbar) folgenden Fahrzeugs die Umgebung sehen würde.In this example, the first coordinate system 55 is a two-dimensional xy coordinate system that represents the surroundings of the vehicle 1 from a bird's eye view, whereas the second coordinate
Es ist möglich, dass ein Koordinatensystem 55, auf das sich die Eingabedaten 53 für eines der nachgeschalteten Module 35b, 37b, 49b beziehen, von einem Koordinatensystem 55, auf das sich die Eingabedaten 53 für ein anderes nachgeschaltetes Modul 35b, 37b, 49b beziehen, abweicht. Alternativ können sich die Eingabedaten 53 für alle nachgeschalteten Module 35b, 37b, 49b auf das gleiche Koordinatensystem 55 beziehen.It is possible for a coordinate system 55, to which the
Dies kann in entsprechender Weise für das Koordinatensystem 45, auf das sich die Objektdaten 39, 41, 51 beziehen, zutreffen.This can apply in a corresponding manner to the coordinate
Das Fusionsmodul 25 kann, wie hier dargestellt, ebenfalls mehrere Einzelmodule umfassen, beispielsweise einen Posenschätzer 57 zum Schätzen einer Pose des Fahrzeugs 1, einen Zustandsschätzer 59 zum Schätzen aktueller und/oder zukünftiger Zustände der Objekte, genauer der Objektmodelle 43, und ein Kartenmodul 61, das die Objekte in einer digitalen Karte der Umgebung des Fahrzeugs 1 (z. B. einer Rasterkarte) speichert.As shown here, the
Nachstehend werden weitere Details beschrieben.Further details are described below.
Die Lidardaten 29 können Rohdaten des Lidarsensors 27 sein, die durch einen perspektivischen Scan eines Teilbereichs der Umgebung des Fahrzeugs 1 erzeugt wurden. Diese Rohdaten können vom fünften Modul 49a zur semantischen Segmentierung verwendet werden, wobei das fünfte Modul 49a für jeden 3D-Punkt in den Rohdaten eine semantische Klasse ausgeben kann. Die resultierenden semantischen Daten können dann mit den Punktkoordinaten der jeweiligen 3D-Punkte kombiniert und ins Koordinatensystem 55, d. h. in eine Vogelperspektivendarstellung, projiziert werden (siehe
Die aus dieser Projektion resultierenden Vogelperspektivenbilder können als Eingaben für das sechste Modul 49b verwendet werden, das in diesen Bildern dann Objektmodelle 43 in Form von 3D-Boxen für relevante Objekte wie Autos, Fahrräder, Fußgänger usw. erkennen kann.The bird's eye view images resulting from this projection can be used as inputs for the
Beim ersten Modul 35a kann es sich beispielsweise um ein Multitasking-Netz handeln, das für jedes Pixel eines Kamerabilds einen Tiefenwert und eine semantische Information ausgibt.The
Die Kamerabilder können unter Verwendung der geschätzten Tiefenwerte (D) und eines mathematischen Modells der Kamera 9, in das eine intrinsische Kalibrierungsmatrix (K) und die Pixelkoordinaten eingehen, in 3D-Punktwolken transformiert werden:
Die 3D-Punktwolken können hierauf mit den semantischen Informationen kombiniert und ins Koordinatensystem 55, d. h. in die Vogelperspektivendarstellung, projiziert werden. Die weitere Verarbeitung kann wie weiter oben am Beispiel der Lidardaten 29 beschrieben erfolgen.The 3D point clouds can then be combined with the semantic information and stored in the coordinate system 55, i.e. H. projected into the bird's eye view. Further processing can take place as described above using the example of
Die Radardaten 15 können bereits 2D-Bilder im Koordinatensystem 55, d. h. Vogelperspektivenbilder, umfassen. Diese Radarbilder können als Eingaben für das dritte Modul 37a verwendet werden, das für jedes Pixel eine oder mehrere semantische Klassen ausgibt. Anschließend können die Radarbilder mit den semantischen Informationen kombiniert und als Eingaben für das vierte Modul 37b verwendet werden.The
Zum Trainieren der Module für die semantische Segmentierung (semseg) kann beispielsweise die Softmax-Funktion als Verlustfunktion (L) verwendet werden:
Dabei steht l für die Ausgaben des Netzes und l̂ für Zielwerte bezüglich dieser Ausgaben (ground truth).l stands for the network's output and l̂ for target values regarding these outputs (ground truth).
Für das Multitasking-Netz kann beispielsweise die folgende gewichtete Multitasking-Verlustfunktion verwendet:
Dabei steht w für ein Gewicht, Lsemseg für den Verlust bezüglich der semantischen Segmentierung (siehe oben) und Ldepth für den Verlust bezüglich der Schätzung der Tiefenwerte.Where w stands for a weight, L semseg for the loss in terms of semantic segmentation (see above) and L depth for the loss in estimating the depth values.
Ldepth kann auch als L1-Verlust formuliert werden, wenn Label für einen überwachten Lernprozess verfügbar sind (mit depth für die geschätzten Tiefenwerte und
Die Projektion von der Punktwolkendarstellung in die Vogelperspektivendarstellung kann beispielsweise entsprechend dieser Formel erfolgen:
Dabei steht top_view_T_sensor für eine 4 × 4-Transformationsmatrix für die Transformation vom jeweiligen Sensorkoordinatensystem ins Koordinatensystem 55 der Vogelperspektivendarstellung.Top_view_T_sensor stands for a 4 × 4 transformation matrix for the transformation from the respective sensor coordinate system into the coordinate system 55 of the bird's-eye view representation.
Um aus den Koordinaten eines jeden 3D-Punkts entsprechende Koordinaten eines Pixels im Vogelperspektivenbild zu erhalten, kann beispielsweise folgende Formel verwendet werden:
Dabei steht pixels_size_meters für die Fläche in Metern, die auf ein einzelnes Pixel projiziert wird.Pixels_size_meters stands for the area in meters that is projected onto a single pixel.
Das Fusionsmodul 25 dient dazu, die Informationen, die aus Sensordaten verschiedener Sensoren gewonnen wurden, in einem gemeinsamen Umgebungsmodell 44 zu kombinieren. Da hier jede Sensormodalität die gleiche vollständige Darstellung der Umgebung liefert, vereinfacht dies das Fusionsverfahren und macht das System robust gegenüber einem Ausfall oder einer Fehlfunktion einzelner Sensoren oder einzelner Sensormodalitäten.The
Der Posenschätzer 57 kann beispielsweise aus den Objektdaten 37, 39 und/oder 51 (unter zusätzlicher Verwendung der Fahrdynamikdaten 33) eine geschätzte Fahrzeugposition und/oder -orientierung und deren Unsicherheit(en) bestimmen.The
In den Zustandsschätzer 59, z. B. ein (erweiterter) Kalman- oder ein Partikelfilter, können beispielsweise die Parameter der Objektmodelle 43 und die Fahrdynamikdaten 33 eingegeben werden.In the
Beispielsweise können statistische Kompatibilitätstests durchgeführt werden, um eine Verbindung zwischen einem Objekt i aus einer Liste vorhergesagter Objekte und Beobachtungen der Sensoren j zu finden. Bei gegebener vij-Innovation und Sij-Innovationskovarianz der Paarung ij kann beispielsweise der Mahalonobis-Abstand berechnet werden:
Dieser kann mit dem Schwellenwert aus einer kumulativen χ2-Verteilung verglichen werden und sollte nicht größer als dieser Schwellenwert sein (mit n für die Anzahl der Freiheitsgrade und a für das Signifikanzniveau, das zwischen 0,95 und 0,99 liegen sollte):
Die Zustände der einzelnen dynamischen Objekte können mithilfe des erweiterten Kalman-Filters prädiziert werden. Der Vorteil der einheitlichen Zustandsdarstellung für mehrere Sensormodalitäten, z. B. in Form von 3D-Boxen, liegt darin, dass dieselben Datenassoziations- und Bewegungsmodelle auf die durch die unterschiedlichen Sensormodalitäten erfassten dynamischen Objekte angewendet werden können. Dies vereinfacht den Algorithmus und verbessert die Genauigkeit.The states of each dynamic object can be predicted using the extended Kalman filter. The advantage of uniform state representation for multiple sensor modalities, e.g. B. in the form of 3D boxes, is that the same data association and motion models can be applied to the dynamic objects detected by the different sensor modalities. This simplifies the algorithm and improves accuracy.
Die Schätzung eines probabilistischen Belegungsrasters m (d. h. einer Belegung einer die Umgebung des Fahrzeugs 1 repräsentierten Rasterkarte) kann folgendermaßen formuliert werden:
Dabei ist p(m|z1:t,x1:t) der probabilistische Zustand der Karte m bei allen Beobachtungen z1:t der Umgebung und allen Positionen des Ego-Fahrzeugs x1:t bis zum Zeitpunkt t.Here p(m|z 1:t ,x 1:t ) is the probabilistic state of the map m for all observations z 1:t of the environment and all positions of the ego vehicle x 1:t up to time t.
Das Kartenmodul 61 kann die Objektdaten 37, 39 und/oder 51 (unter zusätzlicher Verwendung der Fahrdynamikdaten 33) zu einer probabilistischen Belegungsgitterkarte mit semantischen Informationen kombinieren.The
Die probabilistische Belegungskarte diskretisiert den Raum über den Gitterzellen und schätzt für eine gegebene Beobachtung die Wahrscheinlichkeit für eine Gitterzellenbelegung. Jeder Gitterzelle können zudem eine oder mehrere Objektklassen und/oder (falls zutreffend) eine Objekthöhe zugeordnet sein.The probabilistic occupancy map discretizes the space above the grid cells and estimates the probability of grid cell occupancy for a given observation. Each grid cell can also be assigned one or more object classes and/or (if applicable) an object height.
Abschließend wird darauf hingewiesen, dass Begriffe wie „aufweisend“, „umfassend“ usw. keine anderen Elemente oder Schritte ausschließen und unbestimmte Artikel wie „ein“ oder „eine“ keine Vielzahl ausschließen. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.Finally, it is noted that terms such as "comprising", "comprising", etc. do not exclude other elements or steps, and indefinite articles such as "a" or "an" do not exclude a plurality. Reference symbols in the claims are not to be viewed as a limitation.
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022204767.2A DE102022204767A1 (en) | 2022-05-16 | 2022-05-16 | Method and device for processing sensor data from a sensor system of a vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022204767.2A DE102022204767A1 (en) | 2022-05-16 | 2022-05-16 | Method and device for processing sensor data from a sensor system of a vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022204767A1 true DE102022204767A1 (en) | 2023-11-16 |
Family
ID=88510308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022204767.2A Pending DE102022204767A1 (en) | 2022-05-16 | 2022-05-16 | Method and device for processing sensor data from a sensor system of a vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022204767A1 (en) |
-
2022
- 2022-05-16 DE DE102022204767.2A patent/DE102022204767A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112018005774T5 (en) | Device for predicting the behavior of a moving body and method for predicting the behavior of a moving body | |
DE102019115874A1 (en) | SYSTEMS AND METHODS FOR IMPROVED DISTANCE ESTIMATION BY A MONOCAMERA USING RADAR AND MOTION DATA | |
DE102018107344A1 (en) | OBSTACLE DETECTION SYSTEMS AND METHODS | |
DE102019133536A1 (en) | Method and apparatus for enabling sequential bottom view image projection synthesis and complicated scene reconstruction at map anomaly hotspots | |
DE112019001657T5 (en) | SIGNAL PROCESSING DEVICE AND SIGNAL PROCESSING METHOD, PROGRAM AND MOBILE BODY | |
DE102019116569A1 (en) | LOCALIZATION FOR AUTONOMOUS VEHICLES USING GAUSSIAN MIXING MODELS | |
DE102018103817A1 (en) | FREE-AIR DETECTION USING A MONOCULAR CAMERA AND DEEP LEARNING | |
DE102020214283A1 (en) | DEVICE FOR DETECTION OF OBSTACLES, VEHICLE SYSTEM WITH THIS AND METHOD FOR IT | |
DE102018008624A1 (en) | Control system and control method for sampling-based planning of possible trajectories for motor vehicles | |
DE102014108858A1 (en) | Method and apparatus for estimating and tracking the shape and pose of a three-dimensional object | |
DE102021128041A1 (en) | IMPROVEMENT OF A VEHICLE NEURAL NETWORK | |
DE102020102823A1 (en) | VEHICLE CAPSULE NETWORKS | |
DE102023104789A1 (en) | TRACKING OF MULTIPLE OBJECTS | |
DE102017108248A1 (en) | STREET FEATURE RECOGNITION WITH A VEHICLE CAMERA SYSTEM | |
DE112021006111T5 (en) | Systems and methods for monocularized object recognition | |
WO2020193273A1 (en) | Method and device for operating a robot with improved object detection | |
DE102020100230A1 (en) | RECONSTRUCTION OF LANDMARK POSITIONS IN AUTONOMOUS MACHINE APPLICATIONS | |
WO2022122933A1 (en) | Method and device for detecting objects in the surroundings of a vehicle | |
EP3809316A1 (en) | Prediction of a road route based on radar data | |
DE102023102645A1 (en) | VEHICLE LOCATION | |
DE102019208233A1 (en) | Method and device for automatically executing a control function of a vehicle | |
DE102022204767A1 (en) | Method and device for processing sensor data from a sensor system of a vehicle | |
DE102022121602A1 (en) | OBJECT MOTION PATH PREDICTION | |
DE112022002791T5 (en) | PARTICLE FILTER TRACKING SYSTEMS AND METHODS | |
DE112022002046T5 (en) | DRIVING DEVICE, VEHICLE AND METHOD FOR AUTOMATED DRIVING AND/OR ASSISTED DRIVING |