DE102022204767A1 - Method and device for processing sensor data from a sensor system of a vehicle - Google Patents

Method and device for processing sensor data from a sensor system of a vehicle Download PDF

Info

Publication number
DE102022204767A1
DE102022204767A1 DE102022204767.2A DE102022204767A DE102022204767A1 DE 102022204767 A1 DE102022204767 A1 DE 102022204767A1 DE 102022204767 A DE102022204767 A DE 102022204767A DE 102022204767 A1 DE102022204767 A1 DE 102022204767A1
Authority
DE
Germany
Prior art keywords
data
coordinate system
sensor
vehicle
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022204767.2A
Other languages
German (de)
Inventor
Denis Tananaev
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022204767.2A priority Critical patent/DE102022204767A1/en
Publication of DE102022204767A1 publication Critical patent/DE102022204767A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems

Abstract

Ein Verfahren zum Verarbeiten von Sensordaten (13, 15, 29, 33) einer Sensorik (5) zum Erfassen einer Umgebung eines Fahrzeugs (1) umfasst: Empfangen erster Sensordaten (13), die von einem ersten Sensor (9) erzeugt wurden, und zweiter Sensordaten (15), die von einem in seinem Typ vom ersten Sensor abweichenden zweiten Sensor (11) erzeugt wurden; Eingeben der ersten Sensordaten in ein erstes neuronales Netz (35), das trainiert wurde, um die ersten Sensordaten in erste Objektdaten (39) umzuwandeln, und Eingeben der zweiten Sensordaten in ein zweites neuronales Netz (37), das trainiert wurde, um die zweiten Sensordaten in zweite Objektdaten (41) umzuwandeln, wobei die Objektdaten Parameter von Objekten in der Umgebung zugeordneten Objektmodellen (43) definieren, wobei die Parameter neben einer Objektklasse eine Position und/oder Orientierung der Objekte umfassen, wobei die Objektmodelle der ersten Objektdaten in ihrem Typ mit den Objektmodellen der zweiten Objektdaten übereinstimmen; Aktualisieren eines die Umgebung repräsentierenden Umgebungsmodells (44) mit den Objektdaten.A method for processing sensor data (13, 15, 29, 33) of a sensor system (5) for detecting an environment of a vehicle (1) comprises: receiving first sensor data (13) generated by a first sensor (9), and second sensor data (15), which were generated by a second sensor (11) which differs in type from the first sensor; Entering the first sensor data into a first neural network (35) that has been trained to convert the first sensor data into first object data (39), and entering the second sensor data into a second neural network (37) that has been trained to convert the second Converting sensor data into second object data (41), the object data defining parameters of object models (43) assigned to objects in the environment, the parameters comprising, in addition to an object class, a position and/or orientation of the objects, the object models of the first object data in their type match the object models of the second object data; Updating an environment model (44) representing the environment with the object data.

Description

Gebiet der ErfindungField of invention

Die Erfindung betrifft ein computerimplementiertes Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs. Zudem betrifft die Erfindung eine Datenverarbeitungsvorrichtung und ein Computerprogramm zum Ausführen des Verfahrens sowie ein computerlesbares Medium, auf dem das Computerprogramm gespeichert ist.The invention relates to a computer-implemented method for processing sensor data from a sensor system of a vehicle. The invention also relates to a data processing device and a computer program for carrying out the method, as well as a computer-readable medium on which the computer program is stored.

Stand der TechnikState of the art

Ein Fahrzeug wie beispielsweise ein Pkw oder Lkw kann mit einem Fahrerassistenzsystem ausgestattet sein, das eine teil- oder vollautomatisierte Steuerung des Fahrzeugs ermöglicht. Hierzu kann das Fahrerassistenzsystem beispielsweise mittels einer geeigneten Sensorik Positionen, Orientierungen und/oder Typen von Objekten in der Umgebung des Fahrzeugs erkennen und das Fahrzeug unter Berücksichtigung dieser Objekte lenken, bremsen und/oder beschleunigen.A vehicle such as a car or truck can be equipped with a driver assistance system that enables partially or fully automated control of the vehicle. For this purpose, the driver assistance system can, for example, use suitable sensors to detect positions, orientations and/or types of objects in the area surrounding the vehicle and steer, brake and/or accelerate the vehicle taking these objects into account.

Die Umgebung des Fahrzeugs kann beispielsweise gleichzeitig von mehreren Sensoren unterschiedlichen Typs erfasst werden. In diesem Fall können die jeweiligen Sensor- und/oder Objektdaten mithilfe eines geeigneten Fusionsalgorithmus miteinander fusioniert, d. h. verknüpft werden, etwa um aktuelle und/oder zukünftige Zustände der erkannten Objekte und/oder des Fahrzeugs in einer digitalen Karte zu schätzen. Eine solche Datenfusion kann je nach Anzahl der unterschiedlichen Sensortypen sehr komplex sein und entsprechend leistungsfähige Hardwarekomponenten erfordern.For example, the vehicle's surroundings can be detected simultaneously by several sensors of different types. In this case, the respective sensor and/or object data can be fused together using a suitable fusion algorithm, i.e. H. be linked, for example to estimate current and/or future states of the detected objects and/or the vehicle in a digital map. Depending on the number of different sensor types, such data fusion can be very complex and require correspondingly powerful hardware components.

Offenbarung der ErfindungDisclosure of the invention

Vor diesem Hintergrund werden nachstehend ein computerimplementiertes Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs, eine entsprechende Datenverarbeitungsvorrichtung, ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Medium gemäß den unabhängigen Ansprüchen vorgestellt. Vorteilhafte Weiterbildungen und Verbesserungen des hier vorgestellten Ansatzes ergeben sich aus der Beschreibung und sind in den abhängigen Ansprüchen beschrieben.Against this background, a computer-implemented method for processing sensor data from a sensor system of a vehicle, a corresponding data processing device, a corresponding computer program and a corresponding computer-readable medium according to the independent claims are presented below. Advantageous developments and improvements to the approach presented here result from the description and are described in the dependent claims.

Vorteile der ErfindungAdvantages of the invention

Ausführungsformen der vorliegenden Erfindung ermöglichen eine verbesserte Datenfusion von Sensordaten, die von verschiedenen Sensormodalitäten einer Sensorik zum Erfassen einer Umgebung eines Fahrzeugs erzeugt wurden. Zum Beispiel kann die Robustheit der Datenfusion gegenüber einem Ausfall oder einer Fehlfunktion einer oder mehrerer Sensormodalitäten verbessert werden, was insbesondere im Zusammenhang mit autonomem Fahren wichtig ist. Im günstigsten Fall funktioniert die Datenfusion so gut, dass auf bestimmte Sensormodalitäten, beispielsweise auf einen Lidarsensor, ganz verzichtet werden kann, was die Entwicklung und Herstellung stark verbilligen kann.Embodiments of the present invention enable improved data fusion of sensor data generated by various sensor modalities of a sensor system for detecting a vehicle's surroundings. For example, the robustness of data fusion against failure or malfunction of one or more sensor modalities can be improved, which is particularly important in the context of autonomous driving. In the best case scenario, data fusion works so well that certain sensor modalities, such as a lidar sensor, can be dispensed with entirely, which can make development and production significantly cheaper.

Ein erster Aspekt der Erfindung betrifft ein computerimplementiertes Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs. Die Sensorik umfasst mindestens einen ersten Sensor und einen in seinem Typ vom ersten Sensor abweichenden zweiten Sensor zum Erfassen einer Umgebung des Fahrzeugs. Das Verfahren umfasst zumindest die folgenden Schritte (die im Betrieb des Fahrzeugs fortlaufend ausgeführt werden können): Empfangen erster Sensordaten, die vom ersten Sensor erzeugt wurden, und zweiter Sensordaten, die vom zweiten Sensor erzeugt wurden; Eingeben der ersten Sensordaten in ein erstes künstliches neuronales Netz, das trainiert wurde, um die ersten Sensordaten in erste Objektdaten umzuwandeln, und Eingeben der zweiten Sensordaten in ein zweites künstliches neuronales Netz, das trainiert wurde, um die zweiten Sensordaten in zweite Objektdaten umzuwandeln, wobei die ersten Objektdaten und die zweiten Objektdaten jeweils Parameter von Objektmodellen definieren, die Objekten in der Umgebung des Fahrzeugs zugeordnet sind, wobei die Parameter eines jeden Objektmodells neben einer Objektklasse eine Position und/oder Orientierung des dem Objektmodell zugeordneten Objekts umfassen, wobei die durch die ersten Objektdaten definierten Objektmodelle in ihrem Typ, insbesondere in ihrer (geometrischen) Darstellungsform in einem der Umgebung des Fahrzeugs zugeordneten Koordinatensystem, mit den durch die zweiten Objektdaten definierten Objektmodellen übereinstimmen; Aktualisieren eines die Umgebung des Fahrzeugs repräsentierenden Umgebungsmodells mit den ersten Objektdaten und den zweiten Objektdaten.A first aspect of the invention relates to a computer-implemented method for processing sensor data from a sensor system of a vehicle. The sensor system includes at least a first sensor and a second sensor, which differs in type from the first sensor, for detecting an environment of the vehicle. The method includes at least the following steps (which may be performed continuously during operation of the vehicle): receiving first sensor data generated by the first sensor and second sensor data generated by the second sensor; inputting the first sensor data into a first artificial neural network trained to convert the first sensor data into first object data, and inputting the second sensor data into a second artificial neural network trained to convert the second sensor data into second object data, wherein the first object data and the second object data each define parameters of object models that are assigned to objects in the environment of the vehicle, wherein the parameters of each object model include, in addition to an object class, a position and / or orientation of the object assigned to the object model, wherein the first Object models defined by object data correspond in their type, in particular in their (geometric) representation form in a coordinate system assigned to the environment of the vehicle, to the object models defined by the second object data; Updating an environment model representing the environment of the vehicle with the first object data and the second object data.

Anders ausgedrückt liefert jede Sensormodalität (beispielsweise Kamera, Lidar- oder Radarsensor) das gleiche Umgebungsmodell bezüglich der Umgebung des Fahrzeugs, wobei das Umgebungsmodell alle notwendigen Informationen für einen sicheren und effizienten Betrieb des Fahrzeugs umfassen kann. Dabei können Schwächen der einzelnen Sensormodalitäten durch Verarbeiten ihrer Sensordaten mithilfe eines geeigneten Algorithmus kompensiert werden. Dies hat die Wirkung, dass die Sensormodalitäten unabhängig voneinander mit ausreichender Genauigkeit betrieben werden können, sodass das System bei einem Ausfall oder einer Fehlfunktion einer oder sogar mehrerer Sensormodalitäten auf der Grundlage der übrigen Sensormodalität(en) weiterarbeiten kann.In other words, each sensor modality (e.g. camera, lidar or radar sensor) provides the same environmental model regarding the vehicle's surroundings, where the environmental model can include all necessary information for safe and efficient operation of the vehicle. Weaknesses in the individual sensor modalities can be compensated for by processing their sensor data using a suitable algorithm. This has the effect of allowing the sensor modalities to operate independently of each other with sufficient accuracy so that in the event of a failure or malfunction of one or even more sensors, the system sensor modalities can continue to work on the basis of the remaining sensor modality(s).

Beispielsweise kann durch Ausführen des Verfahrens bewirkt werden, dass ein 3D-Modell der Umgebung einschließlich statischer Objekte (beispielsweise Gebäude, Vegetation oder Fahrbahnoberfläche) erstellt wird und dynamische Objekte (beispielsweise Autos, Fahrräder, Fußgänger oder Tiere) in diesem 3D-Modell zeitlich verfolgt werden. Hierzu können die Sensordaten zweier oder mehrerer Sensoren unterschiedlichen Typs (beispielsweise eine Kamera in Kombination mit einem Radarsensor und/oder einem Lidarsensor) miteinander kombiniert werden.For example, executing the method can cause a 3D model of the environment including static objects (e.g. buildings, vegetation or road surface) to be created and dynamic objects (e.g. cars, bicycles, pedestrians or animals) to be tracked over time in this 3D model . For this purpose, the sensor data from two or more sensors of different types (for example a camera in combination with a radar sensor and/or a lidar sensor) can be combined with one another.

Verschiedene Sensortypen haben in der Regel verschiedene Vor- und Nachteile. Kameras ermöglichen beispielsweise eine genaue semantische Segmentierung, indem verschiedene Abschnitte des aufgenommenen Bilds, etwa eines jeden Pixels des Bilds, einer oder mehreren Klassen zugeordnet werden können. Lidarsensoren hingegen liefern hochpräzise 3D-Punktwolken, was jedoch die Klassifizierung erschweren kann. Radardaten sind in der Regel weniger detailliert als Lidardaten. Zudem können Radardaten durch Reflexionen und/oder Rauschen verfälscht sein. Dafür können Radarsensoren auch bei Nebel und Regen eingesetzt werden. Zudem liefern Radarsensoren sehr genaue Geschwindigkeitswerte. Die Kombination dieser verschiedenen Sensoren dient im Allgemeinen dazu, die Schwächen des einen Sensors durch die Stärken des anderen Sensors zu kompensieren. Im Unterschied zu herkömmlichen Systemen, bei denen die Leistungsfähigkeit stark beeinträchtigt wird oder sogar das komplette System ausfallen kann, wenn einer der Sensoren ausfällt, bietet der hier vorgestellte Ansatz den Vorteil, dass die Leistungsfähigkeit des Systems bei solchen Störungen aufrechterhalten werden kann oder nur in sehr geringem, vernachlässigbarem Maß beeinträchtigt wird.Different types of sensors usually have different advantages and disadvantages. Cameras, for example, enable precise semantic segmentation by assigning different sections of the captured image, such as each pixel of the image, to one or more classes. Lidar sensors, on the other hand, provide high-precision 3D point clouds, but this can make classification difficult. Radar data is typically less detailed than lidar data. In addition, radar data can be corrupted by reflections and/or noise. Radar sensors can also be used in fog and rain. Radar sensors also provide very precise speed values. The combination of these different sensors generally serves to compensate for the weaknesses of one sensor with the strengths of the other sensor. In contrast to conventional systems, in which the performance is severely impaired or even the entire system can fail if one of the sensors fails, the approach presented here offers the advantage that the performance of the system can be maintained in the event of such disruptions or only to a very limited extent to a small, negligible extent.

Das Verfahren kann automatisch durch einen Prozessor, beispielsweise eines Steuergeräts des Fahrzeugs, ausgeführt werden.The method can be carried out automatically by a processor, for example a control unit of the vehicle.

Unter „Fahrzeug“ kann vor- und nachstehend beispielsweise ein Pkw, ein Lkw, ein Bus, ein Motorrad oder ein sich autonom fortbewegender Roboter verstanden werden.“Vehicle” can be understood, for example, as a car, a truck, a bus, a motorcycle or an autonomously moving robot.

Die Sensorik kann beispielsweise eine Kamera, einen Radar-, Lidar- oder Ultraschallsensor oder eine Kombination aus mindestens zwei dieser Beispiele als den ersten bzw. zweiten Sensor umfassen. Neben solchen Umfeldsensoren kann die Sensorik zusätzlich einen Fahrdynamiksensor zum Erfassen einer Fahrdynamik des Fahrzeugs und/oder einen Ortungssensor zur Bestimmung geografischer Koordinaten des Fahrzeugs mithilfe eines globalen Navigationssatellitensystems wie GPS, GLONASS o. Ä. umfassen. Ein solcher Fahrdynamiksensor kann beispielsweise ein Beschleunigungs-, Raddrehzahl-, Lenkradwinkel-, Lenkmoment-, Bremsdruck- oder Bremspedalwegsensor oder eine Kombination aus mindestens zwei dieser Beispiele sein.The sensor system can include, for example, a camera, a radar, lidar or ultrasonic sensor or a combination of at least two of these examples as the first or second sensor. In addition to such environmental sensors, the sensor system can also include a driving dynamics sensor for detecting driving dynamics of the vehicle and/or a location sensor for determining geographical coordinates of the vehicle using a global navigation satellite system such as GPS, GLONASS or similar. include. Such a driving dynamics sensor can be, for example, an acceleration, wheel speed, steering wheel angle, steering torque, brake pressure or brake pedal travel sensor or a combination of at least two of these examples.

Die vom Fahrdynamiksensor erzeugten Fahrdynamikdaten können zusätzlich zu den Objektdaten zum Aktualisieren des Umgebungsmodells, insbesondere zur Bestimmung einer (aktuellen und/oder zukünftigen) Position und/oder Orientierung des Fahrzeugs, verwendet werden.The driving dynamics data generated by the driving dynamics sensor can be used in addition to the object data to update the environmental model, in particular to determine a (current and/or future) position and/or orientation of the vehicle.

Der erste und der zweite Sensor können beispielsweise so ausgerichtet sein, dass sich ihre Erfassungsbereiche zumindest teilweise überlappen. Somit können Objekte in der Umgebung des Fahrzeugs gleichzeitig durch unterschiedliche Sensortypen erfasst werden. Dies kann die Genauigkeit des Verfahrens verbessern.The first and second sensors can, for example, be aligned so that their detection areas at least partially overlap. This means that objects in the area surrounding the vehicle can be detected simultaneously by different types of sensors. This can improve the accuracy of the procedure.

Eine Objektklasse kann eine semantische Information wie beispielsweise „Pkw“, „Lkw“, „Bus“, „Motorrad“, „Fahrrad“, „Fußgänger“, „Gebäude“, „Baum“ oder „Verkehrsschild“ sein.An object class can be semantic information such as "car", "truck", "bus", "motorcycle", "bicycle", "pedestrian", "building", "tree" or "road sign".

Ein und demselben Objektmodell können gleichzeitig auch mehrere Objektklassen zugeordnet sein.Several object classes can be assigned to one and the same object model at the same time.

Unter „künstliches neuronales Netz“ kann beispielsweise ein (mehrlagiges) Perzeptron, ein faltendes neuronales Netz (convolutional neural network), ein rekurrentes neuronales Netz (recurrent neural network; z. B. als long short-term memory) oder eine Kombination aus unterschiedlichen Netztypen verstanden werden.“Artificial neural network” can, for example, include a (multi-layer) perceptron, a convolutional neural network, a recurrent neural network; e.g. as long short-term memory) or a combination of different network types be understood.

Ein solches Netz kann im Allgemeinen als eine Funktion mit maschinell trainierbaren Parametern zum Umwandeln von Eingabedaten in Ausgabedaten, beispielsweise durch Klassifikation und/oder Regression, aufgefasst werden. Zum Trainieren der Parameter (auch Gewichte genannt) können reale (d. h. durch einen Sensor gemessene) und/oder simulierte (d. h. durch einen Computer berechnete) Beispielwerte in das Netz eingegeben werden und die resultierenden Ausgabewerte mit vordefinierten Zielwerten (auch Label genannt) verglichen werden. Dabei kann eine Abweichung zwischen den Ausgabe- und den Zielwerten mithilfe einer geeigneten Kosten- und/oder Nutzenfunktion quantifiziert werden. Die Parameter können dann in einem geeigneten Optimierungsverfahren, beispielsweise in einem Gradientenverfahren durch Backpropagation, abhängig von der durch die Kosten- bzw. Nutzenfunktion quantifizierten Abweichung bis zum Erreichen eines lokalen oder globalen Optimums iterativ angepasst werden. Dies kann auch als überwachtes Lernen bezeichnet werden. Theoretisch kann das Netz jedoch auch durch unüberwachtes und/oder bestärkendes Lernen trainiert werden.Such a network can generally be viewed as a function with machine-trainable parameters for converting input data into output data, for example through classification and/or regression. To train the parameters (also called weights), real (ie measured by a sensor) and/or simulated (ie calculated by a computer) example values can be entered into the network and the resulting output values can be compared with predefined target values (also called labels). A deviation between the output and target values can be quantified using a suitable cost and/or benefit function. The parameters can then be achieved in a suitable optimization method, for example in a gradient method using backpropagation, depending on the deviation quantified by the cost or benefit function chen of a local or global optimum can be adjusted iteratively. This can also be called supervised learning. Theoretically, however, the network can also be trained using unsupervised and/or reinforcement learning.

Das erste und das zweite Netz können in ihrem Typ voneinander abweichen oder miteinander übereinstimmen.The first and second networks can differ in type or match one another.

Alternativ können auch andere Algorithmen des maschinellen Lernens zum Verarbeiten der ersten und der zweiten Sensordaten eingesetzt werden, beispielsweise ein Entscheidungsbaum, ein Random Forest, ein k-nächste-Nachbarn-Algorithmus, eine Support-Vector-Maschine, ein Bayes-Klassifikator, ein k-Means-Algorithmus, ein genetischer Algorithmus, ein Kernelregressionsalgorithmus, ein Diskriminanzanalyse-Algorithmus oder eine Kombination aus mindestens zwei dieser Beispiele.Alternatively, other machine learning algorithms can also be used to process the first and second sensor data, for example a decision tree, a random forest, a k-nearest neighbors algorithm, a support vector machine, a Bayes classifier, a k -Means algorithm, a genetic algorithm, a kernel regression algorithm, a discriminant analysis algorithm, or a combination of at least two of these examples.

Das Umgebungsmodell kann konfiguriert sein, um Parameter von Objekten in der Umgebung des Fahrzeugs zugeordneten Objektmodellen zu speichern, beispielsweise in einer digitalen Karte, und laufend zu aktualisieren. Das Umgebungsmodell kann zudem konfiguriert sein, um aktuelle und/oder zukünftige Zustände der Objekte und/oder des Fahrzeugs basierend auf den ersten und den zweiten Objektdaten zu schätzen. Wie weiter oben erwähnt, kann das Umgebungsmodell zum Schätzen einer Position und/oder Orientierung des Fahrzeugs relativ zu den Objekten zusätzlich Fahrdynamikdaten bezüglich des Fahrzeugs auswerten.The environment model can be configured to store parameters of objects in the environment of the vehicle associated with object models, for example in a digital map, and to continuously update them. The environment model may also be configured to estimate current and/or future states of the objects and/or the vehicle based on the first and second object data. As mentioned above, the environmental model can additionally evaluate driving dynamics data regarding the vehicle to estimate a position and/or orientation of the vehicle relative to the objects.

Zum Aktualisieren des Umgebungsmodells können die ersten und die zweiten Objektdaten beispielweise in ein Fusionsmodul eingegeben werden, das einen Fusionsalgorithmus zum Zusammenführen oder Verknüpfen der ersten und der zweiten Objektdaten (beispielsweise in einer digitalen Karte) ausführt. Allgemein ausgedrückt können im Fusionsmodul die ersten Objektdaten unter Berücksichtigung der zweiten Objektdaten und/oder die zweiten Objektdaten unter Berücksichtigung der ersten Objektdaten verarbeitet werden. Ein solcher Fusionsalgorithmus kann auch einen oder mehrere Zustandsschätzer zum Schätzen von Zuständen der Objekte und/oder des Fahrzeugs, beispielsweise einen (erweiterten) Kalman-Filter oder einen Partikelfilter, umfassen.To update the environment model, the first and second object data may, for example, be input into a fusion module that executes a fusion algorithm to merge or link the first and second object data (for example, in a digital map). Generally speaking, in the fusion module the first object data can be processed taking into account the second object data and/or the second object data can be processed taking into account the first object data. Such a fusion algorithm may also include one or more state estimators for estimating states of the objects and/or the vehicle, for example an (extended) Kalman filter or a particle filter.

Die aus dieser Datenfusion resultierenden Daten können insbesondere zur Ansteuerung einer Aktorik des Fahrzeugs verwendet werden. Eine solche Aktorik kann beispielsweise einen Bremsaktor, einen Lenkaktor, ein Motorsteuergerät, einen elektrischen Antriebsmotor oder eine Kombination aus mindestens zwei dieser Beispiele umfassen.The data resulting from this data fusion can be used in particular to control an actuator system of the vehicle. Such actuators can include, for example, a brake actuator, a steering actuator, an engine control unit, an electric drive motor or a combination of at least two of these examples.

Beispielsweise kann auf dem Steuergerät des Fahrzeugs ein Fahrerassistenzsystem laufen, das Objekte in Sensordaten mithilfe des hier beschriebenen Verfahrens erkennt und das Fahrzeug durch entsprechendes Ansteuern der Aktorik in Abhängigkeit von den erkannten Objekten automatisch steuert, also lenkt, beschleunigt und/oder abbremst.For example, a driver assistance system can run on the control unit of the vehicle, which detects objects in sensor data using the method described here and automatically controls the vehicle, i.e. steers, accelerates and/or brakes, by appropriately controlling the actuators depending on the detected objects.

Ein zweiter Aspekt der Erfindung betrifft eine Datenverarbeitungsvorrichtung, die einen Prozessor umfasst, der konfiguriert ist, um das vor- und nachstehend beschriebene Verfahren auszuführen. Die Datenverarbeitungsvorrichtung kann Hardware- und/oder Softwaremodule umfassen. Zusätzlich zum Prozessor kann die Datenverarbeitungsvorrichtung einen Speicher und Datenkommunikationsschnittstellen zur Datenkommunikation mit Peripheriegeräten umfassen. Die Datenverarbeitungsvorrichtung kann beispielsweise ein Steuergerät eines Fahrzeugs oder eines Roboters, ein PC, ein Server, ein Laptop, ein Tablet oder ein Smartphone sein.A second aspect of the invention relates to a data processing device comprising a processor configured to carry out the method described above and below. The data processing device can include hardware and/or software modules. In addition to the processor, the data processing device may include a memory and data communication interfaces for data communication with peripheral devices. The data processing device can be, for example, a control device of a vehicle or a robot, a PC, a server, a laptop, a tablet or a smartphone.

Weitere Aspekte der Erfindung betreffen ein Computerprogramm und ein computerlesbares Medium, auf dem das Computerprogramm gespeichert ist.Further aspects of the invention relate to a computer program and a computer-readable medium on which the computer program is stored.

Das Computerprogramm umfasst Befehle, die einen Prozessor bei Ausführung des Computerprogramms durch den Prozessor veranlassen, das vor- und nachstehend beschriebene Verfahren auszuführen.The computer program includes instructions that cause a processor to carry out the method described above and below when the computer program is executed by the processor.

Das computerlesbare Medium kann ein flüchtiger oder nicht flüchtiger Datenspeicher sein. Beispielsweise kann das computerlesbare Medium eine Festplatte, ein USB-Speichergerät, ein RAM, ein ROM, ein EPROM, ein Flash-Speicher oder eine Kombination aus mindestens zwei dieser Beispiele sein. Das computerlesbare Medium kann auch ein einen Download eines Programmcodes ermöglichendes Datenkommunikationsnetzwerk wie etwa das Internet oder eine Datenwolke (Cloud) sein.The computer-readable medium may be a volatile or non-volatile data storage device. For example, the computer-readable medium may be a hard drive, a USB storage device, a RAM, a ROM, an EPROM, a flash memory, or a combination of at least two of these examples. The computer-readable medium can also be a data communication network that enables a download of program code, such as the Internet or a data cloud.

Merkmale des vor- und nachstehend beschriebenen Verfahrens können auch als Merkmale der Datenverarbeitungsvorrichtung, des Computerprogramms und/oder des computerlesbaren Mediums aufgefasst werden (und umgekehrt).Features of the method described above and below can also be understood as features of the data processing device, the computer program and/or the computer-readable medium (and vice versa).

Ausführungsformen der Erfindung können, ohne die Erfindung einzuschränken, als auf den nachstehend beschriebenen Ideen und Erkenntnissen beruhend angesehen werden.Embodiments of the invention may be considered based on the ideas and findings described below, without limiting the invention.

Gemäß einer Ausführungsform können die in ihrem Typ miteinander übereinstimmenden Objektmodelle dreidimensionale geometrische Modelle sein. Dadurch können die realen (dreidimensionalen) Objekte möglichst realitätsnah in Objektmodellen abgebildet werden. According to one embodiment, the object models of the same type can be three-dimensional geometric models be. This allows the real (three-dimensional) objects to be depicted in object models as realistically as possible.

Alternativ können die in ihrem Typ miteinander übereinstimmenden Objektmodelle zweidimensionale geometrische Modelle, beispielsweise Rechtecke, sein.Alternatively, the object models of the same type can be two-dimensional geometric models, for example rectangles.

Zusätzlich zu den Objektmodellen kann das Umgebungsmodell ein dem Fahrzeug zugeordnetes (zwei- oder dreidimensionales) Fahrzeugmodell umfassen.In addition to the object models, the environment model can include a (two- or three-dimensional) vehicle model assigned to the vehicle.

Weitere mögliche Parameter der Objektmodelle, insbesondere in Form dreidimensionaler geometrischer Modelle, sind Schwerpunktposition, Länge, Breite, Höhe, Roll-, Nick-, Gierwinkel und davon abgeleitete Werte wie Geschwindigkeit, Beschleunigung oder Ruck.Other possible parameters of the object models, especially in the form of three-dimensional geometric models, are the position of the center of gravity, length, width, height, roll, pitch, yaw angle and values derived therefrom such as speed, acceleration or jerk.

Gemäß einer Ausführungsform können die dreidimensionalen geometrischen Modelle Quader sein. Dies ermöglicht eine genaue und recheneffiziente Modellierung der Objekte.According to one embodiment, the three-dimensional geometric models can be cuboids. This enables accurate and computationally efficient modeling of the objects.

Gemäß einer Ausführungsform kann das erste künstliche neuronale Netz ein erstes Modul und ein zweites Modul umfassen. In diesem Fall kann das erste Modul trainiert worden sein, um die ersten Sensordaten zu klassifizieren, während das zweite Modul trainiert worden sein kann, um Eingabedaten, die Ausgaben des ersten Moduls und/oder aus Ausgaben des ersten Moduls erzeugte Daten umfassen, in die ersten Objektdaten umzuwandeln. Zusätzlich oder alternativ kann das zweite künstliche neuronale Netz ein drittes Modul und ein viertes Modul umfassen. In diesem Fall kann das dritte Modul trainiert worden sein, um die zweiten Sensordaten zu klassifizieren, während das vierte Modul trainiert worden sein kann, um Eingabedaten, die Ausgaben des dritten Moduls und/oder aus Ausgaben des dritten Moduls erzeugte Daten umfassen, in die zweiten Objektdaten umzuwandeln. Dies kann die Implementierung des ersten bzw. zweiten Netzes vereinfachen.According to one embodiment, the first artificial neural network may include a first module and a second module. In this case, the first module may have been trained to classify the first sensor data, while the second module may have been trained to classify input data comprising outputs of the first module and/or data generated from outputs of the first module into the first Convert object data. Additionally or alternatively, the second artificial neural network may include a third module and a fourth module. In this case, the third module may have been trained to classify the second sensor data, while the fourth module may have been trained to integrate input data comprising outputs of the third module and/or data generated from outputs of the third module into the second Convert object data. This can simplify the implementation of the first or second network.

Insbesondere kann die Klassifizierung der ersten bzw. zweiten Sensordaten in einem Modul, das unabhängig vom Rest des jeweiligen künstlichen neuronalen Netzes trainierbar ist, den Trainingsaufwand reduzieren. So braucht beispielsweise bei einer Aktualisierung mit neuen Trainingsdaten für die Klassifizierung nur ein Teil des jeweiligen künstlichen neuronalen Netzes (und nicht das gesamte Netz) neu trainiert zu werden.In particular, the classification of the first or second sensor data in a module that can be trained independently of the rest of the respective artificial neural network can reduce the training effort. For example, when updating with new training data for classification, only part of the respective artificial neural network (and not the entire network) needs to be retrained.

Es ist möglich, dass die Ausgaben des ersten bzw. dritten Moduls in einem Zwischenschritt konvertiert werden, bevor sie ins zweite bzw. vierte Modul eingegeben werden. Dieser Zwischenschritt kann beispielsweise von einem externen Konvertierungsmodul, das nicht Teil des jeweiligen künstlichen neuronalen Netzes ist, ausgeführt werden. Damit kann das jeweilige künstliche neuronale Netz insgesamt einfacher aufgebaut werden. Dies kann den Trainingsaufwand weiter reduzieren.It is possible that the outputs of the first and third modules are converted in an intermediate step before they are input into the second or fourth module. This intermediate step can, for example, be carried out by an external conversion module that is not part of the respective artificial neural network. This means that the respective artificial neural network can be constructed more simply overall. This can further reduce the training effort.

Das zweite bzw. vierte Modul kann beispielweise trainiert worden sein, um die dreidimensionalen geometrischen Modelle aus den jeweiligen Eingabedaten zu extrahieren.The second or fourth module may, for example, have been trained to extract the three-dimensional geometric models from the respective input data.

Das erste und das zweite Modul können zumindest teilweise mit den gleichen Trainingsdaten trainiert worden sein. Zusätzlich oder alternativ können das dritte und das vierte Modul zumindest teilweise mit den gleichen Trainingsdaten trainiert worden sein. Dadurch kann der Aufwand zum Trainieren des ersten bzw. zweiten Netzes stark verringert werden.The first and second modules may have been trained at least partially with the same training data. Additionally or alternatively, the third and fourth modules may have been trained at least partially with the same training data. As a result, the effort required to train the first or second network can be greatly reduced.

Gemäß einer Ausführungsform können die Eingabedaten für das zweite Modul die den Ausgaben des ersten Moduls zugrunde liegenden ersten Sensordaten umfassen. Zusätzlich oder alternativ können die Eingabedaten für das vierte Modul die den Ausgaben des dritten Moduls zugrunde liegenden zweiten Sensordaten umfassen. Anders ausgedrückt kann das zweite bzw. vierte Modul konfiguriert sein, um die jeweiligen (geschätzten) Eingabedaten und die diesen Eingabedaten entsprechenden (gemessenen) Sensordaten miteinander zu vergleichen. Dies verbessert die Schätzung der Objektmodelle.According to one embodiment, the input data for the second module may include the first sensor data underlying the outputs of the first module. Additionally or alternatively, the input data for the fourth module can include the second sensor data underlying the outputs of the third module. In other words, the second or fourth module can be configured to compare the respective (estimated) input data and the (measured) sensor data corresponding to these input data with one another. This improves the estimation of the object models.

Gemäß einer Ausführungsform können die Eingabedaten für das zweite Modul auf ein der Umgebung des Fahrzeugs zugeordnetes erstes Koordinatensystem bezogen sein, während die ersten Objektdaten auf ein der Umgebung des Fahrzeugs zugeordnetes zweites Koordinatensystem, das vom ersten Koordinatensystem abweicht, bezogen sein können. Zusätzlich oder alternativ können die Eingabedaten für das dritte Modul auf ein der Umgebung des Fahrzeugs zugeordnetes drittes Koordinatensystem bezogen sein, während die zweiten Objektdaten auf ein der Umgebung des Fahrzeugs zugeordnetes viertes Koordinatensystem, das vom dritten Koordinatensystem abweicht, bezogen sein können. Anders ausgedrückt kann die Generierung der ersten bzw. zweiten Objektdaten eine oder mehrere Koordinatentransformationen umfassen (die vom zweiten bzw. vierten Modul durchgeführt werden können).According to one embodiment, the input data for the second module may be related to a first coordinate system assigned to the environment of the vehicle, while the first object data may be related to a second coordinate system assigned to the environment of the vehicle, which deviates from the first coordinate system. Additionally or alternatively, the input data for the third module can be related to a third coordinate system assigned to the surroundings of the vehicle, while the second object data can be related to a fourth coordinate system assigned to the surroundings of the vehicle, which deviates from the third coordinate system. In other words, the generation of the first or second object data may include one or more coordinate transformations (which can be carried out by the second or fourth module).

Es ist möglich, dass das erste Koordinatensystem eine oder mehrere gemeinsame Ebenen mit dem zweiten Koordinatensystem hat und/oder das dritte Koordinatensystem eine oder mehrere gemeinsame Ebenen mit dem vierten Koordinatensystem hat.It is possible for the first coordinate system to have one or more common planes with the second coordinate system and/or for the third coordinate system to have one or more in common has same planes with the fourth coordinate system.

Gemäß einer Ausführungsform kann das zweite Koordinatensystem in der Anzahl seiner Dimensionen vom ersten Koordinatensystem abweichen. Zusätzlich oder alternativ kann das vierte Koordinatensystem in der Anzahl seiner Dimensionen vom dritten Koordinatensystem abweichen. Insbesondere kann das zweite Koordinatensystem mehr Dimensionen als das erste Koordinatensystem und/oder das vierte Koordinatensystem mehr Dimensionen als das dritte Koordinatensystem umfassen.According to one embodiment, the second coordinate system can differ from the first coordinate system in the number of its dimensions. Additionally or alternatively, the fourth coordinate system can differ from the third coordinate system in the number of its dimensions. In particular, the second coordinate system can include more dimensions than the first coordinate system and/or the fourth coordinate system can include more dimensions than the third coordinate system.

Gemäß einer Ausführungsform kann das erste Koordinatensystem zweidimensional (beispielsweise ein xy-Koordinatensystem) sein und das zweite Koordinatensystem dreidimensional (beispielsweise ein xyz-Koordinatensystem) sein. Zusätzlich oder alternativ kann das dritte Koordinatensystem zweidimensional (beispielsweise ein xy-Koordinatensystem) sein und das vierte Koordinatensystem dreidimensional (beispielsweise ein xyz-Koordinatensystem) sein.According to one embodiment, the first coordinate system may be two-dimensional (e.g. an xy coordinate system) and the second coordinate system may be three-dimensional (e.g. an xyz coordinate system). Additionally or alternatively, the third coordinate system may be two-dimensional (e.g. an xy coordinate system) and the fourth coordinate system may be three-dimensional (e.g. an xyz coordinate system).

Gemäß einer Ausführungsform können das erste Koordinatensystem und das zweite Koordinatensystem unterschiedlichen Perspektiven, aus denen die Umgebung des Fahrzeugs betrachtet wird, zugeordnet sein. Zusätzlich oder alternativ können das dritte Koordinatensystem und das vierte Koordinatensystem unterschiedlichen Perspektiven, aus denen die Umgebung des Fahrzeugs betrachtet wird, zugeordnet sein. Unter „Perspektive“ kann eine vordefinierte Richtung und/oder ein vordefinierter Winkelbereich verstanden werden, in der bzw. in dem ein realer oder virtueller Betrachter die Umgebung des Fahrzeugs betrachtet.According to one embodiment, the first coordinate system and the second coordinate system can be assigned to different perspectives from which the surroundings of the vehicle are viewed. Additionally or alternatively, the third coordinate system and the fourth coordinate system can be assigned to different perspectives from which the surroundings of the vehicle are viewed. “Perspective” can be understood as meaning a predefined direction and/or a predefined angular range in which a real or virtual viewer views the surroundings of the vehicle.

Gemäß einer Ausführungsform kann das erste Koordinatensystem einer Vogelperspektive zugeordnet sein, aus der auf die Umgebung des Fahrzeugs, beispielsweise einschließlich des Fahrzeugs, (senkrecht) herabgeblickt wird. Zusätzlich oder alternativ kann das zweite Koordinatensystem einer Fahrerperspektive zugeordnet sein, aus der die Umgebung des Fahrzeugs, beispielsweise einschließlich des Fahrzeugs, in einer aktuellen Fahrtrichtung des Fahrzeugs betrachtet wird. Zusätzlich oder alternativ kann das dritte Koordinatensystem einer Vogelperspektive zugeordnet sein, aus der auf die Umgebung des Fahrzeugs, beispielsweise einschließlich des Fahrzeugs, (senkrecht) herabgeblickt wird. Zusätzlich oder alternativ kann das vierte Koordinatensystem einer Fahrerperspektive zugeordnet sein, aus der die Umgebung des Fahrzeugs, beispielsweise einschließlich des Fahrzeugs, in einer aktuellen Fahrtrichtung des Fahrzeugs betrachtet wird.According to one embodiment, the first coordinate system can be assigned to a bird's eye view from which the surroundings of the vehicle, for example including the vehicle, are looked down (vertically). Additionally or alternatively, the second coordinate system can be assigned to a driver's perspective from which the surroundings of the vehicle, for example including the vehicle, are viewed in a current direction of travel of the vehicle. Additionally or alternatively, the third coordinate system can be assigned to a bird's eye view from which the surroundings of the vehicle, for example including the vehicle, are looked down (vertically). Additionally or alternatively, the fourth coordinate system can be assigned to a driver's perspective from which the surroundings of the vehicle, for example including the vehicle, are viewed in a current direction of travel of the vehicle.

Unter „aktueller Fahrtrichtung“ kann auch ein vordefinierter, d. h. horizontal und/oder vertikal begrenzter Winkelbereich verstanden werden, der einem aktuellen Sichtfeld des Fahrers des Fahrzeugs und/oder einem aktuellen Sichtfeld eines anderen (virtuellen) Fahrers eines dem Fahrzeug (unmittelbar) folgenden (virtuellen) Fahrzeugs entsprechen kann. Beispielsweise kann die Betrachtung der Umgebung des Fahrzeugs aus der Vogelperspektive zweidimensional sein, während die Betrachtung der Umgebung des Fahrzeugs aus der Fahrerperspektive dreidimensional sein kann. Möglich ist aber auch der umgekehrte Fall. “Current direction of travel” can also be a predefined, i.e. H. horizontally and / or vertically limited angular range can be understood, which can correspond to a current field of vision of the driver of the vehicle and / or a current field of vision of another (virtual) driver of a (virtual) vehicle (immediately) following the vehicle. For example, the view of the vehicle's surroundings from a bird's eye view may be two-dimensional, while the view of the vehicle's environment from the driver's perspective may be three-dimensional. But the opposite case is also possible.

Gemäß einer Ausführungsform kann das dritte Koordinatensystem das erste Koordinatensystem sein. Zusätzlich oder alternativ kann das vierte Koordinatensystem das zweite Koordinatensystem sein. Anders ausgedrückt können die Eingabedaten für das zweite Modul auf das gleiche (erste) Koordinatensystem wie die Eingabedaten für das vierte Modul bezogen sein. In diesem Fall können die ersten Objektdaten auf das gleiche (zweite) Koordinatensystem wie die zweiten Objektdaten bezogen sein. Das bedeutet, dass die Objektmodelle der ersten Objektdaten nicht nur in ihrer (geometrischen) Darstellungsform mit den Objektmodellen der zweiten Objektdaten übereinstimmen können, sondern darüber hinaus auf das gleiche Koordinatensystem wie die Objektmodelle der zweiten Objektdaten bezogen sein können.According to one embodiment, the third coordinate system may be the first coordinate system. Additionally or alternatively, the fourth coordinate system can be the second coordinate system. In other words, the input data for the second module may be referenced to the same (first) coordinate system as the input data for the fourth module. In this case, the first object data can be related to the same (second) coordinate system as the second object data. This means that the object models of the first object data can not only match the object models of the second object data in their (geometric) representation form, but can also be related to the same coordinate system as the object models of the second object data.

Gemäß einer Ausführungsform können die ersten Sensordaten von einer Kamera als dem ersten Sensor erzeugte Kameradaten umfassen und die zweiten Sensordaten keine Kameradaten umfassen. Beispielsweise können die zweiten Sensordaten in diesem Fall von einem Radarsensor als dem zweiten Sensor erzeugte Radardaten und/oder von einem Lidarsensor als dem zweiten Sensor erzeugte Lidardaten umfassen.According to one embodiment, the first sensor data may include camera data generated by a camera as the first sensor and the second sensor data may not include camera data. For example, in this case, the second sensor data may include radar data generated by a radar sensor as the second sensor and/or lidar data generated by a lidar sensor as the second sensor.

Zusätzlich oder alternativ können die ersten Sensordaten von einem Radarsensor als dem ersten Sensor erzeugte Radardaten umfassen und die zweiten Sensordaten keine Radardaten umfassen. Beispielsweise können die zweiten Sensordaten in diesem Fall von einer Kamera als dem zweiten Sensor erzeugte Kameradaten und/oder von einem Lidarsensor als dem zweiten Sensor erzeugte Lidardaten umfassen.Additionally or alternatively, the first sensor data may include radar data generated by a radar sensor as the first sensor and the second sensor data may not include radar data. For example, in this case, the second sensor data may include camera data generated by a camera as the second sensor and/or lidar data generated by a lidar sensor as the second sensor.

Zusätzlich oder alternativ können die ersten Sensordaten von einem Lidarsensor als dem ersten Sensor erzeugte Lidardaten umfassen und die zweiten Sensordaten keine Lidardaten umfassen. Beispielsweise können die zweiten Sensordaten in diesem Fall von einer Kamera als dem zweiten Sensor erzeugte Kameradaten und/oder von einem Radarsensor als dem zweiten Sensor erzeugte Radardaten umfassen.Additionally or alternatively, the first sensor data may include lidar data generated by a lidar sensor as the first sensor and the second sensor data may not include lidar data. For example, the second sensor data in this case can be camera data generated by a camera as the second sensor and/or by a radar sensor as the second sensor include radar data generated.

Kurze Beschreibung der ZeichnungenBrief description of the drawings

Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Weder die Beschreibung noch die Zeichnungen sind als die Erfindung einschränkend auszulegen.

  • 1 zeigt ein Fahrzeug mit einem Fahrzeugsystem, das eine Sensorik zum Erfassen einer Umgebung des Fahrzeugs und eine Datenverarbeitungsvorrichtung gemäß einer Ausführungsform der Erfindung umfasst.
  • 2 zeigt ein Blockschaltbild des Fahrzeugsystems.
  • 3 zeigt einen Abschnitt eines dreidimensionalen Umgebungsmodells, das eine Umgebung des Fahrzeugs aus einer Fahrerperspektive darstellt.
  • 4 zeigt einen Abschnitt eines zweidimensionalen Umgebungsmodells, das eine Umgebung des Fahrzeugs aus der Vogelperspektive darstellt.
Embodiments of the invention are described below with reference to the accompanying drawings. Neither the description nor the drawings are to be construed as limiting the invention.
  • 1 shows a vehicle with a vehicle system that includes a sensor system for detecting an environment of the vehicle and a data processing device according to an embodiment of the invention.
  • 2 shows a block diagram of the vehicle system.
  • 3 shows a section of a three-dimensional environment model that represents an environment of the vehicle from a driver's perspective.
  • 4 shows a section of a two-dimensional environment model that represents a bird's eye view of the vehicle's surroundings.

Die Figuren sind lediglich schematisch und nicht maßstabsgetreu. Gleiche Bezugszeichen in den Figuren bezeichnen gleiche oder gleichwirkende Merkmale.The figures are only schematic and not to scale. The same reference numerals in the figures indicate the same features or features that have the same effect.

Ausführungsformen der ErfindungEmbodiments of the invention

1 zeigt ein Fahrzeug 1 mit einem Fahrzeugsystem 3, das eine Sensorik 5 und ein Steuergerät 7 als Datenverarbeitungsvorrichtung 7 umfasst. In diesem Beispiel umfasst die Sensorik 5 eine Kamera 9 als einen ersten Sensor 9 zum Erfassen einer Umgebung des Fahrzeugs 1 und einen Radarsensor 11 als einen in seinem Typ vom ersten Sensor 9 abweichenden zweiten Sensor 11 zum Erfassen der Umgebung des Fahrzeugs 1. 1 shows a vehicle 1 with a vehicle system 3, which includes a sensor system 5 and a control device 7 as a data processing device 7. In this example, the sensor system 5 includes a camera 9 as a first sensor 9 for detecting the surroundings of the vehicle 1 and a radar sensor 11 as a second sensor 11, which differs in type from the first sensor 9, for detecting the surroundings of the vehicle 1.

Die Kamera 9 erzeugt Kameradaten 13 als erste Sensordaten 13, während der Radarsensor 11 Radardaten 15 als zweite Sensordaten 15 erzeugt.The camera 9 generates camera data 13 as first sensor data 13, while the radar sensor 11 generates radar data 15 as second sensor data 15.

Das Steuergerät 7 ist konfiguriert, um die Sensordaten 13, 15 in einem nachstehend näher beschriebenen Verfahren auszuwerten. Das Steuergerät 7 kann einen Prozessor 17 und einen Speicher 19 umfassen, wobei der Prozessor 17 konfiguriert sein kann, um das Verfahren durch Ausführen von Befehlen eines Computerprogramms, das im Speicher 19 gespeichert sein kann, auszuführen.The control device 7 is configured to evaluate the sensor data 13, 15 in a method described in more detail below. The controller 7 may include a processor 17 and a memory 19, wherein the processor 17 may be configured to execute the method by executing instructions of a computer program that may be stored in the memory 19.

Beispielsweise kann das Steuergerät 7 konfiguriert sein, um in Abhängigkeit von den Ergebnissen dieser Auswertung eine Aktorik 21 des Fahrzeugs 1 automatisch anzusteuern.For example, the control unit 7 can be configured to automatically control an actuator system 21 of the vehicle 1 depending on the results of this evaluation.

2 zeigt mögliche Module des Steuergeräts 7, hier ein Wahrnehmungsmodul 23 und ein dem Wahrnehmungsmodul 23 nachgeschaltetes Fusionsmodul 25. Die Module 23, 25 können als Hard- und/oder Software implementiert sein. 2 shows possible modules of the control device 7, here a perception module 23 and a fusion module 25 connected downstream of the perception module 23. The modules 23, 25 can be implemented as hardware and/or software.

Wie aus 2 ersichtlich, kann die Sensorik 5 zusätzlich einen dritten Sensor 27 zum Erfassen der Umgebung des Fahrzeugs 1 umfassen (hier einen Lidarsensor 27). Die vom dritten Sensor 27 erzeugten dritten Sensordaten 29 (d. h. Lidardaten 29) können ebenfalls vom Steuergerät 7 ausgewertet werden, etwa um die Aktorik 21 anzusteuern.How out 2 As can be seen, the sensor system 5 can additionally include a third sensor 27 for detecting the surroundings of the vehicle 1 (here a lidar sensor 27). The third sensor data 29 (ie lidar data 29) generated by the third sensor 27 can also be evaluated by the control device 7, for example in order to control the actuator system 21.

Darüber hinaus kann die Sensorik 5 einen Fahrdynamiksensor 31 zum Erfassen einer Fahrdynamik des Fahrzeugs 1 umfassen. Die vom Fahrdynamiksensor 31 erzeugten Fahrdynamikdaten 33 können beispielsweise direkt ins Fusionsmodul 25 eingegeben und dort zusammen mit Ausgaben des Wahrnehmungsmoduls 23 verarbeitet werden.In addition, the sensor system 5 can include a driving dynamics sensor 31 for detecting driving dynamics of the vehicle 1. The driving dynamics data 33 generated by the driving dynamics sensor 31 can, for example, be entered directly into the fusion module 25 and processed there together with outputs from the perception module 23.

Das Verarbeiten der Sensordaten 13,15 kann folgende Schritte umfassen, die hier vom Wahrnehmungsmodul 23 ausgeführt werden (die dritten Sensordaten 29 können in gleicher oder ähnlicher Weise wie die Sensordaten 13 bzw. 15 verarbeitet werden).Processing the sensor data 13, 15 can include the following steps, which are carried out here by the perception module 23 (the third sensor data 29 can be processed in the same or similar way as the sensor data 13 and 15, respectively).

In einem ersten Schritt werden die Sensordaten 13, 15 im Steuergerät 7 (hier also im Wahrnehmungsmodul 23) empfangen. Die Sensordaten 13, 15 können beispielsweise im Betrieb des Fahrzeugsystems 3 fortlaufend in mehreren aufeinanderfolgenden Zeitschritten empfangen und verarbeitet werden.In a first step, the sensor data 13, 15 are received in the control device 7 (here in the perception module 23). The sensor data 13, 15 can, for example, be received and processed continuously in several successive time steps during operation of the vehicle system 3.

In einem zweiten Schritt werden die Kameradaten 13 in ein erstes künstliches neuronales Netz 35 und die Radardaten 15 in ein (vom ersten Netz 35 unabhängiges) zweites künstliches neuronales Netz 37 eingegeben.In a second step, the camera data 13 is entered into a first artificial neural network 35 and the radar data 15 is entered into a second artificial neural network 37 (independent of the first network 35).

Das erste Netz 35 wurde trainiert (beispielsweise in einem überwachten Lernprozess mit beispielhaften Kameradaten und den beispielhaften Kameradaten zugeordneten Referenzdaten, auch Labels genannt), um die Kameradaten 13 in erste Objektdaten 39 umzuwandeln.The first network 35 was trained (for example in a supervised learning process with exemplary camera data and reference data, also called labels, assigned to the exemplary camera data) in order to convert the camera data 13 into first object data 39.

Das zweite Netz 37 wurde trainiert (beispielsweise in einem überwachten Lernprozess mit beispielhaften Radardaten und den beispielhaften Radardaten zugeordneten Referenzdaten), um die Radardaten 15 in zweite Objektdaten 41 umzuwandeln.The second network 37 was trained (for example in a supervised learning process with exemplary radar data and reference data associated with the exemplary radar data) to convert the radar data 15 into second object data 41.

Die Objektdaten 39, 41 definieren jeweils Parameter von Objektmodellen 43 in einem die Umgebung des Fahrzeugs 1 repräsentierenden Umgebungsmodell 44 (siehe 3). Die Objektmodelle 43 sind (vom jeweiligen Sensor 9 bzw. 11 erfassten) Objekten in der Umgebung des Fahrzeugs 1 zugeordnet.The object data 39, 41 each define parameters of object models 43 in an environmental model 44 representing the environment of the vehicle 1 (see 3 ). The object models 43 are assigned to objects in the surroundings of the vehicle 1 (detected by the respective sensor 9 or 11).

Wie in 3 zu erkennen, kann es sich bei den Objektmodellen 43 um dreidimensionale geometrische Modelle in einem der Umgebung des Fahrzeugs 1 zugeordneten xyz-Koordinatensystem 45 handeln, hier in Form von Quadern, die anderen Fahrzeugen auf einer Fahrbahn 47 oder Gegenständen am Rand der Fahrbahn 47, wie etwa Bäumen, Verkehrsschildern, Fußgängern oder Gebäuden, zugeordnet sein können.As in 3 To recognize, the object models 43 can be three-dimensional geometric models in an xyz coordinate system 45 assigned to the environment of the vehicle 1, here in the form of cuboids, the other vehicles on a road 47 or objects on the edge of the road 47, such as such as trees, traffic signs, pedestrians or buildings.

Die Parameter eines jeden Objektmodells 43 können mindestens einen Klassenwert, der eine aus mehreren vordefinierten Objektklassen (beispielsweise „Baum“, „Stoppschild“, „Fußgänger“, „Gebäude“) anzeigt, sowie Werte für eine Position, Orientierung und/oder Größe des dem Objektmodell 43 zugeordneten Objekts (und/oder davon abgeleitete Werte) umfassen. In diesem Fall kann die Position, Orientierung und/oder Größe des Objekts durch eine Position, Orientierung und/oder Größe des (geometrischen) Objektmodells 43 im Koordinatensystem 45 vorgegeben sein.The parameters of each object model 43 may include at least one class value indicating one of several predefined object classes (e.g., “tree,” “stop sign,” “pedestrian,” “building”), as well as values for a position, orientation and/or size of the object Object model 43 associated object (and/or values derived therefrom). In this case, the position, orientation and/or size of the object can be predetermined by a position, orientation and/or size of the (geometric) object model 43 in the coordinate system 45.

Der Klassenwert kann beispielsweise ein boolescher Wert oder eine Wahrscheinlichkeit für eine der Objektklassen in Prozent sein.For example, the class value can be a Boolean value or a probability for one of the object classes in percent.

Um eine einfachere und robustere Datenverarbeitung im nachgeschalteten Fusionsmodul 25 zu ermöglichen, wurden die beiden Netze 35, 37 so trainiert, dass die durch die ersten Objektdaten 39 definierten Objektmodelle 43 in ihrem Typ, insbesondere in ihrer geometrischen Darstellungsform im Koordinatensystem 45, mit den durch die zweiten Objektdaten 41 definierten Objektmodellen 43 übereinstimmen.In order to enable simpler and more robust data processing in the downstream fusion module 25, the two networks 35, 37 were trained in such a way that the object models 43 defined by the first object data 39 correspond in their type, in particular in their geometric representation form in the coordinate system 45, to those defined by the second object data 41 defined object models 43 match.

In diesem Beispiel sind alle Objektmodelle 43 als quaderförmige Gitter konfiguriert, die die jeweiligen Objekte kastenartig umgeben. Möglich sind aber auch andere Darstellungsformen, beispielsweise runde Darstellungsformen, eckige Darstellungsformen mit mehr als vier Ecken oder zweidimensionale, d. h. flächige Darstellungsformen.In this example, all object models 43 are configured as cuboid grids that surround the respective objects in a box-like manner. However, other forms of representation are also possible, for example round forms of representation, angular forms of representation with more than four corners or two-dimensional, i.e. H. flat forms of representation.

In einem dritten Schritt wird das Umgebungsmodell 44 mit den Objektdaten 39, 41 aktualisiert. Die Aktualisierung wird hier vom Fusionsmodul 25 durchgeführt.In a third step, the environment model 44 is updated with the object data 39, 41. The update is carried out here by the fusion module 25.

Zusätzlich können im zweiten Schritt die Lidardaten 29 in ein drittes künstliches neuronales Netz 49 eingegeben werden, das trainiert wurde (beispielsweise in einem überwachten Lernprozess mit beispielhaften Lidardaten und den beispielhaften Lidardaten zugeordneten Referenzdaten), um die Lidardaten 29 in dritte Objektdaten 51 umzuwandeln, die in ihrem Typ mit den übrigen Objektdaten 39, 41 übereinstimmen.Additionally, in the second step, the lidar data 29 can be input into a third artificial neural network 49 that has been trained (for example in a supervised learning process with exemplary lidar data and reference data associated with the exemplary lidar data) in order to convert the lidar data 29 into third object data 51, which in their type matches the other object data 39, 41.

Im dritten Schritt kann das Umgebungsmodell 44 dann zusätzlich mit den dritten Objektdaten 51 aktualisiert werden.In the third step, the environment model 44 can then additionally be updated with the third object data 51.

Bei jedem Netz 35, 37, 49 kann es sich um ein einziges Netz handeln. Möglich sind aber auch Netze, die jeweils aus mehreren unabhängig voneinander trainierbaren Modulen in Form von Teilnetzen aufgebaut sind. Dies kann zum einen das Training der Netze vereinfachen; zum anderen können für die kleineren Module einfachere Netzarchitekturen verwendet werden als für ein größeres Einzelnetz.Each network 35, 37, 49 can be a single network. However, networks are also possible, each of which is made up of several independently trainable modules in the form of subnets. On the one hand, this can simplify the training of the networks; on the other hand, simpler network architectures can be used for the smaller modules than for a larger individual network.

In diesem Beispiel ist das erste Netz 35 aus einem ersten Modul 35a und einem zweiten Modul 35b, das zweite Netz 37 aus einem dritten Modul 37a und einem vierten Modul 37b und das dritte Netz 49 aus einem fünften Modul 49a und einem sechsten Modul 49b aufgebaut.In this example, the first network 35 is made up of a first module 35a and a second module 35b, the second network 37 is made up of a third module 37a and a fourth module 37b and the third network 49 is made up of a fifth module 49a and a sixth module 49b.

Das erste Modul 35a wurde trainiert, um die Kameradaten 13 zu klassifizieren. Das zweite Modul 35b wurde trainiert, um Eingabedaten 53, die Ausgaben des ersten Moduls 35a und/oder aus Ausgaben des ersten Moduls 35a erzeugte Daten umfassen, in die ersten Objektdaten 39 umzuwandeln.The first module 35a was trained to classify the camera data 13. The second module 35b has been trained to convert input data 53, which includes outputs of the first module 35a and/or data generated from outputs of the first module 35a, into the first object data 39.

Das dritte Modul 37a wurde trainiert, um die Radardaten 15 zu klassifizieren. Das vierte Modul 37b wurde trainiert, um Eingabedaten 53, die Ausgaben des dritten Moduls 37a und/oder aus Ausgaben des dritten Moduls 37a erzeugte Daten umfassen, in die zweiten Objektdaten 41 umzuwandeln.The third module 37a was trained to classify the radar data 15. The fourth module 37b was trained to convert input data 53, which includes outputs of the third module 37a and/or data generated from outputs of the third module 37a, into the second object data 41.

Das fünfte Modul 49a wurde trainiert, um die Lidardaten 29 zu klassifizieren. Das sechste Modul 49b wurde trainiert, um Eingabedaten 53, die Ausgaben des fünften Moduls 49a und/oder aus Ausgaben des fünften Moduls 49a erzeugte Daten umfassen, in die dritten Objektdaten 51 umzuwandeln.The fifth module 49a was trained to classify the lidar data 29. The sixth module 49b was trained to convert input data 53, which includes outputs of the fifth module 49a and/or data generated from outputs of the fifth module 49a, into the third object data 51.

Zusätzlich können die Eingabedaten 53 für das vierte Modul 37b die den Ausgaben des dritten Moduls 37a zugrunde liegenden Radardaten 15 und die Eingabedaten 53 für das sechste Modul 49b die den Ausgaben des fünften Moduls 49a zugrunde liegenden Lidardaten 29 umfassen.In addition, the input data 53 for the fourth module 37b can include the radar data 15 underlying the outputs of the third module 37a and the input data 53 for the sixth module 49b can include the lidar data 29 underlying the outputs of the fifth module 49a.

Insbesondere können sich die Eingabedaten 53 für eines oder mehrere der nachgeschalteten Module 35b, 37b, 49b auf ein erstes Koordinatensystem 55 (siehe 4) beziehen, das von einem zweiten Koordinatensystem 45 (siehe 3), auf das sich sich die Objektdaten 39, 41, 51 beziehen, abweichen kann.In particular, the input data 53 for one or more of the downstream modules 35b, 37b, 49b can refer to a first coordinate system 55 (see 4 ) relate that of one two th coordinate system 45 (see 3 ), to which the object data 39, 41, 51 refer, may differ.

In diesem Beispiel ist das erste Koordinatensystem 55 ein zweidimensionales xy-Koordinatensystem, das die Umgebung des Fahrzeugs 1 aus der Vogelperspektive darstellt, wohingegen das zweite Koordinatensystem 45 ein dreidimensionales xyz-Koordinatensystem ist, das die Umgebung des Fahrzeugs 1 aus einer Fahrerperspektive darstellt, d. h. so, wie der Fahrer des Fahrzeugs 1 oder ein anderer Fahrer eines dem Fahrzeug 1 (unmittelbar) folgenden Fahrzeugs die Umgebung sehen würde.In this example, the first coordinate system 55 is a two-dimensional xy coordinate system that represents the surroundings of the vehicle 1 from a bird's eye view, whereas the second coordinate system 45 is a three-dimensional xyz coordinate system that represents the surroundings of the vehicle 1 from a driver's perspective, i.e. H. the way the driver of vehicle 1 or another driver of a vehicle (immediately) following vehicle 1 would see the surroundings.

Es ist möglich, dass ein Koordinatensystem 55, auf das sich die Eingabedaten 53 für eines der nachgeschalteten Module 35b, 37b, 49b beziehen, von einem Koordinatensystem 55, auf das sich die Eingabedaten 53 für ein anderes nachgeschaltetes Modul 35b, 37b, 49b beziehen, abweicht. Alternativ können sich die Eingabedaten 53 für alle nachgeschalteten Module 35b, 37b, 49b auf das gleiche Koordinatensystem 55 beziehen.It is possible for a coordinate system 55, to which the input data 53 for one of the downstream modules 35b, 37b, 49b relate, to be different from a coordinate system 55, to which the input data 53 for another downstream module 35b, 37b, 49b relate, differs. Alternatively, the input data 53 can refer to the same coordinate system 55 for all downstream modules 35b, 37b, 49b.

Dies kann in entsprechender Weise für das Koordinatensystem 45, auf das sich die Objektdaten 39, 41, 51 beziehen, zutreffen.This can apply in a corresponding manner to the coordinate system 45 to which the object data 39, 41, 51 relate.

Das Fusionsmodul 25 kann, wie hier dargestellt, ebenfalls mehrere Einzelmodule umfassen, beispielsweise einen Posenschätzer 57 zum Schätzen einer Pose des Fahrzeugs 1, einen Zustandsschätzer 59 zum Schätzen aktueller und/oder zukünftiger Zustände der Objekte, genauer der Objektmodelle 43, und ein Kartenmodul 61, das die Objekte in einer digitalen Karte der Umgebung des Fahrzeugs 1 (z. B. einer Rasterkarte) speichert.As shown here, the fusion module 25 can also include several individual modules, for example a pose estimator 57 for estimating a pose of the vehicle 1, a state estimator 59 for estimating current and/or future states of the objects, more precisely the object models 43, and a map module 61, which stores the objects in a digital map of the surroundings of the vehicle 1 (e.g. a raster map).

Nachstehend werden weitere Details beschrieben.Further details are described below.

Die Lidardaten 29 können Rohdaten des Lidarsensors 27 sein, die durch einen perspektivischen Scan eines Teilbereichs der Umgebung des Fahrzeugs 1 erzeugt wurden. Diese Rohdaten können vom fünften Modul 49a zur semantischen Segmentierung verwendet werden, wobei das fünfte Modul 49a für jeden 3D-Punkt in den Rohdaten eine semantische Klasse ausgeben kann. Die resultierenden semantischen Daten können dann mit den Punktkoordinaten der jeweiligen 3D-Punkte kombiniert und ins Koordinatensystem 55, d. h. in eine Vogelperspektivendarstellung, projiziert werden (siehe 4).The lidar data 29 can be raw data from the lidar sensor 27, which were generated by a perspective scan of a partial area of the surroundings of the vehicle 1. This raw data can be used by the fifth module 49a for semantic segmentation, whereby the fifth module 49a can output a semantic class for each 3D point in the raw data. The resulting semantic data can then be combined with the point coordinates of the respective 3D points and projected into the coordinate system 55, ie into a bird's eye view representation (see 4 ).

Die aus dieser Projektion resultierenden Vogelperspektivenbilder können als Eingaben für das sechste Modul 49b verwendet werden, das in diesen Bildern dann Objektmodelle 43 in Form von 3D-Boxen für relevante Objekte wie Autos, Fahrräder, Fußgänger usw. erkennen kann.The bird's eye view images resulting from this projection can be used as inputs for the sixth module 49b, which can then recognize object models 43 in these images in the form of 3D boxes for relevant objects such as cars, bicycles, pedestrians, etc.

Beim ersten Modul 35a kann es sich beispielsweise um ein Multitasking-Netz handeln, das für jedes Pixel eines Kamerabilds einen Tiefenwert und eine semantische Information ausgibt.The first module 35a can be, for example, a multitasking network that outputs a depth value and semantic information for each pixel of a camera image.

Die Kamerabilder können unter Verwendung der geschätzten Tiefenwerte (D) und eines mathematischen Modells der Kamera 9, in das eine intrinsische Kalibrierungsmatrix (K) und die Pixelkoordinaten eingehen, in 3D-Punktwolken transformiert werden: P o i n t C l o u d = D c a m e r a _ m o d e l ( K , p i x e l _ c o o r d i n a t e s )

Figure DE102022204767A1_0001
The camera images can be transformed into 3D point clouds using the estimated depth values (D) and a mathematical model of the camera 9, which includes an intrinsic calibration matrix (K) and the pixel coordinates: P O i n t C l O u d = D c a m e r a _ m O d e l ( K , p i x e l _ c O O r d i n a t e s )
Figure DE102022204767A1_0001

Die 3D-Punktwolken können hierauf mit den semantischen Informationen kombiniert und ins Koordinatensystem 55, d. h. in die Vogelperspektivendarstellung, projiziert werden. Die weitere Verarbeitung kann wie weiter oben am Beispiel der Lidardaten 29 beschrieben erfolgen.The 3D point clouds can then be combined with the semantic information and stored in the coordinate system 55, i.e. H. projected into the bird's eye view. Further processing can take place as described above using the example of lidar data 29.

Die Radardaten 15 können bereits 2D-Bilder im Koordinatensystem 55, d. h. Vogelperspektivenbilder, umfassen. Diese Radarbilder können als Eingaben für das dritte Modul 37a verwendet werden, das für jedes Pixel eine oder mehrere semantische Klassen ausgibt. Anschließend können die Radarbilder mit den semantischen Informationen kombiniert und als Eingaben für das vierte Modul 37b verwendet werden.The radar data 15 can already be 2D images in the coordinate system 55, i.e. H. Bird's-eye images include. These radar images can be used as inputs to the third module 37a, which outputs one or more semantic classes for each pixel. The radar images can then be combined with the semantic information and used as input for the fourth module 37b.

Zum Trainieren der Module für die semantische Segmentierung (semseg) kann beispielsweise die Softmax-Funktion als Verlustfunktion (L) verwendet werden: L semseg = s o f t m a x ( l , l ^ )

Figure DE102022204767A1_0002
For example, to train the semantic segmentation (semseg) modules, the softmax function can be used as a loss function (L): L semseg = s O f t m a x ( l , l ^ )
Figure DE102022204767A1_0002

Dabei steht l für die Ausgaben des Netzes und l̂ für Zielwerte bezüglich dieser Ausgaben (ground truth).l stands for the network's output and l̂ for target values regarding these outputs (ground truth).

Für das Multitasking-Netz kann beispielsweise die folgende gewichtete Multitasking-Verlustfunktion verwendet: L multitask = w L semseg + ( 1 w ) L depth

Figure DE102022204767A1_0003
For example, for the multitasking network, the following weighted multitasking loss function can be used: L multitask = w L semseg + ( 1 w ) L depth
Figure DE102022204767A1_0003

Dabei steht w für ein Gewicht, Lsemseg für den Verlust bezüglich der semantischen Segmentierung (siehe oben) und Ldepth für den Verlust bezüglich der Schätzung der Tiefenwerte.Where w stands for a weight, L semseg for the loss in terms of semantic segmentation (see above) and L depth for the loss in estimating the depth values.

Ldepth kann auch als L1-Verlust formuliert werden, wenn Label für einen überwachten Lernprozess verfügbar sind (mit depth für die geschätzten Tiefenwerte und d e p t h ^

Figure DE102022204767A1_0004
für die Zielwerte bezüglich der Tiefenwerte): L 1 ( d e p t h , d e p t h ^ ) = | d e p t h d e p t h ^ |
Figure DE102022204767A1_0005
L depth can also be formulated as L 1 loss if labels are available for a supervised learning process (with depth for the estimated ones Depth values and d e p t H ^
Figure DE102022204767A1_0004
for the target values regarding the depth values): L 1 ( d e p t H , d e p t H ^ ) = | d e p t H d e p t H ^ |
Figure DE102022204767A1_0005

Die Projektion von der Punktwolkendarstellung in die Vogelperspektivendarstellung kann beispielsweise entsprechend dieser Formel erfolgen: P o i n t C l o u d T o p = P o i n t C l o u d t o p _ v i e w _ T _ s e n s o r

Figure DE102022204767A1_0006
The projection from the point cloud display into the bird's eye view display can be done, for example, according to this formula: P O i n t C l O u d T O p = P O i n t C l O u d t O p _ v i e w _ T _ s e n s O r
Figure DE102022204767A1_0006

Dabei steht top_view_T_sensor für eine 4 × 4-Transformationsmatrix für die Transformation vom jeweiligen Sensorkoordinatensystem ins Koordinatensystem 55 der Vogelperspektivendarstellung.Top_view_T_sensor stands for a 4 × 4 transformation matrix for the transformation from the respective sensor coordinate system into the coordinate system 55 of the bird's-eye view representation.

Um aus den Koordinaten eines jeden 3D-Punkts entsprechende Koordinaten eines Pixels im Vogelperspektivenbild zu erhalten, kann beispielsweise folgende Formel verwendet werden: b e v _ c o o r d = P o i n t C l o u d T o p / p i x e l s _ s i z e _ m e t e r s

Figure DE102022204767A1_0007
For example, to obtain corresponding coordinates of a pixel in the bird's eye view image from the coordinates of each 3D point, the following formula can be used: b e v _ c O O r d = P O i n t C l O u d T O p / p i x e l s _ s i e.g e _ m e t e r s
Figure DE102022204767A1_0007

Dabei steht pixels_size_meters für die Fläche in Metern, die auf ein einzelnes Pixel projiziert wird.Pixels_size_meters stands for the area in meters that is projected onto a single pixel.

Das Fusionsmodul 25 dient dazu, die Informationen, die aus Sensordaten verschiedener Sensoren gewonnen wurden, in einem gemeinsamen Umgebungsmodell 44 zu kombinieren. Da hier jede Sensormodalität die gleiche vollständige Darstellung der Umgebung liefert, vereinfacht dies das Fusionsverfahren und macht das System robust gegenüber einem Ausfall oder einer Fehlfunktion einzelner Sensoren oder einzelner Sensormodalitäten.The fusion module 25 serves to combine the information obtained from sensor data from different sensors in a common environment model 44. Since each sensor modality provides the same complete representation of the environment, this simplifies the fusion process and makes the system robust against failure or malfunction of individual sensors or individual sensor modalities.

Der Posenschätzer 57 kann beispielsweise aus den Objektdaten 37, 39 und/oder 51 (unter zusätzlicher Verwendung der Fahrdynamikdaten 33) eine geschätzte Fahrzeugposition und/oder -orientierung und deren Unsicherheit(en) bestimmen.The pose estimator 57 can, for example, determine an estimated vehicle position and/or orientation and their uncertainty(s) from the object data 37, 39 and/or 51 (with additional use of the vehicle dynamics data 33).

In den Zustandsschätzer 59, z. B. ein (erweiterter) Kalman- oder ein Partikelfilter, können beispielsweise die Parameter der Objektmodelle 43 und die Fahrdynamikdaten 33 eingegeben werden.In the state estimator 59, e.g. B. an (extended) Kalman or a particle filter, for example the parameters of the object models 43 and the vehicle dynamics data 33 can be entered.

Beispielsweise können statistische Kompatibilitätstests durchgeführt werden, um eine Verbindung zwischen einem Objekt i aus einer Liste vorhergesagter Objekte und Beobachtungen der Sensoren j zu finden. Bei gegebener vij-Innovation und Sij-Innovationskovarianz der Paarung ij kann beispielsweise der Mahalonobis-Abstand berechnet werden: d i j 2 = v i j T S i j 1 v i j

Figure DE102022204767A1_0008
For example, statistical compatibility tests can be performed to find a connection between an object i from a list of predicted objects and observations from sensors j. For example, given v ij -innovation and S ij -innovation covariance of the pairing ij, the Mahalonobis distance can be calculated: d i j 2 = v i j T S i j 1 v i j
Figure DE102022204767A1_0008

Dieser kann mit dem Schwellenwert aus einer kumulativen χ2-Verteilung verglichen werden und sollte nicht größer als dieser Schwellenwert sein (mit n für die Anzahl der Freiheitsgrade und a für das Signifikanzniveau, das zwischen 0,95 und 0,99 liegen sollte): d i j 2 χ n , a 2

Figure DE102022204767A1_0009
This can be compared to the threshold from a cumulative χ 2 distribution and should not be greater than this threshold (with n being the number of degrees of freedom and a being the significance level, which should be between 0.95 and 0.99): d i j 2 χ n , a 2
Figure DE102022204767A1_0009

Die Zustände der einzelnen dynamischen Objekte können mithilfe des erweiterten Kalman-Filters prädiziert werden. Der Vorteil der einheitlichen Zustandsdarstellung für mehrere Sensormodalitäten, z. B. in Form von 3D-Boxen, liegt darin, dass dieselben Datenassoziations- und Bewegungsmodelle auf die durch die unterschiedlichen Sensormodalitäten erfassten dynamischen Objekte angewendet werden können. Dies vereinfacht den Algorithmus und verbessert die Genauigkeit.The states of each dynamic object can be predicted using the extended Kalman filter. The advantage of uniform state representation for multiple sensor modalities, e.g. B. in the form of 3D boxes, is that the same data association and motion models can be applied to the dynamic objects detected by the different sensor modalities. This simplifies the algorithm and improves accuracy.

Die Schätzung eines probabilistischen Belegungsrasters m (d. h. einer Belegung einer die Umgebung des Fahrzeugs 1 repräsentierten Rasterkarte) kann folgendermaßen formuliert werden: p ( m | z 1 : t , x 1 : t ) = i p ( m i | z 1 : t , x 1 : t )

Figure DE102022204767A1_0010
The estimate of a probabilistic occupancy grid m (ie an occupancy of a grid map representing the surroundings of the vehicle 1) can be formulated as follows: p ( m | e.g 1 : t , x 1 : t ) = i p ( m i | e.g 1 : t , x 1 : t )
Figure DE102022204767A1_0010

Dabei ist p(m|z1:t,x1:t) der probabilistische Zustand der Karte m bei allen Beobachtungen z1:t der Umgebung und allen Positionen des Ego-Fahrzeugs x1:t bis zum Zeitpunkt t.Here p(m|z 1:t ,x 1:t ) is the probabilistic state of the map m for all observations z 1:t of the environment and all positions of the ego vehicle x 1:t up to time t.

Das Kartenmodul 61 kann die Objektdaten 37, 39 und/oder 51 (unter zusätzlicher Verwendung der Fahrdynamikdaten 33) zu einer probabilistischen Belegungsgitterkarte mit semantischen Informationen kombinieren.The map module 61 can combine the object data 37, 39 and/or 51 (with additional use of the vehicle dynamics data 33) into a probabilistic occupancy grid map with semantic information.

Die probabilistische Belegungskarte diskretisiert den Raum über den Gitterzellen und schätzt für eine gegebene Beobachtung die Wahrscheinlichkeit für eine Gitterzellenbelegung. Jeder Gitterzelle können zudem eine oder mehrere Objektklassen und/oder (falls zutreffend) eine Objekthöhe zugeordnet sein.The probabilistic occupancy map discretizes the space above the grid cells and estimates the probability of grid cell occupancy for a given observation. Each grid cell can also be assigned one or more object classes and/or (if applicable) an object height.

Abschließend wird darauf hingewiesen, dass Begriffe wie „aufweisend“, „umfassend“ usw. keine anderen Elemente oder Schritte ausschließen und unbestimmte Artikel wie „ein“ oder „eine“ keine Vielzahl ausschließen. Bezugszeichen in den Ansprüchen sind nicht als Einschränkung anzusehen.Finally, it is noted that terms such as "comprising", "comprising", etc. do not exclude other elements or steps, and indefinite articles such as "a" or "an" do not exclude a plurality. Reference symbols in the claims are not to be viewed as a limitation.

Claims (15)

Computerimplementiertes Verfahren zum Verarbeiten von Sensordaten (13,15, 29, 33) einer Sensorik (5) eines Fahrzeugs (1), wobei die Sensorik (5) einen ersten Sensor (9) und einen in seinem Typ vom ersten Sensor (9) abweichenden zweiten Sensor (11) zum Erfassen einer Umgebung des Fahrzeugs (1) umfasst, wobei das Verfahren umfasst: Empfangen erster Sensordaten (13), die vom ersten Sensor (9) erzeugt wurden, und zweiter Sensordaten (15), die vom zweiten Sensor (11) erzeugt wurden; Eingeben der ersten Sensordaten (13) in ein erstes künstliches neuronales Netz (35), das trainiert wurde, um die ersten Sensordaten (13) in erste Objektdaten (39) umzuwandeln, und Eingeben der zweiten Sensordaten (15) in ein zweites künstliches neuronales Netz (37), das trainiert wurde, um die zweiten Sensordaten (15) in zweite Objektdaten (41) umzuwandeln, wobei die ersten Objektdaten (39) und die zweiten Objektdaten (41) jeweils Parameter von Objektmodellen (43) definieren, die Objekten in der Umgebung des Fahrzeugs (1) zugeordnet sind, wobei die Parameter eines jeden Objektmodells (43) neben einer Objektklasse eine Position und/oder Orientierung des dem Objektmodell (43) zugeordneten Objekts umfassen, wobei die durch die ersten Objektdaten (39) definierten Objektmodelle (43) in ihrem Typ, insbesondere in ihrer Darstellungsform in einem der Umgebung des Fahrzeugs (1) zugeordneten Koordinatensystem (45), mit den durch die zweiten Objektdaten (41) definierten Objektmodellen (43) übereinstimmen; Aktualisieren eines die Umgebung des Fahrzeugs (1) repräsentierenden Umgebungsmodells (44) mit den ersten Objektdaten (39) und den zweiten Objektdaten (41).Computer-implemented method for processing sensor data (13, 15, 29, 33) of a sensor system (5) of a vehicle (1), the sensor system (5) having a first sensor (9) and a sensor of its type second sensor (11), which deviates from the first sensor (9), for detecting an environment of the vehicle (1), the method comprising: receiving first sensor data (13) generated by the first sensor (9) and second sensor data (15 ), which were generated by the second sensor (11); Entering the first sensor data (13) into a first artificial neural network (35) that has been trained to convert the first sensor data (13) into first object data (39), and entering the second sensor data (15) into a second artificial neural network (37), which was trained to convert the second sensor data (15) into second object data (41), the first object data (39) and the second object data (41) each defining parameters of object models (43) that correspond to objects in the Surroundings of the vehicle (1), the parameters of each object model (43) comprising, in addition to an object class, a position and/or orientation of the object assigned to the object model (43), the object models (43) defined by the first object data (39). ) in their type, in particular in their form of representation in a coordinate system (45) assigned to the environment of the vehicle (1), match the object models (43) defined by the second object data (41); Updating an environmental model (44) representing the environment of the vehicle (1) with the first object data (39) and the second object data (41). Verfahren nach Anspruch 1, wobei die in ihrem Typ miteinander übereinstimmenden Objektmodelle (43) dreidimensionale geometrische Modelle sind.Procedure according to Claim 1 , whereby the object models (43), which are of the same type, are three-dimensional geometric models. Verfahren nach Anspruch 2, wobei die dreidimensionalen geometrischen Modelle Quader sind.Procedure according to Claim 2 , where the three-dimensional geometric models are cuboids. Verfahren nach einem der vorhergehenden Ansprüche, wobei das erste künstliche neuronale Netz (35) ein erstes Modul (35a) und ein zweites Modul (35b) umfasst, wobei das erste Modul (35a) trainiert wurde, um die ersten Sensordaten (13) zu klassifizieren, und das zweite Modul (35b) trainiert wurde, um Eingabedaten (53), die Ausgaben des ersten Moduls (35a) und/oder aus Ausgaben des ersten Moduls (35a) erzeugte Daten umfassen, in die ersten Objektdaten (39) umzuwandeln; und/oder wobei das zweite künstliche neuronale Netz (37) ein drittes Modul (37a) und ein viertes Modul (37b) umfasst, wobei das dritte Modul (37a) trainiert wurde, um die zweiten Sensordaten (15) zu klassifizieren, und das vierte Modul (37b) trainiert wurde, um Eingabedaten (53), die Ausgaben des dritten Moduls (37a) und/oder aus Ausgaben des dritten Moduls (37a) erzeugte Daten umfassen, in die zweiten Objektdaten (41) umzuwandeln.Method according to one of the preceding claims, wherein the first artificial neural network (35) comprises a first module (35a) and a second module (35b), the first module (35a) being trained to classify the first sensor data (13), and the second module (35b ) has been trained to convert input data (53), which includes outputs of the first module (35a) and/or data generated from outputs of the first module (35a), into the first object data (39); and or wherein the second artificial neural network (37) comprises a third module (37a) and a fourth module (37b), the third module (37a) being trained to classify the second sensor data (15), and the fourth module (37b ) was trained to convert input data (53), which includes outputs of the third module (37a) and / or data generated from outputs of the third module (37a), into the second object data (41). Verfahren nach Anspruch 4, wobei die Eingabedaten (53) für das zweite Modul (35b) die den Ausgaben des ersten Moduls (35a) zugrunde liegenden ersten Sensordaten (13) umfassen; und/oder wobei die Eingabedaten (53) für das vierte Modul (37b) die den Ausgaben des dritten Moduls (37a) zugrunde liegenden zweiten Sensordaten (15) umfassen.Procedure according to Claim 4 , wherein the input data (53) for the second module (35b) comprises the first sensor data (13) on which the outputs of the first module (35a) are based; and/or wherein the input data (53) for the fourth module (37b) comprises the second sensor data (15) on which the outputs of the third module (37a) are based. Verfahren nach Anspruch 4 oder 5, wobei die Eingabedaten (53) für das zweite Modul (35b) auf ein der Umgebung des Fahrzeugs (1) zugeordnetes erstes Koordinatensystem (55) bezogen sind und die ersten Objektdaten (39) auf ein der Umgebung des Fahrzeugs (1) zugeordnetes zweites Koordinatensystem (45), das vom ersten Koordinatensystem (55) abweicht, bezogen sind; und/oder wobei die Eingabedaten (53) für das dritte Modul (37a) auf ein der Umgebung des Fahrzeugs (1) zugeordnetes drittes Koordinatensystem (55) bezogen sind und die zweiten Objektdaten (41) auf ein der Umgebung des Fahrzeugs (1) zugeordnetes viertes Koordinatensystem (45), das vom dritten Koordinatensystem (55) abweicht, bezogen sind.Procedure according to Claim 4 or 5 , wherein the input data (53) for the second module (35b) is related to a first coordinate system (55) assigned to the environment of the vehicle (1) and the first object data (39) to a second coordinate system assigned to the environment of the vehicle (1). (45), which deviates from the first coordinate system (55), are related; and/or wherein the input data (53) for the third module (37a) is related to a third coordinate system (55) assigned to the surroundings of the vehicle (1) and the second object data (41) to one assigned to the surroundings of the vehicle (1). fourth coordinate system (45), which deviates from the third coordinate system (55), are related. Verfahren nach Anspruch 6, wobei das zweite Koordinatensystem (45) in der Anzahl seiner Dimensionen vom ersten Koordinatensystem (55) abweicht; und/oder wobei das vierte Koordinatensystem (45) in der Anzahl seiner Dimensionen vom dritten Koordinatensystem (55) abweicht.Procedure according to Claim 6 , wherein the second coordinate system (45) differs from the first coordinate system (55) in the number of its dimensions; and/or wherein the fourth coordinate system (45) differs from the third coordinate system (55) in the number of its dimensions. Verfahren nach Anspruch 7, wobei das erste Koordinatensystem (55) zweidimensional ist und das zweite Koordinatensystem (45) dreidimensional ist; und/oder wobei das dritte Koordinatensystem (55) zweidimensional ist und das vierte Koordinatensystem (45) dreidimensional ist.Procedure according to Claim 7 , wherein the first coordinate system (55) is two-dimensional and the second coordinate system (45) is three-dimensional; and/or wherein the third coordinate system (55) is two-dimensional and the fourth coordinate system (45) is three-dimensional. Verfahren nach einem der Ansprüche 6 bis 8, wobei das erste Koordinatensystem (55) und das zweite Koordinatensystem (45) unterschiedlichen Perspektiven, aus denen die Umgebung des Fahrzeugs (1) betrachtet wird, zugeordnet sind; und/oder wobei das dritte Koordinatensystem (55) und das vierte Koordinatensystem (45) unterschiedlichen Perspektiven, aus denen die Umgebung des Fahrzeugs (1) betrachtet wird, zugeordnet sind.Procedure according to one of the Claims 6 until 8th , wherein the first coordinate system (55) and the second coordinate system (45) are assigned to different perspectives from which the surroundings of the vehicle (1) are viewed; and/or wherein the third coordinate system (55) and the fourth coordinate system (45) are assigned to different perspectives from which the surroundings of the vehicle (1) are viewed. Verfahren nach einem der Ansprüche 6 bis 9, wobei das erste Koordinatensystem (55) einer Vogelperspektive zugeordnet ist, aus der auf die Umgebung des Fahrzeugs (1) herabgeblickt wird; und/oder wobei das zweite Koordinatensystem (45) einer Fahrerperspektive zugeordnet ist, aus der die Umgebung des Fahrzeugs (1) in einer aktuellen Fahrtrichtung des Fahrzeugs (1) betrachtet wird; und/oder wobei das dritte Koordinatensystem (55) einer Vogelperspektive zugeordnet ist, aus der auf die Umgebung des Fahrzeugs (1) herabgeblickt wird; und/oder wobei das vierte Koordinatensystem (45) einer Fahrerperspektive zugeordnet ist, aus der die Umgebung des Fahrzeugs (1) in einer aktuellen Fahrtrichtung des Fahrzeugs (1) betrachtet wird.Procedure according to one of the Claims 6 until 9 , wherein the first coordinate system (55) is assigned to a bird's eye view from which the The surroundings of the vehicle (1) are looked down; and/or wherein the second coordinate system (45) is assigned to a driver's perspective from which the surroundings of the vehicle (1) are viewed in a current direction of travel of the vehicle (1); and/or wherein the third coordinate system (55) is assigned to a bird's eye view from which the surroundings of the vehicle (1) are viewed; and/or wherein the fourth coordinate system (45) is assigned to a driver's perspective from which the surroundings of the vehicle (1) are viewed in a current direction of travel of the vehicle (1). Verfahren nach einem der Ansprüche 6 bis 10, wobei das dritte Koordinatensystem (55) das erste Koordinatensystem (55) ist; und/oder wobei das vierte Koordinatensystem (45) das zweite Koordinatensystem (45) ist.Procedure according to one of the Claims 6 until 10 , wherein the third coordinate system (55) is the first coordinate system (55); and/or wherein the fourth coordinate system (45) is the second coordinate system (45). Verfahren nach einem der vorhergehenden Ansprüche, wobei die ersten Sensordaten (13) Kameradaten umfassen und die zweiten Sensordaten (15) keine Kameradaten umfassen; und/oder wobei die ersten Sensordaten (13) Radardaten umfassen und die zweiten Sensordaten (15) keine Radardaten umfassen; und/oder wobei die ersten Sensordaten (13) Lidardaten umfassen und die zweiten Sensordaten (15) keine Lidardaten umfassen.Method according to one of the preceding claims, wherein the first sensor data (13) includes camera data and the second sensor data (15) does not include camera data; and or wherein the first sensor data (13) includes radar data and the second sensor data (15) does not include radar data; and or wherein the first sensor data (13) includes lidar data and the second sensor data (15) does not include any lidar data. Datenverarbeitungsvorrichtung (7), umfassend einen Prozessor (17), der konfiguriert ist, um das Verfahren nach einem der vorhergehenden Ansprüche auszuführen.Data processing device (7) comprising a processor (17) configured to carry out the method according to one of the preceding claims. Computerprogramm, umfassend Befehle, die einen Prozessor (17) bei Ausführung des Computerprogramms durch den Prozessor (17) veranlassen, das Verfahren nach einem der Ansprüche 1 bis 11 auszuführen.Computer program, comprising instructions that cause a processor (17) to carry out the method according to one of the processors (17) when the computer program is executed by the processor (17). Claims 1 until 11 to carry out. Computerlesbares Medium, auf dem das Computerprogramm nach Anspruch 14 gespeichert ist.Computer-readable medium on which the computer program is written Claim 14 is stored.
DE102022204767.2A 2022-05-16 2022-05-16 Method and device for processing sensor data from a sensor system of a vehicle Pending DE102022204767A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022204767.2A DE102022204767A1 (en) 2022-05-16 2022-05-16 Method and device for processing sensor data from a sensor system of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022204767.2A DE102022204767A1 (en) 2022-05-16 2022-05-16 Method and device for processing sensor data from a sensor system of a vehicle

Publications (1)

Publication Number Publication Date
DE102022204767A1 true DE102022204767A1 (en) 2023-11-16

Family

ID=88510308

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022204767.2A Pending DE102022204767A1 (en) 2022-05-16 2022-05-16 Method and device for processing sensor data from a sensor system of a vehicle

Country Status (1)

Country Link
DE (1) DE102022204767A1 (en)

Similar Documents

Publication Publication Date Title
DE112018005774T5 (en) Device for predicting the behavior of a moving body and method for predicting the behavior of a moving body
DE102019115874A1 (en) SYSTEMS AND METHODS FOR IMPROVED DISTANCE ESTIMATION BY A MONOCAMERA USING RADAR AND MOTION DATA
DE102018107344A1 (en) OBSTACLE DETECTION SYSTEMS AND METHODS
DE102019133536A1 (en) Method and apparatus for enabling sequential bottom view image projection synthesis and complicated scene reconstruction at map anomaly hotspots
DE112019001657T5 (en) SIGNAL PROCESSING DEVICE AND SIGNAL PROCESSING METHOD, PROGRAM AND MOBILE BODY
DE102019116569A1 (en) LOCALIZATION FOR AUTONOMOUS VEHICLES USING GAUSSIAN MIXING MODELS
DE102018103817A1 (en) FREE-AIR DETECTION USING A MONOCULAR CAMERA AND DEEP LEARNING
DE102020214283A1 (en) DEVICE FOR DETECTION OF OBSTACLES, VEHICLE SYSTEM WITH THIS AND METHOD FOR IT
DE102018008624A1 (en) Control system and control method for sampling-based planning of possible trajectories for motor vehicles
DE102014108858A1 (en) Method and apparatus for estimating and tracking the shape and pose of a three-dimensional object
DE102021128041A1 (en) IMPROVEMENT OF A VEHICLE NEURAL NETWORK
DE102020102823A1 (en) VEHICLE CAPSULE NETWORKS
DE102023104789A1 (en) TRACKING OF MULTIPLE OBJECTS
DE102017108248A1 (en) STREET FEATURE RECOGNITION WITH A VEHICLE CAMERA SYSTEM
DE112021006111T5 (en) Systems and methods for monocularized object recognition
WO2020193273A1 (en) Method and device for operating a robot with improved object detection
DE102020100230A1 (en) RECONSTRUCTION OF LANDMARK POSITIONS IN AUTONOMOUS MACHINE APPLICATIONS
WO2022122933A1 (en) Method and device for detecting objects in the surroundings of a vehicle
EP3809316A1 (en) Prediction of a road route based on radar data
DE102023102645A1 (en) VEHICLE LOCATION
DE102019208233A1 (en) Method and device for automatically executing a control function of a vehicle
DE102022204767A1 (en) Method and device for processing sensor data from a sensor system of a vehicle
DE102022121602A1 (en) OBJECT MOTION PATH PREDICTION
DE112022002791T5 (en) PARTICLE FILTER TRACKING SYSTEMS AND METHODS
DE112022002046T5 (en) DRIVING DEVICE, VEHICLE AND METHOD FOR AUTOMATED DRIVING AND/OR ASSISTED DRIVING