DE102023002044B3 - Method for a model-based fusion of different sensor modalities - Google Patents

Method for a model-based fusion of different sensor modalities Download PDF

Info

Publication number
DE102023002044B3
DE102023002044B3 DE102023002044.3A DE102023002044A DE102023002044B3 DE 102023002044 B3 DE102023002044 B3 DE 102023002044B3 DE 102023002044 A DE102023002044 A DE 102023002044A DE 102023002044 B3 DE102023002044 B3 DE 102023002044B3
Authority
DE
Germany
Prior art keywords
existence
determined
sensor modalities
quality measures
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102023002044.3A
Other languages
German (de)
Inventor
Stefan Haag
Bharanidhar Duraisamy
Florian Geiß
Dennis Franz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Priority to DE102023002044.3A priority Critical patent/DE102023002044B3/en
Application granted granted Critical
Publication of DE102023002044B3 publication Critical patent/DE102023002044B3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles

Abstract

Die Erfindung betrifft ein Verfahren zu einer modellbasierten Fusion verschiedener Sensormodalitäten, wobei anhand von mittels der verschiedenen Sensormodalitäten erfassten Daten eine Existenz von Objekten in einer Fahrzeugumgebung und objektbezogene Qualitätsmaße bestimmt werden. Erfindungsgemäß werden als objektbezogene Qualitätsmaße sensorabhängige Vertrauenswerte für eine Existenz eines Objekts und eine Wahrscheinlichkeit eines Fortbestehens der Existenz in der Fahrzeugumgebung mittels eines zentralisierten Fusionssystems bestimmt, wobei die Bestimmung der objektbezogenen Qualitätsmaße basierend auf mittels dynamischer Modelle geschätzten Werten erfolgt. Anhand der Qualitätsmaße wird eine Fusion mittels der Daten verschiedener Sensormodalitäten bestimmter Existenzwahrscheinlichkeiten von Objekten durchgeführt.The invention relates to a method for a model-based fusion of different sensor modalities, wherein the existence of objects in a vehicle environment and object-related quality measures are determined based on data recorded using the different sensor modalities. According to the invention, sensor-dependent trust values for the existence of an object and a probability of continued existence in the vehicle environment are determined as object-related quality measures by means of a centralized fusion system, the object-related quality measures being determined based on values estimated using dynamic models. Based on the quality measures, a fusion is carried out using the data from different sensor modalities of certain existence probabilities of objects.

Description

Die Erfindung betrifft ein Verfahren zu einer modellbasierten Fusion verschiedener Sensormodalitäten gemäß dem Oberbegriff des Anspruchs 1.The invention relates to a method for a model-based fusion of different sensor modalities according to the preamble of claim 1.

Aus der DE 10 2008 002 576 A1 ist ein Verfahren zur Plausibilisierung von mit Hilfe einer Sensorik georteten Objekten in einem Fahrerassistenzsystem bekannt. Hierbei wird auf der Grundlage von Ortungsdaten über ein Objekt ein Plausibilitätsmaß berechnet, das eine Existenzwahrscheinlichkeit des Objekts und eine Zutreffenswahrscheinlichkeit einer bestimmten Objekteigenschaft angibt. Weiterhin wird auf das Plausibilitätsmaß eine Schwellenwertfunktion angewandt, um über die Existenz des Objekts und das Zutreffen der Objekteigenschaft zu entscheiden. Für ein neu erkanntes Objekt wird anhand gespeicherter Daten über die Trajektorie des eigenen Fahrzeugs eine Zeit eines Eintritts des Objekts in einen Ortungsbereich der Sensorik berechnet und die anzuwendende Schwellenwertfunktion wird in Abhängigkeit von dieser Zeit gewählt.From the DE 10 2008 002 576 A1 a method for checking the plausibility of objects located using sensors in a driver assistance system is known. Here, a plausibility measure is calculated based on location data about an object, which indicates the probability of existence of the object and the probability of the occurrence of a specific object property. Furthermore, a threshold function is applied to the plausibility measure in order to decide on the existence of the object and whether the object property applies. For a newly recognized object, a time of entry of the object into a location area of the sensor system is calculated based on stored data about the trajectory of the vehicle and the threshold function to be applied is selected depending on this time.

Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zu einer modellbasierten Fusion verschiedener Sensormodalitäten anzugeben.The invention is based on the object of specifying a novel method for a model-based fusion of different sensor modalities.

Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die in Anspruch 1 angegebenen Merkmale aufweist.The object is achieved according to the invention by a method which has the features specified in claim 1.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the subclaims.

In einem Verfahren zu einer modellbasierten Fusion verschiedener Sensormodalitäten werden anhand von mittels der verschiedenen Sensormodalitäten erfassten Daten eine Existenz von Objekten in einer Fahrzeugumgebung und objektbezogene Qualitätsmaße bestimmt.In a method for a model-based fusion of different sensor modalities, the existence of objects in a vehicle environment and object-related quality measures are determined based on data recorded using the different sensor modalities.

Erfindungsgemäß werden als objektbezogene Qualitätsmaße sensorabhängige Vertrauenswerte für eine Existenz eines Objekts und eine Wahrscheinlichkeit eines Fortbestehens der Existenz in der Fahrzeugumgebung mittels eines zentralisierten Fusionssystems bestimmt. Die Bestimmung der objektbezogenen Qualitätsmaße erfolgt basierend auf mittels dynamischer Modelle geschätzten Werten, wobei anhand der Qualitätsmaße eine Fusion mittels der Daten verschiedener Sensormodalitäten bestimmter Existenzwahrscheinlichkeiten von Objekten durchgeführt wird.According to the invention, sensor-dependent trust values for the existence of an object and a probability of continued existence in the vehicle environment are determined as object-related quality measures using a centralized fusion system. The object-related quality measures are determined based on values estimated using dynamic models, with the quality measures being used to merge the data from different sensor modalities of certain existence probabilities of objects.

Das vorliegende Verfahren ermöglicht eine Bestimmung eines Qualitätsmaßes in einem zentralisierten Fusionssystem, welches verfolgte Objekte und nicht verfolgte Detektionen bzw. Merkmale von verschiedenen Sensormodalitäten berücksichtigt. Dabei ist es möglich, aufgrund der modellbasierten Bestimmung der Qualitätsmaße im Gegensatz zu aus dem Stand der Technik bekannten Lösungen, welche die Qualitätsmaße in Abhängigkeit von fest vorgegebenen und sensorabhängigen Parametern bestimmen, eine verbesserte Schätzung der Existenzwahrscheinlichkeit durchzuführen. Die ermittelte Existenzwahrscheinlichkeit kann bei der Fusion der Sensormodalitäten beispielsweise dazu verwendet werden, um wichtige Komponenten, beispielsweise ein Track-Management oder eine Daten-Assoziation, zu verbessern oder einen Betrieb von der Fusion nachgelagerten Modulen zu optimieren, beispielsweise eine Entscheidungsfindung eines Planungsmoduls zur Trajektorienplanung für ein automatisiert, insbesondere hochautomatisiert oder autonom betriebenes Fahrzeug zu optimieren. Somit ist es für das Planungsmodul oder ein diesem nachgelagertes Entscheidungsmodul einfacher, eine Relevanz eines fusionierten Objekts zu berechnen und entsprechende Eingriffe und Aktionen in den Fahrbetrieb des Fahrzeugs zu ermöglichen.The present method enables determination of a quality measure in a centralized fusion system that takes tracked objects and untracked detections or features of different sensor modalities into account. It is possible to carry out an improved estimate of the probability of existence due to the model-based determination of the quality measures, in contrast to solutions known from the prior art, which determine the quality measures depending on fixed and sensor-dependent parameters. The determined existence probability can be used when merging the sensor modalities, for example, to improve important components, for example track management or data association, or to optimize the operation of modules downstream of the fusion, for example decision-making by a planning module for trajectory planning to optimize an automated, especially highly automated or autonomously operated vehicle. This makes it easier for the planning module or a downstream decision-making module to calculate the relevance of a merged object and to enable corresponding interventions and actions in the driving operation of the vehicle.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Exemplary embodiments of the invention are explained in more detail below with reference to drawings.

Dabei zeigen:

  • 1 schematisch eine Draufsicht eines Fahrzeugs mit Radarsensoren und Erfassungsbereichen dieser,
  • 2 schematisch eine Seitenansicht des Fahrzeugs gemäß 1 sowie der Radarsensoren und deren Erfassungsbereiche,
  • 3 schematisch eine Frontansicht des Fahrzeugs gemäß 1 sowie der Radarsensoren und deren Erfassungsbereiche,
  • 4 schematisch eine Draufsicht eines Fahrzeugs mit Kameras und Erfassungsbereichen dieser,
  • 5 schematisch eine Seitenansicht des Fahrzeugs gemäß 4 sowie der Kameras und deren Erfassungsbereiche und
  • 6 schematisch eine Frontansicht des Fahrzeugs gemäß 4 sowie der Kameras und deren Erfassungsbereiche.
Show:
  • 1 schematically a top view of a vehicle with radar sensors and their detection areas,
  • 2 schematically a side view of the vehicle according to 1 as well as the radar sensors and their detection areas,
  • 3 schematically a front view of the vehicle 1 as well as the radar sensors and their detection areas,
  • 4 schematically a top view of a vehicle with cameras and their detection areas,
  • 5 schematically a side view of the vehicle according to 4 as well as the cameras and their detection areas and
  • 6 schematically a front view of the vehicle 4 as well as the cameras and their detection areas.

Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference numbers in all figures.

In den 1 bis 3 ist ein Fahrzeug 1 mit einer Mehrzahl von Radarsensoren 2 bis 6 und Erfassungsbereichen E2 bis E6 dieser in verschiedenen Ansichten dargestellt. Die 4 bis 6 zeigen ein Fahrzeug 1, beispielsweise das Fahrzeug 1 gemäß den 1 bis 3, mit einer Mehrzahl von Kameras 7 bis 14 und Erfassungsbereichen E7 bis E14 dieser in verschiedenen Ansichten.In the 1 until 3 is a vehicle 1 with a plurality of radar sensors 2 to 6 and detection areas E2 to E6 of these shown in different views. The 4 until 6 show a vehicle 1, for example the vehicle 1 according to 1 until 3 , with a plurality of Cameras 7 to 14 and detection areas E7 to E14 in different views.

Der Radarsensor 3 ist dabei nach vorn gerichtet und beispielsweise als so genannter Mid-Range-Radarsensor ausgebildet. Die weiteren Radarsensoren 2, 4 bis 6 sind an äußeren Ecken des Fahrzeugs 1 angeordnet und beispielsweise als so genannte Short-Range-Radarsensoren ausgebildet.The radar sensor 3 is directed forward and is designed, for example, as a so-called mid-range radar sensor. The further radar sensors 2, 4 to 6 are arranged at outer corners of the vehicle 1 and are designed, for example, as so-called short-range radar sensors.

Auch die Kamera 7 und die Kamera 8 sind nach vorn ausgerichtet, wobei die Kamera 7 beispielsweise eine Tele-Kamera ist. Die Kamera 8 ist beispielsweise eine Weitwinkel-Kamera. Die Kameras 9 bis 12 sind beispielsweise so genannte Surround-View-Kameras und die Kameras 13, 14 Seitenkameras, welche seitlich nach hinten gerichtet sind und somit eine Außenspiegelfunktion übernehmen können.The camera 7 and the camera 8 are also oriented forward, with the camera 7 being a telephoto camera, for example. The camera 8 is, for example, a wide-angle camera. The cameras 9 to 12 are, for example, so-called surround view cameras and the cameras 13, 14 are side cameras, which are directed laterally to the rear and can therefore take on an exterior mirror function.

Die Radarsensoren 2 bis 6 und die Kameras 7 bis 14 sind zu einer Erfassung einer Fahrzeugumgebung vorgesehen, wobei in Abhängigkeit von mittels der Radarsensoren 2 bis 6 und Kameras 7 bis 14 erfassten Daten Fahrzeugfunktionen, beispielsweise ein automatisierter, insbesondere ein hochautomatisierter oder autonomer Fahrbetrieb des Fahrzeugs 1 durchgeführt werden.The radar sensors 2 to 6 and the cameras 7 to 14 are provided for detecting a vehicle environment, with vehicle functions, for example an automated, in particular a highly automated or autonomous driving operation of the vehicle, depending on data recorded by means of the radar sensors 2 to 6 and cameras 7 to 14 1 can be carried out.

Dabei werden anhand der Daten Objekte und nicht verfolgte Detektionen bzw. Merkmale in der Fahrzeugumgebung ermittelt. Zu einer verbesserten Detektion werden die mittels der Radarsensoren 2 bis 6 und Kameras 7 bis 14 und gegebenenfalls weiterer Sensormodalitäten, beispielsweise Lidarsensoren, erfassten Daten fusioniert.The data is used to identify objects and untracked detections or features in the vehicle environment. To improve detection, the data recorded using the radar sensors 2 to 6 and cameras 7 to 14 and possibly other sensor modalities, for example lidar sensors, are merged.

Diese Fusion wird dynamisch mittels eines zentralisierten Fusionssystems des Fahrzeugs 1 durchgeführt. Aufgabe dieser dynamischen Fusion ist es, Positionen, Ausdehnungen und Bewegungen der Objekte in der Fahrzeugumgebung, beispielsweise anderer Verkehrsteilnehmer, zu bestimmen. Durch die Fusion der verschiedenen Sensormodalitäten wird eine globale Hypothese erstellt, indem beispielsweise so genannte Bayessche-Tracking Verfahren, zum Beispiel ein Kalman-Filter oder PartikelFilter, verwendet werden.This fusion is carried out dynamically using a centralized fusion system of the vehicle 1. The task of this dynamic fusion is to determine the positions, dimensions and movements of objects in the vehicle's surroundings, such as other road users. By fusing the different sensor modalities, a global hypothesis is created, for example by using so-called Bayesian tracking methods, for example a Kalman filter or particle filter.

Zusätzlich zu bekannten Messungenauigkeiten können die Sensoren falsch-positive Messungen, das heißt Sensor-Messungen ohne dazugehöriges real existierendes Objekt, liefern. Andererseits können unterschiedliche Sensormodalitäten aufgrund ihrer unterschiedlichen Charakteristika falsch-negative Messungen, das heißt keine Messungen zu existierenden Objekten, liefern. Der Fall von falsch-positiven und falschnegativen Messungen wird von bekannten Tracking- und Filterverfahren jedoch meist nicht berücksichtigt, so dass die Fusion um zusätzliche Schätzer, wie beispielsweise in „Michael Aeberhard: Object-Level Fusion for Surround Environment Perception in Automated Driving Applications; Dissertation eingereicht bei teilweiser Erfüllung der Voraussetzungen für den Grad „Doktor Ingenieur“ an der Fakultät für Elektrotechnik und Informationstechnik der Technischen Universität Dortmund; Datum der Genehmigung: 31. Mai 2017" beschrieben, ergänzt werden.In addition to known measurement inaccuracies, the sensors can deliver false-positive measurements, i.e. sensor measurements without an associated real object. On the other hand, different sensor modalities can provide false-negative measurements, i.e. no measurements of existing objects, due to their different characteristics. However, the case of false-positive and false-negative measurements is usually not taken into account by known tracking and filtering methods, so that the fusion requires additional estimators, such as in “Michael Aeberhard: Object-Level Fusion for Surround Environment Perception in Automated Driving Applications; Dissertation submitted with partial fulfillment of the requirements for the degree of “Doctor Engineer” at the Faculty of Electrical Engineering and Information Technology at the Technical University of Dortmund; Date of approval: May 31, 2017".

Zur Fusion der Sensormodalitäten wird ein Verfahren zur Fusion von Existenzwahrscheinlichkeiten von mittels der Sensoren erfassten Objekten verwendet, wobei die Existenzwahrscheinlichkeit gemäß der folgenden Ausführungen ermittelt wird.To fuse the sensor modalities, a method for fusing existence probabilities of objects detected by the sensors is used, the existence probability being determined according to the following explanations.

Zunächst werden als Eingangssignale ein mittels des entsprechenden Sensors ermittelter Schätzer für den Objektzustand xk sowie eine eventuelle Existenzwahrscheinlichkeit pi(∃xk) verwendet.First, an estimator for the object state x k determined by the corresponding sensor and a possible existence probability p i (∃x k ) are used as input signals.

Anschließend wird die Existenzwahrscheinlichkeit eines fusionierten Objekts mit der so genannten Evidenztheorie von Dempster und Shafer ermittelt, indem folgende Massen zum Objektzustand hinzugefügt werden:

  • - m_k ({∃}): Existenz-Belief-Masse
  • - m_k ({∄}):Nicht-Existenz-Belief-Masse
  • - m_k ({∃,∄}):nicht auflösbare Belief-Masse
The probability of existence of a merged object is then determined using the so-called evidence theory of Dempster and Shafer by adding the following masses to the object state:
  • - m_k ({∃}): existence belief mass
  • - m_k ({∄}):Non-existence belief mass
  • - m_k ({∃,∄}): unresolvable belief mass

Anschließend werden von der jeweiligen Sensormodalität abhängige Belief Massen gemäß   m k i ( { } ) = p p i ( x k ) p t r u s t i ( x k ) p i ( x k )

Figure DE102023002044B3_0001
  m k i ( { } ) = p p i ( x k ) p t r u s t i ( x k ) ( 1 p i ( x k ) )
Figure DE102023002044B3_0002
  m i k ( { , } ) = 1 ( m k i ( { } ) + m k i ( { } ) )
Figure DE102023002044B3_0003
mit:
pi(∃xk) = von der Sensormodalität abhängige Existenzwahrscheinlichkeit
p t r u s t i ( x k )
Figure DE102023002044B3_0004
= Sensor-Vertrauenswert
p p i ( x k )
Figure DE102023002044B3_0005
= Wahrscheinlichkeit eines Fortbestehens der Existenz eines Objekts berechnet.Belief masses that depend on the respective sensor modality are then calculated according to m k i ( { } ) = p p i ( x k ) p t r u s t i ( x k ) p i ( x k )
Figure DE102023002044B3_0001
m k i ( { } ) = p p i ( x k ) p t r u s t i ( x k ) ( 1 p i ( x k ) )
Figure DE102023002044B3_0002
m i k ( { , } ) = 1 ( m k i ( { } ) + m k i ( { } ) )
Figure DE102023002044B3_0003
with:
p i (∃x k ) = probability of existence dependent on the sensor modality
p t r u s t i ( x k )
Figure DE102023002044B3_0004
= Sensor trust score
p p i ( x k )
Figure DE102023002044B3_0005
= Probability of continued existence of an object calculated.

Anschließend erfolgt eine Aktualisierung der fusionierten Massen gemäß Regeln der Evidenztheorie von Dempster und Shafer.The merged masses are then updated according to the rules of the evidence theory of Dempster and Shafer.

Die Existenzwahrscheinlichkeit wird dann gemäß   p ( x k ) = m k ( { } ) + α   m k ( { , } )

Figure DE102023002044B3_0006
bestimmt.The probability of existence is then according to p ( x k ) = m k ( { } ) + α m k ( { , } )
Figure DE102023002044B3_0006
certainly.

Bezogen auf das dargestellte Fahrzeug 1 mit den Radarsensoren 2 bis 6 und Kameras 7 bis 14 erfolgt in Abhängigkeit der jeweils ermittelten Existenzwahrscheinlichkeit ein so genanntes Reengineering der entsprechenden Sensoren basierend auf einer Objektposition in einer Sensordatenvorverarbeitung. Für die Radarsensoren 2 bis 6 erfolgt dies beispielsweise in der Art, dass dann, wenn sich das Objekt im Erfassungsbereich E3 des Radarsensors 3 befindet, das Objekt diesem Radarsensor 3 zugewiesen wird. Andernfalls wird das Objekt dem nächsten Radarsensor 2, 4 bis 6 zugewiesen. Für die Kameras 7 bis 14 wird ein ähnlicher Ansatz ausgeführt, wobei das Objekt priorisiert der Front-Telekamera (Kamera 7) zugeordnet wird.Based on the vehicle 1 shown with the radar sensors 2 to 6 and cameras 7 to 14, a so-called reengineering of the corresponding sensors based on an object position in sensor data preprocessing takes place depending on the probability of existence determined in each case. For the radar sensors 2 to 6, this is done, for example, in such a way that when the object is in the detection range E3 of the radar sensor 3, the object is assigned to this radar sensor 3. Otherwise the object is assigned to the next radar sensor 2, 4 to 6. A similar approach is carried out for cameras 7 to 14, with the object being prioritized to the front telephoto camera (camera 7).

Die zur Ermittlung der Existenzwahrscheinlichkeit verwendeten Sensor-Vertrauenswerte und Wahrscheinlichkeiten des Fortbestehens der Existenz des Objekts werden dabei mittels dynamischer Modelle berechnet, um die Fusion der Existenzwahrscheinlichkeiten zu beschreiben.The sensor trust values and probabilities of the continued existence of the object used to determine the existence probability are calculated using dynamic models to describe the fusion of the existence probabilities.

Der entsprechende Sensor-Vertrauenswert ist ein sensorabhängiger Vertrauenswert für eine Existenz eines Objekts, welcher im Folgenden nur noch als Vertrauenswert bezeichnet wird. Dieser Vertrauenswert ist nur abhängig vom gegenwärtigen Zustand des entsprechenden Fusions-Objekts und der Sensor-Messung und wird gemäß p t r u s t i ( x k ) = c t r u s t i p D ( x k ) p p o s _ c o n f ( x k ) p v e l _ c o n f ( x k )

Figure DE102023002044B3_0007
eines in Abhängigkeit einer jeweiligen Sensormodalität gewählten Vertrauenswert-Parameters c t r u s t i ,
Figure DE102023002044B3_0008
einer in Abhängigkeit einer jeweiligen Sensormodalität modellierten Detektionswahrscheinlichkeit pD(xk) und einer Übereinstimmung von Position ppos_conf(xk) und Geschwindigkeit pvei_conf(xk) mittels der Daten der verschiedenen Sensormodalitäten ermittelter Objekthypothesen für das Objekt ermittelt.The corresponding sensor trust value is a sensor-dependent trust value for the existence of an object, which is referred to below as just the trust value. This trust value depends only on the current state of the corresponding fusion object and the sensor measurement and is determined according to p t r u s t i ( x k ) = c t r u s t i p D ( x k ) p p O s _ c O n f ( x k ) p v e l _ c O n f ( x k )
Figure DE102023002044B3_0007
a trust value parameter selected depending on a respective sensor modality c t r u s t i ,
Figure DE102023002044B3_0008
a detection probability p D (x k ) modeled depending on a respective sensor modality and a match between position p pos_conf (x k ) and speed p vei_conf (x k ) determined object hypotheses for the object using the data from the different sensor modalities.

Das heißt, der Vertrauenswert einer bestimmten Verfolgung oder Detektion hängt davon ab, ob ein betrachtetes Artefakt entweder ein verfolgtes Objekt oder ein verarbeitetes Merkmal oder eine Roherkennung von einem bestimmten Sensortyp ist. Der Vertrauenswert wird basierend auf Detektionsmodellen für dieses bestimmte Objekt, Beobachtungscharakteristika und Akzeptanzkriterien dieses Objekts in dem Fusionssystem abgeleitet. Das Modell kann dabei basierend auf der Art des Objekts weiter abgestimmt werden, indem auch semantische Informationen berücksichtigt werden.That is, the confidence value of a particular tracking or detection depends on whether an artifact under consideration is either a tracked object or a processed feature or a raw detection from a particular sensor type. The confidence value is derived based on detection models for that particular object, observation characteristics and acceptance criteria of that object in the fusion system. The model can be further tuned based on the type of object by also taking semantic information into account.

Die modellbasierte Bestimmung der Wahrscheinlichkeit des Fortbestehens der Existenz eines Objekts wird über mehrere Zeitschritte gemäß p p i ( x k ) = p S ( x k ) p O ( x k ) p L T ( x k ) p C ( x k ) p C R ( x k 1 )

Figure DE102023002044B3_0009
mittels eines Alters pLT des Objekts bzw. einer Spur des Objekts (exponentiell verteilt), einer Anzahl pO von Detektionen des Objekts durch die verschiedenen Sensormodalitäten innerhalb eines vorgegebenen Zeitraums (BetalBernoulli Verteilung), in Abhängigkeit einer jeweiligen Sensormodalität ermittelter Fortbestehenswahrscheinlichkeiten pS mittels der Daten der verschiedenen Sensormodalitäten ermittelter Objekthypothesen für das Objekt, einer Klassifizierung pC des Objekts und einer Veränderung pCR eines aus einer Differenz zwischen einer prädizierten Messung und einer tatsächlichen Messung des Objekts gebildeten Residuums, um langzeitbeobachtete Ziele zu berücksichtigen, durchgeführt.The model-based determination of the probability of the continued existence of an object is carried out over several time steps p p i ( x k ) = p S ( x k ) p O ( x k ) p L T ( x k ) p C ( x k ) p C R ( x k 1 )
Figure DE102023002044B3_0009
by means of an age p LT of the object or a track of the object (exponentially distributed), a number p O of detections of the object by the various sensor modalities within a predetermined period of time (BetalBernoulli distribution), survival probabilities p S determined depending on a respective sensor modality by means of the Data from the various sensor modalities determined object hypotheses for the object, a classification p C of the object and a change p CR of a residual formed from a difference between a predicted measurement and an actual measurement of the object in order to take long-term observed targets into account.

Dabei werden situationsbezogene Modelle einbezogen, um sicherzustellen, dass Objekte, die für Sicherheitsaspekte des automatisierten Fahrens relevant sind, nicht beeinträchtigt werden.Situational models are included to ensure that objects that are relevant to the safety aspects of automated driving are not impaired.

Claims (3)

Verfahren zu einer modellbasierten Fusion verschiedener Sensormodalitäten, wobei anhand von mittels der verschiedenen Sensormodalitäten erfassten Daten eine Existenz von Objekten in einer Fahrzeugumgebung und objektbezogene Qualitätsmaße bestimmt werden, dadurch gekennzeichnet, dass - als objektbezogene Qualitätsmaße sensorabhängige Vertrauenswerte für eine Existenz eines Objekts und eine Wahrscheinlichkeit eines Fortbestehens der Existenz in der Fahrzeugumgebung mittels eines zentralisierten Fusionssystems bestimmt werden, - die Bestimmung der objektbezogenen Qualitätsmaße basierend auf mittels dynamischer Modelle geschätzten Werten erfolgt und - anhand der Qualitätsmaße eine Fusion mittels der Daten verschiedener Sensormodalitäten bestimmter Existenzwahrscheinlichkeiten von Objekten durchgeführt wird.Method for a model-based fusion of different sensor modalities, wherein the existence of objects in a vehicle environment and object-related quality measures are determined based on data recorded by means of the different sensor modalities, characterized in that - as object-related quality measures, sensor-dependent trust values for the existence of an object and a probability of continued existence the existence in the vehicle environment can be determined by means of a centralized fusion system, - the object-related quality measures are determined based on values estimated using dynamic models and - based on the quality measures, a fusion is carried out using the data from different sensor modalities of certain existence probabilities of objects. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die modellbasierte Bestimmung der Vertrauenswerte für die Existenz eines Objekts in Abhängigkeit eines aktuellen Objektzustands mittels - eines in Abhängigkeit einer jeweiligen Sensormodalität gewählten Vertrauenswert-Parameters, - einer in Abhängigkeit einer jeweiligen Sensormodalität modellierten Detektionswahrscheinlichkeit und - einer Übereinstimmung von Position und Geschwindigkeit mittels der Daten der verschiedenen Sensormodalitäten ermittelter Objekthypothesen für das Objekt durchgeführt wird.Procedure according to Claim 1 , characterized in that the model-based determination of the trust values for the existence of an object depending on a current object state by means of - a trust value parameter selected depending on a respective sensor modality, - a detection probability modeled depending on a respective sensor modality and - a match between position and speed Object hypotheses determined for the object are carried out using the data from the various sensor modalities. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die modellbasierte Bestimmung der Wahrscheinlichkeit des Fortbestehens der Existenz eines Objekts über mehrere Zeitschritte mittels - eines Alters des Objekts, - einer Anzahl von Detektionen des Objekts durch die verschiedenen Sensormodalitäten innerhalb eines vorgegebenen Zeitraums - in Abhängigkeit einer jeweiligen Sensormodalität ermittelter Fortbestehenswahrscheinlichkeiten mittels der Daten der verschiedenen Sensormodalitäten ermittelter Objekthypothesen für das Objekt, - einer Klassifizierung des Objekts und - einer Veränderung eines aus einer Differenz zwischen einer prädizierten Messung und einer tatsächlichen Messung des Objekts gebildeten Residuums durchgeführt wird.Procedure according to Claim 1 or 2 , characterized in that the model-based determination of the probability of the continued existence of an object over several time steps by means of - an age of the object, - a number of detections of the object by the different sensor modalities within a predetermined period of time - continued existence probabilities determined depending on a respective sensor modality the data from the various sensor modalities determined object hypotheses for the object, - a classification of the object and - a change in a residual formed from a difference between a predicted measurement and an actual measurement of the object.
DE102023002044.3A 2023-05-19 2023-05-19 Method for a model-based fusion of different sensor modalities Active DE102023002044B3 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102023002044.3A DE102023002044B3 (en) 2023-05-19 2023-05-19 Method for a model-based fusion of different sensor modalities

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102023002044.3A DE102023002044B3 (en) 2023-05-19 2023-05-19 Method for a model-based fusion of different sensor modalities

Publications (1)

Publication Number Publication Date
DE102023002044B3 true DE102023002044B3 (en) 2023-12-21

Family

ID=88975221

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023002044.3A Active DE102023002044B3 (en) 2023-05-19 2023-05-19 Method for a model-based fusion of different sensor modalities

Country Status (1)

Country Link
DE (1) DE102023002044B3 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008002576A1 (en) 2008-06-23 2009-12-24 Robert Bosch Gmbh Method for validation of objects located in vehicle assistance system by sensor system, involves computing time of entrance of object into detection range of sensor system for recognizing objects on base stored data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008002576A1 (en) 2008-06-23 2009-12-24 Robert Bosch Gmbh Method for validation of objects located in vehicle assistance system by sensor system, involves computing time of entrance of object into detection range of sensor system for recognizing objects on base stored data

Similar Documents

Publication Publication Date Title
DE102015111535B4 (en) Algorithm for precise curvature estimation for the path planning of autonomous vehicles
DE102017207790B4 (en) A method for merging high fusion data for a road model for exemplary use in multi-lane speed limit inferences, and an apparatus for performing the method
DE10133945A1 (en) Method and device for exchanging and processing data
WO2020229002A1 (en) Method and device for multi-sensor data fusion for automated and autonomous vehicles
EP3646184A1 (en) Method, apparatus and computer-readable storage medium having instructions for cancelling a redundancy of two or more redundant modules
DE102019209736A1 (en) Procedure for evaluating possible trajectories
DE102017117593A1 (en) Vehicle driving assistance device
DE102020200169B3 (en) Method for merging several data sets for the generation of a current lane model of a roadway and device for data processing
DE102019008093A1 (en) Method for merging sensor data from a large number of detection devices using a sparse occupancy grid, as well as a driver assistance system
EP3610224B1 (en) Method, device, and computer-readable storage medium with instructions for estimating the pose of a motor vehicle
WO2020048669A1 (en) Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle
DE102018113559A1 (en) A method of recognizing a lane mark by validating by line width; Control means; Pitch recognition system; as well as driver assistance system
DE102008021380B4 (en) Method and device for predicting a course of a roadway and driver assistance system
DE102019132150A1 (en) Method for automatically calibrating an environment sensor, in particular a lidar sensor, of a vehicle on the basis of occupancy cards and computing device
DE102017206344A1 (en) Driver assistance system for a vehicle
DE102017213353A1 (en) Verification of a planned trajectory of an automated motor vehicle
DE102023002044B3 (en) Method for a model-based fusion of different sensor modalities
DE102017207441A1 (en) Method for checking a digital environment map for a driver assistance system of a motor vehicle, computing device, driver assistance system and motor vehicle
DE102019126116A1 (en) Device for informing about a lane and control method therefor
DE102020118628A1 (en) Method and device for determining a position of a vehicle
DE102020214203A1 (en) Method for determining a lane change intention of another motor vehicle located in the immediate vicinity of a motor vehicle, and assistance system
DE102019102922A1 (en) Method and device for multi-sensor data fusion for automated and autonomous vehicles
DE102019004842A1 (en) Method for operating an at least partially automated vehicle
DE102013013253A1 (en) A method for warning the driver of a motor vehicle depending on a determined time to collision, camera system and motor vehicle
DE102019212279B3 (en) Method and device for checking a calibration of environmental sensors

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R018 Grant decision by examination section/examining division