DE102023002044B3 - Method for a model-based fusion of different sensor modalities - Google Patents
Method for a model-based fusion of different sensor modalities Download PDFInfo
- Publication number
- DE102023002044B3 DE102023002044B3 DE102023002044.3A DE102023002044A DE102023002044B3 DE 102023002044 B3 DE102023002044 B3 DE 102023002044B3 DE 102023002044 A DE102023002044 A DE 102023002044A DE 102023002044 B3 DE102023002044 B3 DE 102023002044B3
- Authority
- DE
- Germany
- Prior art keywords
- existence
- determined
- sensor modalities
- quality measures
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 21
- 238000000034 method Methods 0.000 title claims abstract description 14
- 230000001419 dependent effect Effects 0.000 claims abstract description 6
- 238000001514 detection method Methods 0.000 claims description 19
- 238000005259 measurement Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/27—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0133—Traffic data processing for classifying traffic situation
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/87—Combinations of radar systems, e.g. primary radar and secondary radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
Abstract
Die Erfindung betrifft ein Verfahren zu einer modellbasierten Fusion verschiedener Sensormodalitäten, wobei anhand von mittels der verschiedenen Sensormodalitäten erfassten Daten eine Existenz von Objekten in einer Fahrzeugumgebung und objektbezogene Qualitätsmaße bestimmt werden. Erfindungsgemäß werden als objektbezogene Qualitätsmaße sensorabhängige Vertrauenswerte für eine Existenz eines Objekts und eine Wahrscheinlichkeit eines Fortbestehens der Existenz in der Fahrzeugumgebung mittels eines zentralisierten Fusionssystems bestimmt, wobei die Bestimmung der objektbezogenen Qualitätsmaße basierend auf mittels dynamischer Modelle geschätzten Werten erfolgt. Anhand der Qualitätsmaße wird eine Fusion mittels der Daten verschiedener Sensormodalitäten bestimmter Existenzwahrscheinlichkeiten von Objekten durchgeführt.The invention relates to a method for a model-based fusion of different sensor modalities, wherein the existence of objects in a vehicle environment and object-related quality measures are determined based on data recorded using the different sensor modalities. According to the invention, sensor-dependent trust values for the existence of an object and a probability of continued existence in the vehicle environment are determined as object-related quality measures by means of a centralized fusion system, the object-related quality measures being determined based on values estimated using dynamic models. Based on the quality measures, a fusion is carried out using the data from different sensor modalities of certain existence probabilities of objects.
Description
Die Erfindung betrifft ein Verfahren zu einer modellbasierten Fusion verschiedener Sensormodalitäten gemäß dem Oberbegriff des Anspruchs 1.The invention relates to a method for a model-based fusion of different sensor modalities according to the preamble of
Aus der
Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zu einer modellbasierten Fusion verschiedener Sensormodalitäten anzugeben.The invention is based on the object of specifying a novel method for a model-based fusion of different sensor modalities.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die in Anspruch 1 angegebenen Merkmale aufweist.The object is achieved according to the invention by a method which has the features specified in
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the subclaims.
In einem Verfahren zu einer modellbasierten Fusion verschiedener Sensormodalitäten werden anhand von mittels der verschiedenen Sensormodalitäten erfassten Daten eine Existenz von Objekten in einer Fahrzeugumgebung und objektbezogene Qualitätsmaße bestimmt.In a method for a model-based fusion of different sensor modalities, the existence of objects in a vehicle environment and object-related quality measures are determined based on data recorded using the different sensor modalities.
Erfindungsgemäß werden als objektbezogene Qualitätsmaße sensorabhängige Vertrauenswerte für eine Existenz eines Objekts und eine Wahrscheinlichkeit eines Fortbestehens der Existenz in der Fahrzeugumgebung mittels eines zentralisierten Fusionssystems bestimmt. Die Bestimmung der objektbezogenen Qualitätsmaße erfolgt basierend auf mittels dynamischer Modelle geschätzten Werten, wobei anhand der Qualitätsmaße eine Fusion mittels der Daten verschiedener Sensormodalitäten bestimmter Existenzwahrscheinlichkeiten von Objekten durchgeführt wird.According to the invention, sensor-dependent trust values for the existence of an object and a probability of continued existence in the vehicle environment are determined as object-related quality measures using a centralized fusion system. The object-related quality measures are determined based on values estimated using dynamic models, with the quality measures being used to merge the data from different sensor modalities of certain existence probabilities of objects.
Das vorliegende Verfahren ermöglicht eine Bestimmung eines Qualitätsmaßes in einem zentralisierten Fusionssystem, welches verfolgte Objekte und nicht verfolgte Detektionen bzw. Merkmale von verschiedenen Sensormodalitäten berücksichtigt. Dabei ist es möglich, aufgrund der modellbasierten Bestimmung der Qualitätsmaße im Gegensatz zu aus dem Stand der Technik bekannten Lösungen, welche die Qualitätsmaße in Abhängigkeit von fest vorgegebenen und sensorabhängigen Parametern bestimmen, eine verbesserte Schätzung der Existenzwahrscheinlichkeit durchzuführen. Die ermittelte Existenzwahrscheinlichkeit kann bei der Fusion der Sensormodalitäten beispielsweise dazu verwendet werden, um wichtige Komponenten, beispielsweise ein Track-Management oder eine Daten-Assoziation, zu verbessern oder einen Betrieb von der Fusion nachgelagerten Modulen zu optimieren, beispielsweise eine Entscheidungsfindung eines Planungsmoduls zur Trajektorienplanung für ein automatisiert, insbesondere hochautomatisiert oder autonom betriebenes Fahrzeug zu optimieren. Somit ist es für das Planungsmodul oder ein diesem nachgelagertes Entscheidungsmodul einfacher, eine Relevanz eines fusionierten Objekts zu berechnen und entsprechende Eingriffe und Aktionen in den Fahrbetrieb des Fahrzeugs zu ermöglichen.The present method enables determination of a quality measure in a centralized fusion system that takes tracked objects and untracked detections or features of different sensor modalities into account. It is possible to carry out an improved estimate of the probability of existence due to the model-based determination of the quality measures, in contrast to solutions known from the prior art, which determine the quality measures depending on fixed and sensor-dependent parameters. The determined existence probability can be used when merging the sensor modalities, for example, to improve important components, for example track management or data association, or to optimize the operation of modules downstream of the fusion, for example decision-making by a planning module for trajectory planning to optimize an automated, especially highly automated or autonomously operated vehicle. This makes it easier for the planning module or a downstream decision-making module to calculate the relevance of a merged object and to enable corresponding interventions and actions in the driving operation of the vehicle.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Exemplary embodiments of the invention are explained in more detail below with reference to drawings.
Dabei zeigen:
-
1 schematisch eine Draufsicht eines Fahrzeugs mit Radarsensoren und Erfassungsbereichen dieser, -
2 schematisch eine Seitenansicht des Fahrzeugs gemäß1 sowie der Radarsensoren und deren Erfassungsbereiche, -
3 schematisch eine Frontansicht des Fahrzeugs gemäß1 sowie der Radarsensoren und deren Erfassungsbereiche, -
4 schematisch eine Draufsicht eines Fahrzeugs mit Kameras und Erfassungsbereichen dieser, -
5 schematisch eine Seitenansicht des Fahrzeugs gemäß4 sowie der Kameras und deren Erfassungsbereiche und -
6 schematisch eine Frontansicht des Fahrzeugs gemäß4 sowie der Kameras und deren Erfassungsbereiche.
-
1 schematically a top view of a vehicle with radar sensors and their detection areas, -
2 schematically a side view of the vehicle according to1 as well as the radar sensors and their detection areas, -
3 schematically a front view of thevehicle 1 as well as the radar sensors and their detection areas, -
4 schematically a top view of a vehicle with cameras and their detection areas, -
5 schematically a side view of the vehicle according to4 as well as the cameras and their detection areas and -
6 schematically a front view of thevehicle 4 as well as the cameras and their detection areas.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference numbers in all figures.
In den
Der Radarsensor 3 ist dabei nach vorn gerichtet und beispielsweise als so genannter Mid-Range-Radarsensor ausgebildet. Die weiteren Radarsensoren 2, 4 bis 6 sind an äußeren Ecken des Fahrzeugs 1 angeordnet und beispielsweise als so genannte Short-Range-Radarsensoren ausgebildet.The
Auch die Kamera 7 und die Kamera 8 sind nach vorn ausgerichtet, wobei die Kamera 7 beispielsweise eine Tele-Kamera ist. Die Kamera 8 ist beispielsweise eine Weitwinkel-Kamera. Die Kameras 9 bis 12 sind beispielsweise so genannte Surround-View-Kameras und die Kameras 13, 14 Seitenkameras, welche seitlich nach hinten gerichtet sind und somit eine Außenspiegelfunktion übernehmen können.The
Die Radarsensoren 2 bis 6 und die Kameras 7 bis 14 sind zu einer Erfassung einer Fahrzeugumgebung vorgesehen, wobei in Abhängigkeit von mittels der Radarsensoren 2 bis 6 und Kameras 7 bis 14 erfassten Daten Fahrzeugfunktionen, beispielsweise ein automatisierter, insbesondere ein hochautomatisierter oder autonomer Fahrbetrieb des Fahrzeugs 1 durchgeführt werden.The
Dabei werden anhand der Daten Objekte und nicht verfolgte Detektionen bzw. Merkmale in der Fahrzeugumgebung ermittelt. Zu einer verbesserten Detektion werden die mittels der Radarsensoren 2 bis 6 und Kameras 7 bis 14 und gegebenenfalls weiterer Sensormodalitäten, beispielsweise Lidarsensoren, erfassten Daten fusioniert.The data is used to identify objects and untracked detections or features in the vehicle environment. To improve detection, the data recorded using the
Diese Fusion wird dynamisch mittels eines zentralisierten Fusionssystems des Fahrzeugs 1 durchgeführt. Aufgabe dieser dynamischen Fusion ist es, Positionen, Ausdehnungen und Bewegungen der Objekte in der Fahrzeugumgebung, beispielsweise anderer Verkehrsteilnehmer, zu bestimmen. Durch die Fusion der verschiedenen Sensormodalitäten wird eine globale Hypothese erstellt, indem beispielsweise so genannte Bayessche-Tracking Verfahren, zum Beispiel ein Kalman-Filter oder PartikelFilter, verwendet werden.This fusion is carried out dynamically using a centralized fusion system of the
Zusätzlich zu bekannten Messungenauigkeiten können die Sensoren falsch-positive Messungen, das heißt Sensor-Messungen ohne dazugehöriges real existierendes Objekt, liefern. Andererseits können unterschiedliche Sensormodalitäten aufgrund ihrer unterschiedlichen Charakteristika falsch-negative Messungen, das heißt keine Messungen zu existierenden Objekten, liefern. Der Fall von falsch-positiven und falschnegativen Messungen wird von bekannten Tracking- und Filterverfahren jedoch meist nicht berücksichtigt, so dass die Fusion um zusätzliche Schätzer, wie beispielsweise in „Michael Aeberhard: Object-Level Fusion for Surround Environment Perception in Automated Driving Applications; Dissertation eingereicht bei teilweiser Erfüllung der Voraussetzungen für den Grad „Doktor Ingenieur“ an der Fakultät für Elektrotechnik und Informationstechnik der Technischen Universität Dortmund; Datum der Genehmigung: 31. Mai 2017" beschrieben, ergänzt werden.In addition to known measurement inaccuracies, the sensors can deliver false-positive measurements, i.e. sensor measurements without an associated real object. On the other hand, different sensor modalities can provide false-negative measurements, i.e. no measurements of existing objects, due to their different characteristics. However, the case of false-positive and false-negative measurements is usually not taken into account by known tracking and filtering methods, so that the fusion requires additional estimators, such as in “Michael Aeberhard: Object-Level Fusion for Surround Environment Perception in Automated Driving Applications; Dissertation submitted with partial fulfillment of the requirements for the degree of “Doctor Engineer” at the Faculty of Electrical Engineering and Information Technology at the Technical University of Dortmund; Date of approval: May 31, 2017".
Zur Fusion der Sensormodalitäten wird ein Verfahren zur Fusion von Existenzwahrscheinlichkeiten von mittels der Sensoren erfassten Objekten verwendet, wobei die Existenzwahrscheinlichkeit gemäß der folgenden Ausführungen ermittelt wird.To fuse the sensor modalities, a method for fusing existence probabilities of objects detected by the sensors is used, the existence probability being determined according to the following explanations.
Zunächst werden als Eingangssignale ein mittels des entsprechenden Sensors ermittelter Schätzer für den Objektzustand xk sowie eine eventuelle Existenzwahrscheinlichkeit pi(∃xk) verwendet.First, an estimator for the object state x k determined by the corresponding sensor and a possible existence probability p i (∃x k ) are used as input signals.
Anschließend wird die Existenzwahrscheinlichkeit eines fusionierten Objekts mit der so genannten Evidenztheorie von Dempster und Shafer ermittelt, indem folgende Massen zum Objektzustand hinzugefügt werden:
- - m_k ({∃}): Existenz-Belief-Masse
- - m_k ({∄}):Nicht-Existenz-Belief-Masse
- - m_k ({∃,∄}):nicht auflösbare Belief-Masse
- - m_k ({∃}): existence belief mass
- - m_k ({∄}):Non-existence belief mass
- - m_k ({∃,∄}): unresolvable belief mass
Anschließend werden von der jeweiligen Sensormodalität abhängige Belief Massen gemäß
pi(∃xk) = von der Sensormodalität abhängige Existenzwahrscheinlichkeit
p i (∃x k ) = probability of existence dependent on the sensor modality
Anschließend erfolgt eine Aktualisierung der fusionierten Massen gemäß Regeln der Evidenztheorie von Dempster und Shafer.The merged masses are then updated according to the rules of the evidence theory of Dempster and Shafer.
Die Existenzwahrscheinlichkeit wird dann gemäß
Bezogen auf das dargestellte Fahrzeug 1 mit den Radarsensoren 2 bis 6 und Kameras 7 bis 14 erfolgt in Abhängigkeit der jeweils ermittelten Existenzwahrscheinlichkeit ein so genanntes Reengineering der entsprechenden Sensoren basierend auf einer Objektposition in einer Sensordatenvorverarbeitung. Für die Radarsensoren 2 bis 6 erfolgt dies beispielsweise in der Art, dass dann, wenn sich das Objekt im Erfassungsbereich E3 des Radarsensors 3 befindet, das Objekt diesem Radarsensor 3 zugewiesen wird. Andernfalls wird das Objekt dem nächsten Radarsensor 2, 4 bis 6 zugewiesen. Für die Kameras 7 bis 14 wird ein ähnlicher Ansatz ausgeführt, wobei das Objekt priorisiert der Front-Telekamera (Kamera 7) zugeordnet wird.Based on the
Die zur Ermittlung der Existenzwahrscheinlichkeit verwendeten Sensor-Vertrauenswerte und Wahrscheinlichkeiten des Fortbestehens der Existenz des Objekts werden dabei mittels dynamischer Modelle berechnet, um die Fusion der Existenzwahrscheinlichkeiten zu beschreiben.The sensor trust values and probabilities of the continued existence of the object used to determine the existence probability are calculated using dynamic models to describe the fusion of the existence probabilities.
Der entsprechende Sensor-Vertrauenswert ist ein sensorabhängiger Vertrauenswert für eine Existenz eines Objekts, welcher im Folgenden nur noch als Vertrauenswert bezeichnet wird. Dieser Vertrauenswert ist nur abhängig vom gegenwärtigen Zustand des entsprechenden Fusions-Objekts und der Sensor-Messung und wird gemäß
Das heißt, der Vertrauenswert einer bestimmten Verfolgung oder Detektion hängt davon ab, ob ein betrachtetes Artefakt entweder ein verfolgtes Objekt oder ein verarbeitetes Merkmal oder eine Roherkennung von einem bestimmten Sensortyp ist. Der Vertrauenswert wird basierend auf Detektionsmodellen für dieses bestimmte Objekt, Beobachtungscharakteristika und Akzeptanzkriterien dieses Objekts in dem Fusionssystem abgeleitet. Das Modell kann dabei basierend auf der Art des Objekts weiter abgestimmt werden, indem auch semantische Informationen berücksichtigt werden.That is, the confidence value of a particular tracking or detection depends on whether an artifact under consideration is either a tracked object or a processed feature or a raw detection from a particular sensor type. The confidence value is derived based on detection models for that particular object, observation characteristics and acceptance criteria of that object in the fusion system. The model can be further tuned based on the type of object by also taking semantic information into account.
Die modellbasierte Bestimmung der Wahrscheinlichkeit des Fortbestehens der Existenz eines Objekts wird über mehrere Zeitschritte gemäß
Dabei werden situationsbezogene Modelle einbezogen, um sicherzustellen, dass Objekte, die für Sicherheitsaspekte des automatisierten Fahrens relevant sind, nicht beeinträchtigt werden.Situational models are included to ensure that objects that are relevant to the safety aspects of automated driving are not impaired.
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102023002044.3A DE102023002044B3 (en) | 2023-05-19 | 2023-05-19 | Method for a model-based fusion of different sensor modalities |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102023002044.3A DE102023002044B3 (en) | 2023-05-19 | 2023-05-19 | Method for a model-based fusion of different sensor modalities |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102023002044B3 true DE102023002044B3 (en) | 2023-12-21 |
Family
ID=88975221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102023002044.3A Active DE102023002044B3 (en) | 2023-05-19 | 2023-05-19 | Method for a model-based fusion of different sensor modalities |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102023002044B3 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008002576A1 (en) | 2008-06-23 | 2009-12-24 | Robert Bosch Gmbh | Method for validation of objects located in vehicle assistance system by sensor system, involves computing time of entrance of object into detection range of sensor system for recognizing objects on base stored data |
-
2023
- 2023-05-19 DE DE102023002044.3A patent/DE102023002044B3/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008002576A1 (en) | 2008-06-23 | 2009-12-24 | Robert Bosch Gmbh | Method for validation of objects located in vehicle assistance system by sensor system, involves computing time of entrance of object into detection range of sensor system for recognizing objects on base stored data |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102015111535B4 (en) | Algorithm for precise curvature estimation for the path planning of autonomous vehicles | |
DE102017207790B4 (en) | A method for merging high fusion data for a road model for exemplary use in multi-lane speed limit inferences, and an apparatus for performing the method | |
DE10133945A1 (en) | Method and device for exchanging and processing data | |
WO2020229002A1 (en) | Method and device for multi-sensor data fusion for automated and autonomous vehicles | |
EP3646184A1 (en) | Method, apparatus and computer-readable storage medium having instructions for cancelling a redundancy of two or more redundant modules | |
DE102019209736A1 (en) | Procedure for evaluating possible trajectories | |
DE102017117593A1 (en) | Vehicle driving assistance device | |
DE102020200169B3 (en) | Method for merging several data sets for the generation of a current lane model of a roadway and device for data processing | |
DE102019008093A1 (en) | Method for merging sensor data from a large number of detection devices using a sparse occupancy grid, as well as a driver assistance system | |
EP3610224B1 (en) | Method, device, and computer-readable storage medium with instructions for estimating the pose of a motor vehicle | |
WO2020048669A1 (en) | Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle | |
DE102018113559A1 (en) | A method of recognizing a lane mark by validating by line width; Control means; Pitch recognition system; as well as driver assistance system | |
DE102008021380B4 (en) | Method and device for predicting a course of a roadway and driver assistance system | |
DE102019132150A1 (en) | Method for automatically calibrating an environment sensor, in particular a lidar sensor, of a vehicle on the basis of occupancy cards and computing device | |
DE102017206344A1 (en) | Driver assistance system for a vehicle | |
DE102017213353A1 (en) | Verification of a planned trajectory of an automated motor vehicle | |
DE102023002044B3 (en) | Method for a model-based fusion of different sensor modalities | |
DE102017207441A1 (en) | Method for checking a digital environment map for a driver assistance system of a motor vehicle, computing device, driver assistance system and motor vehicle | |
DE102019126116A1 (en) | Device for informing about a lane and control method therefor | |
DE102020118628A1 (en) | Method and device for determining a position of a vehicle | |
DE102020214203A1 (en) | Method for determining a lane change intention of another motor vehicle located in the immediate vicinity of a motor vehicle, and assistance system | |
DE102019102922A1 (en) | Method and device for multi-sensor data fusion for automated and autonomous vehicles | |
DE102019004842A1 (en) | Method for operating an at least partially automated vehicle | |
DE102013013253A1 (en) | A method for warning the driver of a motor vehicle depending on a determined time to collision, camera system and motor vehicle | |
DE102019212279B3 (en) | Method and device for checking a calibration of environmental sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R018 | Grant decision by examination section/examining division |