DE102020210059A1 - Verfahren, Computer-implementiertes Werkzeug, Fahrzeug-Steuerungseinheit und Fahrzeug zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen - Google Patents

Verfahren, Computer-implementiertes Werkzeug, Fahrzeug-Steuerungseinheit und Fahrzeug zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen Download PDF

Info

Publication number
DE102020210059A1
DE102020210059A1 DE102020210059.4A DE102020210059A DE102020210059A1 DE 102020210059 A1 DE102020210059 A1 DE 102020210059A1 DE 102020210059 A DE102020210059 A DE 102020210059A DE 102020210059 A1 DE102020210059 A1 DE 102020210059A1
Authority
DE
Germany
Prior art keywords
sensor measurement
landmark
sensor
measurement data
smd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102020210059.4A
Other languages
English (en)
Inventor
wird später genannt werden Erfinder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Mobility GmbH
Original Assignee
Siemens Mobility GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Mobility GmbH filed Critical Siemens Mobility GmbH
Priority to DE102020210059.4A priority Critical patent/DE102020210059A1/de
Priority to PCT/EP2021/069758 priority patent/WO2022028848A1/de
Priority to EP21746412.2A priority patent/EP4154166A1/de
Priority to US18/017,972 priority patent/US20230264688A1/en
Publication of DE102020210059A1 publication Critical patent/DE102020210059A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Um Hindernisobjekte in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen zu verorten, ohne dabei die Hindernisobjekte in bekannter Weise weder genau lokalisieren noch eine hierfür benötigte Koordinatentransformation bemühen zu müssen, wird es vorgeschlagen, dass ein Hindernisobjekt (HO) in einem landmarkengekennzeichneten Fahrstreckenbereich (FSB) eines Fahrzeugs (FZ) dann durch (i) Assoziieren (DAZ) von Sensormessdaten (SMD1, SMD2), erfasst von mindestens einem Sensor (SS) einer Fahrzeug-Sensorik (FZS) und zu Sensormessobjekten (SMOLM, SMOHO) gehörend, durch die eine Landmarke (LM) und das Hindernisobjekt (HO) repräsentierbar sind, mit gespeicherten Landmarken-Referenzdaten (LM-RD) und (ii) Ermitteln einer sensorerfassungsspezifischen Verortungsdistanz (VOD) zwischen einem Sensormessobjekt (SMOHO) mit unassoziierten Sensormessdaten (SMD2) und einer Landmarke (LM) mit assoziierten Sensormessdaten (SMD1,az) auf Basis der assoziierten und unassoziierten Sensormessdaten (SMD1,az, SMD2), indem in diesen Sensormessdaten enthaltene sensorerfassungsspezifische Informationen (IFses) in Bezug auf die zu ermittelnde Verortungsdistanz (VOD) zueinander in Beziehung gesetzt werden, auf einer Fahrstrecke (FS) des Fahrstreckenbereichs (FSB), wo es ein Hindernis für das Fahrzeug (FZ) darstellt, verortet oder dessen Lage bestimmt ist (VO, VOIF), wenn zumindest auf der Basis der ermittelten sensorerfassungsspezifischen Verortungsdistanz (VOD) das Sensormessobjekt (SMOHO) mit den unassoziierten Sensormessdaten (SMD2) auf der Fahrstrecke (FS) zuordbar ist.

Description

  • Die Erfindung bezieht sich auf ein Verfahren zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen gemäß dem Oberbegriff des Patentanspruches 1, ein Computer-implementiertes Werkzeug zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen gemäß dem Oberbegriff des Patentanspruches 9, eine Fahrzeug-Steuerungseinheit zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen gemäß dem Oberbegriff des Patentanspruches 16 und ein Fahrzeug zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen gemäß dem Oberbegriff des Patentanspruches 17.
  • Beim Führen von Fahrzeugen als mobiles Verkehrsmittel zum Transport von Personen, Gütern, Werkzeugen oder Maschinen - unabhängig davon, ob das Führen assistiert, teilautomatisiert, hochautomatisiert, vollautomatisiert oder autonom passiert (man spricht dann insgesamt von „autonomen Fahren“), ist es eine grundlegende Funktion solcher autonomer Fahrzeuge, Kollisionen mit Hindernisobjekten zu vermeiden.
  • Derartige Fahrzeuge fahren zu Land (als Landfahrzeuge), zu Wasser (als Wasserfahrzeuge) und/oder in der Luft (als Luftfahrzeuge). Für die vorliegende Erfindung werden aber nur solche Fahrzeuge der vorstehend definierten Art betrachtet, die sich relativ zu landmarkengekennzeichneten Fahrstrecken bewegen oder bewegt werden.
  • Eine Landmarke ist ein meist weithin sichtbares topographisches Objekt zur räumlichen Orientierung und terrestrischen Navigation, die auf Karten gegebenenfalls durch besondere Kartenzeichen markiert wird. Sie ist also aufgrund der Hinterlegung in der Karte ein bestimmtes Merkmal oder topologisches Objekt in der Welt, welches von einem Fahrzeug erkannt werden kann, sodass eine Assoziation zwischen sensorieller Erkennung und Karte hergestellt werden kann. Die Landmarke kann ein normal vorkommendes Objekt sein, wie z.B. ein Laternenpfahl, es kann ein speziell platziertes Objekt sein, wie z.B. Reflektormarken und/oder „QR <Quick Response>“-Codes, oder aber es kann auch ein sich aus der Erkennung ergebendes wiedererkennbares Muster sein, wie z.B. „Scale Invariant Feature Transform <SIFT>“-features, vgl.
    https://en.wikipedia.org/wiki/Scaleinvariant feature transform.
  • Für die Kollisionsvermeidung ist eine sensorische Erfassung eines Hindernisobjekts notwendig und es müssen dabei das erfasste Hindernisobjekt einem kritischen Bereich zugeordnet werden. Der kritische Bereich umfasst üblicherweise eine Fahrspur oder eine Fahrstrecke des Fahrzeugs selbst und eventuell ein die Fahrspur oder die Fahrstrecke umgebender Bereich. Der kritische Bereich ergibt sich aus einer Kombination aus Kartenmaterial, Ego-Lokalisierung oder Selbstlokalisierung und geplanter Fahrstrecke oder Route. Um diesem allen Rechnung zu tragen wird im Zuge der vorliegenden Erfindung auch von einem Fahrspur- oder Fahrstreckenbereich in Bezug auf die Kollisionsvermeidung und der sensorischen Erfassung der Hindernisobjekte gesprochen.
  • Die Zuordnung oder Lokalisierung des Hindernisobjekts zu einem kritischen Bereich wird allerdings durch verschiedene Einflussfaktoren gestört. Diese sind beispielsweise:
    • - Fehlerhafte extrinsische Sensorkalibrierung,
    • - fehlerhafte Ego-Lokalisierung (Selbstlokalisierung),
    • - fehlerhaftes Kartenmaterial,
    • - Pendeln im Gleis bei Schienenfahrzeugen,
    • - geringe horizontale und vertikale Winkelauflösung der Sensoren, was insbesondere bei großen Reichweiten relevant ist.
  • Dieses Problem wird bei großen Entfernungen immer gravierender, da bereits kleine Fehler, insbesondere Winkelfehler, in den oben genannten Punkten zu großen Abweichungen in den geschätzten Positionen des Hindernisobjekts führen können. Dies ist insbesondere relevant bei Fahrzeugen, die sich mit hoher Geschwindigkeit bewegen.
  • Bisher wurde das Problem hauptsächlich durch eine Minimierung der vorstehend genannten Einflussfaktoren bei der Zuordnung oder Lokalisierung des Hindernisobjekts zum kritischen Bereich adressiert.
  • Darüber hinaus ist eine probabilistische Fusion von Daten mehrerer Sensoren ein Weg zur Reduzierung von Positionsungenauigkeiten. Dadurch lassen sich Nachteile mancher Sensoren durch Vorteile anderer Sensoren ausgleichen.
  • Die Zuordnung oder Lokalisierung eines Hindernisobjekts zu einem kritischen Bereich erfolgt üblicherweise und bekanntermaßen in drei Schritten:
    1. 1. Das Fahrzeug lokalisiert sich selbst. Dabei können verschiedene Informationen eingesetzt werden, z.B. GPS-Informationen „Global Positioning System <GPS>“, Sensorinformationen (z.B. Radar <Radio Detection and Ranging>, Lidar <Light Detection and Ranging>, Kamera) und/oder auch Landmarkeninformationen aus dem Kartenmaterial.
    2. 2. Umrechnung von sensoriell erkannten Hindernisobjekten in globale Koordinaten unter der Verwendung der Koordinatentransformation von Fahrzeug zu globalen Koordinaten, die sich aus der Lokalisierung ergeben.
    3. 3. Zuordnung von den erkannten Hindernisobjekten zum kritischen Bereich.
  • Bei dieser gemäß dem Stand der Technik, z.B. NVIDIA-Drive (vgl. https://developer.nvidia.com/drive/drive-perception) bekannten Hindernisobjektlokalisierung, wo ein Neuronales Netz, z.B. DriveNet; Deconvolutional Neural Network (DNN), für die Hindernisobjekterkennung zum Einsatz kommt und ein davon unabhängiges Neuronales Netz für die Fahrspur- und Landmarkenerkennung, z.B. MapNet; Deconvolutional Neural Network (DNN), werden die Landmarken im Schritt 2 zur Lokalisierung verwendet
  • Die der Erfindung zugrundeliegende Aufgabe besteht darin, ein Verfahren, ein Computer-implementiertes Werkzeug, eine Fahrzeug-Steuerungseinheit und ein Fahrzeug zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen anzugeben, ohne dabei die Hindernisobjekte in bekannter Weise weder genau lokalisieren noch eine hierfür benötigte Koordinatentransformation bemühen zu müssen.
  • Die vorstehend bezeichnete Aufgabe wird ausgehend von dem im Oberbegriff des Patentanspruches 1 definierten Verfahren durch die im Kennzeichen des Patentanspruches 1 angegebenen Merkmale gelöst.
  • Darüber hinaus wird diese Aufgabe ausgehend von dem im Oberbegriff des Patentanspruches 6 definierten Computer-implementierten Werkzeug durch die im Kennzeichen des Patentanspruches 9 angegebenen Merkmale gelöst.
  • Weiterhin wird diese Aufgabe ausgehend von der im Oberbegriff des Patentanspruches 16 definierten Fahrzeug-Steuerungseinheit durch die im Kennzeichen des Patentanspruches 16 angegebenen Merkmale gelöst.
  • Außerdem wird diese Aufgabe betreffen eines Fahrzeugs durch die im Patentanspruch 17 angegebenen Merkmale gelöst.
  • Die der Erfindung zugrundeliegende Idee gemäß der in den Ansprüchen 1, 9, 16 und 17 jeweils angegebenen technischen Lehre besteht darin, dass zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen ein Hindernisobjekt in einem landmarkengekennzeichneten Fahrstreckenbereich eines Fahrzeugs dann durch (i) Assoziieren von Sensormessdaten, erfasst von Sensoren einer Fahrzeug-Sensorik und zu Sensormessobjekten gehörend, durch die eine Landmarke und das Hindernisobjekt repräsentierbar sind, mit gespeicherten, insbesondere in Form als Kartenmaterial hinterlegten, Landmarken-Referenzdaten und (ii) Ermitteln einer sensorerfassungsspezifischen Verortungsdistanz zwischen einem Sensormessobjekt mit unassoziierten Sensormessdaten und einer Landmarke mit assoziierten Sensormessdaten auf Basis der assoziierten und unassoziierten Sensormessdaten, indem in den diesen Sensormessdaten enthaltene sensorerfassungsspezifische Informationen in Bezug auf die zu ermittelnden Verortungsdistanzen zueinander in Beziehung gesetzt werden, auf einer Fahrstrecke des Fahrstreckenbereichs, wo es ein Hindernis für das Fahrzeug darstellt, verortet oder dessen Lage bestimmt ist, wenn entweder auf der Basis der ermittelten sensorerfassungsspezifischen Verortungsdistanz oder auf der Basis der ermittelten sensorerfassungsspezifischen Verortungsdistanz sowie unter Hinzuziehung der Landmarken-Referenzdaten und/oder von gespeicherten, insbesondere in Form als Kartenmaterial hinterlegten, Referenzobjektdaten, die mindestens ein zu der mindestens einen Landmarke zusätzliches Referenzobjekt des Fahrzeug-Fahrstreckenbereichs mit einem definierten, konstantem Abstand zum Fahrzeug-Fahrstreckenbereich repräsentieren, das Sensormessobjekt mit den unassoziierten Sensormessdaten der Fahrstrecke zuordbar ist. Anderenfalls, wenn das mindestens eine unzuordbare Sensormessobjekt nicht der Fahrstrecke zuordbar ist, wird das mindestens eine Hindernisobjekt jenseits, also außerhalb, der Fahrstrecke in dem Fahrstreckenbereich verortet, wo es kein Hindernis für ein Fahrzeug darstellt.
  • Wichtig zu betonen ist dabei, dass bei der erfindungsgemäßen Lehre nicht die Lokalisierung des Fahrzeugs in Bezug auf den Fahrstreckenbereich mit Hilfe von Landmarken bestimmt werden soll, sondern die Lage eines potenziell gefährlichen Hindernisobjektes mit Hilfe der Sensoren der Fahrzeug-Sensorik unter zu Hilfenahme von Landmarkeninformationen bestimmt wird, indem Relationen zwischen bekannten Landmarken und detektierten Hindernisobjekten in Bezug auf die Fahrstrecke des Fahrzeugs in dem Fahrstreckenbereich als kritischen Bereich hergestellt.
  • Der wichtige Unterschied der vorliegenden Erfindung zum in der Beschreibungseinleitung angegebenen Stand der Technik ist die gleichzeitige Betrachtung von Landmarken und Hindernissen in den Schritten 2 und 3, d.h. die Landmarken werden nicht nur zur Lokalisierung verwendet, sondern auch danach zur Zuordnung zum kritischen Bereich. Diese Schritt-Zuordnung ist im angegebenen Stand der Technik nicht zu erkennen, dort liegt eine strikte Trennung vor.
  • Ein weiterer wichtiger Unterschied zum Stand der Technik ist, dass mit der erfindungsgemäßen Lehre nicht primär das Ziel verfolgt wird, das dem Fahrstreckenbereich unzuordbare Hindernisobjekt sehr genau und absolut zum Fahrzeug zu lokalisieren, sondern darum, die Gefahr zu bewerten, ob dieses Hindernisobjekt aufgrund seiner Lage in einem kritischen Bereich, wie der Fahrstrecke, ein potenzielles Hindernis für das Fahrzeug darstellt oder nicht.
  • Bei der erfindungsgemäßen Lehre wird durch den verbesserten und engeren Zusammenhang zwischen Karte, Fahrzeug, Hindernisobjekten und kritischen Bereichen wird eine erhöhte Robustheit bezüglich der Hindernisobjektlokalisierung und Zuordnung zu kritischen Bereichen erreicht. Dadurch wird auch die Anzahl an falschpositiven Erkennungen reduziert, was wiederum die Gesamtsystemzuverlässigkeit steigert.
  • Aufgrund des Ausnutzens von bekannten Landmarken und potenziell auch Landmarkenformationen können Hindernisobjekte Bereichen zugeordnet werden, ohne dass man sie einzeln genau lokalisieren muss. Die Landmarken dienen als Anker, die die Unsicherheit im Objektdetektions- und Lokalisierungsproblem stark reduzieren können.
  • Die erfindungsgemäße Lehre ist dabei vielfältig einsetzbar, so z.B. in Anwendungsfällen rund um autonome Fahrzeuge. Aber auch bei intelligenter Verkehrstechnik und „Automated Guided Vehicles <AGV's>“ besteht Anwendungspotential.
  • Weitere Vorteile der Erfindung ergeben sich aus den Unteransprüchen sowie der nachfolgenden Beschreibung eines Ausführungsbeispiels der Erfindung anhand der 1 bis 4 erläutert. Diese zeigen:
    • 1 ein Fahrzeug-Szenario zum Verorten von Hindernisobjekten in einem landmarkengekennzeichneten Fahrstreckenbereich,
    • 2 ein modifiziertes Fahrzeug-Szenario zur Hindernisobjektverortung in einem durch Landmarken gekennzeichneten Fahrstreckenbereich mit einem sich vertikal zu einer Fahrstrecke des Fahrstreckenbereichs erstreckenden Hindernisobjekt,
    • 3 ein modifiziertes Fahrzeug-Szenario zur Hindernisobjektverortung in einem durch Landmarken gekennzeichneten Fahrstreckenbereich mit einer Fahrstrecke, bei dem die Landmarken in einer Gruppierung oder Formation angeordnet sind,
    • 4 ein weiteres Fahrzeug-Szenario zur Hindernisobjektverortung auf der Basis des Szenarios nach der 3 mit einer Erfassung von Landmarken im Fahrstreckenbereich zu verschiedenen Verortungszeitpunkten.
  • 1 zeigt ein Fahrzeug-Szenario zum Verorten von Hindernisobjekten HO in einem landmarkengekennzeichneten Fahrstreckenbereich FSB. Der Fahrstreckenbereich FSB umfasst im dargestellten Fall eine Fahrstrecke FS für ein Fahrzeug FZ, das als Landfahrzeug und diesbezüglich z.B. ausgebildet als Personenkraftwagen <Pkw> auf einer Fahrzeugspur FZSP einer Straße STR in Richtung eines am Fahrzeug FZ eingezeichneten Pfeils unterwegs ist.
  • Zu dem Fahrstreckenbereich FSB zählen darüber hinaus (a) mindestens eine entlang der Fahrstrecke FS angeordnete Landmarke LM mit der vorstehend in der Beschreibungseinleitung gegebenen Definition, die zudem dazu geeignet sind modellierte, situative Zusammenhänge in dem Fahrstreckenbereich auszunutzen, (b) mindestens ein zu der mindestens einen Landmarke LM zusätzliches, Referenzobjekt RO mit einem definierten, konstantem Abstand zu der Fahrstrecke FS des Fahrzeug-Fahrstreckenbereichs FSB, das z.B. eine Lärmschutzwand LSW (2-dimensionales Merkmal des Fahrstreckenbereichs) an der Straße STR sein kann, und (c) mindestens ein entlang der Fahrstrecke FS und/oder auf der Fahrstrecke FS angeordnetes Hindernisobjekt HO, das eine Gefahr für das Fahrzeug FZ darstellt, sollte es sich auf der Fahrstrecke FS befinden.
  • Weitere Referenzobjekte können dabei bereits bestehende Merkmale in der Umgebung des Fahrstreckenbereichs FSB sein oder auch gezielt platzierte Merkmale. Beispielhaft können genannt werden:
    • - Laternen (1-dimensionale Merkmale)
    • - Zäune (2-dimensionale Merkmale)
    • - Gebäude, Brücken (3-dimensionale Merkmale)
    • - Spezielle, unter Umständen sensorspezifische Marker, wie z.B. Reflektoren für Lidar und Radar, bestimmte Muster für Kameras.
    • - Aus der Algorithmik automatisch anfallende Merkmale, z.B. SIFT-features.
  • Zum Verorten der Hindernisobjekte HO in dem Fahrstreckenbereich FSB mit der mindestens einen Landmarke LM und dem mindestens einen Referenzobjekt RO enthält das Fahrzeug FZ eine Fahrzeug-Sensorik FZS mit mindestens einem Sensor SS und eine Fahrzeug-Steuerungseinheit FZSE, die zur Sensorsteuerung und Sensordatenübertragung miteinander verbunden sind.
  • Gemäß der Darstellung in der 1 enthält die Fahrzeug-Sensorik FZS im Hinblick auf die nachfolgend noch näher erläuterten, erfindungsgemäßen Hindernisobjektverortung zur Erhöhung der Robustheit und zur Verringerung der Unsicherheit bei der Hindernisobjektverortung zwei Sensoren SS unterschiedlicher Modalität. So sind in der Fahrzeug-Sensorik FZS ein Sensor SS, der auf einem Kartesischen Koordinatensystem SSKKS, einem Sphärischen Koordinatensystem SSSKS oder einem Zylindrischen Koordinatensystem SSZKS basiert, und ein weiterer Sensor SS, der auf einem Bildgebungsprinzip SSBGP basiert, enthalten.
  • Als Sensor SS, der auf dem Kartesischen Koordinatensystem SSKKS, dem Sphärischen Koordinatensystem SSSKS oder dem Zylindrischen Koordinatensystem SSZKS basiert, wird vorzugsweise ein auf einem „Radio Detection and Ranging <Radar>“-Prinzip beruhender Radarsensor oder ein auf einem „Light Detection and Ranging <Lidar>“-Prinzip beruhender Lidarsensor benutzt, während als Sensor SS, der auf einem Bildgebungsprinzip SSBGP basiert, vorzugsweise ein Kamerasensor benutzt wird.
  • Die Erhöhung der Robustheit und die Verringerung der Unsicherheit bei der Hindernisobjektverortung kann alternativ auch dadurch erreicht werden, dass zwei Sensoren SS gleicher Modalität aber unterschiedliche Blickwinkel haben.
  • Die Fahrzeug-Steuerungseinheit FZSE in dem Fahrzeug FZ enthält - gemäß einer in der 1 dargestellten Option „A“ - für die Hindernisobjektverortung eine Speichereinrichtung SPE zur Speicherung von (i) Landmarken-Referenzdaten LM-RD, die die mindestens eine Landmarke LM repräsentieren und die in der Speichereinrichtung SPE beispielsweise als Kartenmaterial KM hinterlegt sind, und (ii) Referenzobjektdaten ROD, die das mindestens eine Referenzobjekt RO repräsentieren und die in der Speichereinrichtung SPE auch wieder beispielsweise als Kartenmaterial KM hinterlegt sind, und eine Steuereinrichtung STE, die mit der Speichereinrichtung SPE verbunden ist.
  • In diese Steuereinrichtung STE ist jetzt für die Durchführung der Hindernisobjektverortung in der Fahrzeug-Steuerungseinheit FZSE ein Computer-implementiertes Werkzeug CIW hochladbar, das vorzugsweise als Computer-Programm-Produkt ausgebildet ist und als Applikationssoftware <APP> bezeichnet wird. Das Computer-implementierte Werkzeug CIW weist für die Hindernisobjektverortung mit dem Hochladen in die Steuereinrichtung STE einen nicht-flüchtigen, lesbaren Speicher SP, in dem prozessorlesbare Steuerprogrammbefehle eines Programm-Moduls PGM zum Verorten von Hindernisobjekten gespeichert sind, und einen mit dem Speicher SP verbundenen Prozessor PZ, der die Steuerprogrammbefehle des Programm-Moduls PGM zur Hindernisobjektverortung ausführt, auf.
  • Alternativ zu der Ausprägung der Fahrzeug-Steuerungseinheit FZSE in dem Fahrzeug FZ - gemäß der in der 1 dargestellten Option „A“ ist es - gemäß einer in der 1 dargestellten Option „B“ - auch möglich, dass für die Hindernisobjektverortung in der Fahrzeug-Steuerungseinheit FZSE die Speichereinrichtung SPE, in der die Landmarken-Referenzdaten LM-RD und die Referenzobjektdaten ROD gespeichert sind, nicht in der Fahrzeug-Steuerungseinheit FZSE enthalten ist, sondern sich außerhalb der Fahrzeug-Steuerungseinheit FZSE befindet und z.B. als Cloud-Speicher realisiert ist (gestrichelte Darstellung der Speichereinrichtung SPE in der 1). In der Fahrzeug-Steuerungseinheit FZSE gemäß der Option „B“ ist somit lediglich die Steuereinrichtung STE enthalten, die in diesem Zustand der externen Speichereinrichtung SPE jedoch für Datenzugriffe zugeordnet ist. Diese Zuordnung ist in der 1 durch den gestrichelten Doppelpfeil von der der Speichereinrichtung SPE zu der Steuereinrichtung STE mit dem auch jetzt hochgeladenen Computer-implementierten Werkzeug CIW für die Durchführung der Hindernisobjektverortung in der Fahrzeug-Steuerungseinheit FZSE dargestellt.
  • Bevor jetzt im Weiteren die Durchführung der Hindernisobjektverortung in dem Fahrzeug FZ mit der Fahrzeug-Sensorik FZS und der Fahrzeug-Steuerungseinheit FZSE und im Speziellen sowohl in der Fahrzeug-Steuerungseinheit FZSE als auch mit dem hochgeladenen Computer-implementierten Werkzeug CIW im Detail erläutert wird, soll an dieser Stelle mit Verweis auf die vorstehenden Ausführungen in der Beschreibungseinleitung angemerkt werden, dass das Fahrzeug FZ jedwedes Fahrzeug zu Land, Wasser und Luft sein kann, sofern der Fahrzeugbereich FZB gekennzeichnet ist durch eine Fahrstrecke für das betreffende Fahrzeug, durch Landmarken und gegebenenfalls durch zusätzliche Referenzobjekte sowie durch Hindernisobjekte, die eine Gefahr für das Fahrzeug, das sich auf der Fahrstrecke bewegt, sein können.
  • Als weiteres Beispiel für ein solches Fahrzeug sei ein Schienenfahrzeug, z.B. Zug mit Triebwagen, genannt. Bei diesem Beispiel ist der Fahrzeugbereich ein Schienenfahrzeugbereich, der durch eine Gleisstrecke für das Schienenfahrzeug, ebenfalls durch Landmarken der eingangs definierten Art, durch Referenzobjekte, wie z.B. Oberleitungsmasten, sowie wieder durch Hindernisobjekte gekennzeichnet ist.
  • Weitere Referenzobjekte können auch hier wieder bereits bestehende Merkmale in der Umgebung des Schienenstreckenbereichs sein oder auch gezielt platzierte Merkmale. Beispielhaft können genannt werden:
    • - Signalgebende Anlagen (1-dimensionale Merkmale)
    • - Zäune, Lärmschutzwände (2-dimensionale Merkmale)
    • - Gebäude, Brücken, Prellböcke (3-dimensionale Merkmale)
    • - Spezielle, unter Umständen sensorspezifische Marker, wie z.B. Reflektoren für Lidar und Radar, bestimmte Muster für Kameras.
    • - Aus der Algorithmik automatisch anfallende Merkmale, z.B. SIFT-features.
  • Die Durchführung der Hindernisobjektverortung in dem Fahrzeug FZ mit der Fahrzeug-Sensorik FZS und der Fahrzeug-Steuerungseinheit FZSE beginnt damit, dass in dem Fahrzeug FZ der mindestens eine Sensor SS der Fahrzeug-Sensorik FZS von dem Fahrstreckenbereich FSB mit der mindestens einen Landmarke LM und dem mindestens einem Hindernisobjekt HO Primär-Sensormessdaten SMD1 und Sekundär-Sensormessdaten SMD2 erfasst. Die Primär-Sensormessdaten SMD1 gehören dabei zu mindestens einem Sensormessobjekt SMOLM, durch das jeweils eine der mindestens einen Landmarke LM repräsentiert sein könnte, während die Sekundär-Sensormessdaten SMD2 dabei zu mindestens einem Sensormessobjekt SMOHO gehören, durch das jeweils eines des mindestens einen Hindernisobjekt HO repräsentiert sein könnte.
  • Diese Erfassung ist sensorbedingt und unabhängig davon, ob sich das Fahrzeug FZ bewegt oder steht, entfernungsabhängig. Das heißt für das in der 1 dargestellte Szenario, dass die Erfassung der Primär-Sensormessdaten SMD1 und Sekundär-Sensormessdaten SMD2 dynamisch ist und dabei in mehreren Zeitschritten und zu verschiedenen Verortungszeitpunkten jeweils zumindest teilweise voneinander abweichende Primär-Sensormessdaten SMD1 und Sekundär-Sensormessdaten SMD2 erfasst werden. Dieser Sachverhalt wird in der 1 dadurch andeutungsweise zum Ausdruck gebracht, dass die Erfassung der jeweiligen Sensormessdaten einerseits mit durchgezogenen Verbindungslinien zwischen den Sensormessobjekten und der Fahrzeug-Sensorik und andererseits mit gestrichelten Verbindungslinien zwischen den Sensormessobjekten und der Fahrzeug-Sensorik dargestellt wird.
  • Anschließend, nach dem Beginn der Durchführung der Hindernisobjektverortung, greift der die Steuerprogrammbefehle des Programm-Moduls PGM zur Hindernisobjektverortung ausführende Prozessor PZ des Computer-implementierten Werkzeugs CIW, wenn dieses in die Steuereinrichtung STE hochgeladen worden ist, also in die Steuereinrichtung STE implementiert ist, auf die von dem mindestens einen Sensor SS der Fahrzeug-Sensorik FZS erfassten Primär-Sensormessdaten SMD1 und Sekundär-Sensormessdaten SMD2 zu, indem diese Daten z.B. eingelesen oder von der Fahrzeug-Sensorik FZS hochgeladen werden.
  • Das Gleiche passiert mit den in der Speichereinrichtung SPE gespeicherten, z.B. als das Kartenmaterial KM hinterlegten, Landmarken-Referenzdaten LM-RD, auf die der Prozessor PZ zugreift, indem diese Daten z.B. gemäß der Option „A“ aus der Speichereinrichtung SPE eingelesen oder gemäß der Option „B“ von der Speichereinrichtung SPE hochgeladen werden.
  • In Bezug das Kartenmaterial KM ist es außerdem möglich, dass man das Kartenmaterial KM, das die Landmarken-Referenzdaten LM-RD enthält, vorab und auch im laufenden Betrieb evaluieren und verifizieren kann, d.h. man kann Landmarken, Bereiche und Landmarkenmuster, die häufig zu Fehlassoziationen führen, als unsichere Information deklarieren oder künstliche Maßnahmen in der Umgebung des Fahrstreckenbereichs FSB vornehmen, wie z.B. die Montage von zusätzlichen Markern. Dies erfolgt durch einen menschlichen Beobachter oder alternativ durch eine automatisierte Bewertung der Beobachtungshäufigkeit in Verbindung mit einer parametrierbaren Schwelle.
  • Aber auch dann, wenn sich weder das Computer-implementierten Werkzeug CIW in der Steuereinrichtung STE befindet (z.B. durch Hochladen) noch die Steuereinrichtung STE der Fahrzeug-Steuerungseinheit FZSE, in die das Computer-implementierte Werkzeug CIW hochgeladen worden ist, in dem Fahrzeug FZ implementiert ist, lässt sich die Hindernisobjektverortung durchführen. In diesen Fällen werden die vorstehend genannten Daten SMD1, SMD2, LM-RD in den Prozessor PZ eingegeben.
  • Befinden sich die vorstehend genannten Daten SMD1, SMD2, LM-RD nun, unabhängig davon, wo sich das Computer-implementierte Werkzeug CIW und im weiteren sich die Fahrzeug-Steuerungseinheit FZSE befinden, in dem Prozessor PZ, so sind der Prozessor PZ und das Programm-Modul PGM zur Hindernisobjektverortung derart ausgebildet sind, dass folgende Schritte zur Durchführung der Hindernisobjektverortung ausgeführt werden:
    1. 1. Die Primär-Sensormessdaten SMD1 und Sekundär-Sensormessdaten SMD2 werden mit den die mindestens eine Landmarke LM repräsentierenden Landmarken-Referenzdaten LM-RD zur Landmarkenzuordnung assoziiert DAZ. Das Ergebnis dieser Assoziierung ist folgendes:
      1. a. Die Datenassoziation DAZ zwischen den Primär-Sensormessdaten SMD1 und den Landmarken-Referenzdaten LM-RD tritt ein und infolge davon ist durch assoziierte Primär-Sensormessdaten SMD1,az eine Landmarkenzuordnung für das mindestens eine Sensormessobjekt SMOLM möglich, womit die jeweilige Landmarke LM durch die assoziierten Primär-Sensormessdaten SMD1,az repräsentiert ist.
      2. b. Die Datenassoziation DAZ zwischen den Sekundär-Sensormessdaten SMD2 und den Landmarken-Referenzdaten LM-RD bleibt aus und infolge davon ist eine Landmarkenzuordnung für das mindestens eine Sensormessobjekt SMOHO unmöglich.
  • Der Prozessor PZ und das Programm-Modul PGM sind dabei zur Hindernisobjektverortung vorzugsweise derart ausgebildet, dass die Datenassoziation DAZ zur Landmarkenzuordnung mit Hilfe von probabilistischen Faktorgraph-Methoden oder Zuordnungs-/Optimierungsmethoden durchgeführt wird.
  • Die probabilistischen Faktorgraph-Methoden basieren dabei vorzugsweise auf die Implementierung von Softwarebibliotheken, wie z.B. „Georgia Tech Smoothing and Mapping <GTSAM>“ oder „<g2o> as a General Framework for Graph Optimization“, wohingegen die Zuordnungs-/Optimierungsmethoden auf Methoden, wie z.B. „Global Nearest Neighbor <GNN>“, Munkres-Algorithmen, „Joint Probalistic Data Association <JPDA>“ oder „Multi-Hypothesis-Tracking <MHT>“ basieren.
  • Bei der probabilistischen Faktorgraph-Methoden erfolgt die Zuordnung nicht nur in einem Schritt, sondern wird über mehrere Zeitschritte gefiltert. Der Prozessor PZ und das Programm-Modul PGM sind hierzu entsprechend ausgebildet. Dadurch wird vermieden, dass Fehlassoziationen zu großen Fehlern führen.
  • Bei den Zuordnungs-/Optimierungsmethoden handelt es sich um alternative Methoden zur Datenassoziation, bei denen aber mit einer schlechteren Performanz zu rechnen ist.
  • Bei den genannten Methoden zur Datenassoziation werden manchen der Sensormessobjekte Landmarken zugeordnet, manchen werden dynamische Sensormessobjekte aus vorherigen Zeitschritten zugeordnet und manche können nicht zugeordnet werden. Diese nicht zugeordneten Sensormessobjekte sind für die folgenden Schritte relevant.
    • 2. Es werden sensorerfassungsspezifische Verortungsdistanzen VOD zwischen dem mindestens einen unzuordbaren Sensormessobjekt SMOHO und der mindestens einen durch die jeweiligen assoziierten Primär-Sensormessdaten SMD1,az repräsentierte Landmarke LM auf Basis der assoziierten Primär-Sensormessdaten SMD1,az und der Sekundär-Sensormessdaten SMD2 ermittelt, indem in den assoziierten Primär-Sensormessdaten SMD1,az und in den Sekundär-Sensormessdaten SMD2 enthaltene sensorerfassungsspezifische Informationen IFses in Bezug auf die zu ermittelnden Verortungsdistanzen VOD zueinander in Beziehung gesetzt werden.
  • Das Zueinander-in-Beziehung-Setzen der sensorerfassungsspezifischen Informationen IFses in Bezug auf die zu ermittelnden Verortungsdistanzen VOD, um die Verortungsdistanzen VOD sensorerfassungsspezifisch zu ermitteln, erfolgt in Abhängigkeit von die Art der Messdatenerfassung des mindestens einen Sensors SS der Fahrzeug-Sensorik FZS.
  • Basiert der mindestens eine Sensor SS auf dem Kartesischen Koordinatensystem SSKKS, dem Sphärischen Koordinatensystem SSSKS oder dem Zylindrischen Koordinatensystem SSZKS und wird deshalb z.B. der auf dem „Radio Detection and Ranging <Radar>“-Prinzip beruhende Radarsensor oder der auf dem „Light Detection and Ranging <Lidar>“-Prinzip beruhende Lidarsensor benutzt, so werden kartesische Koordinateninformationen KIFkar, sphärische Koordinateninformationen KIFsph oder zylindrische Koordinateninformationen KIFzyl in den assoziierten Primär-Sensormessdaten SMD1,az und in den Sekundär-Sensormessdaten SMD2 in Bezug auf die zu ermittelnden Verortungsdistanzen VOD durch Winkeldifferenzbestimmung oder Bestimmung einer euklidischen Distanz zueinander in Beziehung gesetzt, um die Verortungsdistanzen VOD zwischen dem mindestens einen unzuordbaren Sensormessobjekt SMOHO und der mindestens einen durch die jeweiligen assoziierten Primär-Sensormessdaten SMD1,az repräsentierte Landmarke LM zu ermitteln.
  • Basiert der mindestens eine Sensor SS hingegen auf dem Bildgebungsprinzip SSBGP und wird deshalb z.B. der Kamerasensor benutzt, so werden Pixelinformationen PIF in den assoziierten Primär-Sensormessdaten SMD1,az und in den Sekundär-Sensormessdaten SMD2 in Bezug auf die zu ermittelnden Verortungsdistanzen VOD durch Pixelabstandbestimmung zueinander in Beziehung gesetzt, um die Verortungsdistanzen VOD zwischen dem mindestens einen unzuordbaren Sensormessobjekt SMOHO und der mindestens einen durch die jeweiligen assoziierten Primär-Sensormessdaten SMD1,az repräsentierte Landmarke LM zu ermitteln.
    • 3. Das mindestens eine Hindernisobjekt HO wird auf der Fahrstrecke FS in dem Fahrstreckenbereich FSB, wo es ein Hindernis für das Fahrzeug FZ darstellt, verortet VO und es wird vorzugsweise eine Verortungsinformation VOIF generiert oder erzeugt, wenn entweder auf der Basis der ermittelten sensorerfassungsspezifischen Verortungsdistanzen VOD oder auf der Basis der ermittelten sensorerfassungsspezifischen Verortungsdistanzen VOD sowie unter Hinzuziehung der Landmarken-Referenzdaten LM-RD und/oder der Referenzobjektdaten ROD das mindestens eine unzuordbare Sensormessobjekt SMOHO der Fahrstrecke FS zuordbar ist. Anderenfalls, wenn das mindestens eine unzuordbare Sensormessobjekt SMOHO zwar nicht der Fahrstrecke FS, aber dem Fahrstreckenbereich FSB zuordbar ist, stellt es kein Hindernis für das Fahrzeug FZ dar. Es wird aber dennoch verortet, und zwar außerhalb der der Fahrstrecke des Fahrzeugs FZ in dem Fahrstreckenbereich FSB. Beide Fälle sind in der 1 exemplarisch gezeigt.
  • Die generierte Verortungsinformation VOIF kann z.B. dazu benutzt werden, um in dem Fahrzeug FZ als Reaktion auf das verortete Hindernisobjekt Steuerungsmaßnahmen, wie z.B. eine Reduzierung der Geschwindigkeit und gegebenenfalls Abbremsen des Fahrzeugs, automatisch einzuleiten oder z.B. den Fahrzeugführer mit einem Warnhinweis über das verortete Hindernisobjekt zu informieren.
  • Bei den Referenzobjektdaten ROD, die in der Speichereinrichtung SPE gespeichert sind, z.B. dort als das Kartenmaterial KM hinterlegt sind, greift der Prozessor PZ wieder, wie bei den Landmarken-Referenzdaten LM-RD, auf diese zu, indem diese Daten z.B. gemäß der Option „A“ aus der Speichereinrichtung SPE eingelesen oder gemäß der Option „B“ von der Speichereinrichtung SPE hochgeladen werden.
  • Der Prozessor PZ und das Programm-Modul PGM sind weiterhin zur Hindernisobjektverortung derart ausgebildet, dass das Verorten VO des mindestens einen Hindernisobjektes HO und gegebenenfalls das Generieren oder Erzeugen der Verortungsinformation mit der Sensormessdatenerfassung, der Datenassoziierung und der Verortungsdistanzermittlung zumindest in Bezug auf die Sensormessdatenerfassung und Datenassoziierung dynamisch, zu verschiedenen Verortungszeitpunkten im Sinne eines Objekt-Tracking durchgeführt wird.
  • Durch das Tracken insbesondere der Verortungsdistanz über der Zeit wird deren Robustheit und Aussagekraft verstärkt. Alternativ können auch die Sensormessobjekte getrackt und im Anschluss die Verortungsdistanz bestimmt werden.
  • Bei ausreichend genauer Ermittlung der Verortungsdistanz wird das nicht zuordbare, sich auf der Fahrstrecke FS in der 1 befindende Hindernisobjekt HO rechts von den linken beiden Landmarken HO und links von der rechten Landmarke HO detektiert. Durch die bekannte relative Lage der Landmarken LM zur Fahrstrecke FS kann allein dadurch festgestellt werden, dass das nicht zugeordnete Hindernisobjekt HO ein Hindernis darstellt. Die Begriffe „links von“ und „rechts von“ können dabei durch Winkel- oder Pixelunterschiede aufgelöst werden. Befände sich das besagte Hindernisobjekt HO rechts von der rechten Landmarke LM, stellte es eindeutig kein Hindernis dar, so wie dies bei dem ebenfalls nicht zuordbaren, anderen in der 1 dargestellten Hindernisobjekt HO der Fall ist.
  • 2 zeigt ein modifiziertes Fahrzeug-Szenario zur Hindernisobjektverortung in einem durch Landmarken LM gekennzeichneten Fahrstreckenbereich FSB mit einem sich vertikal zu einer Fahrstrecke FS des Fahrstreckenbereich FSB erstreckenden Hindernisobjekt HO. Das sich vertikal zu der Fahrstrecke FS erstreckende Hindernisobjekt HO ist ein Wartungsfahrzeug an der Fahrstrecke FS und es muss bestimmt werden, ob die Fahrstrecke FS vertikal befahrbar ist. Eine bekannte Landmarke LM, z.B. in Gestalt einer Brücke, die als unterfahrbar bekannt ist, wurde erkannt und durch ermittelte Verortungsdistanzen, die sich z.B. durch Pixelabstände oder Winkelabstände ergeben, kann bestimmt werden, ob das Wartungsfahrzeug als das sich vertikal zu der Fahrstrecke FS des Fahrstreckenbereich FSB erstreckende Hindernisobjekt HO höher oder niedriger ist und somit in der vertikalen Erstreckung einen für das Fahrzeug FZ kritischen Bereich betrifft. Dadurch kann eine Über- und Unterfahrbarkeit des Hindernisobjekts HO festgestellt werden.
  • 3 zeigt ein modifiziertes Fahrzeug-Szenario zur Hindernisobjektverortung in einem durch Landmarken LM gekennzeichneten Fahrstreckenbereich FSB mit einer Fahrstrecke FS, bei dem die Landmarken LM in einer Gruppierung oder Formation GFLM1, GFLM2 angeordnet sind. Dadurch, dass die Landmarken LM nicht einzeln betrachtet werden, sondern die Gruppierung und Formation der Landmarken GFLM1, GFLM2 wird die Robustheit der Hindernisobjektverortung gesteigert.
  • Die Landmarken-Referenzdaten LM-RD enthalten dabei Daten, die die Gruppierung oder Formation der Landmarken GFLM1, GFLM2 für eine gruppenbasierte oder formationsbasierte Landmarkenzuordnung repräsentieren und das hinterlegte Kartenmaterial KM ergänzen.
  • Die Gruppierung und Formation der Landmarken GFLM1, GFLM2 vereinfacht zudem die Datenassoziation zwischen den Primär-Sensormessdaten SMD1 respektive den Sekundär-Sensormessdaten SMD2 und den Landmarken-Referenzdaten LM-RD. Dabei werden die Landmarkengruppierungen oder Landmarkenformationen vorher statisch in dem Kartenmaterial gewählt und festgelegt, sodass für die Hindernisobjektverortung nur noch die Datenassoziation aus Sensormessdaten zu den Landmarkengruppierungen oder Landmarkenformationen erfolgen muss. In diesem Fall wird dann bei erfassten Sensormessobjekten geprüft, ob sie die Eigenschaften einer der bekannten Landmarkengruppierungen oder Landmarkenformationen erfüllt, was die Landmarkenzuordnung stark vereinfacht.
  • Bei der Wahl der Gruppierungen oder Formationen ist es möglich, Landmarkengruppierungen oder Landmarkenformationen mit Alleinstellungsmerkmalen zu wählen, die sich ausreichend stark von anderen (zumindest in dem Fahrstreckenbereich und dessen Umgebung) unterscheiden. Dies ist vergleichbar mit Punktmarker-Formationen im Bereich 3D-Tracking auf Basis von mehreren Kameras.
  • 4 zeigt ein weiteres Fahrzeug-Szenario zur Hindernisobjektverortung auf der Basis des Szenarios nach der 3 mit einer Erfassung von Landmarken im Fahrstreckenbereich zu verschiedenen Verortungszeitpunkten t1, t2. Das Fahrzeug-Szenario zur Hindernisobjektverortung lässt sich dabei dahingehend erweitern, dass die Landmarkengruppierungen oder Landmarkenformationen GFLM1, GFLM2 im Zuge einer dynamischen Hindernisobjektverortung zu den verschiedenen Verortungszeitpunkten t1, t2, also im Laufe des Betriebs gelernt werden, indem den zum Verortungszeitpunkt t1 aus der 3 bekannten Landmarkengruppierungen oder Landmarkenformationen GFLM1, GFLM2 eine weitere, zum Verortungszeitpunkt t2 entstandene Landmarkengruppierung oder Landmarkenformation GFLM12 hinzugefügt wird.
  • Die Landmarken-Referenzdaten LM-RD enthalten dabei weitere Daten, die die weitere Landmarkengruppierung oder Landmarkenformation GFLM12 für eine gruppenbasierte oder formationsbasierte Landmarkenzuordnung repräsentieren und das hinterlegte Kartenmaterial KM zusätzlich ergänzen.

Claims (16)

  1. Verfahren zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen, bei dem a) von einem Fahrstreckenbereich (FSB) mit mindestens einer Landmarke (LM) und mit mindestens einem Hindernisobjekt (HO) durch mindestens einen Sensor (SS) einer Fahrzeug-Sensorik (FZS) erfassbare Primär-Sensormessdaten (SMD1) benutzt werden, die zu mindestens einem eine der mindestens einen Landmarke (LM) repräsentierbaren Sensormessobjekt (SMOLM) gehören, und Sekundär-Sensormessdaten (SMD2) benutzt werden, die zu mindestens einem eines des mindestens einen Hindernisobjekts (HO) repräsentierbaren Sensormessobjekt (SMOHO) gehören, b) gespeicherte, insbesondere in Form als Kartenmaterial (KM) hinterlegte, Landmarken-Referenzdaten (LM-RD) benutzt werden, die die mindestens eine Landmarke (LM) repräsentieren, gekennzeichnet durch c) Assoziieren (DAZ) der Primär-Sensormessdaten (SMD1) und Sekundär-Sensormessdaten (SMD2) mit den die mindestens eine Landmarke (LM) repräsentierenden Landmarken-Referenzdaten (LM-RD) zur Landmarkenzuordnung, wobei - die Datenassoziation (DAZ) zwischen den Primär-Sensormessdaten (SMD1) und den Landmarken-Referenzdaten (LM-RD) eintritt und infolge davon durch assoziierte Primär-Sensormessdaten (SMD1,az) eine Landmarkenzuordnung für das mindestens eine Sensormessobjekt (SMOLM) möglich ist und damit die jeweilige Landmarke (LM) durch die assoziierten Primär-Sensormessdaten (SMD1,az) repräsentiert ist, - die Datenassoziation (DAZ) zwischen den Sekundär-Sensormessdaten (SMD2) und den Landmarken-Referenzdaten (LM-RD) ausbleibt und infolge davon eine Landmarkenzuordnung für das mindestens eine Sensormessobjekt (SMOHO) unmöglich ist, d) Ermitteln von sensorerfassungsspezifischen Verortungsdistanzen (VOD) zwischen dem mindestens einen unzuordbaren Sensormessobjekt (SMOHO) und der mindestens einen durch die jeweiligen assoziierten Primär-Sensormessdaten (SMD1,az) repräsentierte Landmarke (LM) auf Basis der assoziierten Primär-Sensormessdaten (SMD1,az) und der Sekundär-Sensormessdaten (SMD2), indem in den assoziierten Primär-Sensormessdaten (SMD1,az) und in den Sekundär-Sensormessdaten (SMD2) enthaltene sensorerfassungsspezifische Informationen (IFses) in Bezug auf die zu ermittelnden Verortungsdistanzen (VOD) zueinander in Beziehung gesetzt werden, e) Verorten (VO, VOIF) des mindestens einen Hindernisobjektes (HO) auf einer Fahrstrecke (FS) in dem Fahrstreckenbereich (FSB), wo es ein Hindernis für ein Fahrzeug (FZ) darstellt, wenn entweder auf der Basis der ermittelten sensorerfassungsspezifischen Verortungsdistanzen (VOD) oder auf der Basis der ermittelten sensorerfassungsspezifischen Verortungsdistanzen (VOD) sowie unter Hinzuziehung der Landmarken-Referenzdaten (LM-RD) und/oder von gespeicherten, insbesondere in Form als Kartenmaterial (KM) hinterlegten, Referenzobjektdaten (ROD), die mindestens ein zu der mindestens einen Landmarke (LM) zusätzliches Referenzobjekt (RO) des Fahrzeug-Fahrstreckenbereichs (FSB) mit einem definierten, konstantem Abstand zu einer Fahrstrecke (FS) des Fahrzeug-Fahrstreckenbereichs (FSB), insbesondere eine Lärmschutzwand (LSW) an einer Straße (STR) oder ein Oberleitungsmasten an einem Bahngleis, repräsentieren, das mindestens eine unzuordbare Sensormessobjekt (SMOHO) der Fahrstrecke (FS) zuordbar ist, anderenfalls, wenn das mindestens eine unzuordbare Sensormessobjekt (SMOHO) nicht der Fahrstrecke (FS) zuordbar ist, wird das mindestens eine Hindernisobjekt (HO) jenseits der Fahrstrecke (FS) in dem Fahrstreckenbereich (FSB) verortet, wo es kein Hindernis für das Fahrzeug (FZ) darstellt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Verorten (VO, VOIF) des mindestens einen Hindernisobjektes (HO) mit der Sensormessdatenerfassung, der Datenassoziierung und der Verortungsdistanzermittlung zumindest in Bezug auf die Sensormessdatenerfassung und Datenassoziierung dynamisch, zu verschiedenen Verortungszeitpunkten im Sinne eines Objekt-Tracking durchgeführt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Landmarken-Referenzdaten (LM-RD) Daten enthalten, die eine Gruppierung oder Formation von Landmarken (GFLM1, GFLM2, GFLM12) für eine gruppenbasierte oder formationsbasierte Landmarkenzuordnung repräsentieren.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die sensorerfassungsspezifischen Informationen (IFses) der assoziierten Primär-Sensormessdaten (SMD1,az) und Sekundär-Sensormessdaten (SMD2), wenn die Art der Messdatenerfassung des mindestens einen Sensors (SS) der Fahrzeug-Sensorik (FZS) auf einem Kartesischen Koordinatensystem (SSKKS), einem Sphärischen Koordinatensystem (SSSKS) oder einem Zylindrischen Koordinatensystem (SSZKS) basiert, insbesondere der mindestens eine Sensor (SSKKS, SSSKS, SSZKS) als Radar- oder Lidarsensor benutzt wird, kartesische Koordinateninformationen (KIFkar), sphärische Koordinateninformationen (KIFsph) oder zylindrische Koordinateninformationen (KIFzyl) sind, mit denen durch Winkeldifferenzbestimmung oder Bestimmung einer euklidischen Distanz als das Zueinander-in-Beziehung-Setzen die Verortungsdistanzen (VOD) ermittelt werden.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die sensorerfassungsspezifischen Informationen (IFses) der assoziierten Primär-Sensormessdaten (SMD1,az) und Sekundär-Sensormessdaten (SMD2), wenn die Art der Messdatenerfassung des mindestens einen Sensors (SS) der Fahrzeug-Sensorik (FZS) auf einem Bildgebungsprinzip (SSBGP) basiert, insbesondere der mindestens eine Sensor (SSBGP) als Kamerasensor benutzt wird, Pixelinformationen (PIF) sind, mit denen durch Pixelabstandbestimmung als das Zueinander-in-Beziehung-Setzen die Verortungsdistanzen (VOD) ermittelt werden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Datenassoziation (DAZ) zur Landmarkenzuordnung mit Hilfe von probabilistischen Faktorgraph-Methoden, die vorzugsweise mit Softwarebibliotheken, wie z.B. „Georgia Tech Smoothing and Mapping <GTSAM>“ oder „<g2o> as a General Framework for Graph Optimization“ implementiert werden, oder Zuordnungs-/Optimierungsmethoden, wie z.B. „Global Nearest Neighbor <GNN>“, Munkres-Algorithmen, „Joint Probalistic Data Assoziation <JPDA>“ oder „Multi-Hypothesis-Tracking <MHT>“, durchgeführt wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Landmarkenzuordnung mit Hilfe der probabilistischen Faktorgraph-Methoden über mehrere Zeitschritte gefiltert wird.
  8. Computer-implementiertes Werkzeug (CIW) zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen mit einem nicht-flüchtigen, lesbaren Speicher (SP), in dem prozessorlesbare Steuerprogrammbefehle eines Programm-Moduls (PGM) zum Verorten von Hindernisobjekten gespeichert sind, und einem mit dem Speicher (SP) verbundenen Prozessor (PZ), der die Steuerprogrammbefehle des Programm-Moduls (PGM) zur Hindernisobjektverortung ausführt, bei dem a) von einem Fahrstreckenbereich (FSB) mit mindestens einer Landmarke (LM) und mit mindestens einem Hindernisobjekt (HO) durch mindestens einen Sensor (SS) einer Fahrzeug-Sensorik (FZS) erfassbare Primär-Sensormessdaten (SMD1), die zu mindestens einem eine der mindestens einen Landmarke (LM) repräsentierbaren Sensormessobjekt (SMOLM) gehören, und Sekundär-Sensormessdaten (SMD2), die zu mindestens einem eines des mindestens einen Hindernisobjekts (HO) repräsentierbaren Sensormessobjekt (SMOHO) gehören, in den Prozessor (PZ) eingegeben werden, insbesondere von dem Prozessor (PZ) eingelesen oder in den Prozessor (PZ) hochgeladen werden, b) gespeicherte, insbesondere in Form als Kartenmaterial (KM) hinterlegte, Landmarken-Referenzdaten (LM-RD) in den Prozessor (PZ) eingegeben werden, insbesondere von dem Prozessor (PZ) eingelesen oder in den Prozessor (PZ) hochgeladen werden, die die mindestens eine Landmarke (LM) repräsentieren, dadurch gekennzeichnet, dass c) der Prozessor (PZ) und das Programm-Modul (PGM) zur Hindernisobjektverortung derart ausgebildet sind, dass cl) die Primär-Sensormessdaten (SMD1) und Sekundär-Sensormessdaten (SMD2) mit den die mindestens eine Landmarke (LM) repräsentierenden Landmarken-Referenzdaten (LM-RD) zur Landmarkenzuordnung assoziiert werden (DAZ), wobei - die Datenassoziation (DAZ) zwischen den Primär-Sensormessdaten (SMD1) und den Landmarken-Referenzdaten (LM-RD) eintritt und infolge davon durch assoziierte Primär-Sensormessdaten (SMD1,az) eine Landmarkenzuordnung für das mindestens eine Sensormessobjekt (SMOLM) möglich ist und damit die jeweilige Landmarke (LM) durch die assoziierten Primär-Sensormessdaten (SMD1,az) repräsentiert ist, - die Datenassoziation (DAZ) zwischen den Sekundär-Sensormessdaten (SMD2) und den Landmarken-Referenzdaten (LM-RD) ausbleibt und infolge davon eine Landmarkenzuordnung für das mindestens eine Sensormessobjekt (SMOHO) unmöglich ist, d) sensorerfassungsspezifische Verortungsdistanzen (VOD) zwischen dem mindestens einen unzuordbaren Sensormessobjekt (SMOHO) und der mindestens einen durch die jeweiligen assoziierten Primär-Sensormessdaten (SMD1,az) repräsentierte Landmarke (LM) auf Basis der assoziierten Primär-Sensormessdaten (SMD1,az) und der Sekundär-Sensormessdaten (SMD2) ermittelt werden, indem in den assoziierten Primär-Sensormessdaten (SMD1,az) und in den Sekundär-Sensormessdaten (SMD2) enthaltene sensorerfassungsspezifische Informationen (IFses) in Bezug auf die zu ermittelnden Verortungsdistanzen (VOD) zueinander in Beziehung gesetzt werden, e) das mindestens eine Hindernisobjekt (HO) auf einer Fahrstrecke (FS) in dem Fahrstreckenbereich (FSB), wo es ein Hindernis für ein Fahrzeug (FZ) darstellt, verortet wird (VO, VOIF), wenn entweder auf der Basis der ermittelten sensorerfassungsspezifischen Verortungsdistanzen (VOD) oder auf der Basis der ermittelten sensorerfassungsspezifischen Verortungsdistanzen (VOD) sowie unter Hinzuziehung der Landmarken-Referenzdaten (LM-RD) und/oder von gespeicherten, insbesondere in Form als Kartenmaterial (KM) hinterlegten, Referenzobjektdaten (ROD), die mindestens ein zu der mindestens einen Landmarke (LM) zusätzliches Referenzobjekt (RO) des Fahrzeug-Fahrstreckenbereichs (FSB) mit einem definierten, konstantem Abstand zu einer Fahrstrecke (FS) des Fahrzeug-Fahrstreckenbereichs (FSB), insbesondere eine Lärmschutzwand (LSW) an einer Straße (STR) oder ein Oberleitungsmasten an einem Bahngleis, repräsentieren, das mindestens eine unzuordbare Sensormessobjekt (SMOHO) der Fahrstrecke (FS) zuordbar ist, anderenfalls, wenn das mindestens eine unzuordbare Sensormessobjekt (SMOHO) nicht der Fahrstrecke (FS) zuordbar ist, wird das mindestens eine Hindernisobjekt (HO) jenseits der Fahrstrecke (FS) in dem Fahrstreckenbereich (FSB) verortet, wo es kein Hindernis für das Fahrzeug (FZ) darstellt.
  9. Computer-implementiertes Werkzeug (CIW) nach Anspruch 8, dadurch gekennzeichnet, dass der Prozessor (PZ) und das Programm-Modul (PGM) zur Hindernisobjektverortung derart ausgebildet sind, dass das Verorten (VO, VOIF) des mindestens einen Hindernisobjektes (HO) mit der Sensormessdatenerfassung, der Datenassoziierung und der Verortungsdistanzermittlung zumindest in Bezug auf die Sensormessdatenerfassung und Datenassoziierung dynamisch, zu verschiedenen Verortungszeitpunkten im Sinne eines Objekt-Tracking durchgeführt wird.
  10. Computer-implementiertes Werkzeug (CIW) nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Landmarken-Referenzdaten (LM-RD) Daten enthalten, die eine Gruppierung oder Formation von Landmarken (GFLM1, GFLM2, GFLM12) für eine gruppenbasierte oder formationsbasierte Landmarkenzuordnung repräsentieren.
  11. Computer-implementiertes Werkzeug (CIW) nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass die sensorerfassungsspezifischen Informationen (IFses) der assoziierten Primär-Sensormessdaten (SMD1,az) und Sekundär-Sensormessdaten (SMD2), wenn die Art der Messdatenerfassung des mindestens einen Sensors (SS) der Fahrzeug-Sensorik (FZS) auf einem Kartesischen Koordinatensystem (SSKKS), einem Sphärischen Koordinatensystem (SSSKS) oder einem Zylindrischen Koordinatensystem (SSZKS) basiert, insbesondere der mindestens eine Sensor (SSKKS, SSSKS, SSZKS) als Radar- oder Lidarsensor benutzt wird, kartesische Koordinateninformationen (KIFkar), sphärische Koordinateninformationen (KIFsph) oder zylindrische Koordinateninformationen (KIFzyl) sind, mit denen durch Winkeldifferenzbestimmung oder Bestimmung einer euklidischen Distanz als das Zueinander-in-Beziehung-Setzen die Verortungsdistanzen (VOD) ermittelt werden.
  12. Computer-implementiertes Werkzeug (CIW) nach einem der Ansprüche 8 bis 11, dadurch gekennzeichnet, dass die sensorerfassungsspezifischen Informationen (IFses) der assoziierten Primär-Sensormessdaten (SMD1,az) und Sekundär-Sensormessdaten (SMD2), wenn die Art der Messdatenerfassung des mindestens einen Sensors (SS) der Fahrzeug-Sensorik (FZS) auf einem Bildgebungsprinzip (SSBGP) basiert, insbesondere der mindestens eine Sensor (SSBGP) als Kamerasensor benutzt wird, Pixelinformationen (PIF) sind, mit denen durch Pixelabstandbestimmung als das Zueinander-in-Beziehung-Setzen die Verortungsdistanzen (VOD) ermittelt werden.
  13. Computer-implementiertes Werkzeug (CIW) nach einem der Ansprüche 8 bis 12, dadurch gekennzeichnet, dass der Prozessor (PZ) und das Programm-Modul (PGM) zur Hindernisobjektverortung derart ausgebildet sind, dass die Datenassoziation (DAZ) zur Landmarkenzuordnung mit Hilfe von probabilistischen Faktorgraph-Methoden, die vorzugsweise mit Softwarebibliotheken, wie z.B. „Georgia Tech Smoothing and Mapping <GTSAM>“ oder „<g2o> as a General Framework for Graph Optimization“ implementiert werden, oder Zuordnungs-/Optimierungsmethoden, wie z.B. „Global Nearest Neighbor <GNN>“, Munkres-Algorithmen, „Joint Probalistic Data Assoziation <JPDA>“ oder „Multi-Hypothesis-Tracking <MHT>“, durchgeführt wird.
  14. Computer-implementiertes Werkzeug (CIW) nach Anspruch 13, dadurch gekennzeichnet, dass der Prozessor (PZ) und das Programm-Modul (PGM) zur Hindernisobjektverortung derart ausgebildet sind, dass die Landmarkenzuordnung mit Hilfe der probabilistischen Faktorgraph-Methoden über mehrere Zeitschritte gefiltert wird.
  15. Fahrzeug-Steuerungseinheit (FZSE) zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen, wobei eine Speichereinrichtung (SPE) zur Speicherung von a) von einem Fahrstreckenbereich (FSB) mit mindestens einer Landmarke (LM) und mit mindestens einem Hindernisobjekt (HO) durch mindestens einen Sensor (SS) einer Fahrzeug-Sensorik (FZS) erfassbare Primär-Sensormessdaten (SMD1), die zu mindestens einem eine der mindestens einen Landmarke (LM) repräsentierbaren Sensormessobjekt (SMOLM) gehören, und Sekundär-Sensormessdaten (SMD2), die zu mindestens einem eines des mindestens einen Hindernisobjekts (HO) repräsentierbaren Sensormessobjekt (SMOHO) gehören, und b) Landmarken-Referenzdaten (LM-RD), die, insbesondere in Form als Kartenmaterial (KM) hinterlegt, die mindestens eine Landmarke (LM) repräsentieren, entweder mit einer Steuereinrichtung (STE) in der Fahrzeug-Steuerungseinheit (FZSE) verbunden ist (Option A) oder einer Steuereinrichtung (STE) in der Fahrzeug-Steuerungseinheit (FZSE) zugeordnet ist (Option B), gekennzeichnet durch ein Computer-implementiertes Werkzeug (CIW) nach einem der Anspruche 8 bis 14, das in die Steuereinrichtung (STE) zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 7 hochladbar ist.
  16. Fahrzeug (FZ) zum Verorten von Hindernissen in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen mit einer Fahrzeug-Sensorik (FZS), in der mindestens ein Sensor (SS) enthalten ist und wobei mit dem mindestens einen Sensor (SS) von einem Fahrstreckenbereich (FSB) mit mindestens einer Landmarke (LM) und mit mindestens einem Hindernisobjekt (HO) Primär-Sensormessdaten (SMD1), die zu mindestens einem die jeweilige Landmarke (LM) repräsentierbarem Sensormessobjekt (SMOLM) gehören, und Sekundär-Sensormessdaten (SMD2), die zu mindestens einem das jeweilige Hindernisobjekt (HO) repräsentierbarem Sensormessobjekt (SMOHO) gehören, erfasst werden und mit einer Fahrzeug-Steuerungseinheit (FZSE) nach Anspruch 14, die mit der Fahrzeug-Sensorik (FZS) zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 7 verbunden ist.
DE102020210059.4A 2020-08-07 2020-08-07 Verfahren, Computer-implementiertes Werkzeug, Fahrzeug-Steuerungseinheit und Fahrzeug zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen Withdrawn DE102020210059A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102020210059.4A DE102020210059A1 (de) 2020-08-07 2020-08-07 Verfahren, Computer-implementiertes Werkzeug, Fahrzeug-Steuerungseinheit und Fahrzeug zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen
PCT/EP2021/069758 WO2022028848A1 (de) 2020-08-07 2021-07-15 Verfahren, computer-implementiertes werkzeug, fahrzeug-steuerungseinheit und fahrzeug zum verorten von hindernisobjekten in landmarkengekennzeichneten fahrstreckenbereichen von fahrzeugen
EP21746412.2A EP4154166A1 (de) 2020-08-07 2021-07-15 Verfahren, computer-implementiertes werkzeug, fahrzeug-steuerungseinheit und fahrzeug zum verorten von hindernisobjekten in landmarkengekennzeichneten fahrstreckenbereichen von fahrzeugen
US18/017,972 US20230264688A1 (en) 2020-08-07 2021-07-15 Method, computer-implemented tool, vehicle control unit, and vehicle for locating obstacles in vehicle roadway regions, which are characterized by landmarks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020210059.4A DE102020210059A1 (de) 2020-08-07 2020-08-07 Verfahren, Computer-implementiertes Werkzeug, Fahrzeug-Steuerungseinheit und Fahrzeug zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen

Publications (1)

Publication Number Publication Date
DE102020210059A1 true DE102020210059A1 (de) 2022-02-10

Family

ID=77071514

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020210059.4A Withdrawn DE102020210059A1 (de) 2020-08-07 2020-08-07 Verfahren, Computer-implementiertes Werkzeug, Fahrzeug-Steuerungseinheit und Fahrzeug zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen

Country Status (4)

Country Link
US (1) US20230264688A1 (de)
EP (1) EP4154166A1 (de)
DE (1) DE102020210059A1 (de)
WO (1) WO2022028848A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008007347A1 (de) 2008-02-04 2009-08-06 Robert Bosch Gmbh Vorrichtung und Verfahren zum Bestimmen der Position eines anderen Verkehrsteilnehmers
DE102016015405A1 (de) 2016-12-22 2017-07-06 Daimler Ag Umfassende Umgebungserfassung für einen Kraftwagen mittels Radar

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008007347A1 (de) 2008-02-04 2009-08-06 Robert Bosch Gmbh Vorrichtung und Verfahren zum Bestimmen der Position eines anderen Verkehrsteilnehmers
DE102016015405A1 (de) 2016-12-22 2017-07-06 Daimler Ag Umfassende Umgebungserfassung für einen Kraftwagen mittels Radar

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Scale-invariant feature transform. In: Wikimedia Foundation Inc.: Wikipedia, The free Encyclopedia. 2020, S. 1-19. URL: https://en.wikipedia.org/w/index.php?title=Scale-invariant_feature_transform&oldid=962287797 [abgerufen am 05.10.2020].- Version vom 13 June 2020, at 05:13

Also Published As

Publication number Publication date
EP4154166A1 (de) 2023-03-29
WO2022028848A1 (de) 2022-02-10
US20230264688A1 (en) 2023-08-24

Similar Documents

Publication Publication Date Title
DE102010006828B4 (de) Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102014223363B4 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE112020002175T5 (de) Systeme und verfahren zur fahrzeugnavigation
DE112020003897T5 (de) Systeme und verfahren zur überwachung von fahrspurüberlastung
DE102004047130B4 (de) Umgebungsmodellierung für autonome mobile Systeme
DE102015209467A1 (de) Verfahren zur Schätzung von Fahrstreifen
EP3616181A1 (de) Verfahren zum automatischen erstellen und aktualisieren eines datensatzes für ein autonomes fahrzeug
WO2018104454A2 (de) Verfahren, vorrichtung und bahnfahrzeug, insbesondere schienenfahrzeug, zur hinderniserkennung im bahnverkehr, insbesondere im schienenverkehr
DE102008041679A1 (de) Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung
DE102017201665A1 (de) Verfahren zur Einbindung eines dynamischen Objektes in eine digitale Karte eines hochautomatisierten Fahrzeugs (HAF)
DE102017201663A1 (de) Verfahren zur Lokalisierung eines höher automatisierten, z.B. hochautomatisierten Fahrzeugs (HAF) in einer digitalen Lokalisierungskarte
DE102016003261A1 (de) Verfahren zur Selbstlokalisierung eines Fahrzeugs in einer Fahrzeugumgebung
DE102017201664A1 (de) Verfahren zur Lokalisierung eines höher automatisierten Fahrzeugs in einer digitalen Karte
DE112020005275T5 (de) Systeme und verfahren zur selektiven verzögerung eines fahrzeugs
DE112022000380T5 (de) Systeme und verfahren zur einheitlichen geschwindigkeitskartierung und navigation
DE112020003551T5 (de) Straßenkurvenerzeugung in Bildern der realen Welt als ein Verfahren zur Datenaugmentierung
DE102019119001A1 (de) Bestimmen einer Position eines Fahrzeugs
DE102020210059A1 (de) Verfahren, Computer-implementiertes Werkzeug, Fahrzeug-Steuerungseinheit und Fahrzeug zum Verorten von Hindernisobjekten in landmarkengekennzeichneten Fahrstreckenbereichen von Fahrzeugen
DE102016207181A1 (de) Verfahren und System zum Bestimmen einer Position eines Fahrzeugs auf einer Fahrbahn
EP3673235A1 (de) Navigationsverfahren und navigationsvorrichtung
EP4229549A1 (de) System und verfahren zum annotieren von automobilradardaten
DE102019213403A1 (de) Verfahren zur sensorbasierten Lokalisation eines Egofahrzeuges, Egofahrzeug und ein Computerprogramm
DE102019008079A1 (de) Verfahren zum Erkennen mindestens eines Objekts in einem Fahrbereich eines Fahrzeugs, Vorrichtung eingerichtet zum Druchführen eines solchen Verfahrens, und Fahrzeug mit einer solchen Vorrichtung
DE102020206239B4 (de) Verfahren und System zum Bestimmen einer Eigenposition eines Kraftfahrzeugs sowie ein mit einem solchen System ausgerüstetes Kraftfahrzeug
DE102019119000B4 (de) Bestimmen einer Fahrspurbegrenzung

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee