DE102018005869A1 - System zur Erstellung eines Umgebungsmodells eines Fahrzeugs - Google Patents

System zur Erstellung eines Umgebungsmodells eines Fahrzeugs Download PDF

Info

Publication number
DE102018005869A1
DE102018005869A1 DE102018005869.8A DE102018005869A DE102018005869A1 DE 102018005869 A1 DE102018005869 A1 DE 102018005869A1 DE 102018005869 A DE102018005869 A DE 102018005869A DE 102018005869 A1 DE102018005869 A1 DE 102018005869A1
Authority
DE
Germany
Prior art keywords
information
vehicle
position information
merged
geometry
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018005869.8A
Other languages
English (en)
Inventor
Georg Schneider
Thomas Müller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Active Safety GmbH
Original Assignee
ZF Active Safety GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Active Safety GmbH filed Critical ZF Active Safety GmbH
Priority to DE102018005869.8A priority Critical patent/DE102018005869A1/de
Priority to US16/441,247 priority patent/US11530931B2/en
Priority to CN201910669159.5A priority patent/CN110779534A/zh
Publication of DE102018005869A1 publication Critical patent/DE102018005869A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/51Relative positioning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • G06F17/13Differential equations

Abstract

System zur Erstellung eines Umgebungsmodells eines Fahrzeugs, das verbunden oder zu verbinden ist, mit:wenigstens einer Navigationseinheit, die dazu eingerichtet ist, Informationen über die aktuelle Position des Fahrzeugs und Informationen über wenigstens einen zeitlich und räumlich vor dem Fahrzeug liegenden Straßenabschnitt bereitzustellen, wobei die Navigationseinheit die Informationen in einem digitalen Kartenformat und/oder in absoluten Positionsinformationen bereitstellt,wenigstens einer Schnittstelle, die dazu eingerichtet, mit wenigstens einem zu fusionierenden Objekt in der Umgebung des Fahrzeugs zu kommunizieren, wobei die von der Schnittstelle empfangenen Informationen absolute Positionsinformationen des wenigstens einen zu fusionierenden Objekts umfassen, und/oderwenigstens einer Sensoreinheit, die dazu eingerichtet ist, wenigstens ein zu fusionierendes Objekt in der Umgebung des Fahrzeugs zu erfassen, wobei die wenigstens eine Sensoreinheit weiter dazu eingerichtet ist, relative Positionsinformationen des wenigstens einen zu fusionierenden Objekts relativ zu dem Fahrzeug bereitzustellen,wobei das System dazu eingerichtet ist, mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen über den vor dem Fahrzeug liegenden Straßenabschnitt eine Straßengeometrie des vor dem Fahrzeug liegenden Straßenabschnitts zu ermitteln,wobei das System dazu eingerichtet ist, basierend auf der ermittelten Straßengeometrie die absoluten Positionsinformationen und/oder die relativen Positionsinformationen des wenigstens einen zu fusionierenden Objekts mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen in dem digitalen Kartenformat zur Erstellung eines Umgebungsmodells der Umgebung des Fahrzeugs zu fusionieren.

Description

  • Hintergrund
  • Hier wird ein Verfahren und ein System zur Erstellung eines Umgebungsmodells der Umgebung eines Fahrzeugs vorgeschlagen. Im Fahrzeug kommen unterschiedliche Sensoren und Informationsquellen zum Einsatz, um die komplexen Anforderungen von Fahrerassistenzsystemen und autonomen Fahren erfüllen zu können. Zu diesen Sensoren gehören beispielsweise jeweils eine oder mehrere Kameras, Radar- und Lidar-Sensoren. Darüber hinaus kann das Fahrzeug auch Informationen aus der Cloud oder aus der Kommunikation mit anderen Objekten erhalten. Die Kommunikation zwischen einem Fahrzeug und Objekten wird häufig auch als „vehicle to everything communication“ (V2X) bezeichnet. Dieser Ausdruck bezeichnet die Kommunikation eines Fahrzeugs mit jenen Objekten, die mit dem Fahrzeug in Kontakt treten können. Unter diesen Ausdruck fällt somit die Kommunikation des Fahrzeugs mit anderen Fahrzeugen, mit Infrastrukturobjekten, aber auch mit Menschen (Fußgängern). Infrastrukturobjekte können beispielsweise Ampeln, Verkehrszeichen, mobile und stationäre Fahrbahnbegrenzungen, Gebäude, Schilder oder Werbetafeln sein. Eine zunehmend wichtige Rolle als Datenquelle spielen außerdem Informationen von einer digitalen Karte. Auf digitalen Karten können beispielsweise Informationen zur Straßentopologie, Geschwindigkeitsbeschränkungen, Verkehrszeichen und Steigung und Krümmung der Straße gespeichert sein. Ferner existieren sogenannte HD-Karten, die Informationen zum Straßenverlauf und weitere Daten mit sehr hoher Genauigkeit enthalten. Ferner können in digitalen Karten Informationen gespeichert werden können, die durch die üblichen Fahrzeugsensoren nicht erfassbar sind. So kann beispielsweise die Steigung und die Krümmung der Straße aus der Karte abgelesen werden, um beispielsweise die Fahrdynamik automatisiert anpassen zu können.
  • Stand der Technik
  • DE 10 2014 111 126 A1 offenbart ein Verfahren zum Erzeugen einer Umgebungskarte eines Umgebungsbereichs eines Kraftfahrzeugs. Ein Objekt im Umgebungsbereich kann mittels einer Sensoreinrichtung des Kraftfahrzeugs erfasst werden, wobei anhand von Sensordaten der Sensoreinrichtung durch eine Steuereinrichtung des Kraftfahrzeugs ein Positionswert ermittelt wird, der eine Position des Objekts beschreibt. Der ermittelte Positionswert wird in die Umgebungskarten übertragen, wobei ein Vektor zwischen dem Objekt und einem vorbestimmten Bezugspunkt des Kraftfahrzeugs ermittelt wird, der einen Ursprung eines Fahrzeugkoordinatensystems bildet. Der ermittelte Vektor in dem Fahrzeugkoordinatensystem wird in ein globales Koordinatensystem der Umgebungskarte transformiert und der Positionswert in der Umgebungskarte wird anhand des transformierten Vektors bestimmt.
  • US 2017/371349 A1 offenbart eine Fahrzeugsteuerungsvorrichtung, die eine Kommunikationseinheit umfasst. Die Kommunikationseinheit erfasst Standortinformationen des Fahrzeugs und kann mit einem externen Server und einem anderen Fahrzeug kommunizieren. Ein Prozessor steuert die Kommunikationseinheit um Karteninformation von dem externen Server und die Standortinformation des anderen Fahrzeugs von dem anderen Fahrzeug zu empfangen. Der Prozessor führt die erfassten Standortinformation des Fahrzeugs und die empfangene Standortinformation des anderen Fahrzeugs mit der empfangene Karteninformation zusammen, um das Fahrzeug auf der Grundlage der zusammengeführten Informationen zu steuern.
  • Aufgabe
  • Ausgehend hiervon befasst sich die Offenbarung mit der Aufgabe, ein verbessertes System und ein verbessertes Verfahren zur Erstellung eines Umgebungsmodells eines Fahrzeugs bereitzustellen, mit dem unabhängig von der Dichte der vorhandenen Informationen Positionsinformationen in unterschiedlichen Formaten zur Erstellung eines Umgebungsmodells der Umgebung des Fahrzeugs fusioniert werden können.
  • Vorgeschlagene Lösung
  • Zur Lösung wird ein im Patentanspruch 1 definiertes System zur Erstellung eines Umgebungsmodells eines Fahrzeugs vorgeschlagen. Das System zur Erstellung eines Umgebungsmodells eines Fahrzeugs ist verbunden oder zu verbinden mit wenigstens einer Navigationseinheit, wenigstens einer Schnittstelle und/oder wenigstens einer Sensoreinheit. Die wenigstens eine Navigationseinheit ist dazu eingerichtet, Informationen über die aktuelle Position des Fahrzeugs und Informationen über wenigstens einen zeitlich und räumlich vor dem Fahrzeug liegenden Straßenabschnitt bereitzustellen, wobei die Navigationseinheit die Informationen in einem digitalen Kartenformat und/oder in absoluten Positionsinformationen bereitstellt. Die wenigstens eine Schnittstelle ist dazu eingerichtet, mit wenigstens einem zu fusionierenden Objekt in der Umgebung des Fahrzeugs zu kommunizieren, wobei die von der Schnittstelle empfangenen Informationen absolute Positionsinformationen des wenigstens einen zu fusionierenden Objekts umfassen. Die wenigstens eine Sensoreinheit ist dazu eingerichtet, wenigstens ein zu fusionierendes Objekt in der Umgebung des Fahrzeugs zu erfassen, wobei die wenigstens eine Sensoreinheit weiter dazu eingerichtet ist, relative Positionsinformationen des wenigstens einen zu fusionierenden Objekts relativ zu dem Fahrzeug bereitzustellen. Das System ist dazu eingerichtet, mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen über den vor dem Fahrzeug liegenden Straßenabschnitt eine Straßengeometrie des vor dem Fahrzeug liegenden Straßenabschnitts zu ermitteln, wobei das System dazu eingerichtet ist, basierend auf der ermittelten Straßengeometrie die absoluten Positionsinformationen und/oder die relativen Positionsinformationen des wenigstens einen zu fusionierenden Objekts mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen in dem digitalen Kartenformat zur Erstellung eines Umgebungsmodells der Umgebung des Fahrzeugs zu fusionieren.
  • In dieser Offenbarung werden die Informationen einer digitalen Karte, wie zum Beispiel die die Informationen bezüglich der aktuellen Position des Fahrzeugs und Informationen über den vor dem Fahrzeug liegenden Straßenabschnitt, als Informationen in einem digitalen Kartenformat bezeichnet.
  • Die Informationen aus den unterschiedlichen Informationsquellen, z.B. digitale Karte im Fahrzeug, Daten aus der Cloud, V2X und Informationen von Sensoreinheiten (Kamera, Radar, usw.) können fusioniert werden. Mit diesen fusionierten Informationen kann ein Umgebungsmodell erstellt werden, das aus all diesen Quellen gefüllt wird. Fahrassistenz-Systeme und Systeme für das autonome Fahren können auf dieses fusionierte Umgebungsmodell zugreifen. Mit dem vorgeschlagenen System können die Informationen aus den unterschiedlichen Informationsquellen selbst dann fusioniert werden, wenn die Datendichte relativ gering ist, d. h. relativ wenige Objekte oder Punkte mit bekannten Positionsinformationen sich auf dem vor dem Fahrzeug liegenden Straßenabschnitt befinden. Da das vorgeschlagene System die Straßengeometrie des vor dem Fahrzeug liegenden Straßenabschnitts ermitteln kann, können auf Grundlage der ermittelten Straßengeometrie die Informationen selbst dann fusioniert werden, wenn die Datendichte für den vor dem Fahrzeug liegenden Straßenabschnitt relativ gering ist.
  • Relative Positionsinformationen können von Sensoreinheiten wie beispielsweise von der Kameraeinheit, der Radareinheit und der Ultraschallsensoreinheiten bereitgestellt werden. Beispiele für solche relativen Positionsangaben der einzelnen Einheiten sind:
    • - Radareinheit: Abstand und ggf. Winkel zu einem Objekt vor dem Fahrzeug
    • - Kameraeinheit: Abstand zu Verkehrszeichen, Ampeln und Fußgängern
    • - Ultraschallsensoreinheiten: Abstand zu Fahrzeugen auf einer parallelen Fahrspur
  • Absolute Positionsinformationen (z.B. in Weltkoordinaten) können beispielsweise von Objekten wie Ampeln, Verkehrszeichen oder ähnlichem gesendet werden.
  • Ein beispielhafter Anwendungsfall für eine Informationsfusion zur Erstellung eines Umgebungsmodells des Fahrzeugs könnte eine Ampel als zu fusionierendes Objekt sein. Die Ampel wird von der Sensoreinheit, beispielsweise von einer Kameraeinheit erfasst. Die Ampel sendet ihre Position in absoluten Positionsinformationen (z.B. in Weltkoordinaten) über die Schnittstelle an das System. Eine Fusion der Informationen kann beispielsweise in den folgenden beiden Fällen zur Erstellung eines einheitlichen Umgebungsmodells erfolgen:
    1. 1. Die Ampel ist in dem Umgebungsmodell des Fahrzeugs verzeichnet und das durch die Sensoreinheit detektierte, zu fusionierende Objekt, d.h. die Ampel, soll korrekt in dem Umgebungsmodell dem vorhandenen Objekt zugeordnet werden.
    2. 2. Das erkannte Objekt ist in dem Umgebungsmodell nicht vorhanden und soll durch die Fusion der Informationen aus den einzelnen Informationsquellen in das Umgebungsmodell eingefügt werden.
  • Das System kann dazu eingerichtet sein, die relativen oder absoluten Positionsinformationen des zu fusionierenden Objekts in Informationen in einem digitalen Kartenformat zu transformieren. Es kann dementsprechend ein Umgebungsmodell erstellt werden, das auf Informationen in einem digitalen Kartenformat basiert. Zusätzlich oder alternativ kann das System dazu eingerichtet sein, die relativen oder absoluten Positionsinformationen des zu fusionierenden Objekts und die Informationen in einem digitalen Kartenformat in ein vordefiniertes Koordinatenformat zu transformieren. Es kann demnach auch ein Umgebungsmodell erstellt werden, das auf einem anderen Koordinatenformat passiert.
  • Das System kann dazu eingerichtet sein, aus den relativen Positionsinformationen des wenigstens einen zu fusionierenden Objekts absolute Positionsinformationen zu ermitteln.
  • Das System kann dazu eingerichtet sein, falls die relativen Positionsinformationen auf den Abstand zu dem fusionierenden Objekt beschränkt sind, die absoluten Positionsinformationen basierend auf dem Abstand und zusätzlichen Informationen bezüglich des Straßenabschnitts und/oder des zu fusionierenden Objekts zu ermitteln. Diese zusätzlichen Informationen können beispielsweise durch die folgenden Schritte ermittelt oder erfasst werden:
    • - Bestimmung des Typs des zu fusionierenden Objekts (z.B. Verkehrszeichen, anderer Verkehrsteilnehmer), beispielsweise durch Auswertung der Sensorinformationen (z.B. der Kameraeinheit) und/oder der Positionsinformationen.
    • - Berechnung von mehreren möglichen Alternativpunkten für die Position des zu fusionierenden Objekts, wobei, wenn der Abstand zwischen dem Fahrzeug und dem zu fusionierenden Objekt bekannt ist, die möglichen Alternativpunkte auf einem Kreis um das Fahrzeug liegen,
    • - Nutzung von Informationen, die für die unterschiedlichen Objekttypen von zu fusionierenden Objekten bekannt sind. Straßenschilder befinden sich beispielsweise an den Fahrbahnrändern, sodass die Straßenbegrenzung oder der Straßenrand als Referenzgeometrie zur Ermittlung der Straßengeometrie genutzt werden kann. Für Fahrzeuge als zu fusionierenden Objekte kann beispielsweise die Spurmittellinie eine geeignete Referenzgeometrie zur Ermittlung der Straßengeometrie darstellen.
  • Die Informationen in einem digitalen Kartenformat können Informationen in einem Pfad/Offset-Format sein. Bei dem digitalen Kartenformat kann es sich beispielsweise um einen Pfad/Offset-Format gemäß dem „ADASIS“-Protokoll handeln. In Fahrzeugen haben Fahrassistenz-Systeme häufig nicht genug Speicherressourcen, um dort eine größere digitale Karte zu speichern. Aus diesem Grund hat in einem Fahrzeug üblicherweise eine der Einheiten bzw. Systeme eine relativ große Speichereinheit. Eine derartige Einheit kann beispielsweise die Navigationseinheit des Fahrzeugs sein. Aus der Speichereinheit wird in Abhängigkeit der aktuellen Fahrzeugposition ein relevanter Ausschnitt aus der Karte ausgelesen und in einem vorher definierten Format an eines der Fahrassistenz-Systeme ausgesendet. Dieses Aussenden kann beispielsweise über ein Fahrzeugbussystem oder durch andere Technologien, wie beispielsweise Shared-Memory erfolgen. Die Fahrassistenz-Systeme, die diese Daten empfangen können daraus ein Umgebungsmodells, d. h. einen sogenannten elektronischen Horizont erstellen. Dieses Umgebungsmodell bzw. diese elektronischer Horizont beinhaltet nur einen Ausschnitt der gesamten digitalen Karte, sodass sich ein deutlich reduzierter Ressourcenbedarf ergibt. Ein bekanntes Protokoll für eine solche Informationsübertragung und -darstellung ist „ADASIS“. Zur Übertragung von Informationen werden diese Informationen nicht in Rohdaten wie beispielsweise mit vollständigen geographischen Koordinaten übertragen, sondern in einer speziellen Darstellungsform.
  • Das System kann dazu eingerichtet sein, einen Offset des zu fusionierenden Objekts durch eine Fusion der Informationen über die derzeitige Position des Fahrzeugs in einem Pfad/Offset-Format und der absoluten oder relativen Positionsinformationen des zu fusionierenden Objekts zu ermitteln. Das vorgeschlagene System kann relative oder absolute Positionsinformationen mit Informationen in dem Pfad/Offset-Format fusionieren. Zunächst können die absoluten Positionsinformationen der wenigstens einen Schnittstelle und/oder die relativen Positionsinformationen der wenigstens einen Sensoreinheit dem System bereitgestellt werden. Die Navigationseinheit kann Informationen über die aktuelle Position des Fahrzeugs und über den Straßenabschnitt vor dem Fahrzeug im Pfad/Offset-Format bereitstellen. Aus den bereitgestellten Informationen kann der Offset zwischen der aktuellen Fahrzeugposition im Pfad/Offset-Format und den relativen oder absoluten Positionsinformationen des zu fusionierenden Objekts ermittelt werden.
  • Das System kann dazu eingerichtet sein, mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen für die Ermittlung der Straßengeometrie einen oder mehrere Geometriepunkte zu ermitteln, deren absolute Positionsinformationen und/oder deren Position in dem digitalen Kartenformat bekannt sind.
  • Das System kann dazu eingerichtet sein, mit dem ermittelten Geometriepunkt oder den ermittelten Geometriepunkten einen Offset des zu fusionierenden Objekts zu ermitteln. Bei einer hohen Anzahl an Geometriepunkten (hohe Datendichte) kann sich im einfachsten Fall dem zu fusionierenden Objekt direkt ein Geometriepunkt zuordnen lassen. Es kann der Geometriepunkt mit dem geringsten Abstand zu dem zu fusionierenden Objekt verwendet werden. In diesem Fall kann der Offset des ermittelten Geometriepunkt als Offset für das zu fusionierenden Objekt verwendet werden. Sollte der Abstand des zu fusionierenden Objekts zum nächstliegenden Geometriepunkt größer als ein vorgegebener Schwellwert sein, kann keine direkte Zuordnung erfolgen. Ist der Abstand zwischen Geometriepunkt und zu fusionierenden Objekt größer als der vorbestimmte Schwellwert sein, kann mittels Interpolation (oder durch Extrapolation) zwischen zwei oder mehreren Geometriepunkten ein neuer Geometriepunkt bestimmt werden, der näher an dem zu fusionierenden Objekt liegt. Je nach Verlauf der Straßengeometrie, nach Dichte der Geometriepunkte G, nach der geforderten Genauigkeit kann zur Inter- bzw. Extrapolation ein lineares Verfahren, ein Polynom höherer Ordnung oder ein sonstiges geeignetes Verfahren verwendet werden. Von dem ermittelten Geometriepunkt können die absoluten Positionsinformationen beispielsweise in Weltkoordinaten und auch der Verlauf des Offsets bekannt sein. Aus diesem Grund kann der Offset des zu fusionierenden Objekts dem Offset des Geometriepunkt entsprechen.
  • Das System kann dazu eingerichtet sein, mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen für die Ermittlung der Straßengeometrie wenigstens eine Stützstelle ermitteln, deren absolute Positionsinformationen und/oder deren Position im Pfad/Offset-Format bekannt sind.
  • Das System kann dazu eingerichtet sein, die Straßengeometrie des Straßenabschnitts zwischen dem zu fusionierenden Objekt und der dem zu fusionierenden Objekt nächstliegenden Stützstelle zu schätzen, wobei das System weiter dazu eingerichtet ist, basierend auf der geschätzten Straßengeometrie des Straßenabschnitts den Abstand zwischen dem zu fusionierenden Objekt und der Stützstelle zu schätzen.
  • Das System kann dazu eingerichtet sein, basierend auf dem geschätzten Abstand einen Offset zwischen der Stützstelle und dem zu fusionierenden Objekt zu ermitteln.
  • Das System kann dazu eingerichtet sein, den Verlauf des Straßenabschnitts basierend auf von wenigstens einer oder der wenigstens einen Sensoreinheit erfassten Informationen und/oder basierend auf von wenigstens einer oder der wenigstens einen Schnittstelle bereitgestellten Informationen zu schätzen. Folgende Informationen können beispielsweise in die Schätzung mit einfließen:
    • - Auswertung der Informationen von Sensoreinheiten wie z.B. den Bildern einer Kameraeinheit beispielsweise bezüglich des Verlauf der Straßenmarkierungen, relative Lage von erkannten Objekten zueinander, etc.,
    • - Verwendung von Abstands- und Winkelangaben von Sensoreinheiten wie Radareinheit und/oder Lidareinheit,
    • - Speicherung der kürzlich gefahrenen Fahrzeugtrajektorie, z.B. durch Speicherung der GPS-Position,
    • - Verwendung des Lenkwinkels und der Fahrzeuggeschwindigkeit, und
    • - Verwendung von Stützstellen aus der digitalen Karte, von denen die Weltkoordinaten bekannt sind.
  • Das System kann dazu eingerichtet sein, zu ermitteln, ob sich das zu fusionierenden Objekt auf demselben Pfad oder derselben Fahrspur wie das Fahrzeug befindet. Auf diese Weise kann eine korrekte Pfad- und Spurzuordnung des zu fusionierenden Objekts erfolgen. Befindet sich das zu fusionierenden Objekt auf einem anderen Pfad bzw. in einer anderen Spur, muss der Offset entsprechend korrigiert werden, da jeder Pfad einen eigenen Offset-Ursprung besitzt. Dazu können die Daten der digitalen Karte im Pfad/Offset-Format und die von der wenigstens einen Sensoreinheit erfassten Daten verwendet werden.
  • Das System kann dazu eingerichtet sein, die Informationen in dem digitalen Kartenformat eines zu fusionierenden Objekts, dessen absolute Positionsinformationen bekannt sind, mittels eines relativen Verschiebungsvektors ausgehend den derzeitigen absoluten Positionsinformationen des Fahrzeugs zu ermitteln.
  • Als eine weitere alternative Lösung wird ein Kraftfahrzeug nach Patentanspruch 15 vorgeschlagen, dass ein System nach einer der vorherigen vorgeschlagenen Lösungen umfasst.
  • Für eine weitere Lösung wird ein Verfahren zur Erstellung eines Umgebungsmodells eines Fahrzeugs nach Anspruch 16 vorgeschlagen. Das Verfahren umfasst die Schritte von: Bereitstellen von Informationen über die aktuelle Position des Fahrzeugs und Informationen über wenigstens einen zeitlich und räumlich vor dem Fahrzeug liegenden Straßenabschnitt, wobei die Informationen in einem digitalen Kartenformat und/oder in absoluten Positionsinformationen bereitgestellt werden, Kommunizieren mit wenigstens einem zu fusionierenden Objekt in der Umgebung des Fahrzeugs, wobei die empfangenen Informationen absolute Positionsinformationen des wenigstens einen zu fusionierenden Objekts umfassen, und/oder Erfassen von wenigstens einem zu fusionierenden Objekt in der Umgebung des Fahrzeugs, wobei relative Positionsinformationen des wenigstens einen zu fusionierenden Objekts relativ zu dem Fahrzeug bereitgestellt werden, Ermitteln einer Straßengeometrie des vor dem Fahrzeug liegenden Straßenabschnitts mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen über den vor dem Fahrzeug liegenden Straßenabschnitt, Fusionieren der absoluten Positionsinformationen und/oder der relativen Positionsinformationen des wenigstens einen zu fusionierenden Objekts mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen in dem digitalen Kartenformat zur Erstellung eines Umgebungsmodells der Umgebung des Fahrzeugs basierend auf der ermittelten Straßengeometrie.
  • Das Verfahren kann die Schritte umfassen von: Transformieren der relativen oder absoluten Positionsinformationen des zu fusionierenden Objekts in Informationen in dem digitalen Kartenformat, und/oder Transformieren der relativen oder absoluten Positionsinformationen des zu fusionierenden Objekts und die Informationen in dem digitalen Kartenformat in ein vordefiniertes Koordinatenformat.
  • Aus den relativen Positionsinformationen des wenigstens einen zu fusionierenden Objekts können absolute Positionsinformationen ermittelt werden.
  • Falls die relativen Positionsinformationen auf den Abstand zu dem fusionierenden Objekt beschränkt sind, können die absoluten Positionsinformationen basierend auf dem Abstand und zusätzlichen Informationen bezüglich des Straßenabschnitts und/oder des zu fusionierenden Objekts ermittelt werden.
  • Mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen für die Ermittlung der Straßengeometrie können ein oder mehrere Geometriepunkte ermittelt werden, deren absolute Positionsinformationen und/oder deren Position in dem digitalen Kartenformat bekannt sind.
  • Die Informationen in einem digitalen Kartenformat können Informationen in einem Pfad/Offset-Format sein.
  • Ein Offset des zu fusionierenden Objekts kann durch eine Fusion der Informationen über die derzeitige Position des Fahrzeugs in dem digitalen Kartenformat und der absoluten oder relativen Positionsinformationen des zu fusionierenden Objekts ermittelt werden.
  • Mit dem ermittelten Geometriepunkt oder den ermittelten Geometriepunkten kann ein Offset des zu fusionierenden Objekts ermittelt werden.
  • Mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen für die Ermittlung der Straßengeometrie kann wenigstens eine Stützstelle ermittelt werden, deren absolute oder relative Positionsinformationen und/oder deren Position in dem digitalen Kartenformat bekannt sind.
  • Die Straßengeometrie des Straßenabschnitts zwischen dem zu fusionierenden Objekt und der dem zu fusionierenden Objekt nächstliegenden Stützstelle kann geschätzt werden, wobei basierend auf der geschätzten Straßengeometrie des Straßenabschnitts der Abstand zwischen dem zu fusionierenden Objekt und der Stützstelle geschätzt werden kann.
  • Basierend auf dem geschätzten Abstand kann ein Offset zwischen der Stützstelle und dem zu fusionierenden Objekt ermittelt werden.
  • Der Verlauf des Straßenabschnitts kann basierend auf von wenigstens einer oder der wenigstens einen Sensoreinheit erfassten Informationen und/oder basierend auf von wenigstens einer oder der wenigstens einen Schnittstelle bereitgestellten Informationen geschätzt werden.
  • Es kann ermittelt werden, ob sich das zu fusionierenden Objekt auf demselben Pfad oder derselben Fahrspur wie das Fahrzeug befindet.
  • Die Informationen in dem digitalen Kartenformat eines zu fusionierenden Objekts, dessen absolute Positionsinformationen bekannt sind, können mittels eines relativen Verschiebungsvektors ausgehend den derzeitigen absoluten Positionsinformationen des Fahrzeugs ermittelt werden.
  • Figurenliste
  • Weitere Einzelheiten, Merkmale, Vorteile und Wirkungen der vorliegend beschriebenen Verfahren und Vorrichtungen ergeben sich aus der nachfolgenden Beschreibung derzeit bevorzugter Varianten sowie aus den Zeichnungen. Dabei zeigen:
    • 1 eine schematische Darstellung eines Systems zur Erstellung eines Umgebungsmodells eines Fahrzeugs;
    • 2 eine beispielhafte Ansicht zur Erläuterung eines logischen Kartenformats im Pfad/Offset-Format;
    • 3 eine beispielhafte Darstellung zur Erläuterung der Fusion von Informationen im Pfad/Offset-Format mit relativen Positionsinformationen;
    • 4 eine weitere beispielhafte Darstellung zur Erläuterung der Fusion von Informationen im Pfad/Offset-Format mit relativen Positionsinformationen;
    • 5 eine beispielhafte Darstellung zur Veranschaulichung der Vorgehensweise bei der Ermittlung der absoluten Positionsinformationen aus einem Abstand zwischen den zu fusionierenden Objekt und dem Fahrzeug;
    • 6 eine beispielhafte Darstellung zur Ermittlung des Offsets des zu fusionierenden Objekts für den Fall, in dem die Straßengeometrie mit einer Vielzahl von Geometriepunkten ermittelt wird;
    • 7 zeigt eine beispielhafte Darstellung, in der die Ermittlung der Straßengeometrie mit Stützstellen mit bekannten absoluten Positionsinformationen ermittelt wird;
    • 8 eine beispielhafte Darstellung zur Erläuterung der Bestimmung des Offsets eines zu fusionierenden Objekts mittels Stützstellen;
    • 9 eine beispielhafte Darstellung, in der die Straße zwischen dem Fahrzeug, der Stützstelle und dem zu fusionierenden Objekt gekrümmt verläuft;
    • 10 ein Beispiel für eine geschätzte Straßengeometrie bzw. einen geschätzten Straßenverlauf;
    • 11 eine beispielhafte Darstellung zur Erläuterung der Ermittlung der Positionsinformationen im Pfad/Offset-Format am Beispiel einer Ampelanlage mit bekannten absoluten Positionsinformationen;
    • 12 eine beispielhafte Darstellung zur Erläuterung der Problematik bei der Fusion von Positionsinformationen im Pfad/Offset-Format und absoluten Positionsinformationen bei gekrümmten Straßenverlauf;
    • 13 und 14 ein Darstellung von verschiedenen Fusionsmöglichkeiten zur Erstellung eines Umgebungsmodells; und
    • 15 eine Darstellung zur Veranschaulichung der der Vorteile eines Umgebungsmodells mit fusionierten Positionsinformationen.
  • Detaillierte Beschreibung der Zeichnungen
  • In 1 ist schematisch eine Sensoreinheit 110, ein System 120, eine Navigationseinheit 130 und eine Schnittstelle 140, wobei die Sensoreinheit 110, das System 120, die Navigationseinheit 130 und die Schnittstelle von einem Kraftfahrzeug (nicht dargestellt) umfasst sein können. Die Sensoreinheit 110, die Navigationseinheit 130 und die Schnittstelle 140 können mit dem System 120 verbunden, welche wiederum mit der Navigationseinheit 130 verbunden ist.
  • Die Sensoreinheit 110 kann beispielsweise eine Kameraeinheit, eine Radareinheit, eine Lidareinheit o. ä. sein. Das System 120 kann jedoch auch mit mehreren Sensoreinheit 110 verbunden sein, d. h. das System 120 kann mit einer Kameraeinheit, einer Radareinheit und einer Lidareinheit verbunden sein. Die Sensoreinheit 110 stellt dem System 120 relative Positionsinformationen eines zu fusionierenden Objekts (nicht gezeigt) in der Umgebung des Fahrzeugs bereit. Handelt es sich bei der Sensoreinheit 110 um eine Kameraeinheit, kann diese eine Time-of-Flight-, TOF, Kameraeinheit sein. Eine Time-of-Flight-Kamera kann die Umgebung des Fahrzeugs aufgrund des von ihr durchgeführten Distanzmessverfahrens in 3D erfassen. Eine Time-of-Flight-Kamera leuchtet die Umgebung des Fahrzeugs mit Lichtpulsen aus, wobei die Kameraeinheit für jeden Bildpunkt die Zeit misst, die das Licht bis zum Objekt und wieder zurück braucht. Aus der benötigten Zeit wird dann die Distanz zu dem erfassten Objekt ermittelt. Die Sensoreinheit 110 kann weiter dazu eingerichtet sein, den Verlauf einer Straßenbegrenzung und/oder einer Spurmittellinie zu erfassen. Ferner kann die Sensoreinheit 110 dazu eingerichtet sein, die Straßenbreite zu erfassen.
  • Die Navigationseinheit 130 ist dazu eingerichtet, aus Positionsinformationen des Fahrzeugs und/oder Karteninformationen Informationen über die derzeitige Position des Fahrzeugs und über wenigstens einen zeitlich und räumlich vor dem Fahrzeug liegenden Straßenabschnitt bereitzustellen. Diese Informationen können in einem digitalen Kartenformat bereitgestellt werden. Die Navigationseinheit 130 kann entsprechend dazu eingerichtet sein, die momentane Position des Kraftfahrzeugs basierend auf einem Signal, insbesondere einem GPS-Signal, zu ermitteln. Weiter kann die Navigationseinheit 130 auf Kartendaten in einem digitalen Kartenformat zugreifen, die in einem Speicher der Navigationseinheit 130 gespeichert sind, in Form eines externen Datenträgers und/oder einem Cloud-System bereitgestellt werden. Die Kartendaten können auch Informationen über den Verlauf der Straßenbegrenzung und/oder den Verlauf der Spurmittellinie und/oder die Straßenbreite enthalten. Auch die aktuelle Fahrzeugposition kann der Navigationseinheit 130 in einem digitalen Kartenformat bereitgestellt werden. Die Kartendaten können auch Informationen über die Straßengeometrie und die Topologie des vor dem Fahrzeug liegenden Stra-ßenabschnitts umfassen.
  • Die Schnittstelle 140 ist dazu eingerichtet, mit wenigstens einem zu fusionierenden Objekt in der Umgebung des Fahrzeugs zu kommunizieren. Die von der Schnittstelle 140 empfangenen Informationen umfassen absolute Positionsinformationen des wenigstens einen zu fusionierenden Objekts. Bei der Schnittstelle 140 kann es sich um eine Schnittstelle für die sogenannte „V2X“-Kommunikation handeln. Als V2X wird die Kommunikation eines Fahrzeugs mit Objekten bezeichnet. Unter diesen Ausdruck fällt somit die Kommunikation des Fahrzeugs mit anderen Fahrzeugen, mit Infrastrukturobjekten, aber auch mit Menschen (Fußgängern). Infrastrukturobjekte können beispielsweise Ampeln, Verkehrszeichen, mobile und stationäre Fahrbahnbegrenzungen, Gebäude, Schilder, Werbetafeln, oder ähnliches sein.
  • Das System 120 ist dazu eingerichtet, aus den von der Navigationseinheit 130 bereitgestellten Informationen Geometriepunkte und/oder Stützstellen mit bekannten absoluten Positionsinformationen und/oder mit bekannten Positionsinformationen im Pfad/Offset-Format zu ermitteln. Mit den ermittelten Geometriepunkten und/oder Stützstellen kann das System 120 die Straßengeometrie des vor dem Fahrzeug liegenden Straßenabschnitts zu ermitteln. Das System ist weiter dazu eingerichtet basierend auf der ermittelten Straßengeometrie die absoluten Positionsinformationen und/oder die relativen Positionsinformationen des wenigstens einen zu fusionierenden Objekts mit den von der wenigstens einen Navigationseinheit 130 bereitgestellten Informationen in einem Pfad/Offset-Format zur Erstellung eines Umgebungsmodells der Umgebung des Fahrzeugs zu fusionieren. Die Kartendaten können auch Informationen über den Verlauf der Straßenbegrenzung und/oder den Verlauf der Spurmittellinie und/oder die Straßenbreite enthalten.
  • 2 zeigt eine schematische Darstellung zur Erläuterung des Pfad/Offset-Formats zur Positionsangabe von Objekten wie Fahrzeugen und Verkehrszeichen, Schilder und Kreuzungen in einer digitalen Karte gemäß dem ADASIS-Protokoll. Straßen sind durch Pfade repräsentiert und durch eine Pfad-ID eindeutig gekennzeichnet. Zu jedem Pfad gibt es einen Offset-Wert, welcher in Meter (oder cm, mm, usw.) angegeben wird und damit den Ort von Objekten und weiteren Informationen wie z.B. Straßenkrümmungs- und Steigungswerte auf dem Pfad angibt. Auch die aktuelle Fahrzeugposition wird mittels Pfad/Offset Angabe festgelegt. Positionsinformationen, die von einer Sensoreinheit wie z.B. einer Kameraeinheit, einer Radareinheit oder einer Lidareinheit im Fahrzeug stammen, sind zumeist in relativen Positionsinformationen angegeben. So kann die Kamera oder das Radar beispielsweise angeben, dass sich in einem bestimmten Abstand zum Fahrzeug ein relevantes bzw. zu fusionierendes Objekt (z.B. Verkehrsschild oder anderes Fahrzeug) befindet. Im Gegensatz dazu liegen Daten, die mittels V2X-Technologie empfangen werden, in absoluten Positionsinformationen (z.B. WGS84 Weltkoordinaten) vor. So können beispielsweise Ampeln den aktuellen Schaltungsstatus zusammen mit absoluten Positionsinformationen im WGS84-Format der Ampeln senden.
  • Im Folgenden wird mit Bezug auf die 3 bis 11 ein Ausführungsbeispiels eines Verfahrens zur Erstellung eines Umgebungsmodells eines Fahrzeugs beschrieben, das beispielsweise von dem System 120 ausgeführt werden kann. In dem im Folgenden beschriebenen Ausführungsbeispiel wird Fusion von relativen oder absoluten Positionsinformationen aus verschiedenen Informationsquellen mit Informationen im Pfad/Offset-Format gemäß dem „ADASIS“-Protokoll erläutert. In dieser Offenbarung werden die Positionsinformationen aus einer digitalen Karte als Informationen im Pfad/Offset-Format oder auch als Informationen in einem digitalen Kartenformat bezeichnet. Das Pfad/Offset-Format stellt ein Beispiel für ein digitales Kartenformat dar.
  • 3 zeigt eine beispielhafte Darstellung der Fusion von Informationen im Pfad/Offset-Format mit relativen Positionsinformationen. Das Ego-Fahrzeug 10 fährt auf einer Straße 12. Der Straße12 wurde in der digitalen Karte die Pfad-ID 8 zugeordnet. Der Offset für Pfad 8 steigt in Richtung des gestrichelten Pfeils P linear an. Beispielsweise durch die Kameraeinheit und/oder die Radareinheit (nicht gezeigt) des Ego-Fahrzeugs 10 werden eine Baustelle 14 und ein Fahrzeug 16 auf einer Fahrspur 18 erfasst. Aus den Kamera- und Radarinformationen kann der Abstand zur Baustelle 14 und zum Fahrzeug 16 bestimmt werden. Außerdem ist durch die Kamera- und Radarinformationen bekannt, auf welcher Fahrspur 18 und 20 sich die Objekte 14, 16 befinden. Aus diesem Grund können die Baustelle 14 und das Fahrzeug 16 wie das Ego-Fahrzeug 10 dem Pfad 8 zugeordnet werden. Der Offset der Objekte ergibt sich aus dem relativen Abstand zum Ego-Fahrzeug ΔOffset und dem aktuellen Offset-Wert des Ego-Fahrzeuges: O f f s e t O b j e k t = O f f s e t E g o F a h r z e u g + Δ O f f s e t
    Figure DE102018005869A1_0001
  • Voranstehend wurde die allgemeine Vorgehendweise bei der Fusion von Informationen im Pfad/Offset-Format mit relativen Positionsinformationen erläutert. Eine Voraussetzung für die Fusion nach dem in 2 gezeigten Beispiel ist, dass die Straße keine oder nur eine geringe Krümmung aufweist. Nachstehend wird die Fusion Pfad/Offset-Format mit relativen Positionsinformationen ohne Beschränkung auf einen bestimmten Straßenverlauf beschrieben.
  • 4 zeigt eine weitere beispielhafte Darstellung einer Situation des Fahrzeugs, in der die Fusion von Informationen im Pfad/Offset-Format mit relativen Positionsinformationen benötigt wird. In 4 befindet sich das Ego-Fahrzeug 10 auf einer Straße 12, die in dieser beispielhaften Darstellung lediglich eine einzige Fahrspur aufweist. Anders als in 2 verläuft die Straße 12 nicht gerade, sondern gekrümmt. Einen Spezialfall stellen Kreuzungen dar. Bei Kreuzungen kann sich die die Fahrtrichtung beispielsweise 90° zur vorhergehenden Fahrrichtung ändern. Auch bei dem Spezialfall von Kreuzungen kann die Fusion von Informationen im Pfad/Offset-Format mit relativen Positionsinformationen gemäß der nachstehenden Beschreibung erfolgen.
  • Das Ego-Fahrzeug 10 weist eine Sensoreinheit (nicht gezeigt) wie zum Beispiel eine Kameraeinheit oder eine Radareinheit auf, die zur Erfassung von zu fusionierenden Objekten wie dem Verkehrszeichen 22 (Geschwindigkeitsbegrenzung auf 60 Km/H) dient. Gemäß diesem Beispiel stellt das Verkehrszeichen 22 das zu fusionierenden Objekt 22 dar. Ein fusionierendes Objekt kann jedoch auch ein anderer Verkehrsteilnehmer, eine Ampel, ein Verkehrszeichen oder auch Fußgänger sein.
  • Die Sensoreinheit (nicht gezeigt) kann relative Positionsinformationen mit nur einer Koordinate bezüglich des zu fusionierenden Objekts 22 bereitstellen. Diese Positionsinformation kann beispielsweise ein Abstand des Objekts 22 relativ zum Ego-Fahrzeug 10 (z.B. Objekt ist 10 Meter entfernt) sein. Es ist jedoch auch möglich, dass die Sensoreinheit genauere Positionsinformationen mit mindestens zwei Koordinaten liefert. Derartige Koordinaten können beispielsweise in Polarkoordinaten oder kartesischen Koordinaten angegeben werden. Die Positionsinformationen können dann einen Abstand und einen Winkel enthalten, wie z.B. das Objekt befindet sich 50 Meter entfernt in einem Winkel von 5° zur Fahrtrichtung.
  • Im Folgenden werden die in der nachstehenden Tabelle gezeigten Variablen verwendet.
    Symbole Bedeutunq
    xw, yw Weltkoordinaten, z.B. WGS84 Koordinaten
    xO Offset-Koordinate auf einem Pfad bei Pfad/Offset Darstellunq
    zwO, ywO bzw. xOO Weltkoordinaten bzw. Offset-Koordinate des zu fusionierenden Objekts
    O Objektpunkt des zu fusionierenden Objekts (z.B. Verkehrszeichen) entweder mit Weltkoordinaten O(xwO, ywO) oder mit Offset-Koordinate O(xOO)
    G Geometriepunkt (z.B. der Spurmittellinie) entweder mit Weltkoordinaten G(xw, yw) oder mit Offset-Koordinate G(xO)
    S Stützstelle für die Fusion (z.B. Landmarke) entweder mit Weltkoordinaten S(xw, yw) oder mit Offset-Koordinate S(xO)
  • Die digitale Karte kann Informationen bezüglich der Straßengeometrie zumeist in absoluten Positionsinformationen, wie zum Beispiel in Weltkoordinaten, bereitstellen. Zur Straßengeometrie gehören unter anderem die Geometrie der Straßen- und Spurmittellinie und die Geometrie von Spurmarkierungen. In 4 sind die Geometriepunkte G einer Spurmittellinie dargestellt. Von den Geometriepunkten G sind sowohl die Weltkoordinaten G(xw, yw) als auch der Offsetwert auf dem jeweiligen Pfad G(xO) bekannt. Gemäß dem in 4 gezeigten Beispiel liegen die Informationen mit ausreichend hoher Dichte vor, d.h. der Abstand zwischen den einzelnen Punkten G(xw, yw) ist klein genug, sodass in der unmittelbaren Nähe des zu fusionierenden Objekts 22 mehrere Geometriepunkte G(xw, yw) liegen. Auch vom Ego-Fahrzeug 10 sind die Positionsinformationen in Weltkoordinaten E(xw, yw) und auch der Offsetwert E(xO) bekannt.
  • Die Sensoreinheit erfasst das zu fusionierende Objekt 22 und stellt dessen relative Positionsinformationen relativ zum Ego-Fahrzeug 10 entweder eindimensional nur unter der Angabe des Abstands zum Ego-Fahrzeug 10 oder durch genauere Positionsinformationen wie z.B. Winkel und Abstand relativ zum Ego-Fahrzeug 10 und mit einem Verschiebungsvektor dar.
  • Zunächst werden aus den von der Sensoreinheit bereitgestellten relativen Positionsinformationen des Objekts 22 absolute Positionsinformationen ermittelt. Die absoluten Positionsinformationen können in Weltkoordinaten angegeben werden. Aus den relativen Positionsinformationen des Objekts 22 werden die Weltkoordinaten für das Objekt 22 (O(xwo, ywo)) ermittelt. Weltkoordinaten werden zumeist nicht kartesisch angegeben, sondern in erster Näherung beispielsweise als sphärische Koordinaten. Das WGS84 Modell benutzt einen Rotationsellipsoiden zur Beschreibung der Erdoberfläche. Zur einfacheren Erläuterung der Fusion wird eine sphärische Erddarstellung angenommen. Diese Näherung ist für die kurzen Abstände zwischen Fahrzeug und Fusionsobjekt ausreichend genau.
  • Stellt die Sensoreinheit den Winkel α und den Abstand d zum zu fusionierenden Objekt 22 bereit, ergeben sich die Weltkoordinaten des Objekts 22 (O(xwo, ywo)) aus den Weltkoordinaten des Ego-Fahrzeugs E(xwE, ywE): x w o = arcsin ( sin  x w E cos d R + cos  x w E sin d R cos  α )
    Figure DE102018005869A1_0002
    y w o = y w E +arctan2 ( sin  α sin d R cos  x w E , cos d R sin  x w E  sin  x w o )
    Figure DE102018005869A1_0003
  • Hierbei ist d der Abstand vom Ego-Fahrzeug 10 zum Objekt 22, α ist der Winkel in Richtung des Objekts 22 gemessen ab der Verbindungslinie zwischen Ego-Fahrzeug und Nordpol und R der Erdradius.
  • Stellt die Sensoreinheit einen Verschiebungsvektor v́ = (a, b) in kartesischen Koordinaten bereit, muss aus diesem aus diesem zuerst d und α berechnet werden. Anschließend kann O(xwo, ywo) mit den oben wiedergegebenen Formeln bestimmt werden. Beispielsweise kann sich aus geometrischen Beziehungen ergeben: d = a 2 + b 2
    Figure DE102018005869A1_0004
    α = α F + α O
    Figure DE102018005869A1_0005
    Hierbei ist αF die Orientierung des Ego-Fahrzeuges (gemessen ab der Verbindungslinie Ego-Fahrzeug zu Nordpol) und αO der Winkel zwischen der Längsachse des Ego-Fahrzeuges 10 zum Objekt 22. Dieser Winkel ergibt sich aus dem ermittelten Vektor v .
    Figure DE102018005869A1_0006
  • 5 zeigt eine beispielhafte Darstellung zur Veranschaulichung der Vorgehensweise bei der Ermittlung der absoluten Positionsinformationen des fusionierenden Objekts 22 aus dem Abstand d zwischen dem Ego-Fahrzeug 10 und dem zu fusionierenden Objekt 22.
  • Die Sensoreinheit (nicht gezeigt) stellt den Abstand d zwischen dem Ego-Fahrzeug 10 und dem zu fusionierenden Objekt 22 bereit, das gemäß der beispielhaften Darstellung in 5 ein Verkehrszeichen ist. Mögliche Punkte Omöglich(xw, yw) zur Angabe der absoluten Positionsinformationen des Objekts 22 liegen auf einem Kreis um das Ego-Fahrzeug 10 mit dem Radius d, d.h. der Radius entspricht dem Abstand d. Mit den von der Sensoreinheit ermittelten Informationen oder der Kombination von Informationen aus mehreren Sensoreinheiten wie zum Beispiel der Kombinationen von Informationen, die von der Radareinheit und der Kameraeinheit bereitgestellt werden, kann festgestellt werden, dass es sich bei dem zu fusionierenden Objekt 22 um ein Verkehrszeichen handelt. Da es sich bei dem zu fusionierenden Objekt 22 um ein Verkehrszeichen handelt, kann die die Straßengeometrie mithilfe der Geometrie der Straßenbegrenzung als Referenzgeometrie ermittelt werden. Von der Geometrie der Straßenbegrenzung sind die Geometriepunkte G(xw, yw) und G(xO) bekannt. Die absoluten Positionsinformationen O(xwo, ywo) in Weltkoordinaten für das Objekt 22 können mit dem Schnittpunkt der Kurve mit dem Radius d aller möglichen Objektpunkte Omöglich(xw, yw) für das zu fusionierenden Objekt 22 mit der ermittelten Stra-ßengeometrie G(xw, yw) bestimmt werden.
  • Wenn sich, wie voranstehend beschrieben wurde, aufgrund von unzureichenden Sensorinformationen die absoluten Positionsinformationen O(xwo, ywo) des zu fusionierenden Objekts 22 in Weltkoordinaten nicht direkt bestimmen lassen, können verschiedene zusätzliche Informationen genutzt werden, um einen bestmöglichen Alternativpunkt für die absoluten Positionsinformationen des zu fusionierenden Objekts 22 zu bestimmen. Diese zusätzlichen Informationen können beispielsweise durch die folgenden Schritte ermittelt oder erfasst werden:
    • - Bestimmung des Typs des zu fusionierenden Objekts (z.B. Verkehrszeichen, anderer Verkehrsteilnehmer), beispielsweise durch Auswertung der Kamera- und/oder Positionsinformationen.
    • - Berechnung von mehreren möglichen Alternativpunkten für Omöglich(xw, yw). Dies wurde voranstehend anhand der beispielhaften Darstellung gemäß 5 beschrieben, wobei, wenn der Abstand d zum fusionierenden Objekt 22 bekannt ist, die möglichen Alternativpunkte Omöglich(xw, yw) auf einem Kreis um das Ego-Fahrzeug 10 liegen (siehe 5)
    • - Nutzung von Informationen, die für die unterschiedlichen Objekttypen von zu fusionierenden Objekten bekannt sind. Dies sind beispielsweise Information wie: Straßenschilder befinden sich an den Fahrbahnrändern, daher kann als Referenzgeometrie am besten der Straßenrand genutzt werden. Bei anderen Fahrzeugen als zu fusionierendes Objekt kann die Spurmittellinie als geeignete Referenzgeometrie zur Ermittlung der Straßengeometrie genutzt werden.
  • Mit Hilfe dieser Informationen wird ein geeigneter Alternativpunkt aus den möglichen Alternativpunkten ausgewählt.
  • 6 zeigt eine beispielhafte Darstellung zur Ermittlung des Offsets des zu fusionierenden Objekts 22 für den Fall, in dem die Straßengeometrie mit einer Vielzahl von Geometriepunkten G, deren absolute Positionsinformationen bekannt sind, ermittelt wird. Die Geometriepunkte G mit bekannten absoluten Positionsinformationen weisen in diesem Fall einen geringen Abstand zueinander auf.
  • Nach der Berechnung der absoluten Positionsinformationen beispielsweise in Weltkoordinaten des fusionierenden Objektes O(xwo, ywo) muss ein geeigneter Geometriepunkt Gsearch ausgewählt werden, der möglichst gut mit O(xwo, ywo) übereinstimmt. Mit Übereinstimmung kann beispielsweise der Geometriepunkt G gemeint sein, der den kürzesten Abstand zu O(xwo, ywo) aufweist. Bei einer hohen Anzahl an Geometriepunkten G (hohe Datendichte) lässt sich im einfachsten Fall dem zu fusionierenden Objekt O(xwo, ywo) direkt ein Geometriepunkt G zuweisen: O ( x w o , y w o ) = G s e a r c h ( x w , y w )
    Figure DE102018005869A1_0007
  • Ist der Abstand des zu fusionierenden Objekts O(xwo, ywo) zum nächstliegenden Geometriepunkt G größer als ein vorgegebener Schwellwert, so kann keine direkte Zuordnung erfolgen. In diesem Fall kann mittels Interpolation (oder durch Extrapolation) zwischen zwei oder mehreren Geometriepunkten ein neuer Geometriepunkt Ginterpol(xwo, ywo) bestimmt werden, der eine bessere Übereinstimmung mit dem Objektunkt O aufweist, sodass dann festgelegt werden kann: O ( x w o , y w o ) = G i n t e r p o l ( x w , y w )
    Figure DE102018005869A1_0008
  • Je nach Verlauf der Straßengeometrie, nach Dichte der Geometriepunkte G, nach der geforderten Genauigkeit und weiteren Kriterien kann zur Inter- bzw. Extrapolation ein lineares Verfahren oder Polynom höherer Ordnung oder ein sonstiges geeignetes Verfahren verwendet werden. Von dem Geometriepunkt Gsearch sind aufgrund der beschriebenen Voraussetzungen sowohl die absoluten Positionsinformationen in Weltkoordinaten xw , yw als auch der Verlauf des Offsets xo bekannt. Aus diesem Grund entspricht der Offset des zu fusionierenden Objekts 22 dem Offset von Gsearch G s e a r c h ( x o ) = O ( x o o )
    Figure DE102018005869A1_0009
  • Somit ist die Bestimmung des Offsets des Objektpunktes O des zu fusionierenden Objekts gelöst. Wenn ein inter- oder extrapolierter Geometriepunkt Ginterpol als Referenz verwendet wird, muss der Offset für Ginterpol zunächst interpoliert bzw. extrapoliert werden. Basis sind ein oder mehrere bekannte Nachbargeometriepunkte des der Starßengeometrie. Anschließend kann die folgende Zuordnung erfolgen: G i n t e r p o l ( x o ) = O ( x o o )
    Figure DE102018005869A1_0010
  • Mit Bezug auf 6 lassen sich die voranstehend beschriebenen Schritte beispielhaft erläutern. Der Geometriepunkt G105 (Xw105, yw105 ) hat eine gute Übereinstimmung mit dem zu fusionierenden Objekt 22 (O(xwo, ywo)), das zur Vereinfachung der Darstellung in 6 nicht gezeigt ist, sich aber an der in 5 gezeigten Position befindet. Mit anderen Worten stimmt die Position des Geometriepunkts G105 (xw105 , yw105 ) im Wesentlichen mit der Position des zu fusionierenden Objekts 22 (O(xwo, ywo)) (siehe 5) überein. Aus diesem Grund kann der Offset G105(xo,105) des Geometriepunkts G105 (xw105 , yw105 ) dem Offset des zu fusionierenden Objekts 22 (O(xwo, ywo)) zugewiesen werden: G 105 ( x o ,105 ) = O ( x o o )
    Figure DE102018005869A1_0011
  • 7 zeigt eine beispielhafte Darstellung, in der die Ermittlung der Straßengeometrie mit Hilfe von Stützstellen mit bekannten absoluten Positionsinformationen ermittelt wird. Es können Fälle auftreten, in denen die Straßengeometrie nicht mit Geometriepunkten ermittelt werden kann. In diesen Fällen können keine oder nur wenige Geometriepunkte mit bekannten absoluten Positionsinformationen vorhanden sein und/oder die bekannten Geometriepunkte weisen einen zu großen Abstand zueinander auf. Anders ausgedrückt, ist Datendichte so niedrig ist, sodass ein einfaches Interpolations- bzw. Extrapolationsverfahren mit den bekannten Geometriepunkten kein ausreichend genaues Ergebnis liefern kann. Ferner kann es vorkommen, dass die Datenpunkte nicht interpolierbar bzw. extrapolierbar sind. Dies ist beispielsweise der Fall, wenn keine Geometriepunkte für die Straße oder Spur vorhanden sind, sondern nur absolute Positionsinformationen beispielsweise in Weltkoordinaten von Objekten wie Ampeln und sonstigen Objekten, die unregelmäßig verteilt sind.
  • 8 zeigt beispielhaft die Ausgangssituation der Fusion bei niedriger Datendichte, d. h. bei wenigen bekannten Geometriepunkten und/oder Geometriepunkten mit einem zu großen Abstand zueinander. Bei den Stützstellen S1 , S2 und Sn kann es sich beispielsweise um Geometriepunkte der Straße handeln. Der große Abstand zwischen den Stützstellen S1 , S2 und Sn lässt eine sinnvolle Interpolation nicht zu. Bei der Stützstelle S3 kann es sich beispielsweise um eine Landmarke, eine Ampel oder ein V2X-fähiges Verkehrszeichen handeln, die ihre absoluten Positionsinformationen übertragen.
  • Für die Fusion werden auch im vorliegenden Fall zunächst die absoluten Positionsinformationen des zu fusionierenden Objekts O(xwo, ywo) bestimmt, falls diese nicht bekannt ist. Dies wurde voranstehend bereits im Detail beschrieben.
  • Nach der Bestimmung der absoluten Positionsinformationen des zu fusionierenden Objekts O(xwo, ywo) kann die Stützstelle Ssearch(xw , yw ) gefunden werden, die den geringsten Abstand zum Objekt O(xwo, ywo) aufweist. In dem Beispiel gemäß 8 wird hierzu die Stützstelle S3 gewählt. Die Berechnung des Abstands d vom Objekt O(xwo, ywo) zu den verfügbaren Stützstellen erfolgt über die bekannten Weltkoordinaten der Stützstellen S(xw, yw) und des Objekts O(xwO, ywO): d = 2 R  arctan2 ( a , 1 a )
    Figure DE102018005869A1_0012
    a = sin 2 ( Δ x w 2 ) + cos x w o  cos  x w  sin 2 Δ y w 2
    Figure DE102018005869A1_0013
  • Für diese Formeln wird als Basis ein sphärisches Erdmodell mit dem Radius R angenommen. Es ist zu erwarten, dass ein solches Erdmodell die Genauigkeitsanforderungen für die meisten Anwendungen erfüllt. Sollte dennoch eine höhere Genauigkeit notwendig sein, können andere Erdmodelle (z.B. Rotationsellipsoid) verwendet werden. Für viele Anwendungen ist es ausreichend, wenn Stützstellen und Objekte in einem kartesischen Koordinatensystem in der Umgebung des Ego-Fahrzeugs 10 referenziert sind. Dies trifft insbesondere für Stützstellen und Objekte in einem näheren Umkreis um das Ego-Fahrzeug 10 zu. Bei Verwendung eines kartesischen Koordinatensystems ergibt sich d aus d = ( x w o x w ) 2 + ( y w o y w ) 2
    Figure DE102018005869A1_0014
  • Welches Erdmodell und Koordinatensystem zur Referenzierung der Stützstellen und Objekte zum Einsatz kommen, hängt hauptsächlich von den Genauigkeitsanforderungen der jeweiligen Anwendung und auch von den zur Verfügung stehenden Ressourcen (Prozessorgeschwindigkeit, Speicher, verfügbare Rechenzeit, etc.) ab. Der Abstand d zwischen dem zu fusionierenden Objekt O(xwo, ywo) und Stützstelle Sn ist zwar ein wesentliches Kriterium zur Auswahl einer geeigneten Stützstelle Sn . Beispielsweise kann die Stützstelle Sn mit dem geringsten Abstand zum zu fusionierenden Objekt O(xwo, ywo) ausgewählt werden, jedoch können auch weitere Parameter einen Einfluss auf die Auswahl einer geeigneten Stützstelle Sn haben. So können die Stützstellen Sn beispielsweise über einen (oder mehrere) Konfidenzindikator(en) verfügen. Dieser Indikator kann beispielsweise angeben, wie hoch die Konfidenz ist, dass sich die Stützstelle tatsächlich an der gespeicherten Position befindet. Eine hohe Konfidenz ergibt sich beispielsweise dadurch, dass die Position der Stützstelle Sn von einer offiziellen Behörde mitgeteilt wurde (z.B. Straßenbehörde meldet Position eines Geschwindigkeitlimits in Weltkoordinaten) oder wenn die Position der Stützstelle Sn durch viele unterschiedliche Verkehrsteilnehmer bestätigt wurde. Bei einem niedrigen Konfidenzwert kann eine Stützstelle zur weiteren Verarbeitung ausgeschlossen werden und es kann eine Stützstelle Sn gewählt werden, die einen größeren Abstand d aber eine höhere Konfidenz aufweist. Als Konfidenz kann entweder ein oder mehrere Konfidenzparameter verwendet werden, die von einem Datenprovider geliefert werden. Außerdem ist es möglich, den Konfidenzparameter vor Verwendung der Stützstelle selbst zu berechnen. Als Eingangsgrößen zur Berechnung eines Konfidenzparameters können beispielsweise Zeitstempel (z.B. letzte Bestätigung über die Position der Stützstelle Sn ), Streuungsparameter (z.B. Varianz der gemessenen Stützstellenposition), Art der Datenquelle (z.B. andere Verkehrsteilnehmer oder öffentliche Behörde) und Art der Stützstelle Sn (z.B. temporär oder dauerhaft aufgestellte Verkehrszeichen) dienen.
  • Wegen der geringen Datendichte der Stützstellen S ist zu erwarten, dass von dem Offset Sn(xO) der ausgewählten Stützstelle S nicht auf den Offset O (xO,O) des zu fusionierenden Objekts O(xwo, ywo) geschlossen werden kann. Eine Zuweisung des Offsets der ausgewählten Stützstelle S als Offset des zu fusionierenden Objekts O(xwo, ywo) ist daher in den meisten Fällen nicht möglich, sodass gilt: S s e a r c h ( x o ) O ( x o , o )
    Figure DE102018005869A1_0015
    8 zeigt eine beispielhafte Darstellung zur Bestimmung des Offsets eines zu fusionierenden Objekts mit Stützstellen S, wobei die Straße in der Darstellung gemäß 8 gerade verläuft. Zur Verbesserung der Genauigkeit der Offsetbestimmung des Objekts muss geschätzt werden, wie die Geometrie der Straße und damit wie der Offset entlang der Straße verläuft. Wenn die Straße zwischen der Stützstelle Ssearch und dem Objekt gerade verläuft, lässt sich der Offset O(xo,o) des zu fusionierenden Objekts 22 durch den bekannten Abstand OSSearch zwischen dem zu fusionierenden Objekt 22 und der Stützstelle Ssearch berechnen x o , o = x o , S s e a r c h + O S S e a r c h ¯
    Figure DE102018005869A1_0016
  • Zu berücksichtigen ist gegebenenfalls, dass sich das zu fusionierenden Objekt 22 und die Stützstelle Ssearch nicht auf der gleichen Straßenseite befinden. In 7 befindet sich beispielsweise der Stützstelle Ssearch auf der linken und das zu fusionierenden Objekt 22 auf der rechten Straßenseite. In diesem Fall muss aus geometrischen Beziehungen der Abstand OSSearch,straße entlang der Straße berechnet werden. Die notwendigen Größen zur Bestimmung von OSSearch,straße können entweder aus einer Datenbank (z.B. in digitaler Karte ist die Straßenbreite bStraße gespeichert) entnommen werden oder können mit Fahrzeugsensoren bestimmt werden (z.B. Bestimmung der Straßenbreite bStraße mittels Fahrzeugkamera). Bei bekannter Straßenbreite und OSSearch ergibt sich: O S S e a r c h , s t r a ß e ¯ = O S s e a r c h ¯ 2 b S t r a ß e 2
    Figure DE102018005869A1_0017
  • Bei bStraße kann es sich neben der Straßenbreite auch um andere geometrische Größen wie die Spurbreite oder sonstige Abstände handeln, die sich aus von der wenigstens einen Sensoreinheit erfassten Sensorinformationen oder aus digitalen Karten ableiten lassen können. Außerdem können die Sensoreinheiten (wie zum Beispiel Kameraeinheit, Radareinheit) des Fahrzeugs eingesetzt werden, um zu überprüfen, ob die Voraussetzungen eines geraden Straßenverlaufs erfüllt sind. Wenn die Straße eine hohe Krümmung aufweist, liefert die Bestimmung von OSSearch,straße wie in 8 gezeigt ist, ein zu ungenaues Ergebnis. In diesem Fall ist es notwendig, die Stra-ßengeometrie und damit den Verlauf des Offsets entlang der Straße durch eine Schätzung auf Basis der Stützstellen mit bekannten absoluten Positionsinformationen und/oder bekannten Informationen im Pfad/Offset-Format zu ermitteln. Als Input kommen dazu vor allem Informationen der Fahrzeugsensoren zum Einsatz. So kann die die Straßengeometrie zwischen Ssearch und dem zu fusionierenden Objekt beispielsweise mit Informationen der wenigstens einen Sensoreinheit geschätzt werden. Die wenigstens eine Sensoreinheit kann beispielsweise eine Kameraeinheit sein. In den Aufnahmen der Kameraeinheit kann der Verlauf der Spurmarkierungen ausgewertet werden. Unterstützend können beispielsweise der Lenkwinkel und die aufgezeichnete gefahrene Fahrzeugtrajektorie verwendet werden. Aus dem gefahren Straßenverlauf kann so für einen gewissen Abstand der weitere Straßenverlauf extrapoliert werden.
  • 9 zeigt eine beispielhafte Darstellung, in der die Straße zwischen dem Ego-Fahrzeug 10, der Stützstelle Ssearch und dem zu fusionierenden Objekt 22 gekrümmt verläuft. Mit einer oder mehrerer Sensoreinheiten des Ego-Fahrzeugs 10 (Kameraeinheit, Odometrie, GPS, etc.) kann die Straßengeometrie zwischen dem Ego-Fahrzeug 10 und dem zu fusionierenden Objekt 22 geschätzt werden. Dadurch lässt sich der Abstand zwischen Ssearch und dem zu fusionierenden Objekt 22 schätzen, sodass sich der Offset O(xO,O) zu fusionierenden des Objekts 22 berechnen lässt: x o , o = x o , S s e a r c h + O S S e a r c h , s t r a ß e , g e s c h ä t z t ¯
    Figure DE102018005869A1_0018
  • Die möglichst präzise Bestimmung von OSSearch,straße,geschätzt ist dabei besonders wichtig, um die geforderte Genauigkeit zu erreichen. Folgende Informationen können beispielsweise in die Schätzung mit einfließen:
    • - Auswertung der Kamerabilder, z.B. bezüglich des Verlauf der Straßenmarkierungen, relative Lage von erkannten Objekten zueinander, etc,
    • - Verwendung von Abstands- und Winkelangaben von Sensoreinheit wie Radareinheit und/oder Lidareinheit,
    • - Speicherung der kürzlich gefahrenen Fahrzeugtrajektorie, z.B. durch Speicherung der GPS-Position,
    • - Verwendung des Lenkwinkels und der Fahrzeuggeschwindigkeit, und
    • - Verwendung von Stützstellen aus der digitalen Karte, von denen die Weltkoordinaten bekannt sind.
  • 10 zeigt ein Beispiel für eine geschätzte Straßengeometrie bzw. einen geschätzten Straßenverlauf. Wenn die Geometrie der Straße geschätzt werden kann, ergibt sich die Offsetdifferenz ΔOffset zwischen Ego-Fahrzeug 10 und dem zu fusionierenden Objekt 22 (oder zwischen Stützstelle Sn und zu fusionierenden Objekt 22) aus: Δ O f f s e t = a b d s
    Figure DE102018005869A1_0019
    Hier bezeichnet a den Startpunkt der Wegintegration (z.B. Stützstelle, Fahrzeug) und b der Ort des zu fusionierenden Objekts 22 nun. Für die Lösung dieser Aufgabe können unterschiedliche Koordinatensysteme (z.B. kartesisch, Polarkoordinaten) zum Einsatz kommen. Die Wahl des Koordinatensystems hängt von den jeweiligen Bedingungen ab, d.h. insbesondere davon, welche Eingangsgrößen zur Schätzung des Geometrieverlaufs der Straße genutzt werden können
  • Wie in 10 dargestellt wird, erfasst die Kameraeinheit (nicht gezeigt) des Ego-Fahrzeugs 10 die Umgebung des Fahrzeugs, insbesondere die vor dem Fahrzeug liegen der Umgebung. Mithilfe der von der Kameraeinheit erfassten Informationen soll die Straßengeometrie bzw. der Verlauf der Straße geschätzt werden. Die Schätzung kann sich beispielsweise durch Auswertung der Spurmarkierungen in den Kamerabildern ergeben. In dieser Anordnung ist es sinnvoll, den geschätzten Verlauf der Straße 12 sg als Funktion der longitudinalen Koordinate xF im kartesischen Fahrzeug-Koordinatensystem anzugeben: s g = f ( x F )
    Figure DE102018005869A1_0020
    In diesem Fall ergibt sich dann: Δ O f f s e t = 0 b 1 + ( d s g d x ) 2 d x
    Figure DE102018005869A1_0021
  • Bei bekannten Abstand d und Winkel α des zu fusionierenden Objekts 22 zum Ego-Fahrzeug 10 (z.B. aus den Informationen der wenigstens einen Sensoreinheit wie beispielsweise der Radareinheit) gilt für b im Fahrzeug-Koordinatensystem: b = d  cos  α
    Figure DE102018005869A1_0022
    11 zeigt die Ermittlung der Positionsinformationen im Pfad/Offset-Format am Beispiel einer Ampelanlage mit bekannten absoluten Positionsinformationen. Die Ampelanlage 24 stellt das zu fusionierende Objekt dar. Bei Positionsinformationen, die beispielsweise von einer V2X-Basisstation zum Fahrzeug gesendet werden, handelt es sich zumeist um absolute Positionsinformationen. So sendet beispielsweise eine Ampelanlage den aktuellen Schaltzustand zusammen mit ihrer absoluten Positionsinformationen der Ampel 24 in WGS84-Koordinaten, d. h. in Weltkoordinaten. Für die Fusion von absoluten Positionsinformationen mit den Positionsinformationen im Pfad/Offset-Format wird die aktuelle absolute Fahrzeugposition (oder eine andere geeignete Referenz) verwendet. Beispielsweise durch den GPS-Empfänger im Fahrzeug 10 sind die absoluten Positionsinformationen des Fahrzeugs 10 bekannt. Ebenso ist die Position des Fahrzeuges im Pfad/Offset-Format (z.B. „ADASIS“) bekannt.
  • Die Pfad/Offset Darstellung des relevanten Objekts 24 (z.B. Ampelanlage) lässt sich auf unterschiedliche Weise finden. Im einfachsten Fall, beispielsweise bei kleiner Distanz zwischen Fahrzeug und relevantem Objekt und bei näherungsweise geradem Straßenverlauf kann aus der absoluten Position des Fahrzeuges und der absoluten Position des zu fusionierenden Objekts 24 ein relativer Verschiebungsvektor (Fahrzeug 10 zu dem zu fusionierenden Objekt 24) berechnet werden. Somit ist die relative Verschiebung zwischen dem Fahrzeug 10 und Objekt 24 bekannt. Die Bestimmung der Positionsinformationen im Pfad/Offset-Format aus bekannten absoluten Positionsinformationen wurde voranstehend mit Bezug auf die 3 bis 10 im Detail erläutert.
  • Von dem Ego-Fahrzeug 10 sind sowohl die Positionsinformationen im Pfad/Offset-Format als auch die absoluten Positionsinformationen in Weltkoordinaten (WGS84-Koordinaten) bekannt. Aus diesen Weltkoordinaten des Ego-Fahrzeuges 10 und der Ampelanlage 24, die das zu fusionierenden Objekt darstellt, kann der relative Verschiebungsvektor zwischen Ego-Fahrzeug 10 und Ampelanlage 24 berechnet werden. Dieser Vektor kann dann dazu verwendet werden, aus den Positionsinformationen im Pfad/Offset-Format des Ego-Fahrzeuges 10 die Positionsinformationen der Ampelanlage im Pfad/Offset-Format zu berechnen. Nach der Berechnung der Positionsinformationen im Pfad/Offset-Format kann die Ampelanlage in ein Umgebungsmodells des Fahrzeugs eingefügt werden. Dieses Umgebungsmodell kann beispielsweise ein elektronischer Horizont (z.B. gemäß dem „ADASIS“-Protokoll) sein.
  • 12 zeigt eine beispielhafte Darstellung zu Erläuterung der Problematik bei der Fusion von Positionsinformationen im Pfad/Offset-Format und absoluten Positionsinformationen bei gekrümmtem Straßenverlauf. Bei einem gekrümmten Straßenverlauf kann ein Verschiebungsvektor zwischen Ego-Fahrzeug 10 und dem relevanten bzw. zu fusionierenden Objekt 26 berechnet werden. Wenn dieser dann jedoch zum Offset-Wert des Ego-Fahrzeuges 10 addiert wird, ergibt sich ein falscher Wert des Offsets (und eventuell des Pfades) des zu fusionierenden Objekts 26, da der Offset-Wert der Straße nicht dem Verschiebungsvektor folgt (siehe 10). Der reale Offsetverlauf entspricht voranstehend beschriebenen dem Pfadintegral entlang des in 11 gestrichelten Pfeils P. Die weitere Vorgehensweise entspricht dann der voranstehend beschriebenen Fusion der absoluten Positionsinformationen mit Positionsinformationen im Pfad/Offset-Format. Zur Vermeidung von Wiederholungen wird auf die voranstehend detaillierte Beschreibung der 3 bis 10 verwiesen.
  • Die 13 und 14 zeigen welche Fusionsmöglichkeiten durch die vorliegende Offenbarung geschaffen werden, um ein Umgebungsmodell des Fahrzeugs erstellen zu können. Die voranstehend beschriebenen Ausführungsbeispiele beziehen sich auf die Fusion von relativen und absoluten Positionsinformationen (im Relativ- und Weltkoordinatenformat) mit Positionsinformationen in einer logischen Kartenrepräsentation (Pfad/Offset-Format). Dies ist in 13 gezeigt. Bei den von einer Sensoreinheit des Fahrzeugs erfassten Positionsinformationen kann es sich beispielsweise um Informationen von einer Kamera- und/oder Radareinheit handeln. Bei der logischen Kartenrepräsentation kann es sich beispielsweise um einen elektronischen Horizont nach der „ADASIS“-Protokoll handeln. Die voranstehenden Ausführungsbeispiele betreffen somit unter anderem die Integration von relativen oder absoluten Positionsinformationen in einen digitalen Horizont. Für die ADAS/AD-Applikationen ergibt sich dadurch der Vorteil, dass ein einheitliches und fusioniertes Umgebungsmodel unabhängig von der Quelle der Positionsinformationen erzeugt wird.
  • Neben diesem Ansatz ist es wie in 14 gezeigt ist auch möglich, die relativen oder absoluten Positionsinformationen nicht in den elektronischen Horizont zu integrieren werden, sondern die relativen und/oder absoluten Positionsinformationen und die Positionsinformationen aus dem elektronischen Horizont (im Pfad/Offset-Format) in ein zusätzliches Umgebungsmodell mit einem anderen Koordinatensystem zu fusionieren. Bei der Fusion gemäß 14 werden relativen und/oder absoluten Positionsinformationen und die Positionsinformationen auf dem elektronischen Horizont (im Pfad/Offset-Format) in ein zusätzliches Umgebungsmodel fusioniert, das ein anderes Koordinatensystem als der elektronische Horizont im Pfad/Offset verwendet. Hierbei kann es sich beispielsweise um ein kartesisches Koordinatensystem oder ein Polarkoordinatensystem handeln, das mit dem Ego-Fahrzeug mitbewegt wird. Die hier offenbarte und voranstehend beschriebene Fusion von Positionsinformationen schließt die beiden Möglichkeiten gemäß den 13 und 14 mit ein. Bei Verwendung gemäß 14 müssen zuerst die gleichen Schritte ausgeführt werden, wie bei den voranstehend beschriebenen Ausführungsbeispielen. Nach diesen Schritten können die fusionierten Positionsinformationen in ein anderes Koordinatensystem (wie z.B. ein kartesisches Koordinatensystem und/oder ein Polarkoordinatensystem) transferiert werden.
  • Gemäß dem mit Bezug auf die 1 bis 12 beschriebenen Ausführungsbeispiel des Verfahrens zur Erstellung eines Umgebungsmodells eines Fahrzeugs werden entweder relative Positionsinformationen relativ zum Ego-Fahrzeug oder absolute Positionsinformationen (Weltkoordinaten, z.B. WGS84-Koordinaten) mit Informationen im Pfad/Offset-Format fusioniert. Durch diese Informationsfusion lassen sich beispielsweise folgende Informationen in einen elektronischen Horizont bzw. in ein Umgebungsmodell des Fahrzeugs integrieren:
    • - Informationen zum aktuellen Zustand von Ampelanlagen. Mit der die beschriebene Informationsfusion ist es möglich, Echtzeitupdates zum Schaltzustand der Ampelanlage, welche beispielsweise von einer V2X-Datenquelle stammen, mit der Positionsangabe der Ampelanlage, welche aus einer digitalen Karte stammt, im elektronischen Horizont zu fusionieren. Nur mittels Informationsfusion können Echtzeitinformationen mit statischen Daten aus einer digitalen Karte fusioniert werden. Ohne die Fusion lässt sich damit nicht bestimmen, wie die Echtzeitinformationen zu Objekten im elektronischen Horizont zugeordnet werden können. Mit dieser Zuordnung kann ein (autonom fahrendes) Fahrzeug in sinnvoller Weise auf die entsprechende Ampel reagieren.
    • - Information zum aktuellen Zustand von variablen Geschwindigkeitsanzeigen (z.B. LED-Geschwindigkeitsanzeigen auf Autobahnen). Hier gilt das voranstehend mit Bezug auf die Echtzeitdaten von Ampelanlagen Gesagte. Ohne Information Fusion lassen sich die, z.B. per V2X empfangen Echtzeitdaten der Geschwindigkeitslimits nicht den statischen Objekten aus der digitalen Karte bzw. dem elektronischen Horizont zuordnen.
    • - Informationen zum Ort und Geschwindigkeit von anderen Verkehrsteilnehmern (z.B. andere Fahrzeuge, Fußgänger, usw.). Durch die Fusion kann die Position der anderen Verkehrsteilnehmer in den digitalen Horizont integriert werden. Dadurch liegen Informationen sowohl von der digitalen Karte als auch von den Fahrzeugsensoren in einem gemeinsamen Umgebungsmodell vor. Daraus resultiert eine bessere Situationsbewertung vieler ADAS/AD-Funktionen.
    • - Informationen von kurzfristig geänderten Straßenverläufen (z.B. an Baustellen). Beispielsweise kann an einer Baustelle der Verlauf der geänderten Spurführung per V2X an das Fahrzeug übermittelt werden. Durch die Fusion lassen sich die Informationen in den digitalen Horizont integrieren.
    • - Informationen über Verkehrsbehinderungen (z.B. Unfall, Straßensperrung).Auch in diesem Zusammenhang kann es hilfreich sein, die Positionsinformationen von unterschiedlichen Quellen in einen gemeinsamen elektronischen Horizont zu integrieren.
  • 15 zeigt die Vorteile der Fusion von Informationen aus unterschiedlichen Informationsquellen anhand des Beispiels einer Ampelanlage. Ohne der Integration und Zuordnung der Daten aus unterschiedlichen Quellen, beispielsweise der digitalen Karte, der Fahrzeugsensoren und V2X-Datenquellen entsteht kein einheitliches Umgebungsmodell. Es ist nicht möglich, gleiche Objekte aus unterschiedlichen Datenquellen zuzuordnen und deren Information zu kombinieren.
  • Durch die Integration dieser Informationen in ein Umgebungsmodells (z.B. „ADASIS“) lassen sich beispielsweise folgende Applikationen im ADAS/AD Bereich realisieren:
    • - Warnung des Fahrers vor Gefahrenstellen oder Verkehrsbehinderungen entlang des befahrenden Pfades. Durch die Informationsfusion ermittelt werden, ob sich die Gefahrenstellen auf dem aktuell befahrenen Pfad befinden und ob diese für das Fahrzeug relevant sind.
    • - Berücksichtigung von Informationen zum aktuellen Ampelzustand und Informationen von variablen Geschwindigkeitslimits in der Auswahl der Geschwindigkeit für einen intelligenten Tempomaten (z.B. „Green ACC“). Durch die Informationsfusion können die Echtzeitdaten aus Quellen wie beispielsweise V2X nicht mit den anderen Objekten (Ampeln, Verkehrszeichen) aus einer digitalen Karte zu einem gemeinsamen Umgebungsmodell bzw. Horizont fusioniert und zugeordnet werden. Ohne diese Zuordnung lassen sich die beispielsweise aus einer V2X-Datenquelle empfangen Informationen nicht interpretieren.
    • - Anzeige der Information zum aktuellen Ampelzustand und Informationen von variablen Geschwindigkeitslimits an einer Mensch-Maschine-Schnittstelle (Human-Machine-Interface (HMI)) im Fahrzeug. Durch die Informationsfusion lassen sich die Daten aus unterschiedlichen Quellen zu einem gemeinsamen Umgebungsmodell bzw. zuordnen und interpretieren.
    • - Auswahl einer alternativen Route aufgrund von Verkehrsbehinderungen. Durch die Informationsfusion lässt sich bestimmen, ob die Verkehrsbehinderung für das Fahrzeug relevant ist.
  • Die vorangehend beschriebenen Varianten des Verfahrens oder der Vorrichtungen sowie deren Funktions- und Betriebsaspekte dienen lediglich dem besseren Verständnis der Struktur, der Funktionsweise und der Eigenschaften; sie schränken die Offenbarung nicht etwa auf die Ausführungsbeispiele ein. Die Fig. sind teilweise schematisch, wobei wesentliche Eigenschaften und Effekte zum Teil deutlich vergrößert dargestellt sind, um die Funktionen, Wirkprinzipien, technischen Ausgestaltungen und Merkmale zu verdeutlichen. Dabei kann jede Funktionsweise, jedes Prinzip, jede technische Ausgestaltung und jedes Merkmal, welches/welche in den Fig. oder im Text offenbart ist/sind, mit allen Ansprüchen, jedem Merkmal im Text und in den anderen Fig., anderen Funktionsweisen, Prinzipien, technischen Ausgestaltungen und Merkmalen, die in dieser Offenbarung enthalten sind oder sich daraus ergeben, frei und beliebig kombiniert werden, so dass alle denkbaren Kombinationen den beschriebenen Verfahren bzw. Vorrichtungen zuzuordnen sind. Dabei sind auch Kombinationen zwischen allen einzelnen Ausführungen im Text, das heißt in jedem Abschnitt der Beschreibung, in den Ansprüchen und auch Kombinationen zwischen verschiedenen Varianten im Text, in den Ansprüchen und in den Fig. umfasst. Für die hier aufgeführten Wertebereiche gilt, dass auch sämtliche numerischen Zwischenwerte offenbart sind.
  • Auch die Ansprüche limitieren nicht die Offenbarung und damit die Kombinationsmöglichkeiten aller aufgezeigten Merkmale untereinander. Alle offenbarten Merkmale sind explizit auch einzeln und in Kombination mit allen anderen Merkmalen hier offenbart.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102014111126 A1 [0002]
    • US 2017371349 A1 [0003]

Claims (29)

  1. System (120) zur Erstellung eines Umgebungsmodells eines Fahrzeugs (10), das verbunden oder zu verbinden ist, mit: wenigstens einer Navigationseinheit (130), die dazu eingerichtet ist, Informationen über die aktuelle Position des Fahrzeugs und Informationen über wenigstens einen zeitlich und räumlich vor dem Fahrzeug (10) liegenden Straßenabschnitt bereitzustellen, wobei die Navigationseinheit (130) die Informationen in einem digitalen Kartenformat und/oder in absoluten Positionsinformationen bereitstellt, wenigstens einer Schnittstelle (140), die dazu eingerichtet, mit wenigstens einem zu fusionierenden Objekt (14, 22, 24) in der Umgebung des Fahrzeugs zu kommunizieren, wobei die von der Schnittstelle (140) empfangenen Informationen absolute Positionsinformationen des wenigstens einen zu fusionierenden Objekts (14, 22, 24) umfassen, und/oder wenigstens einer Sensoreinheit (110), die dazu eingerichtet ist, wenigstens ein zu fusionierendes Objekt (14, 22, 24) in der Umgebung des Fahrzeugs zu erfassen, wobei die wenigstens eine Sensoreinheit (110) weiter dazu eingerichtet ist, relative Positionsinformationen des wenigstens einen zu fusionierenden Objekts (14, 22, 24) relativ zu dem Fahrzeug (10) bereitzustellen, wobei das System (120) dazu eingerichtet ist, mit den von der wenigstens einen Navigationseinheit (130) bereitgestellten Informationen über den vor dem Fahrzeug (10) liegenden Straßenabschnitt eine Straßengeometrie des vor dem Fahrzeug (10) liegenden Straßenabschnitts zu ermitteln, wobei das System (120) dazu eingerichtet ist, basierend auf der ermittelten Stra-ßengeometrie die absoluten Positionsinformationen und/oder die relativen Positionsinformationen des wenigstens einen zu fusionierenden Objekts (14, 22, 24) mit den von der wenigstens einen Navigationseinheit (130) bereitgestellten Informationen in dem digitalen Kartenformat zur Erstellung eines Umgebungsmodells der Umgebung des Fahrzeugs zu fusionieren.
  2. System (120) nach Anspruch 1, wobei die Informationen in einem digitalen Kartenformat Informationen in einem Pfad/Offset-Format sind.
  3. System (120) nach Anspruch 1 oder 2, wobei das System (120) dazu eingerichtet ist, die relativen oder absoluten Positionsinformationen des zu fusionierenden Objekts (14, 22, 24) in Informationen in dem digitalen Kartenformat zu transformieren, und/oder wobei das System dazu eingerichtet ist, die relativen oder absoluten Positionsinformationen des zu fusionierenden Objekts (14, 22, 24) und die Informationen in dem digitalen Kartenformat in ein vordefiniertes Koordinatenformat zu transformieren.
  4. System (120) nach einem der Ansprüche 1 bis 3, wobei das System (120) dazu eingerichtet ist, aus den relativen Positionsinformationen des wenigstens einen zu fusionierenden Objekts (14, 22, 24) absolute Positionsinformationen zu ermitteln.
  5. System (120) nach Anspruch 4, wobei das System (120) dazu eingerichtet ist, falls die relativen Positionsinformationen auf den Abstand zu dem fusionierenden Objekt (14, 22, 24) beschränkt sind, die absoluten Positionsinformationen basierend auf dem Abstand und zusätzlichen Informationen bezüglich des Straßenabschnitts und/oder des zu fusionierenden Objekts (14, 22, 24) zu ermitteln.
  6. System (120) nach einem der Ansprüche 1 bis 5, wobei das System (120) dazu eingerichtet ist, mit den von der wenigstens einen Navigationseinheit (130) bereitgestellten Informationen für die Ermittlung der Stra-ßengeometrie einen oder mehrere Geometriepunkte (G) zu ermitteln, deren absolute Positionsinformationen und/oder deren Position in dem digitalen Kartenformat bekannt sind.
  7. System (120) nach einem der Ansprüche 2 bis 6, wobei das System (120) dazu eingerichtet ist, einen Offset des zu fusionierenden Objekts (14, 22, 24) durch eine Fusion der Informationen über die derzeitige Position des Fahrzeugs (10) in dem digitalen Kartenformat und der absoluten oder relativen Positionsinformationen des zu fusionierenden Objekts (14, 22, 24) zu ermitteln.
  8. System (120) nach Anspruch 7, wobei das System (120) dazu eingerichtet ist, mit dem ermittelten Geometriepunkt (G) oder den ermittelten Geometriepunkten (G) einen Offset des zu fusionierenden Objekts (14, 22, 24) zu ermitteln.
  9. System (120) nach einem der Ansprüche 1 bis 8, wobei das System (120) dazu eingerichtet ist, mit den von der wenigstens einen Navigationseinheit (130) bereitgestellten Informationen für die Ermittlung der Straßengeometrie wenigstens eine Stützstelle (S) zu ermitteln, deren absolute oder relative Positionsinformationen und/oder deren Position in dem digitalen Kartenformat bekannt sind.
  10. System (120) nach Anspruch 9, wobei das System (120) dazu eingerichtet ist, die Straßengeometrie des Straßenabschnitts zwischen dem zu fusionierenden Objekt (14, 22, 24) und der dem zu fusionierenden Objekt (14, 22, 24) nächstliegenden Stützstelle (S) zu schätzen, wobei das System (120) weiter dazu eingerichtet ist, basierend auf der geschätzten Straßengeometrie des Straßenabschnitts den Abstand (d) zwischen dem zu fusionierenden Objekt (14, 22, 24) und der Stützstelle (S) zu schätzen.
  11. System (120) nach Anspruch 10, wobei das System (120) dazu eingerichtet ist, basierend auf dem geschätzten Abstand (d) einen Offset zwischen der Stützstelle (S) und dem zu fusionierenden Objekt (14, 22, 24) zu ermitteln.
  12. System (120) nach Anspruch 10 oder 11, wobei das System (120) dazu eingerichtet ist, den Verlauf des Straßenabschnitts basierend auf von wenigstens einer oder der wenigstens einen Sensoreinheit (110) erfassten Informationen und/oder basierend auf von wenigstens einer oder der wenigstens einen Schnittstelle (140) bereitgestellten Informationen zu schätzen.
  13. System (120) nach einem der Ansprüche 1 bis 12, wobei das System (120) dazu eingerichtet ist, zu ermitteln, ob sich das zu fusionierenden Objekt (14, 22, 24) auf demselben Pfad oder derselben Fahrspur (10) wie das Fahrzeug (10) befindet.
  14. System (120) nach einem der Ansprüche 1 bis 13, wobei das System (120) dazu eingerichtet ist, die Informationen in dem digitalen Kartenformat eines zu fusionierenden Objekts (14, 22, 24), dessen absolute Positionsinformationen bekannt sind, mittels eines relativen Verschiebungsvektors ausgehend von den derzeitigen absoluten Positionsinformationen des Fahrzeugs (10) zu ermitteln.
  15. Fahrzeug (10), umfassend ein System (120) nach einem der Ansprüche 1 bis 14.
  16. Verfahren zur Erstellung eines Umgebungsmodells eines Fahrzeugs, wobei das Verfahren die Schritte umfasst: Bereitstellen von Informationen über die aktuelle Position des Fahrzeugs (10) und von Informationen über wenigstens einen zeitlich und räumlich vor dem Fahrzeug (10) liegenden Straßenabschnitt, wobei die Informationen in einem digitalen Kartenformat und/oder in absoluten Positionsinformationen bereitgestellt werden, Kommunizieren mit wenigstens einem zu fusionierenden Objekt in der Umgebung des Fahrzeugs, wobei die empfangenen Informationen absolute Positionsinformationen des wenigstens einen zu fusionierenden Objekts (14, 22, 24) umfassen, und/oder Erfassen von wenigstens einem zu fusionierenden Objekt in der Umgebung des Fahrzeugs, wobei relative Positionsinformationen des wenigstens einen zu fusionierenden Objekts (14, 22, 24) relativ zu dem Fahrzeug (10) bereitgestellt werden, Ermitteln einer Straßengeometrie des vor dem Fahrzeug (10) liegenden Stra-ßenabschnitts mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen über den vor dem Fahrzeug (10) liegenden Straßenabschnitt, Fusionieren basierend auf der ermittelten Straßengeometrie der absoluten Positionsinformationen und/oder der relativen Positionsinformationen des wenigstens einen zu fusionierenden Objekts (14, 22, 24) mit den Informationen in dem digitalen Kartenformat zur Erstellung eines Umgebungsmodells der Umgebung des Fahrzeugs.
  17. Verfahren nach Anspruch 16, wobei die Informationen in einem digitalen Kartenformat Informationen in einem Pfad/Offset-Format sind.
  18. Verfahren nach Anspruch 16 oder 17, wobei das Verfahren zumindest einen der Schritte umfasst: Transformieren der relativen oder absoluten Positionsinformationen des zu fusionierenden Objekts (14, 22, 24) in Informationen in dem digitalen Kartenformat, und/oder Transformieren der relativen oder absoluten Positionsinformationen des zu fusionierenden Objekts (14, 22, 24) und die Informationen in dem digitalen Kartenformat in ein vordefiniertes Koordinatenformat.
  19. Verfahren nach einem der Ansprüche 16 bis 18, wobei aus den relativen Positionsinformationen des wenigstens einen zu fusionierenden Objekts (14, 22, 24) absolute Positionsinformationen ermittelt werden.
  20. Verfahren nach Anspruch 19, wobei, falls die relativen Positionsinformationen auf den Abstand zu dem fusionierenden Objekt (14, 22, 24) beschränkt sind, die absoluten Positionsinformationen basierend auf dem Abstand und zusätzlichen Informationen bezüglich des Straßenabschnitts und/oder des zu fusionierenden Objekts (14, 22, 24) ermittelt werden.
  21. Verfahren nach einem der Ansprüche 16 bis 20, wobei mit den von der wenigstens einen Navigationseinheit (130) bereitgestellten Informationen für die Ermittlung der Straßengeometrie ein oder mehrere Geometriepunkte ermittelt werden, deren absolute Positionsinformationen und/oder deren Position in dem digitalen Kartenformat bekannt sind.
  22. Verfahren nach einem der Ansprüche 17 bis 21, wobei ein Offset des zu fusionierenden Objekts (14, 22, 24) durch eine Fusion der Informationen über die derzeitige Position des Fahrzeugs (10) in dem digitalen Kartenformat und der absoluten oder relativen Positionsinformationen des zu fusionierenden Objekts (14, 22, 24) ermittelt wird.
  23. Verfahren nach Anspruch 22, wobei mit dem ermittelten Geometriepunkt oder den ermittelten Geometriepunkten ein Offset des zu fusionierenden Objekts (14, 22, 24) ermittelt wird.
  24. Verfahren nach einem der Ansprüche 16 bis 23, wobei mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen für die Ermittlung der Straßengeometrie Stützstellen (S) ermittelt werden, deren absolute oder relative Positionsinformationen und/oder deren Position in dem digitalen Kartenformat bekannt sind.
  25. Verfahren nach Anspruch 24, wobei die Straßengeometrie des Straßenabschnitts zwischen dem zu fusionierenden Objekt und der dem zu fusionierenden Objekt (14, 22, 24) nächstliegenden Stützstelle (S) geschätzt wird, wobei basierend auf der geschätzten Straßengeometrie des Straßenabschnitts den Abstand (d) zwischen dem zu fusionierenden Objekt (14, 22, 24) und der Stützstelle (S) geschätzt wird.
  26. Verfahren nach Anspruch 25, wobei basierend auf dem geschätzten Abstand (d) ein Offset zwischen der Stützstelle (S) und dem zu fusionierenden Objekt (14, 22, 24) ermittelt wird
  27. Verfahren nach Anspruch 25 oder 26, wobei der Verlauf des Straßenabschnitts basierend auf von wenigstens einer oder der wenigstens einen Sensoreinheit (110) erfassten Informationen und/oder basierend auf von wenigstens einer oder der wenigstens einen Schnittstelle (110) bereitgestellten Informationen geschätzt wird.
  28. Verfahren nach einem der Ansprüche 16 bis 27, wobei ermittelt wird, ob sich das zu fusionierenden Objekt (14, 22, 24) auf demselben Pfad oder derselben Fahrspur wie das Fahrzeug (10) befindet.
  29. Verfahren nach einem der Ansprüche 16 bis 28, wobei die Informationen in dem digitalen Kartenformat eines zu fusionierenden Objekts, dessen absolute Positionsinformationen bekannt sind, mittels eines relativen Verschiebungsvektors ausgehend von den derzeitigen absoluten Positionsinformationen des Fahrzeugs (10) ermittelt werden.
DE102018005869.8A 2018-07-25 2018-07-25 System zur Erstellung eines Umgebungsmodells eines Fahrzeugs Pending DE102018005869A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102018005869.8A DE102018005869A1 (de) 2018-07-25 2018-07-25 System zur Erstellung eines Umgebungsmodells eines Fahrzeugs
US16/441,247 US11530931B2 (en) 2018-07-25 2019-06-14 System for creating a vehicle surroundings model
CN201910669159.5A CN110779534A (zh) 2018-07-25 2019-07-24 用于创建车辆环境模型的系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018005869.8A DE102018005869A1 (de) 2018-07-25 2018-07-25 System zur Erstellung eines Umgebungsmodells eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102018005869A1 true DE102018005869A1 (de) 2020-01-30

Family

ID=69148588

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018005869.8A Pending DE102018005869A1 (de) 2018-07-25 2018-07-25 System zur Erstellung eines Umgebungsmodells eines Fahrzeugs

Country Status (3)

Country Link
US (1) US11530931B2 (de)
CN (1) CN110779534A (de)
DE (1) DE102018005869A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021207515A1 (de) 2021-07-14 2023-01-19 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bereitstellen eines elektronischen Horizonts für ein autonomes Kraftfahrzeug

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11906325B2 (en) * 2018-11-01 2024-02-20 Lg Electronics Inc. Vehicular electronic device, operation method of vehicular electronic device, and system
WO2020141493A1 (en) * 2019-01-04 2020-07-09 Visteon Global Technologies, Inc. Ehorizon upgrader module, moving objects as ehorizon extension, sensor detected map data as ehorizon extension, and occupancy grid as ehorizon extension
DE102019211174A1 (de) * 2019-07-26 2021-01-28 Robert Bosch Gmbh Verfahren zum Ermitteln eines Modells zur Beschreibung mindestens eines umgebungsspezifischen GNSS-Profils
CN114783214A (zh) * 2020-04-28 2022-07-22 上海波若智能科技有限公司 路网动态数据采集方法及路网动态数据采集系统
CN113587941A (zh) * 2020-05-01 2021-11-02 华为技术有限公司 高精度地图的生成方法、定位方法及装置
EP3907468A1 (de) * 2020-05-08 2021-11-10 Volkswagen Aktiengesellschaft Fahrzeug, vorrichtung, verfahren und computerprogramm zur bestimmung einer fusionierten umgebungskarte
DE102020207065B3 (de) * 2020-06-05 2021-02-11 Volkswagen Aktiengesellschaft Fahrzeug, Verfahren, Computerprogramm und Vorrichtung zum Zusammenführen von Objektinformationen über ein oder mehrere Objekte in einem Umfeld eines Fahrzeugs
CN113806380B (zh) * 2020-06-16 2024-01-26 财团法人车辆研究测试中心 路口动态图像资源更新共享系统及方法
FR3132588A1 (fr) * 2022-02-07 2023-08-11 Renault S.A.S. Procédé d’élaboration d’un horizon artificiel

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009017731A1 (de) * 2008-04-30 2009-11-05 Continental Teves Ag & Co. Ohg Selbstlernende Karte auf Basis von Umfeldsensoren
DE102010049215A1 (de) * 2010-10-21 2011-07-28 Daimler AG, 70327 Verfahren zur Bestimmung einer Fahrzeugumgebung
US20170277716A1 (en) * 2016-03-23 2017-09-28 Here Global B.V. Map Updates from a Connected Vehicle Fleet
DE102016210495A1 (de) * 2016-06-14 2017-12-14 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erstellen einer optimierten Lokalisierungskarte und Verfahren zum Erstellen einer Lokalisierungskarte für ein Fahrzeug
US20180149487A1 (en) * 2016-11-26 2018-05-31 Thinkware Corporation Image processing apparatus, image processing method, computer program and computer readable recording medium

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8965677B2 (en) * 1998-10-22 2015-02-24 Intelligent Technologies International, Inc. Intra-vehicle information conveyance system and method
JP5041638B2 (ja) * 2000-12-08 2012-10-03 パナソニック株式会社 デジタル地図の位置情報伝達方法とそれに使用する装置
JP2006208223A (ja) * 2005-01-28 2006-08-10 Aisin Aw Co Ltd 車両位置認識装置及び車両位置認識方法
JP4645516B2 (ja) * 2005-08-24 2011-03-09 株式会社デンソー ナビゲーション装置及びプログラム
CN101641610A (zh) * 2007-02-21 2010-02-03 电子地图北美公司 用于包含绝对及相对坐标的车辆导航及领航的系统及方法
US20100164789A1 (en) * 2008-12-30 2010-07-01 Gm Global Technology Operations, Inc. Measurement Level Integration of GPS and Other Range and Bearing Measurement-Capable Sensors for Ubiquitous Positioning Capability
DE102013011827A1 (de) * 2013-07-15 2015-01-15 Audi Ag Verfahren zum Betrieb einer Navigationseinrichtung, Navigationseinrichtung und Kraftfahrzeug
DE102014111126A1 (de) * 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen einer Umgebungskarte eines Umgebungsbereichs eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
JP6298772B2 (ja) * 2015-01-14 2018-03-20 日立オートモティブシステムズ株式会社 車載用制御装置、自車位置姿勢特定装置、車載用表示装置
US10133280B2 (en) 2016-06-23 2018-11-20 Lg Electronics Inc. Vehicle control device mounted on vehicle and method for controlling the vehicle
US10521913B2 (en) * 2018-03-29 2019-12-31 Aurora Innovation, Inc. Relative atlas for autonomous vehicle and generation thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009017731A1 (de) * 2008-04-30 2009-11-05 Continental Teves Ag & Co. Ohg Selbstlernende Karte auf Basis von Umfeldsensoren
DE102010049215A1 (de) * 2010-10-21 2011-07-28 Daimler AG, 70327 Verfahren zur Bestimmung einer Fahrzeugumgebung
US20170277716A1 (en) * 2016-03-23 2017-09-28 Here Global B.V. Map Updates from a Connected Vehicle Fleet
DE102016210495A1 (de) * 2016-06-14 2017-12-14 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erstellen einer optimierten Lokalisierungskarte und Verfahren zum Erstellen einer Lokalisierungskarte für ein Fahrzeug
US20180149487A1 (en) * 2016-11-26 2018-05-31 Thinkware Corporation Image processing apparatus, image processing method, computer program and computer readable recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021207515A1 (de) 2021-07-14 2023-01-19 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bereitstellen eines elektronischen Horizonts für ein autonomes Kraftfahrzeug

Also Published As

Publication number Publication date
US20200033153A1 (en) 2020-01-30
US11530931B2 (en) 2022-12-20
CN110779534A (zh) 2020-02-11

Similar Documents

Publication Publication Date Title
DE102018005869A1 (de) System zur Erstellung eines Umgebungsmodells eines Fahrzeugs
DE102010006828B4 (de) Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
EP3207538B1 (de) Kommunikationsvorrichtung für ein fahrzeug und verfahren zum kommunizieren
DE102010005293B4 (de) System und Verfahren zur Spurpfadschätzung unter Verwendung einer Sensorvereinigung
EP2819901B1 (de) Verfahren und vorrichtung zur ermittlung der geschwindigkeit und/oder position eines fahrzeuges
DE102017126925A1 (de) Automatisierte Co-Pilotsteuerung für autonome Fahrzeuge
DE112020000487T5 (de) Automatisches wählen von datenproben zur annotation
DE102016112913A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Fahrzeug-Ich-Position
DE102017124690A1 (de) Virtuelle Karte für Fahrzeug
DE112018002143T5 (de) Systeme und verfahren zur kompression von fahrspurdaten
DE102016117123A1 (de) Fahrzeugradarwahrnehmung und -lokalisierung
DE112017005850T5 (de) Kartendatenbereitstellungssystem
DE102015202859A1 (de) Abtastsystem und -verfahren für autonomes Fahren
DE112019006119T5 (de) Erstellung von bewegungsgraphen und routenplanung auf fahrspurebene
WO2014154614A1 (de) Backend für fahrerassistenzsysteme
EP3380810B1 (de) Verfahren, vorrichtung, kartenverwaltungseinrichtung und system zum punktgenauen lokalisieren eines kraftfahrzeugs in einem umfeld
DE102020133982A1 (de) Automatisierte objektannotation unter verwendung fusionierter kamera-/lidar-datenpunkte
DE102008041679A1 (de) Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung
DE102018119882A1 (de) Übertragen von Bilddaten, die von einer Fahrzeugkamera aufgenommen werden
WO2013050188A1 (de) Vorrichtung und verfahren zum geometrischen kalibrieren von mittels eines sensorsystems eines fahrzeugs gebildeten sensordaten
DE102019214628A1 (de) Validierung von Umfelderfassung mittels Satelitenbildern und SAR-Radardaten
DE102018218436A1 (de) Fahrzeugparkassistenz
DE102013009856A1 (de) Positionsbestimmung eines stationären Verkehrsobjekts mittels einer zentralen Serveranordnung
DE102016225213A1 (de) Verfahren und System zur Lokalisierung eines Kraftfahrzeuges
DE102021118316A1 (de) Monokulare 3d-objekterkennung aus bildsemantiknetzwerk

Legal Events

Date Code Title Description
R163 Identified publications notified
R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

R082 Change of representative