-
Hintergrund
-
Hier wird ein Verfahren und ein System zur Erstellung eines Umgebungsmodells der Umgebung eines Fahrzeugs vorgeschlagen. Im Fahrzeug kommen unterschiedliche Sensoren und Informationsquellen zum Einsatz, um die komplexen Anforderungen von Fahrerassistenzsystemen und autonomen Fahren erfüllen zu können. Zu diesen Sensoren gehören beispielsweise jeweils eine oder mehrere Kameras, Radar- und Lidar-Sensoren. Darüber hinaus kann das Fahrzeug auch Informationen aus der Cloud oder aus der Kommunikation mit anderen Objekten erhalten. Die Kommunikation zwischen einem Fahrzeug und Objekten wird häufig auch als „vehicle to everything communication“ (V2X) bezeichnet. Dieser Ausdruck bezeichnet die Kommunikation eines Fahrzeugs mit jenen Objekten, die mit dem Fahrzeug in Kontakt treten können. Unter diesen Ausdruck fällt somit die Kommunikation des Fahrzeugs mit anderen Fahrzeugen, mit Infrastrukturobjekten, aber auch mit Menschen (Fußgängern). Infrastrukturobjekte können beispielsweise Ampeln, Verkehrszeichen, mobile und stationäre Fahrbahnbegrenzungen, Gebäude, Schilder oder Werbetafeln sein. Eine zunehmend wichtige Rolle als Datenquelle spielen außerdem Informationen von einer digitalen Karte. Auf digitalen Karten können beispielsweise Informationen zur Straßentopologie, Geschwindigkeitsbeschränkungen, Verkehrszeichen und Steigung und Krümmung der Straße gespeichert sein. Ferner existieren sogenannte HD-Karten, die Informationen zum Straßenverlauf und weitere Daten mit sehr hoher Genauigkeit enthalten. Ferner können in digitalen Karten Informationen gespeichert werden können, die durch die üblichen Fahrzeugsensoren nicht erfassbar sind. So kann beispielsweise die Steigung und die Krümmung der Straße aus der Karte abgelesen werden, um beispielsweise die Fahrdynamik automatisiert anpassen zu können.
-
Stand der Technik
-
DE 10 2014 111 126 A1 offenbart ein Verfahren zum Erzeugen einer Umgebungskarte eines Umgebungsbereichs eines Kraftfahrzeugs. Ein Objekt im Umgebungsbereich kann mittels einer Sensoreinrichtung des Kraftfahrzeugs erfasst werden, wobei anhand von Sensordaten der Sensoreinrichtung durch eine Steuereinrichtung des Kraftfahrzeugs ein Positionswert ermittelt wird, der eine Position des Objekts beschreibt. Der ermittelte Positionswert wird in die Umgebungskarten übertragen, wobei ein Vektor zwischen dem Objekt und einem vorbestimmten Bezugspunkt des Kraftfahrzeugs ermittelt wird, der einen Ursprung eines Fahrzeugkoordinatensystems bildet. Der ermittelte Vektor in dem Fahrzeugkoordinatensystem wird in ein globales Koordinatensystem der Umgebungskarte transformiert und der Positionswert in der Umgebungskarte wird anhand des transformierten Vektors bestimmt.
-
US 2017/371349 A1 offenbart eine Fahrzeugsteuerungsvorrichtung, die eine Kommunikationseinheit umfasst. Die Kommunikationseinheit erfasst Standortinformationen des Fahrzeugs und kann mit einem externen Server und einem anderen Fahrzeug kommunizieren. Ein Prozessor steuert die Kommunikationseinheit um Karteninformation von dem externen Server und die Standortinformation des anderen Fahrzeugs von dem anderen Fahrzeug zu empfangen. Der Prozessor führt die erfassten Standortinformation des Fahrzeugs und die empfangene Standortinformation des anderen Fahrzeugs mit der empfangene Karteninformation zusammen, um das Fahrzeug auf der Grundlage der zusammengeführten Informationen zu steuern.
-
Aufgabe
-
Ausgehend hiervon befasst sich die Offenbarung mit der Aufgabe, ein verbessertes System und ein verbessertes Verfahren zur Erstellung eines Umgebungsmodells eines Fahrzeugs bereitzustellen, mit dem unabhängig von der Dichte der vorhandenen Informationen Positionsinformationen in unterschiedlichen Formaten zur Erstellung eines Umgebungsmodells der Umgebung des Fahrzeugs fusioniert werden können.
-
Vorgeschlagene Lösung
-
Zur Lösung wird ein im Patentanspruch 1 definiertes System zur Erstellung eines Umgebungsmodells eines Fahrzeugs vorgeschlagen. Das System zur Erstellung eines Umgebungsmodells eines Fahrzeugs ist verbunden oder zu verbinden mit wenigstens einer Navigationseinheit, wenigstens einer Schnittstelle und/oder wenigstens einer Sensoreinheit. Die wenigstens eine Navigationseinheit ist dazu eingerichtet, Informationen über die aktuelle Position des Fahrzeugs und Informationen über wenigstens einen zeitlich und räumlich vor dem Fahrzeug liegenden Straßenabschnitt bereitzustellen, wobei die Navigationseinheit die Informationen in einem digitalen Kartenformat und/oder in absoluten Positionsinformationen bereitstellt. Die wenigstens eine Schnittstelle ist dazu eingerichtet, mit wenigstens einem zu fusionierenden Objekt in der Umgebung des Fahrzeugs zu kommunizieren, wobei die von der Schnittstelle empfangenen Informationen absolute Positionsinformationen des wenigstens einen zu fusionierenden Objekts umfassen. Die wenigstens eine Sensoreinheit ist dazu eingerichtet, wenigstens ein zu fusionierendes Objekt in der Umgebung des Fahrzeugs zu erfassen, wobei die wenigstens eine Sensoreinheit weiter dazu eingerichtet ist, relative Positionsinformationen des wenigstens einen zu fusionierenden Objekts relativ zu dem Fahrzeug bereitzustellen. Das System ist dazu eingerichtet, mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen über den vor dem Fahrzeug liegenden Straßenabschnitt eine Straßengeometrie des vor dem Fahrzeug liegenden Straßenabschnitts zu ermitteln, wobei das System dazu eingerichtet ist, basierend auf der ermittelten Straßengeometrie die absoluten Positionsinformationen und/oder die relativen Positionsinformationen des wenigstens einen zu fusionierenden Objekts mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen in dem digitalen Kartenformat zur Erstellung eines Umgebungsmodells der Umgebung des Fahrzeugs zu fusionieren.
-
In dieser Offenbarung werden die Informationen einer digitalen Karte, wie zum Beispiel die die Informationen bezüglich der aktuellen Position des Fahrzeugs und Informationen über den vor dem Fahrzeug liegenden Straßenabschnitt, als Informationen in einem digitalen Kartenformat bezeichnet.
-
Die Informationen aus den unterschiedlichen Informationsquellen, z.B. digitale Karte im Fahrzeug, Daten aus der Cloud, V2X und Informationen von Sensoreinheiten (Kamera, Radar, usw.) können fusioniert werden. Mit diesen fusionierten Informationen kann ein Umgebungsmodell erstellt werden, das aus all diesen Quellen gefüllt wird. Fahrassistenz-Systeme und Systeme für das autonome Fahren können auf dieses fusionierte Umgebungsmodell zugreifen. Mit dem vorgeschlagenen System können die Informationen aus den unterschiedlichen Informationsquellen selbst dann fusioniert werden, wenn die Datendichte relativ gering ist, d. h. relativ wenige Objekte oder Punkte mit bekannten Positionsinformationen sich auf dem vor dem Fahrzeug liegenden Straßenabschnitt befinden. Da das vorgeschlagene System die Straßengeometrie des vor dem Fahrzeug liegenden Straßenabschnitts ermitteln kann, können auf Grundlage der ermittelten Straßengeometrie die Informationen selbst dann fusioniert werden, wenn die Datendichte für den vor dem Fahrzeug liegenden Straßenabschnitt relativ gering ist.
-
Relative Positionsinformationen können von Sensoreinheiten wie beispielsweise von der Kameraeinheit, der Radareinheit und der Ultraschallsensoreinheiten bereitgestellt werden. Beispiele für solche relativen Positionsangaben der einzelnen Einheiten sind:
- - Radareinheit: Abstand und ggf. Winkel zu einem Objekt vor dem Fahrzeug
- - Kameraeinheit: Abstand zu Verkehrszeichen, Ampeln und Fußgängern
- - Ultraschallsensoreinheiten: Abstand zu Fahrzeugen auf einer parallelen Fahrspur
-
Absolute Positionsinformationen (z.B. in Weltkoordinaten) können beispielsweise von Objekten wie Ampeln, Verkehrszeichen oder ähnlichem gesendet werden.
-
Ein beispielhafter Anwendungsfall für eine Informationsfusion zur Erstellung eines Umgebungsmodells des Fahrzeugs könnte eine Ampel als zu fusionierendes Objekt sein. Die Ampel wird von der Sensoreinheit, beispielsweise von einer Kameraeinheit erfasst. Die Ampel sendet ihre Position in absoluten Positionsinformationen (z.B. in Weltkoordinaten) über die Schnittstelle an das System. Eine Fusion der Informationen kann beispielsweise in den folgenden beiden Fällen zur Erstellung eines einheitlichen Umgebungsmodells erfolgen:
- 1. Die Ampel ist in dem Umgebungsmodell des Fahrzeugs verzeichnet und das durch die Sensoreinheit detektierte, zu fusionierende Objekt, d.h. die Ampel, soll korrekt in dem Umgebungsmodell dem vorhandenen Objekt zugeordnet werden.
- 2. Das erkannte Objekt ist in dem Umgebungsmodell nicht vorhanden und soll durch die Fusion der Informationen aus den einzelnen Informationsquellen in das Umgebungsmodell eingefügt werden.
-
Das System kann dazu eingerichtet sein, die relativen oder absoluten Positionsinformationen des zu fusionierenden Objekts in Informationen in einem digitalen Kartenformat zu transformieren. Es kann dementsprechend ein Umgebungsmodell erstellt werden, das auf Informationen in einem digitalen Kartenformat basiert. Zusätzlich oder alternativ kann das System dazu eingerichtet sein, die relativen oder absoluten Positionsinformationen des zu fusionierenden Objekts und die Informationen in einem digitalen Kartenformat in ein vordefiniertes Koordinatenformat zu transformieren. Es kann demnach auch ein Umgebungsmodell erstellt werden, das auf einem anderen Koordinatenformat passiert.
-
Das System kann dazu eingerichtet sein, aus den relativen Positionsinformationen des wenigstens einen zu fusionierenden Objekts absolute Positionsinformationen zu ermitteln.
-
Das System kann dazu eingerichtet sein, falls die relativen Positionsinformationen auf den Abstand zu dem fusionierenden Objekt beschränkt sind, die absoluten Positionsinformationen basierend auf dem Abstand und zusätzlichen Informationen bezüglich des Straßenabschnitts und/oder des zu fusionierenden Objekts zu ermitteln. Diese zusätzlichen Informationen können beispielsweise durch die folgenden Schritte ermittelt oder erfasst werden:
- - Bestimmung des Typs des zu fusionierenden Objekts (z.B. Verkehrszeichen, anderer Verkehrsteilnehmer), beispielsweise durch Auswertung der Sensorinformationen (z.B. der Kameraeinheit) und/oder der Positionsinformationen.
- - Berechnung von mehreren möglichen Alternativpunkten für die Position des zu fusionierenden Objekts, wobei, wenn der Abstand zwischen dem Fahrzeug und dem zu fusionierenden Objekt bekannt ist, die möglichen Alternativpunkte auf einem Kreis um das Fahrzeug liegen,
- - Nutzung von Informationen, die für die unterschiedlichen Objekttypen von zu fusionierenden Objekten bekannt sind. Straßenschilder befinden sich beispielsweise an den Fahrbahnrändern, sodass die Straßenbegrenzung oder der Straßenrand als Referenzgeometrie zur Ermittlung der Straßengeometrie genutzt werden kann. Für Fahrzeuge als zu fusionierenden Objekte kann beispielsweise die Spurmittellinie eine geeignete Referenzgeometrie zur Ermittlung der Straßengeometrie darstellen.
-
Die Informationen in einem digitalen Kartenformat können Informationen in einem Pfad/Offset-Format sein. Bei dem digitalen Kartenformat kann es sich beispielsweise um einen Pfad/Offset-Format gemäß dem „ADASIS“-Protokoll handeln. In Fahrzeugen haben Fahrassistenz-Systeme häufig nicht genug Speicherressourcen, um dort eine größere digitale Karte zu speichern. Aus diesem Grund hat in einem Fahrzeug üblicherweise eine der Einheiten bzw. Systeme eine relativ große Speichereinheit. Eine derartige Einheit kann beispielsweise die Navigationseinheit des Fahrzeugs sein. Aus der Speichereinheit wird in Abhängigkeit der aktuellen Fahrzeugposition ein relevanter Ausschnitt aus der Karte ausgelesen und in einem vorher definierten Format an eines der Fahrassistenz-Systeme ausgesendet. Dieses Aussenden kann beispielsweise über ein Fahrzeugbussystem oder durch andere Technologien, wie beispielsweise Shared-Memory erfolgen. Die Fahrassistenz-Systeme, die diese Daten empfangen können daraus ein Umgebungsmodells, d. h. einen sogenannten elektronischen Horizont erstellen. Dieses Umgebungsmodell bzw. diese elektronischer Horizont beinhaltet nur einen Ausschnitt der gesamten digitalen Karte, sodass sich ein deutlich reduzierter Ressourcenbedarf ergibt. Ein bekanntes Protokoll für eine solche Informationsübertragung und -darstellung ist „ADASIS“. Zur Übertragung von Informationen werden diese Informationen nicht in Rohdaten wie beispielsweise mit vollständigen geographischen Koordinaten übertragen, sondern in einer speziellen Darstellungsform.
-
Das System kann dazu eingerichtet sein, einen Offset des zu fusionierenden Objekts durch eine Fusion der Informationen über die derzeitige Position des Fahrzeugs in einem Pfad/Offset-Format und der absoluten oder relativen Positionsinformationen des zu fusionierenden Objekts zu ermitteln. Das vorgeschlagene System kann relative oder absolute Positionsinformationen mit Informationen in dem Pfad/Offset-Format fusionieren. Zunächst können die absoluten Positionsinformationen der wenigstens einen Schnittstelle und/oder die relativen Positionsinformationen der wenigstens einen Sensoreinheit dem System bereitgestellt werden. Die Navigationseinheit kann Informationen über die aktuelle Position des Fahrzeugs und über den Straßenabschnitt vor dem Fahrzeug im Pfad/Offset-Format bereitstellen. Aus den bereitgestellten Informationen kann der Offset zwischen der aktuellen Fahrzeugposition im Pfad/Offset-Format und den relativen oder absoluten Positionsinformationen des zu fusionierenden Objekts ermittelt werden.
-
Das System kann dazu eingerichtet sein, mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen für die Ermittlung der Straßengeometrie einen oder mehrere Geometriepunkte zu ermitteln, deren absolute Positionsinformationen und/oder deren Position in dem digitalen Kartenformat bekannt sind.
-
Das System kann dazu eingerichtet sein, mit dem ermittelten Geometriepunkt oder den ermittelten Geometriepunkten einen Offset des zu fusionierenden Objekts zu ermitteln. Bei einer hohen Anzahl an Geometriepunkten (hohe Datendichte) kann sich im einfachsten Fall dem zu fusionierenden Objekt direkt ein Geometriepunkt zuordnen lassen. Es kann der Geometriepunkt mit dem geringsten Abstand zu dem zu fusionierenden Objekt verwendet werden. In diesem Fall kann der Offset des ermittelten Geometriepunkt als Offset für das zu fusionierenden Objekt verwendet werden. Sollte der Abstand des zu fusionierenden Objekts zum nächstliegenden Geometriepunkt größer als ein vorgegebener Schwellwert sein, kann keine direkte Zuordnung erfolgen. Ist der Abstand zwischen Geometriepunkt und zu fusionierenden Objekt größer als der vorbestimmte Schwellwert sein, kann mittels Interpolation (oder durch Extrapolation) zwischen zwei oder mehreren Geometriepunkten ein neuer Geometriepunkt bestimmt werden, der näher an dem zu fusionierenden Objekt liegt. Je nach Verlauf der Straßengeometrie, nach Dichte der Geometriepunkte G, nach der geforderten Genauigkeit kann zur Inter- bzw. Extrapolation ein lineares Verfahren, ein Polynom höherer Ordnung oder ein sonstiges geeignetes Verfahren verwendet werden. Von dem ermittelten Geometriepunkt können die absoluten Positionsinformationen beispielsweise in Weltkoordinaten und auch der Verlauf des Offsets bekannt sein. Aus diesem Grund kann der Offset des zu fusionierenden Objekts dem Offset des Geometriepunkt entsprechen.
-
Das System kann dazu eingerichtet sein, mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen für die Ermittlung der Straßengeometrie wenigstens eine Stützstelle ermitteln, deren absolute Positionsinformationen und/oder deren Position im Pfad/Offset-Format bekannt sind.
-
Das System kann dazu eingerichtet sein, die Straßengeometrie des Straßenabschnitts zwischen dem zu fusionierenden Objekt und der dem zu fusionierenden Objekt nächstliegenden Stützstelle zu schätzen, wobei das System weiter dazu eingerichtet ist, basierend auf der geschätzten Straßengeometrie des Straßenabschnitts den Abstand zwischen dem zu fusionierenden Objekt und der Stützstelle zu schätzen.
-
Das System kann dazu eingerichtet sein, basierend auf dem geschätzten Abstand einen Offset zwischen der Stützstelle und dem zu fusionierenden Objekt zu ermitteln.
-
Das System kann dazu eingerichtet sein, den Verlauf des Straßenabschnitts basierend auf von wenigstens einer oder der wenigstens einen Sensoreinheit erfassten Informationen und/oder basierend auf von wenigstens einer oder der wenigstens einen Schnittstelle bereitgestellten Informationen zu schätzen. Folgende Informationen können beispielsweise in die Schätzung mit einfließen:
- - Auswertung der Informationen von Sensoreinheiten wie z.B. den Bildern einer Kameraeinheit beispielsweise bezüglich des Verlauf der Straßenmarkierungen, relative Lage von erkannten Objekten zueinander, etc.,
- - Verwendung von Abstands- und Winkelangaben von Sensoreinheiten wie Radareinheit und/oder Lidareinheit,
- - Speicherung der kürzlich gefahrenen Fahrzeugtrajektorie, z.B. durch Speicherung der GPS-Position,
- - Verwendung des Lenkwinkels und der Fahrzeuggeschwindigkeit, und
- - Verwendung von Stützstellen aus der digitalen Karte, von denen die Weltkoordinaten bekannt sind.
-
Das System kann dazu eingerichtet sein, zu ermitteln, ob sich das zu fusionierenden Objekt auf demselben Pfad oder derselben Fahrspur wie das Fahrzeug befindet. Auf diese Weise kann eine korrekte Pfad- und Spurzuordnung des zu fusionierenden Objekts erfolgen. Befindet sich das zu fusionierenden Objekt auf einem anderen Pfad bzw. in einer anderen Spur, muss der Offset entsprechend korrigiert werden, da jeder Pfad einen eigenen Offset-Ursprung besitzt. Dazu können die Daten der digitalen Karte im Pfad/Offset-Format und die von der wenigstens einen Sensoreinheit erfassten Daten verwendet werden.
-
Das System kann dazu eingerichtet sein, die Informationen in dem digitalen Kartenformat eines zu fusionierenden Objekts, dessen absolute Positionsinformationen bekannt sind, mittels eines relativen Verschiebungsvektors ausgehend den derzeitigen absoluten Positionsinformationen des Fahrzeugs zu ermitteln.
-
Als eine weitere alternative Lösung wird ein Kraftfahrzeug nach Patentanspruch 15 vorgeschlagen, dass ein System nach einer der vorherigen vorgeschlagenen Lösungen umfasst.
-
Für eine weitere Lösung wird ein Verfahren zur Erstellung eines Umgebungsmodells eines Fahrzeugs nach Anspruch 16 vorgeschlagen. Das Verfahren umfasst die Schritte von: Bereitstellen von Informationen über die aktuelle Position des Fahrzeugs und Informationen über wenigstens einen zeitlich und räumlich vor dem Fahrzeug liegenden Straßenabschnitt, wobei die Informationen in einem digitalen Kartenformat und/oder in absoluten Positionsinformationen bereitgestellt werden, Kommunizieren mit wenigstens einem zu fusionierenden Objekt in der Umgebung des Fahrzeugs, wobei die empfangenen Informationen absolute Positionsinformationen des wenigstens einen zu fusionierenden Objekts umfassen, und/oder Erfassen von wenigstens einem zu fusionierenden Objekt in der Umgebung des Fahrzeugs, wobei relative Positionsinformationen des wenigstens einen zu fusionierenden Objekts relativ zu dem Fahrzeug bereitgestellt werden, Ermitteln einer Straßengeometrie des vor dem Fahrzeug liegenden Straßenabschnitts mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen über den vor dem Fahrzeug liegenden Straßenabschnitt, Fusionieren der absoluten Positionsinformationen und/oder der relativen Positionsinformationen des wenigstens einen zu fusionierenden Objekts mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen in dem digitalen Kartenformat zur Erstellung eines Umgebungsmodells der Umgebung des Fahrzeugs basierend auf der ermittelten Straßengeometrie.
-
Das Verfahren kann die Schritte umfassen von: Transformieren der relativen oder absoluten Positionsinformationen des zu fusionierenden Objekts in Informationen in dem digitalen Kartenformat, und/oder Transformieren der relativen oder absoluten Positionsinformationen des zu fusionierenden Objekts und die Informationen in dem digitalen Kartenformat in ein vordefiniertes Koordinatenformat.
-
Aus den relativen Positionsinformationen des wenigstens einen zu fusionierenden Objekts können absolute Positionsinformationen ermittelt werden.
-
Falls die relativen Positionsinformationen auf den Abstand zu dem fusionierenden Objekt beschränkt sind, können die absoluten Positionsinformationen basierend auf dem Abstand und zusätzlichen Informationen bezüglich des Straßenabschnitts und/oder des zu fusionierenden Objekts ermittelt werden.
-
Mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen für die Ermittlung der Straßengeometrie können ein oder mehrere Geometriepunkte ermittelt werden, deren absolute Positionsinformationen und/oder deren Position in dem digitalen Kartenformat bekannt sind.
-
Die Informationen in einem digitalen Kartenformat können Informationen in einem Pfad/Offset-Format sein.
-
Ein Offset des zu fusionierenden Objekts kann durch eine Fusion der Informationen über die derzeitige Position des Fahrzeugs in dem digitalen Kartenformat und der absoluten oder relativen Positionsinformationen des zu fusionierenden Objekts ermittelt werden.
-
Mit dem ermittelten Geometriepunkt oder den ermittelten Geometriepunkten kann ein Offset des zu fusionierenden Objekts ermittelt werden.
-
Mit den von der wenigstens einen Navigationseinheit bereitgestellten Informationen für die Ermittlung der Straßengeometrie kann wenigstens eine Stützstelle ermittelt werden, deren absolute oder relative Positionsinformationen und/oder deren Position in dem digitalen Kartenformat bekannt sind.
-
Die Straßengeometrie des Straßenabschnitts zwischen dem zu fusionierenden Objekt und der dem zu fusionierenden Objekt nächstliegenden Stützstelle kann geschätzt werden, wobei basierend auf der geschätzten Straßengeometrie des Straßenabschnitts der Abstand zwischen dem zu fusionierenden Objekt und der Stützstelle geschätzt werden kann.
-
Basierend auf dem geschätzten Abstand kann ein Offset zwischen der Stützstelle und dem zu fusionierenden Objekt ermittelt werden.
-
Der Verlauf des Straßenabschnitts kann basierend auf von wenigstens einer oder der wenigstens einen Sensoreinheit erfassten Informationen und/oder basierend auf von wenigstens einer oder der wenigstens einen Schnittstelle bereitgestellten Informationen geschätzt werden.
-
Es kann ermittelt werden, ob sich das zu fusionierenden Objekt auf demselben Pfad oder derselben Fahrspur wie das Fahrzeug befindet.
-
Die Informationen in dem digitalen Kartenformat eines zu fusionierenden Objekts, dessen absolute Positionsinformationen bekannt sind, können mittels eines relativen Verschiebungsvektors ausgehend den derzeitigen absoluten Positionsinformationen des Fahrzeugs ermittelt werden.
-
Figurenliste
-
Weitere Einzelheiten, Merkmale, Vorteile und Wirkungen der vorliegend beschriebenen Verfahren und Vorrichtungen ergeben sich aus der nachfolgenden Beschreibung derzeit bevorzugter Varianten sowie aus den Zeichnungen. Dabei zeigen:
- 1 eine schematische Darstellung eines Systems zur Erstellung eines Umgebungsmodells eines Fahrzeugs;
- 2 eine beispielhafte Ansicht zur Erläuterung eines logischen Kartenformats im Pfad/Offset-Format;
- 3 eine beispielhafte Darstellung zur Erläuterung der Fusion von Informationen im Pfad/Offset-Format mit relativen Positionsinformationen;
- 4 eine weitere beispielhafte Darstellung zur Erläuterung der Fusion von Informationen im Pfad/Offset-Format mit relativen Positionsinformationen;
- 5 eine beispielhafte Darstellung zur Veranschaulichung der Vorgehensweise bei der Ermittlung der absoluten Positionsinformationen aus einem Abstand zwischen den zu fusionierenden Objekt und dem Fahrzeug;
- 6 eine beispielhafte Darstellung zur Ermittlung des Offsets des zu fusionierenden Objekts für den Fall, in dem die Straßengeometrie mit einer Vielzahl von Geometriepunkten ermittelt wird;
- 7 zeigt eine beispielhafte Darstellung, in der die Ermittlung der Straßengeometrie mit Stützstellen mit bekannten absoluten Positionsinformationen ermittelt wird;
- 8 eine beispielhafte Darstellung zur Erläuterung der Bestimmung des Offsets eines zu fusionierenden Objekts mittels Stützstellen;
- 9 eine beispielhafte Darstellung, in der die Straße zwischen dem Fahrzeug, der Stützstelle und dem zu fusionierenden Objekt gekrümmt verläuft;
- 10 ein Beispiel für eine geschätzte Straßengeometrie bzw. einen geschätzten Straßenverlauf;
- 11 eine beispielhafte Darstellung zur Erläuterung der Ermittlung der Positionsinformationen im Pfad/Offset-Format am Beispiel einer Ampelanlage mit bekannten absoluten Positionsinformationen;
- 12 eine beispielhafte Darstellung zur Erläuterung der Problematik bei der Fusion von Positionsinformationen im Pfad/Offset-Format und absoluten Positionsinformationen bei gekrümmten Straßenverlauf;
- 13 und 14 ein Darstellung von verschiedenen Fusionsmöglichkeiten zur Erstellung eines Umgebungsmodells; und
- 15 eine Darstellung zur Veranschaulichung der der Vorteile eines Umgebungsmodells mit fusionierten Positionsinformationen.
-
Detaillierte Beschreibung der Zeichnungen
-
In 1 ist schematisch eine Sensoreinheit 110, ein System 120, eine Navigationseinheit 130 und eine Schnittstelle 140, wobei die Sensoreinheit 110, das System 120, die Navigationseinheit 130 und die Schnittstelle von einem Kraftfahrzeug (nicht dargestellt) umfasst sein können. Die Sensoreinheit 110, die Navigationseinheit 130 und die Schnittstelle 140 können mit dem System 120 verbunden, welche wiederum mit der Navigationseinheit 130 verbunden ist.
-
Die Sensoreinheit 110 kann beispielsweise eine Kameraeinheit, eine Radareinheit, eine Lidareinheit o. ä. sein. Das System 120 kann jedoch auch mit mehreren Sensoreinheit 110 verbunden sein, d. h. das System 120 kann mit einer Kameraeinheit, einer Radareinheit und einer Lidareinheit verbunden sein. Die Sensoreinheit 110 stellt dem System 120 relative Positionsinformationen eines zu fusionierenden Objekts (nicht gezeigt) in der Umgebung des Fahrzeugs bereit. Handelt es sich bei der Sensoreinheit 110 um eine Kameraeinheit, kann diese eine Time-of-Flight-, TOF, Kameraeinheit sein. Eine Time-of-Flight-Kamera kann die Umgebung des Fahrzeugs aufgrund des von ihr durchgeführten Distanzmessverfahrens in 3D erfassen. Eine Time-of-Flight-Kamera leuchtet die Umgebung des Fahrzeugs mit Lichtpulsen aus, wobei die Kameraeinheit für jeden Bildpunkt die Zeit misst, die das Licht bis zum Objekt und wieder zurück braucht. Aus der benötigten Zeit wird dann die Distanz zu dem erfassten Objekt ermittelt. Die Sensoreinheit 110 kann weiter dazu eingerichtet sein, den Verlauf einer Straßenbegrenzung und/oder einer Spurmittellinie zu erfassen. Ferner kann die Sensoreinheit 110 dazu eingerichtet sein, die Straßenbreite zu erfassen.
-
Die Navigationseinheit 130 ist dazu eingerichtet, aus Positionsinformationen des Fahrzeugs und/oder Karteninformationen Informationen über die derzeitige Position des Fahrzeugs und über wenigstens einen zeitlich und räumlich vor dem Fahrzeug liegenden Straßenabschnitt bereitzustellen. Diese Informationen können in einem digitalen Kartenformat bereitgestellt werden. Die Navigationseinheit 130 kann entsprechend dazu eingerichtet sein, die momentane Position des Kraftfahrzeugs basierend auf einem Signal, insbesondere einem GPS-Signal, zu ermitteln. Weiter kann die Navigationseinheit 130 auf Kartendaten in einem digitalen Kartenformat zugreifen, die in einem Speicher der Navigationseinheit 130 gespeichert sind, in Form eines externen Datenträgers und/oder einem Cloud-System bereitgestellt werden. Die Kartendaten können auch Informationen über den Verlauf der Straßenbegrenzung und/oder den Verlauf der Spurmittellinie und/oder die Straßenbreite enthalten. Auch die aktuelle Fahrzeugposition kann der Navigationseinheit 130 in einem digitalen Kartenformat bereitgestellt werden. Die Kartendaten können auch Informationen über die Straßengeometrie und die Topologie des vor dem Fahrzeug liegenden Stra-ßenabschnitts umfassen.
-
Die Schnittstelle 140 ist dazu eingerichtet, mit wenigstens einem zu fusionierenden Objekt in der Umgebung des Fahrzeugs zu kommunizieren. Die von der Schnittstelle 140 empfangenen Informationen umfassen absolute Positionsinformationen des wenigstens einen zu fusionierenden Objekts. Bei der Schnittstelle 140 kann es sich um eine Schnittstelle für die sogenannte „V2X“-Kommunikation handeln. Als V2X wird die Kommunikation eines Fahrzeugs mit Objekten bezeichnet. Unter diesen Ausdruck fällt somit die Kommunikation des Fahrzeugs mit anderen Fahrzeugen, mit Infrastrukturobjekten, aber auch mit Menschen (Fußgängern). Infrastrukturobjekte können beispielsweise Ampeln, Verkehrszeichen, mobile und stationäre Fahrbahnbegrenzungen, Gebäude, Schilder, Werbetafeln, oder ähnliches sein.
-
Das System 120 ist dazu eingerichtet, aus den von der Navigationseinheit 130 bereitgestellten Informationen Geometriepunkte und/oder Stützstellen mit bekannten absoluten Positionsinformationen und/oder mit bekannten Positionsinformationen im Pfad/Offset-Format zu ermitteln. Mit den ermittelten Geometriepunkten und/oder Stützstellen kann das System 120 die Straßengeometrie des vor dem Fahrzeug liegenden Straßenabschnitts zu ermitteln. Das System ist weiter dazu eingerichtet basierend auf der ermittelten Straßengeometrie die absoluten Positionsinformationen und/oder die relativen Positionsinformationen des wenigstens einen zu fusionierenden Objekts mit den von der wenigstens einen Navigationseinheit 130 bereitgestellten Informationen in einem Pfad/Offset-Format zur Erstellung eines Umgebungsmodells der Umgebung des Fahrzeugs zu fusionieren. Die Kartendaten können auch Informationen über den Verlauf der Straßenbegrenzung und/oder den Verlauf der Spurmittellinie und/oder die Straßenbreite enthalten.
-
2 zeigt eine schematische Darstellung zur Erläuterung des Pfad/Offset-Formats zur Positionsangabe von Objekten wie Fahrzeugen und Verkehrszeichen, Schilder und Kreuzungen in einer digitalen Karte gemäß dem ADASIS-Protokoll. Straßen sind durch Pfade repräsentiert und durch eine Pfad-ID eindeutig gekennzeichnet. Zu jedem Pfad gibt es einen Offset-Wert, welcher in Meter (oder cm, mm, usw.) angegeben wird und damit den Ort von Objekten und weiteren Informationen wie z.B. Straßenkrümmungs- und Steigungswerte auf dem Pfad angibt. Auch die aktuelle Fahrzeugposition wird mittels Pfad/Offset Angabe festgelegt. Positionsinformationen, die von einer Sensoreinheit wie z.B. einer Kameraeinheit, einer Radareinheit oder einer Lidareinheit im Fahrzeug stammen, sind zumeist in relativen Positionsinformationen angegeben. So kann die Kamera oder das Radar beispielsweise angeben, dass sich in einem bestimmten Abstand zum Fahrzeug ein relevantes bzw. zu fusionierendes Objekt (z.B. Verkehrsschild oder anderes Fahrzeug) befindet. Im Gegensatz dazu liegen Daten, die mittels V2X-Technologie empfangen werden, in absoluten Positionsinformationen (z.B. WGS84 Weltkoordinaten) vor. So können beispielsweise Ampeln den aktuellen Schaltungsstatus zusammen mit absoluten Positionsinformationen im WGS84-Format der Ampeln senden.
-
Im Folgenden wird mit Bezug auf die 3 bis 11 ein Ausführungsbeispiels eines Verfahrens zur Erstellung eines Umgebungsmodells eines Fahrzeugs beschrieben, das beispielsweise von dem System 120 ausgeführt werden kann. In dem im Folgenden beschriebenen Ausführungsbeispiel wird Fusion von relativen oder absoluten Positionsinformationen aus verschiedenen Informationsquellen mit Informationen im Pfad/Offset-Format gemäß dem „ADASIS“-Protokoll erläutert. In dieser Offenbarung werden die Positionsinformationen aus einer digitalen Karte als Informationen im Pfad/Offset-Format oder auch als Informationen in einem digitalen Kartenformat bezeichnet. Das Pfad/Offset-Format stellt ein Beispiel für ein digitales Kartenformat dar.
-
3 zeigt eine beispielhafte Darstellung der Fusion von Informationen im Pfad/Offset-Format mit relativen Positionsinformationen. Das Ego-Fahrzeug
10 fährt auf einer Straße
12. Der Straße12 wurde in der digitalen Karte die Pfad-ID
8 zugeordnet. Der Offset für Pfad
8 steigt in Richtung des gestrichelten Pfeils P linear an. Beispielsweise durch die Kameraeinheit und/oder die Radareinheit (nicht gezeigt) des Ego-Fahrzeugs
10 werden eine Baustelle
14 und ein Fahrzeug
16 auf einer Fahrspur
18 erfasst. Aus den Kamera- und Radarinformationen kann der Abstand zur Baustelle
14 und zum Fahrzeug
16 bestimmt werden. Außerdem ist durch die Kamera- und Radarinformationen bekannt, auf welcher Fahrspur
18 und
20 sich die Objekte
14,
16 befinden. Aus diesem Grund können die Baustelle
14 und das Fahrzeug
16 wie das Ego-Fahrzeug
10 dem Pfad
8 zugeordnet werden. Der Offset der Objekte ergibt sich aus dem relativen Abstand zum Ego-Fahrzeug ΔOffset und dem aktuellen Offset-Wert des Ego-Fahrzeuges:
-
Voranstehend wurde die allgemeine Vorgehendweise bei der Fusion von Informationen im Pfad/Offset-Format mit relativen Positionsinformationen erläutert. Eine Voraussetzung für die Fusion nach dem in 2 gezeigten Beispiel ist, dass die Straße keine oder nur eine geringe Krümmung aufweist. Nachstehend wird die Fusion Pfad/Offset-Format mit relativen Positionsinformationen ohne Beschränkung auf einen bestimmten Straßenverlauf beschrieben.
-
4 zeigt eine weitere beispielhafte Darstellung einer Situation des Fahrzeugs, in der die Fusion von Informationen im Pfad/Offset-Format mit relativen Positionsinformationen benötigt wird. In 4 befindet sich das Ego-Fahrzeug 10 auf einer Straße 12, die in dieser beispielhaften Darstellung lediglich eine einzige Fahrspur aufweist. Anders als in 2 verläuft die Straße 12 nicht gerade, sondern gekrümmt. Einen Spezialfall stellen Kreuzungen dar. Bei Kreuzungen kann sich die die Fahrtrichtung beispielsweise 90° zur vorhergehenden Fahrrichtung ändern. Auch bei dem Spezialfall von Kreuzungen kann die Fusion von Informationen im Pfad/Offset-Format mit relativen Positionsinformationen gemäß der nachstehenden Beschreibung erfolgen.
-
Das Ego-Fahrzeug 10 weist eine Sensoreinheit (nicht gezeigt) wie zum Beispiel eine Kameraeinheit oder eine Radareinheit auf, die zur Erfassung von zu fusionierenden Objekten wie dem Verkehrszeichen 22 (Geschwindigkeitsbegrenzung auf 60 Km/H) dient. Gemäß diesem Beispiel stellt das Verkehrszeichen 22 das zu fusionierenden Objekt 22 dar. Ein fusionierendes Objekt kann jedoch auch ein anderer Verkehrsteilnehmer, eine Ampel, ein Verkehrszeichen oder auch Fußgänger sein.
-
Die Sensoreinheit (nicht gezeigt) kann relative Positionsinformationen mit nur einer Koordinate bezüglich des zu fusionierenden Objekts 22 bereitstellen. Diese Positionsinformation kann beispielsweise ein Abstand des Objekts 22 relativ zum Ego-Fahrzeug 10 (z.B. Objekt ist 10 Meter entfernt) sein. Es ist jedoch auch möglich, dass die Sensoreinheit genauere Positionsinformationen mit mindestens zwei Koordinaten liefert. Derartige Koordinaten können beispielsweise in Polarkoordinaten oder kartesischen Koordinaten angegeben werden. Die Positionsinformationen können dann einen Abstand und einen Winkel enthalten, wie z.B. das Objekt befindet sich 50 Meter entfernt in einem Winkel von 5° zur Fahrtrichtung.
-
Im Folgenden werden die in der nachstehenden Tabelle gezeigten Variablen verwendet.
Symbole | Bedeutunq |
xw, yw | Weltkoordinaten, z.B. WGS84 Koordinaten |
xO | Offset-Koordinate auf einem Pfad bei Pfad/Offset Darstellunq |
zwO, ywO bzw. xOO | Weltkoordinaten bzw. Offset-Koordinate des zu fusionierenden Objekts |
O | Objektpunkt des zu fusionierenden Objekts (z.B. Verkehrszeichen) entweder mit Weltkoordinaten O(xwO, ywO) oder mit Offset-Koordinate O(xOO) |
G | Geometriepunkt (z.B. der Spurmittellinie) entweder mit Weltkoordinaten G(xw, yw) oder mit Offset-Koordinate G(xO) |
S | Stützstelle für die Fusion (z.B. Landmarke) entweder mit Weltkoordinaten S(xw, yw) oder mit Offset-Koordinate S(xO) |
-
Die digitale Karte kann Informationen bezüglich der Straßengeometrie zumeist in absoluten Positionsinformationen, wie zum Beispiel in Weltkoordinaten, bereitstellen. Zur Straßengeometrie gehören unter anderem die Geometrie der Straßen- und Spurmittellinie und die Geometrie von Spurmarkierungen. In 4 sind die Geometriepunkte G einer Spurmittellinie dargestellt. Von den Geometriepunkten G sind sowohl die Weltkoordinaten G(xw, yw) als auch der Offsetwert auf dem jeweiligen Pfad G(xO) bekannt. Gemäß dem in 4 gezeigten Beispiel liegen die Informationen mit ausreichend hoher Dichte vor, d.h. der Abstand zwischen den einzelnen Punkten G(xw, yw) ist klein genug, sodass in der unmittelbaren Nähe des zu fusionierenden Objekts 22 mehrere Geometriepunkte G(xw, yw) liegen. Auch vom Ego-Fahrzeug 10 sind die Positionsinformationen in Weltkoordinaten E(xw, yw) und auch der Offsetwert E(xO) bekannt.
-
Die Sensoreinheit erfasst das zu fusionierende Objekt 22 und stellt dessen relative Positionsinformationen relativ zum Ego-Fahrzeug 10 entweder eindimensional nur unter der Angabe des Abstands zum Ego-Fahrzeug 10 oder durch genauere Positionsinformationen wie z.B. Winkel und Abstand relativ zum Ego-Fahrzeug 10 und mit einem Verschiebungsvektor dar.
-
Zunächst werden aus den von der Sensoreinheit bereitgestellten relativen Positionsinformationen des Objekts 22 absolute Positionsinformationen ermittelt. Die absoluten Positionsinformationen können in Weltkoordinaten angegeben werden. Aus den relativen Positionsinformationen des Objekts 22 werden die Weltkoordinaten für das Objekt 22 (O(xwo, ywo)) ermittelt. Weltkoordinaten werden zumeist nicht kartesisch angegeben, sondern in erster Näherung beispielsweise als sphärische Koordinaten. Das WGS84 Modell benutzt einen Rotationsellipsoiden zur Beschreibung der Erdoberfläche. Zur einfacheren Erläuterung der Fusion wird eine sphärische Erddarstellung angenommen. Diese Näherung ist für die kurzen Abstände zwischen Fahrzeug und Fusionsobjekt ausreichend genau.
-
Stellt die Sensoreinheit den Winkel α und den Abstand
d zum zu fusionierenden Objekt
22 bereit, ergeben sich die Weltkoordinaten des Objekts
22 (
O(xwo, ywo)) aus den Weltkoordinaten des Ego-Fahrzeugs
E(xwE, ywE):
-
Hierbei ist d der Abstand vom Ego-Fahrzeug 10 zum Objekt 22, α ist der Winkel in Richtung des Objekts 22 gemessen ab der Verbindungslinie zwischen Ego-Fahrzeug und Nordpol und R der Erdradius.
-
Stellt die Sensoreinheit einen Verschiebungsvektor v́ = (a, b) in kartesischen Koordinaten bereit, muss aus diesem aus diesem zuerst d und α berechnet werden. Anschließend kann
O(xwo, ywo) mit den oben wiedergegebenen Formeln bestimmt werden. Beispielsweise kann sich aus geometrischen Beziehungen ergeben:
Hierbei ist α
F die Orientierung des Ego-Fahrzeuges (gemessen ab der Verbindungslinie Ego-Fahrzeug zu Nordpol) und α
O der Winkel zwischen der Längsachse des Ego-Fahrzeuges
10 zum Objekt
22. Dieser Winkel ergibt sich aus dem ermittelten Vektor
-
5 zeigt eine beispielhafte Darstellung zur Veranschaulichung der Vorgehensweise bei der Ermittlung der absoluten Positionsinformationen des fusionierenden Objekts 22 aus dem Abstand d zwischen dem Ego-Fahrzeug 10 und dem zu fusionierenden Objekt 22.
-
Die Sensoreinheit (nicht gezeigt) stellt den Abstand d zwischen dem Ego-Fahrzeug 10 und dem zu fusionierenden Objekt 22 bereit, das gemäß der beispielhaften Darstellung in 5 ein Verkehrszeichen ist. Mögliche Punkte Omöglich(xw, yw) zur Angabe der absoluten Positionsinformationen des Objekts 22 liegen auf einem Kreis um das Ego-Fahrzeug 10 mit dem Radius d, d.h. der Radius entspricht dem Abstand d. Mit den von der Sensoreinheit ermittelten Informationen oder der Kombination von Informationen aus mehreren Sensoreinheiten wie zum Beispiel der Kombinationen von Informationen, die von der Radareinheit und der Kameraeinheit bereitgestellt werden, kann festgestellt werden, dass es sich bei dem zu fusionierenden Objekt 22 um ein Verkehrszeichen handelt. Da es sich bei dem zu fusionierenden Objekt 22 um ein Verkehrszeichen handelt, kann die die Straßengeometrie mithilfe der Geometrie der Straßenbegrenzung als Referenzgeometrie ermittelt werden. Von der Geometrie der Straßenbegrenzung sind die Geometriepunkte G(xw, yw) und G(xO) bekannt. Die absoluten Positionsinformationen O(xwo, ywo) in Weltkoordinaten für das Objekt 22 können mit dem Schnittpunkt der Kurve mit dem Radius d aller möglichen Objektpunkte Omöglich(xw, yw) für das zu fusionierenden Objekt 22 mit der ermittelten Stra-ßengeometrie G(xw, yw) bestimmt werden.
-
Wenn sich, wie voranstehend beschrieben wurde, aufgrund von unzureichenden Sensorinformationen die absoluten Positionsinformationen O(xwo, ywo) des zu fusionierenden Objekts 22 in Weltkoordinaten nicht direkt bestimmen lassen, können verschiedene zusätzliche Informationen genutzt werden, um einen bestmöglichen Alternativpunkt für die absoluten Positionsinformationen des zu fusionierenden Objekts 22 zu bestimmen. Diese zusätzlichen Informationen können beispielsweise durch die folgenden Schritte ermittelt oder erfasst werden:
- - Bestimmung des Typs des zu fusionierenden Objekts (z.B. Verkehrszeichen, anderer Verkehrsteilnehmer), beispielsweise durch Auswertung der Kamera- und/oder Positionsinformationen.
- - Berechnung von mehreren möglichen Alternativpunkten für Omöglich(xw, yw). Dies wurde voranstehend anhand der beispielhaften Darstellung gemäß 5 beschrieben, wobei, wenn der Abstand d zum fusionierenden Objekt 22 bekannt ist, die möglichen Alternativpunkte Omöglich(xw, yw) auf einem Kreis um das Ego-Fahrzeug 10 liegen (siehe 5)
- - Nutzung von Informationen, die für die unterschiedlichen Objekttypen von zu fusionierenden Objekten bekannt sind. Dies sind beispielsweise Information wie: Straßenschilder befinden sich an den Fahrbahnrändern, daher kann als Referenzgeometrie am besten der Straßenrand genutzt werden. Bei anderen Fahrzeugen als zu fusionierendes Objekt kann die Spurmittellinie als geeignete Referenzgeometrie zur Ermittlung der Straßengeometrie genutzt werden.
-
Mit Hilfe dieser Informationen wird ein geeigneter Alternativpunkt aus den möglichen Alternativpunkten ausgewählt.
-
6 zeigt eine beispielhafte Darstellung zur Ermittlung des Offsets des zu fusionierenden Objekts 22 für den Fall, in dem die Straßengeometrie mit einer Vielzahl von Geometriepunkten G, deren absolute Positionsinformationen bekannt sind, ermittelt wird. Die Geometriepunkte G mit bekannten absoluten Positionsinformationen weisen in diesem Fall einen geringen Abstand zueinander auf.
-
Nach der Berechnung der absoluten Positionsinformationen beispielsweise in Weltkoordinaten des fusionierenden Objektes
O(xwo, ywo) muss ein geeigneter Geometriepunkt G
search ausgewählt werden, der möglichst gut mit
O(xwo, ywo) übereinstimmt. Mit Übereinstimmung kann beispielsweise der Geometriepunkt G gemeint sein, der den kürzesten Abstand zu
O(xwo, ywo) aufweist. Bei einer hohen Anzahl an Geometriepunkten G (hohe Datendichte) lässt sich im einfachsten Fall dem zu fusionierenden Objekt
O(xwo, ywo) direkt ein Geometriepunkt G zuweisen:
-
Ist der Abstand des zu fusionierenden Objekts
O(xwo, ywo) zum nächstliegenden Geometriepunkt G größer als ein vorgegebener Schwellwert, so kann keine direkte Zuordnung erfolgen. In diesem Fall kann mittels Interpolation (oder durch Extrapolation) zwischen zwei oder mehreren Geometriepunkten ein neuer Geometriepunkt G
interpol(x
wo, y
wo) bestimmt werden, der eine bessere Übereinstimmung mit dem Objektunkt O aufweist, sodass dann festgelegt werden kann:
-
Je nach Verlauf der Straßengeometrie, nach Dichte der Geometriepunkte G, nach der geforderten Genauigkeit und weiteren Kriterien kann zur Inter- bzw. Extrapolation ein lineares Verfahren oder Polynom höherer Ordnung oder ein sonstiges geeignetes Verfahren verwendet werden. Von dem Geometriepunkt G
search sind aufgrund der beschriebenen Voraussetzungen sowohl die absoluten Positionsinformationen in Weltkoordinaten
xw ,
yw als auch der Verlauf des Offsets
xo bekannt. Aus diesem Grund entspricht der Offset des zu fusionierenden Objekts
22 dem Offset von G
search
-
Somit ist die Bestimmung des Offsets des Objektpunktes O des zu fusionierenden Objekts gelöst. Wenn ein inter- oder extrapolierter Geometriepunkt G
interpol als Referenz verwendet wird, muss der Offset für G
interpol zunächst interpoliert bzw. extrapoliert werden. Basis sind ein oder mehrere bekannte Nachbargeometriepunkte des der Starßengeometrie. Anschließend kann die folgende Zuordnung erfolgen:
-
Mit Bezug auf
6 lassen sich die voranstehend beschriebenen Schritte beispielhaft erläutern. Der Geometriepunkt
G105 (
Xw105, yw105 ) hat eine gute Übereinstimmung mit dem zu fusionierenden Objekt
22 (
O(xwo, ywo)), das zur Vereinfachung der Darstellung in
6 nicht gezeigt ist, sich aber an der in
5 gezeigten Position befindet. Mit anderen Worten stimmt die Position des Geometriepunkts
G105 (xw105 ,
yw105 ) im Wesentlichen mit der Position des zu fusionierenden Objekts
22 (
O(xwo, ywo)) (siehe
5) überein. Aus diesem Grund kann der Offset G
105(x
o,105) des Geometriepunkts
G105 (
xw105 ,
yw105 ) dem Offset des zu fusionierenden Objekts
22 (
O(xwo, ywo)) zugewiesen werden:
-
7 zeigt eine beispielhafte Darstellung, in der die Ermittlung der Straßengeometrie mit Hilfe von Stützstellen mit bekannten absoluten Positionsinformationen ermittelt wird. Es können Fälle auftreten, in denen die Straßengeometrie nicht mit Geometriepunkten ermittelt werden kann. In diesen Fällen können keine oder nur wenige Geometriepunkte mit bekannten absoluten Positionsinformationen vorhanden sein und/oder die bekannten Geometriepunkte weisen einen zu großen Abstand zueinander auf. Anders ausgedrückt, ist Datendichte so niedrig ist, sodass ein einfaches Interpolations- bzw. Extrapolationsverfahren mit den bekannten Geometriepunkten kein ausreichend genaues Ergebnis liefern kann. Ferner kann es vorkommen, dass die Datenpunkte nicht interpolierbar bzw. extrapolierbar sind. Dies ist beispielsweise der Fall, wenn keine Geometriepunkte für die Straße oder Spur vorhanden sind, sondern nur absolute Positionsinformationen beispielsweise in Weltkoordinaten von Objekten wie Ampeln und sonstigen Objekten, die unregelmäßig verteilt sind.
-
8 zeigt beispielhaft die Ausgangssituation der Fusion bei niedriger Datendichte, d. h. bei wenigen bekannten Geometriepunkten und/oder Geometriepunkten mit einem zu großen Abstand zueinander. Bei den Stützstellen S1 , S2 und Sn kann es sich beispielsweise um Geometriepunkte der Straße handeln. Der große Abstand zwischen den Stützstellen S1 , S2 und Sn lässt eine sinnvolle Interpolation nicht zu. Bei der Stützstelle S3 kann es sich beispielsweise um eine Landmarke, eine Ampel oder ein V2X-fähiges Verkehrszeichen handeln, die ihre absoluten Positionsinformationen übertragen.
-
Für die Fusion werden auch im vorliegenden Fall zunächst die absoluten Positionsinformationen des zu fusionierenden Objekts O(xwo, ywo) bestimmt, falls diese nicht bekannt ist. Dies wurde voranstehend bereits im Detail beschrieben.
-
Nach der Bestimmung der absoluten Positionsinformationen des zu fusionierenden Objekts
O(xwo, ywo) kann die Stützstelle S
search(
xw ,
yw ) gefunden werden, die den geringsten Abstand zum Objekt
O(xwo, ywo) aufweist. In dem Beispiel gemäß
8 wird hierzu die Stützstelle
S3 gewählt. Die Berechnung des Abstands d vom Objekt
O(xwo, ywo) zu den verfügbaren Stützstellen erfolgt über die bekannten Weltkoordinaten der Stützstellen
S(xw, yw) und des Objekts
O(xwO, ywO):
-
Für diese Formeln wird als Basis ein sphärisches Erdmodell mit dem Radius R angenommen. Es ist zu erwarten, dass ein solches Erdmodell die Genauigkeitsanforderungen für die meisten Anwendungen erfüllt. Sollte dennoch eine höhere Genauigkeit notwendig sein, können andere Erdmodelle (z.B. Rotationsellipsoid) verwendet werden. Für viele Anwendungen ist es ausreichend, wenn Stützstellen und Objekte in einem kartesischen Koordinatensystem in der Umgebung des Ego-Fahrzeugs
10 referenziert sind. Dies trifft insbesondere für Stützstellen und Objekte in einem näheren Umkreis um das Ego-Fahrzeug
10 zu. Bei Verwendung eines kartesischen Koordinatensystems ergibt sich d aus
-
Welches Erdmodell und Koordinatensystem zur Referenzierung der Stützstellen und Objekte zum Einsatz kommen, hängt hauptsächlich von den Genauigkeitsanforderungen der jeweiligen Anwendung und auch von den zur Verfügung stehenden Ressourcen (Prozessorgeschwindigkeit, Speicher, verfügbare Rechenzeit, etc.) ab. Der Abstand d zwischen dem zu fusionierenden Objekt O(xwo, ywo) und Stützstelle Sn ist zwar ein wesentliches Kriterium zur Auswahl einer geeigneten Stützstelle Sn . Beispielsweise kann die Stützstelle Sn mit dem geringsten Abstand zum zu fusionierenden Objekt O(xwo, ywo) ausgewählt werden, jedoch können auch weitere Parameter einen Einfluss auf die Auswahl einer geeigneten Stützstelle Sn haben. So können die Stützstellen Sn beispielsweise über einen (oder mehrere) Konfidenzindikator(en) verfügen. Dieser Indikator kann beispielsweise angeben, wie hoch die Konfidenz ist, dass sich die Stützstelle tatsächlich an der gespeicherten Position befindet. Eine hohe Konfidenz ergibt sich beispielsweise dadurch, dass die Position der Stützstelle Sn von einer offiziellen Behörde mitgeteilt wurde (z.B. Straßenbehörde meldet Position eines Geschwindigkeitlimits in Weltkoordinaten) oder wenn die Position der Stützstelle Sn durch viele unterschiedliche Verkehrsteilnehmer bestätigt wurde. Bei einem niedrigen Konfidenzwert kann eine Stützstelle zur weiteren Verarbeitung ausgeschlossen werden und es kann eine Stützstelle Sn gewählt werden, die einen größeren Abstand d aber eine höhere Konfidenz aufweist. Als Konfidenz kann entweder ein oder mehrere Konfidenzparameter verwendet werden, die von einem Datenprovider geliefert werden. Außerdem ist es möglich, den Konfidenzparameter vor Verwendung der Stützstelle selbst zu berechnen. Als Eingangsgrößen zur Berechnung eines Konfidenzparameters können beispielsweise Zeitstempel (z.B. letzte Bestätigung über die Position der Stützstelle Sn ), Streuungsparameter (z.B. Varianz der gemessenen Stützstellenposition), Art der Datenquelle (z.B. andere Verkehrsteilnehmer oder öffentliche Behörde) und Art der Stützstelle Sn (z.B. temporär oder dauerhaft aufgestellte Verkehrszeichen) dienen.
-
Wegen der geringen Datendichte der Stützstellen S ist zu erwarten, dass von dem Offset
Sn(xO) der ausgewählten Stützstelle S nicht auf den Offset
O (xO,O) des zu fusionierenden Objekts
O(xwo, ywo) geschlossen werden kann. Eine Zuweisung des Offsets der ausgewählten Stützstelle S als Offset des zu fusionierenden Objekts
O(xwo, ywo) ist daher in den meisten Fällen nicht möglich, sodass gilt:
8 zeigt eine beispielhafte Darstellung zur Bestimmung des Offsets eines zu fusionierenden Objekts mit Stützstellen S, wobei die Straße in der Darstellung gemäß
8 gerade verläuft. Zur Verbesserung der Genauigkeit der Offsetbestimmung des Objekts muss geschätzt werden, wie die Geometrie der Straße und damit wie der Offset entlang der Straße verläuft. Wenn die Straße zwischen der Stützstelle S
search und dem Objekt gerade verläuft, lässt sich der Offset O(x
o,o) des zu fusionierenden Objekts
22 durch den bekannten Abstand
OSSearch zwischen dem zu fusionierenden Objekt
22 und der Stützstelle S
search berechnen
-
Zu berücksichtigen ist gegebenenfalls, dass sich das zu fusionierenden Objekt
22 und die Stützstelle S
search nicht auf der gleichen Straßenseite befinden. In
7 befindet sich beispielsweise der Stützstelle S
search auf der linken und das zu fusionierenden Objekt
22 auf der rechten Straßenseite. In diesem Fall muss aus geometrischen Beziehungen der Abstand OS
Search,straße entlang der Straße berechnet werden. Die notwendigen Größen zur Bestimmung von
OSSearch,straße können entweder aus einer Datenbank (z.B. in digitaler Karte ist die Straßenbreite b
Straße gespeichert) entnommen werden oder können mit Fahrzeugsensoren bestimmt werden (z.B. Bestimmung der Straßenbreite b
Straße mittels Fahrzeugkamera). Bei bekannter Straßenbreite und
OSSearch ergibt sich:
-
Bei bStraße kann es sich neben der Straßenbreite auch um andere geometrische Größen wie die Spurbreite oder sonstige Abstände handeln, die sich aus von der wenigstens einen Sensoreinheit erfassten Sensorinformationen oder aus digitalen Karten ableiten lassen können. Außerdem können die Sensoreinheiten (wie zum Beispiel Kameraeinheit, Radareinheit) des Fahrzeugs eingesetzt werden, um zu überprüfen, ob die Voraussetzungen eines geraden Straßenverlaufs erfüllt sind. Wenn die Straße eine hohe Krümmung aufweist, liefert die Bestimmung von OSSearch,straße wie in 8 gezeigt ist, ein zu ungenaues Ergebnis. In diesem Fall ist es notwendig, die Stra-ßengeometrie und damit den Verlauf des Offsets entlang der Straße durch eine Schätzung auf Basis der Stützstellen mit bekannten absoluten Positionsinformationen und/oder bekannten Informationen im Pfad/Offset-Format zu ermitteln. Als Input kommen dazu vor allem Informationen der Fahrzeugsensoren zum Einsatz. So kann die die Straßengeometrie zwischen Ssearch und dem zu fusionierenden Objekt beispielsweise mit Informationen der wenigstens einen Sensoreinheit geschätzt werden. Die wenigstens eine Sensoreinheit kann beispielsweise eine Kameraeinheit sein. In den Aufnahmen der Kameraeinheit kann der Verlauf der Spurmarkierungen ausgewertet werden. Unterstützend können beispielsweise der Lenkwinkel und die aufgezeichnete gefahrene Fahrzeugtrajektorie verwendet werden. Aus dem gefahren Straßenverlauf kann so für einen gewissen Abstand der weitere Straßenverlauf extrapoliert werden.
-
9 zeigt eine beispielhafte Darstellung, in der die Straße zwischen dem Ego-Fahrzeug
10, der Stützstelle S
search und dem zu fusionierenden Objekt
22 gekrümmt verläuft. Mit einer oder mehrerer Sensoreinheiten des Ego-Fahrzeugs
10 (Kameraeinheit, Odometrie, GPS, etc.) kann die Straßengeometrie zwischen dem Ego-Fahrzeug
10 und dem zu fusionierenden Objekt
22 geschätzt werden. Dadurch lässt sich der Abstand zwischen S
search und dem zu fusionierenden Objekt
22 schätzen, sodass sich der Offset O(x
O,O) zu fusionierenden des Objekts
22 berechnen lässt:
-
Die möglichst präzise Bestimmung von OSSearch,straße,geschätzt ist dabei besonders wichtig, um die geforderte Genauigkeit zu erreichen. Folgende Informationen können beispielsweise in die Schätzung mit einfließen:
- - Auswertung der Kamerabilder, z.B. bezüglich des Verlauf der Straßenmarkierungen, relative Lage von erkannten Objekten zueinander, etc,
- - Verwendung von Abstands- und Winkelangaben von Sensoreinheit wie Radareinheit und/oder Lidareinheit,
- - Speicherung der kürzlich gefahrenen Fahrzeugtrajektorie, z.B. durch Speicherung der GPS-Position,
- - Verwendung des Lenkwinkels und der Fahrzeuggeschwindigkeit, und
- - Verwendung von Stützstellen aus der digitalen Karte, von denen die Weltkoordinaten bekannt sind.
-
10 zeigt ein Beispiel für eine geschätzte Straßengeometrie bzw. einen geschätzten Straßenverlauf. Wenn die Geometrie der Straße geschätzt werden kann, ergibt sich die Offsetdifferenz ΔOffset zwischen Ego-Fahrzeug
10 und dem zu fusionierenden Objekt
22 (oder zwischen Stützstelle
Sn und zu fusionierenden Objekt
22) aus:
Hier bezeichnet a den Startpunkt der Wegintegration (z.B. Stützstelle, Fahrzeug) und
b der Ort des zu fusionierenden Objekts
22 nun. Für die Lösung dieser Aufgabe können unterschiedliche Koordinatensysteme (z.B. kartesisch, Polarkoordinaten) zum Einsatz kommen. Die Wahl des Koordinatensystems hängt von den jeweiligen Bedingungen ab, d.h. insbesondere davon, welche Eingangsgrößen zur Schätzung des Geometrieverlaufs der Straße genutzt werden können
-
Wie in
10 dargestellt wird, erfasst die Kameraeinheit (nicht gezeigt) des Ego-Fahrzeugs
10 die Umgebung des Fahrzeugs, insbesondere die vor dem Fahrzeug liegen der Umgebung. Mithilfe der von der Kameraeinheit erfassten Informationen soll die Straßengeometrie bzw. der Verlauf der Straße geschätzt werden. Die Schätzung kann sich beispielsweise durch Auswertung der Spurmarkierungen in den Kamerabildern ergeben. In dieser Anordnung ist es sinnvoll, den geschätzten Verlauf der Straße
12 sg als Funktion der longitudinalen Koordinate
xF im kartesischen Fahrzeug-Koordinatensystem anzugeben:
In diesem Fall ergibt sich dann:
-
Bei bekannten Abstand d und Winkel α des zu fusionierenden Objekts
22 zum Ego-Fahrzeug
10 (z.B. aus den Informationen der wenigstens einen Sensoreinheit wie beispielsweise der Radareinheit) gilt für b im Fahrzeug-Koordinatensystem:
11 zeigt die Ermittlung der Positionsinformationen im Pfad/Offset-Format am Beispiel einer Ampelanlage mit bekannten absoluten Positionsinformationen. Die Ampelanlage
24 stellt das zu fusionierende Objekt dar. Bei Positionsinformationen, die beispielsweise von einer
V2X-Basisstation zum Fahrzeug gesendet werden, handelt es sich zumeist um absolute Positionsinformationen. So sendet beispielsweise eine Ampelanlage den aktuellen Schaltzustand zusammen mit ihrer absoluten Positionsinformationen der Ampel
24 in WGS84-Koordinaten, d. h. in Weltkoordinaten. Für die Fusion von absoluten Positionsinformationen mit den Positionsinformationen im Pfad/Offset-Format wird die aktuelle absolute Fahrzeugposition (oder eine andere geeignete Referenz) verwendet. Beispielsweise durch den GPS-Empfänger im Fahrzeug
10 sind die absoluten Positionsinformationen des Fahrzeugs
10 bekannt. Ebenso ist die Position des Fahrzeuges im Pfad/Offset-Format (z.B. „ADASIS“) bekannt.
-
Die Pfad/Offset Darstellung des relevanten Objekts 24 (z.B. Ampelanlage) lässt sich auf unterschiedliche Weise finden. Im einfachsten Fall, beispielsweise bei kleiner Distanz zwischen Fahrzeug und relevantem Objekt und bei näherungsweise geradem Straßenverlauf kann aus der absoluten Position des Fahrzeuges und der absoluten Position des zu fusionierenden Objekts 24 ein relativer Verschiebungsvektor (Fahrzeug 10 zu dem zu fusionierenden Objekt 24) berechnet werden. Somit ist die relative Verschiebung zwischen dem Fahrzeug 10 und Objekt 24 bekannt. Die Bestimmung der Positionsinformationen im Pfad/Offset-Format aus bekannten absoluten Positionsinformationen wurde voranstehend mit Bezug auf die 3 bis 10 im Detail erläutert.
-
Von dem Ego-Fahrzeug 10 sind sowohl die Positionsinformationen im Pfad/Offset-Format als auch die absoluten Positionsinformationen in Weltkoordinaten (WGS84-Koordinaten) bekannt. Aus diesen Weltkoordinaten des Ego-Fahrzeuges 10 und der Ampelanlage 24, die das zu fusionierenden Objekt darstellt, kann der relative Verschiebungsvektor zwischen Ego-Fahrzeug 10 und Ampelanlage 24 berechnet werden. Dieser Vektor kann dann dazu verwendet werden, aus den Positionsinformationen im Pfad/Offset-Format des Ego-Fahrzeuges 10 die Positionsinformationen der Ampelanlage im Pfad/Offset-Format zu berechnen. Nach der Berechnung der Positionsinformationen im Pfad/Offset-Format kann die Ampelanlage in ein Umgebungsmodells des Fahrzeugs eingefügt werden. Dieses Umgebungsmodell kann beispielsweise ein elektronischer Horizont (z.B. gemäß dem „ADASIS“-Protokoll) sein.
-
12 zeigt eine beispielhafte Darstellung zu Erläuterung der Problematik bei der Fusion von Positionsinformationen im Pfad/Offset-Format und absoluten Positionsinformationen bei gekrümmtem Straßenverlauf. Bei einem gekrümmten Straßenverlauf kann ein Verschiebungsvektor zwischen Ego-Fahrzeug 10 und dem relevanten bzw. zu fusionierenden Objekt 26 berechnet werden. Wenn dieser dann jedoch zum Offset-Wert des Ego-Fahrzeuges 10 addiert wird, ergibt sich ein falscher Wert des Offsets (und eventuell des Pfades) des zu fusionierenden Objekts 26, da der Offset-Wert der Straße nicht dem Verschiebungsvektor folgt (siehe 10). Der reale Offsetverlauf entspricht voranstehend beschriebenen dem Pfadintegral entlang des in 11 gestrichelten Pfeils P. Die weitere Vorgehensweise entspricht dann der voranstehend beschriebenen Fusion der absoluten Positionsinformationen mit Positionsinformationen im Pfad/Offset-Format. Zur Vermeidung von Wiederholungen wird auf die voranstehend detaillierte Beschreibung der 3 bis 10 verwiesen.
-
Die 13 und 14 zeigen welche Fusionsmöglichkeiten durch die vorliegende Offenbarung geschaffen werden, um ein Umgebungsmodell des Fahrzeugs erstellen zu können. Die voranstehend beschriebenen Ausführungsbeispiele beziehen sich auf die Fusion von relativen und absoluten Positionsinformationen (im Relativ- und Weltkoordinatenformat) mit Positionsinformationen in einer logischen Kartenrepräsentation (Pfad/Offset-Format). Dies ist in 13 gezeigt. Bei den von einer Sensoreinheit des Fahrzeugs erfassten Positionsinformationen kann es sich beispielsweise um Informationen von einer Kamera- und/oder Radareinheit handeln. Bei der logischen Kartenrepräsentation kann es sich beispielsweise um einen elektronischen Horizont nach der „ADASIS“-Protokoll handeln. Die voranstehenden Ausführungsbeispiele betreffen somit unter anderem die Integration von relativen oder absoluten Positionsinformationen in einen digitalen Horizont. Für die ADAS/AD-Applikationen ergibt sich dadurch der Vorteil, dass ein einheitliches und fusioniertes Umgebungsmodel unabhängig von der Quelle der Positionsinformationen erzeugt wird.
-
Neben diesem Ansatz ist es wie in 14 gezeigt ist auch möglich, die relativen oder absoluten Positionsinformationen nicht in den elektronischen Horizont zu integrieren werden, sondern die relativen und/oder absoluten Positionsinformationen und die Positionsinformationen aus dem elektronischen Horizont (im Pfad/Offset-Format) in ein zusätzliches Umgebungsmodell mit einem anderen Koordinatensystem zu fusionieren. Bei der Fusion gemäß 14 werden relativen und/oder absoluten Positionsinformationen und die Positionsinformationen auf dem elektronischen Horizont (im Pfad/Offset-Format) in ein zusätzliches Umgebungsmodel fusioniert, das ein anderes Koordinatensystem als der elektronische Horizont im Pfad/Offset verwendet. Hierbei kann es sich beispielsweise um ein kartesisches Koordinatensystem oder ein Polarkoordinatensystem handeln, das mit dem Ego-Fahrzeug mitbewegt wird. Die hier offenbarte und voranstehend beschriebene Fusion von Positionsinformationen schließt die beiden Möglichkeiten gemäß den 13 und 14 mit ein. Bei Verwendung gemäß 14 müssen zuerst die gleichen Schritte ausgeführt werden, wie bei den voranstehend beschriebenen Ausführungsbeispielen. Nach diesen Schritten können die fusionierten Positionsinformationen in ein anderes Koordinatensystem (wie z.B. ein kartesisches Koordinatensystem und/oder ein Polarkoordinatensystem) transferiert werden.
-
Gemäß dem mit Bezug auf die 1 bis 12 beschriebenen Ausführungsbeispiel des Verfahrens zur Erstellung eines Umgebungsmodells eines Fahrzeugs werden entweder relative Positionsinformationen relativ zum Ego-Fahrzeug oder absolute Positionsinformationen (Weltkoordinaten, z.B. WGS84-Koordinaten) mit Informationen im Pfad/Offset-Format fusioniert. Durch diese Informationsfusion lassen sich beispielsweise folgende Informationen in einen elektronischen Horizont bzw. in ein Umgebungsmodell des Fahrzeugs integrieren:
- - Informationen zum aktuellen Zustand von Ampelanlagen. Mit der die beschriebene Informationsfusion ist es möglich, Echtzeitupdates zum Schaltzustand der Ampelanlage, welche beispielsweise von einer V2X-Datenquelle stammen, mit der Positionsangabe der Ampelanlage, welche aus einer digitalen Karte stammt, im elektronischen Horizont zu fusionieren. Nur mittels Informationsfusion können Echtzeitinformationen mit statischen Daten aus einer digitalen Karte fusioniert werden. Ohne die Fusion lässt sich damit nicht bestimmen, wie die Echtzeitinformationen zu Objekten im elektronischen Horizont zugeordnet werden können. Mit dieser Zuordnung kann ein (autonom fahrendes) Fahrzeug in sinnvoller Weise auf die entsprechende Ampel reagieren.
- - Information zum aktuellen Zustand von variablen Geschwindigkeitsanzeigen (z.B. LED-Geschwindigkeitsanzeigen auf Autobahnen). Hier gilt das voranstehend mit Bezug auf die Echtzeitdaten von Ampelanlagen Gesagte. Ohne Information Fusion lassen sich die, z.B. per V2X empfangen Echtzeitdaten der Geschwindigkeitslimits nicht den statischen Objekten aus der digitalen Karte bzw. dem elektronischen Horizont zuordnen.
- - Informationen zum Ort und Geschwindigkeit von anderen Verkehrsteilnehmern (z.B. andere Fahrzeuge, Fußgänger, usw.). Durch die Fusion kann die Position der anderen Verkehrsteilnehmer in den digitalen Horizont integriert werden. Dadurch liegen Informationen sowohl von der digitalen Karte als auch von den Fahrzeugsensoren in einem gemeinsamen Umgebungsmodell vor. Daraus resultiert eine bessere Situationsbewertung vieler ADAS/AD-Funktionen.
- - Informationen von kurzfristig geänderten Straßenverläufen (z.B. an Baustellen). Beispielsweise kann an einer Baustelle der Verlauf der geänderten Spurführung per V2X an das Fahrzeug übermittelt werden. Durch die Fusion lassen sich die Informationen in den digitalen Horizont integrieren.
- - Informationen über Verkehrsbehinderungen (z.B. Unfall, Straßensperrung).Auch in diesem Zusammenhang kann es hilfreich sein, die Positionsinformationen von unterschiedlichen Quellen in einen gemeinsamen elektronischen Horizont zu integrieren.
-
15 zeigt die Vorteile der Fusion von Informationen aus unterschiedlichen Informationsquellen anhand des Beispiels einer Ampelanlage. Ohne der Integration und Zuordnung der Daten aus unterschiedlichen Quellen, beispielsweise der digitalen Karte, der Fahrzeugsensoren und V2X-Datenquellen entsteht kein einheitliches Umgebungsmodell. Es ist nicht möglich, gleiche Objekte aus unterschiedlichen Datenquellen zuzuordnen und deren Information zu kombinieren.
-
Durch die Integration dieser Informationen in ein Umgebungsmodells (z.B. „ADASIS“) lassen sich beispielsweise folgende Applikationen im ADAS/AD Bereich realisieren:
- - Warnung des Fahrers vor Gefahrenstellen oder Verkehrsbehinderungen entlang des befahrenden Pfades. Durch die Informationsfusion ermittelt werden, ob sich die Gefahrenstellen auf dem aktuell befahrenen Pfad befinden und ob diese für das Fahrzeug relevant sind.
- - Berücksichtigung von Informationen zum aktuellen Ampelzustand und Informationen von variablen Geschwindigkeitslimits in der Auswahl der Geschwindigkeit für einen intelligenten Tempomaten (z.B. „Green ACC“). Durch die Informationsfusion können die Echtzeitdaten aus Quellen wie beispielsweise V2X nicht mit den anderen Objekten (Ampeln, Verkehrszeichen) aus einer digitalen Karte zu einem gemeinsamen Umgebungsmodell bzw. Horizont fusioniert und zugeordnet werden. Ohne diese Zuordnung lassen sich die beispielsweise aus einer V2X-Datenquelle empfangen Informationen nicht interpretieren.
- - Anzeige der Information zum aktuellen Ampelzustand und Informationen von variablen Geschwindigkeitslimits an einer Mensch-Maschine-Schnittstelle (Human-Machine-Interface (HMI)) im Fahrzeug. Durch die Informationsfusion lassen sich die Daten aus unterschiedlichen Quellen zu einem gemeinsamen Umgebungsmodell bzw. zuordnen und interpretieren.
- - Auswahl einer alternativen Route aufgrund von Verkehrsbehinderungen. Durch die Informationsfusion lässt sich bestimmen, ob die Verkehrsbehinderung für das Fahrzeug relevant ist.
-
Die vorangehend beschriebenen Varianten des Verfahrens oder der Vorrichtungen sowie deren Funktions- und Betriebsaspekte dienen lediglich dem besseren Verständnis der Struktur, der Funktionsweise und der Eigenschaften; sie schränken die Offenbarung nicht etwa auf die Ausführungsbeispiele ein. Die Fig. sind teilweise schematisch, wobei wesentliche Eigenschaften und Effekte zum Teil deutlich vergrößert dargestellt sind, um die Funktionen, Wirkprinzipien, technischen Ausgestaltungen und Merkmale zu verdeutlichen. Dabei kann jede Funktionsweise, jedes Prinzip, jede technische Ausgestaltung und jedes Merkmal, welches/welche in den Fig. oder im Text offenbart ist/sind, mit allen Ansprüchen, jedem Merkmal im Text und in den anderen Fig., anderen Funktionsweisen, Prinzipien, technischen Ausgestaltungen und Merkmalen, die in dieser Offenbarung enthalten sind oder sich daraus ergeben, frei und beliebig kombiniert werden, so dass alle denkbaren Kombinationen den beschriebenen Verfahren bzw. Vorrichtungen zuzuordnen sind. Dabei sind auch Kombinationen zwischen allen einzelnen Ausführungen im Text, das heißt in jedem Abschnitt der Beschreibung, in den Ansprüchen und auch Kombinationen zwischen verschiedenen Varianten im Text, in den Ansprüchen und in den Fig. umfasst. Für die hier aufgeführten Wertebereiche gilt, dass auch sämtliche numerischen Zwischenwerte offenbart sind.
-
Auch die Ansprüche limitieren nicht die Offenbarung und damit die Kombinationsmöglichkeiten aller aufgezeigten Merkmale untereinander. Alle offenbarten Merkmale sind explizit auch einzeln und in Kombination mit allen anderen Merkmalen hier offenbart.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- DE 102014111126 A1 [0002]
- US 2017371349 A1 [0003]