DE102011082379A1 - Verfahren zum Erfassen von Navigationsdaten - Google Patents

Verfahren zum Erfassen von Navigationsdaten Download PDF

Info

Publication number
DE102011082379A1
DE102011082379A1 DE102011082379A DE102011082379A DE102011082379A1 DE 102011082379 A1 DE102011082379 A1 DE 102011082379A1 DE 102011082379 A DE102011082379 A DE 102011082379A DE 102011082379 A DE102011082379 A DE 102011082379A DE 102011082379 A1 DE102011082379 A1 DE 102011082379A1
Authority
DE
Germany
Prior art keywords
feature
vehicle
sensor
additional information
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102011082379A
Other languages
English (en)
Inventor
Werner Poechmueller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102011082379A priority Critical patent/DE102011082379A1/de
Priority to IT001443A priority patent/ITMI20121443A1/it
Priority to FR1258099A priority patent/FR2979987B1/fr
Priority to CN201210337698.7A priority patent/CN102997926B/zh
Publication of DE102011082379A1 publication Critical patent/DE102011082379A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3822Road feature data, e.g. slope data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial

Abstract

Die Erfindung betrifft eine Recheneinheit, ein Computerprogrammprodukt und ein Verfahren zum Erfassen von Navigationsdaten, wobei ein Fahrzeug mit einem Sensors ein Merkmal der Straße und/oder der Umgebung erfasst, und wobei das Fahrzeug eine Position des Merkmals ermittelt, wobei das Merkmal und die Position des Merkmals als Zusatzinformation zu Navigationsdaten abgespeichert oder an eine externe Recheneinheit übermittelt werden.

Description

  • Die Erfindung betrifft ein Verfahren zum Erfassen von Navigationsdaten gemäß Patentanspruch 1, ein Computerprogrammprodukt gemäß Patentanspruch 10 und eine Recheneinheit gemäß Patentanspruch 11 und 12.
  • Stand der Technik
  • Im Stand der Technik sind verschiedene Datenbanken zum Bereithalten von Navigationsdaten eines Fahrzeuges bekannt.
  • Offenbarung der Erfindung
  • Die Aufgabe der Erfindung besteht darin, ein Verfahren zum Erfassen von Navigationsdaten bereitzustellen. Diese Aufgabe wird durch das Verfahren gemäß Patentanspruch 1, das Computerprogrammprodukt gemäß Patentanspruch 10 und die Recheneinheit gemäß Patentanspruch 11 und 12 gelöst.
  • Weitere vorteilhafte Ausbildungen der Erfindung sind in den abhängigen Ansprüchen angegeben.
  • Ein Vorteil des Verfahrens besteht darin, dass von einem Fahrzeug Zusatzinformationen gesammelt werden und diese für eine Navigation eines Fahrzeuges bereitgehalten werden. Dies wird dadurch erreicht, dass das Fahrzeug mithilfe eines Sensors ein Merkmal der Straße und/oder der Umgebung erfasst und eine Position des Merkmals ermittelt. Das erfasste Merkmal und die Position des erfassten Merkmals werden als Zusatzinformation zu den Navigationsdaten abgespeichert und/oder an eine externe Recheneinheit übermittelt. Auf diese Weise werden zusätzliche Informationen erfasst, mit denen eine Position eines Fahrzeuges in Bezug auf das Merkmal ermittelt werden kann. Somit kann beispielsweise die Position eines Fahrzeuges in Abhängigkeit von dem erfassten Merkmal präziser ermittelt werden.
  • In einer weiteren Ausführungsform wird eine Position des Merkmals relativ zu einer Nutzinformation der Navigationsdaten ermittelt. Die relative Position des Merkmals wird als Teil der Zusatzinformation abgespeichert. Somit ist es möglich, eine relative Position des Merkmals in Bezug auf bereits abgespeicherte Nutzinformationen der Navigationsdaten abzuspeichern. Somit kann bei Erkennen des Merkmals eine relative Position des Fahrzeuges zu einer Nutzinformation der Navigationsdaten berechnet werden.
  • In einer weiteren Ausführungsform wird das Merkmal und die Position des Merkmals öfter von einem oder mehreren Fahrzeugen erfasst und als Position des Merkmals wird ein Mittelwert der erfassten Positionen abgespeichert. Auf diese Weise wird eine präzisere Position des Merkmals ermittelt und abgespeichert.
  • In einer weiteren Ausführungsform wird dem Sensor, der das Merkmal erfasst, eine Kennung zugeordnet und die Kennung wird zusätzlich zu der Zusatzinformation abgespeichert. Somit ist es beispielsweise möglich, aufgrund der Kennung Merkmale und/oder Positionen der Merkmale unter Berücksichtigung der Kennung genauer auszuwerten. Beispielsweise werden nur Merkmale und Positionen von Merkmalen, die von Sensoren gleicher Kennung erfasst wurden, für eine Mittelwertbildung der Position verwendet.
  • In einer weiteren Ausführungsform wird die Zusatzinformation von dem Fahrzeug an eine externe Recheneinheit übertragen. Die externe Recheneinheit kann beispielsweise in einem anderen Fahrzeug oder als stationäre Recheneinheit ausgebildet sein. Zudem kann die stationäre Recheneinheit Zusatzinformationen an Fahrzeuge übermitteln. Mithilfe dieses Verfahrens ist es möglich, die erfassten Merkmale und/oder Positionen mit anderen Fahrzeugen oder mit einer stationären Recheneinheit auszutauschen. Somit können Informationen verteilt und von mehreren Fahrzeugen benutzt werden.
  • In einer weiteren Ausführungsform wird die Mittelung der Position oder die Mittelung der relativen Position in der stationären Recheneinheit durchgeführt, wobei die stationäre Recheneinheit die gemittelte Position wiederum an Fahrzeuge übermittelt. Somit können rechenaufwändige Verfahren in die externe Recheneinheit ausgelagert werden. Zudem kann die externe Recheneinheit Positionen oder relative Positionen der Merkmale berücksichtigen, die beispielsweise von verschiedenen Fahrzeugen erfasst wurden. Insbesondere können Merkmale oder Positionen von verschiedenen Sensoren berücksichtigt werden, wenn deren Kennung bekannt ist. Aufgrund der Kennung können beispielsweise relative Positionen des Sensors am Fahrzeug oder unterschiedlich erfassbare Merkmale berücksichtigt werden.
  • In einer weiteren Ausführungsform ermittelt die Recheneinheit aufgrund der Kennung einen Mittelwert über Positionen der Sensoren gleicher Kennung und/oder die Recheneinheit kann aufgrund der Kennungen Vergleichswerte berücksichtigen, um Positionen von Sensoren verschiedener Kennungen berücksichtigen zu können.
  • In einer weiteren Ausführungsform werden als Nutzinformationen Verkehrszeichen und/oder Fahrbahngeometrien verwendet. Somit kann eine relative Position eines erfassten Merkmals zu den Nutzinformationen abgespeichert werden.
  • In einer weiteren Ausführungsform werden beispielsweise als Merkmal Besonderheiten im Straßenbelag wie beispielsweise Risse in der Fahrbahnoberfläche, ein Teerfleck, ein Gully zur Straßenentwässerung erkannt.
  • Als zusätzliche Merkmale können Umgebungsinformationen wie z. B. Bäume, Häuser oder sonstige auffällige Elemente verwendet werden.
  • Ein Vorteil der Erfindung kann darin bestehen, dass über eine zentrale Recheneinheit, die beispielsweise in Form eines Servers ausgebildet ist, Daten aus verschiedenen Fahrzeugen aufgenommen werden, um Karten oder Zusatzinformationen hoher Güte beispielsweise mittels Datenaggregation zu erzeugen. Dabei können Merkmale der Fahrbahn und/oder der Umgebung von unterschiedlichen Fahrzeugen mit unterschiedlichen Sensoren erfasst werden und zur Verbesserung der Ortung berücksichtigt werden. Dabei werden die zu aggregierenden Daten der Fahrzeuge und der Sensoren verwendet, um eine verbesserte Datengüte zu erreichen. Die Merkmale verschiedener Sensortypen oder gleicher Sensoren verschiedener Fahrzeuge können dabei getrennt abgespeichert und getrennt oder in Relation zueinander ausgewertet und berücksichtigt werden. Somit wird eine erhöhte Datenqualität für das Erkennen eines Merkmals erreicht.
  • Die Erfindung wird im Folgenden anhand der Figuren näher erläutert. Es zeigen
  • 1 eine schematische Darstellung einer Fahrerperspektive,
  • 2 eine schematische Darstellung einer Infrastruktur zur Übertragung von Navigationsdaten.
  • 1 zeigt in einer schematischen Darstellung eine typische Fahrszene durch eine Windschutzscheibe 1 eines Fahrzeuges aus einer Fahrerperspektive. Dargestellt ist eine vor dem Fahrzeug liegende Fahrbahn 10 mit zwei getrennten Fahrstreifen 11, 12. Das Fahrzeug ist mit einem Sensorsystem 4 ausgerüstet, das beispielsweise in Form einer Videosensorik ausgebildet sein kann. Mithilfe des Sensorsystems 4 können beispielsweise Fahrbahnrandmarkierungen 15, 16 erfasst und vermessen werden. Mithilfe des Sensorsystems 4 können z.B. Kurvenkrümmungen bestimmt werden. Ein anderer Anwendungsfall für ein Videosensorsystem wäre eine optische Erkennung von Verkehrszeichen 17, beispielsweise ein Verkehrszeichen mit einer Geschwindigkeitsbeschränkung. Weiterhin ist das Fahrzeug mit einem Lenkrad 2 mit einem Lenkwinkelsensor und mit einem Navigationssystem 8 mit einer GPS-Ortung ausgerüstet. Auch über den Lenkwinkelsensor lassen sich Kurvenkrümmungen bestimmen. Weiterhin können Fahrbahngeometrien wie Kurvenkrümmungen über die Verfolgung von GPS-Trajektorien bestimmt werden. Die Kurvenkrümmung einer Kurve stellt eine Nutzinformation dar, die vom Fahrzeug erfasst wird.
  • Dazu weist beispielsweise das Navigationssystem 8 eine entsprechende Software und einen entsprechenden Datenspeicher auf. Zudem kann eine Recheneinheit 18 vorgesehen sein, die mit den Sensoren, dem Sensorsystem und dem Navigationssystem 8 verbunden ist und die von den Sensoren bzw. Sensorsystemen erfassten Nutzinformationen auswertet und/oder abspeichert. Durch einen kombinierten Einsatz mehrerer Sensorsysteme und/oder Sensoren wie z.B. Videosystem, Lenkwinkelsensor, GPS-Trajektorien lassen sich Fahrzeugbewegungen sehr gut erfassen, so dass sich die Bewegung eines Fahrzeuges entlang einer Fahrbahn genau beschreiben lässt. Bei Bedarf können zusätzliche Auswertungen vorgenommen werden, wie z.B. eine Positionsbestimmung des Fahrzeuges innerhalb einer Fahrbahn mithilfe des Videosensors, um beispielsweise das Schneiden von Kurven zu erkennen. Für eine weitere Verbesserung des Systems können auch weitere Sensoren wie z.B. Drehratensensoren oder Beschleunigungssensoren eingesetzt werden.
  • Ein in dieser Art ausgerüstetes Fahrzeug kann dazu dienen, um Navigationsdaten wie z.B. eine Navigationskarte mit weiteren Nutzinformationen anzureichern. Als Nutzinformationen können beispielsweise geometrische Informationen über den Straßenverlauf, insbesondere genauere Kurvengeometrien, tatsächlich verwendete Bewegungskurven des Fahrzeuges, d.h. wird eine Kurve eher geschnitten oder ausgefahren, Kurvengeschwindigkeiten an bestimmten Positionen innerhalb eines Kurvensegments erfasst werden. Zudem können genauere Positionen von Objekten am Straßenrand wie z.B. Verkehrszeichen, Ampeln, Abzweigungen, Kreuzungen oder Gebäude erfasst werden.
  • Eine Verbesserung des Systems wird dadurch erreicht, dass eine Aufnahme der Informationen über mehrere Fahrten durch ein Fahrzeug oder mehrere Fahrzeuge durchgeführt wird, und auf diese Weise die Daten aggregiert, d.h. fortlaufend gelernt und ständig verbessert werden. Beispielsweise kann bei der Datenaggregation von geometrischen Informationen wie Standorte, Straßenkrümmungen usw. Mittelwerte von den verschiedenen erfassten Daten gebildet werden. So kann z.B. die Geometrie einer Kurve durch viele wiederholte Fahrten genauer erfasst werden. Die genauere Lage und/oder der genauere Verlauf der Kurve kann in einer lokalen Datenbasis innerhalb des Navigationssystems 8 des Fahrzeuges zusätzlich zur digitalen Karte des Navigationssystems 8 abgespeichert werden. Je häufiger das Fahrzeug eine bestimmte Stelle passiert, desto besser wird die aggregierte Information. In analoger Weise können auch die Daten von verschiedenen Fahrzeugen beispielsweise in einem Fahrzeug oder in einer stationären Recheneinheit gesammelt, ausgewertet und beispielsweise aggregiert werden. Insbesondere können Mittelwerte über die gesammelten Daten, insbesondere über geometrische Angaben wie z.B. eine Position oder ein Verlauf berechnet und abgespeichert werden. Die externe Recheneinheit oder die Recheneinheit im Fahrzeug kann die aggregierten Daten wieder anderen Fahrzeugen zur Verfügung stellen.
  • Zusätzlich zur Erfassung und Verbesserung von Nutzdaten ist es vorteilhaft, Zusatzinformationen zu den Nutzdaten zu sammeln. Die Zusatzinformationen sind beispielsweise erfassbare Merkmale aus der Umgebung des Fahrzeugs und die Position der Merkmale. Versuche haben gezeigt, dass eine Vielzahl von charakteristischen Merkmalen existiert, die von einem Sensor erfasst werden können und die ihre Position nicht ändern. Diese Merkmale können in Besonderheiten der Straße, wie z. B. Textur, Risse, Farbe, Rauhigkeit, aber auch in Bauteilen der Straße, wie z. B. eine Markierung, ein Straßendeckel, ein Gitter eines Entwässerungsschachts usw. sein. Zudem kann das Merkmal auch ein natürliches Element wie z. B. ein Baum, ein Busch, ein Felsen usw. sein. Weiterhin kann das Merkmal auch ein Gebäude oder ein Bauelement wie z. B. ein Masten, eine Ampel usw. sein.
  • Eine Grundidee der Erfindung besteht darin, mit der Erfassung von Zusatzinformationen eine Datenbasis für die Führung, Information und/oder Navigation des Fahrzeugs zu verbessern.
  • Mithilfe der Zusatzinformation können beispielsweise Ungenauigkeiten in der GPS-Ortung der eigenen Position des Fahrzeugs ausgeglichen werden. Aufgrund der relativen Position des erfassten Merkmals in Bezug auf eine Nutzinformation kann das Fahrzeug bei Erfassen des Merkmals seine relative Position zur Nutzinformation genauer ermitteln.
  • Als Merkmale der Fahrbahn und/oder der Umgebung des Fahrzeuges können beispielsweise Merkmale in der Fahrbahnoberfläche oder in der Umgebung erkannt werden. Dabei können beispielsweise farbliche Strukturen wie z.B. ein Teerfleck 6 oder ein Riss 7 in der Fahrbahnoberfläche oder andere erfassbare Strukturen der Fahrbahn und/oder der Umgebung beispielsweise mithilfe eines Videosystems vom Fahrzeug erfasst werden. Zudem können beispielsweise Straßengullys 5 für eine Straßenentwässerung mithilfe des Videosystems erkannt werden. Weiterhin kann der Straßengully zusätzlich oder anstatt mit einem Radarsensor erfasst werden, da der Straßengully aus Eisen besteht und das Eisen das Signal des Sensors charakteristisch beeinflusst. Somit ist der Straßengully durch ein charakteristisches Signal des Radarsensors erkennbar. In analoger Weise können auch andere Ansammlungen von Eisen, wie z. B. Eisenarmierungen in Straßen oder Brücken als Merkmale erfasst werden. Weiterhin kann das Fahrzeug beispielsweise mithilfe des Navigationssystems und der GPS-Ortung eine absolute Position der erkannten Merkmale ermitteln und abspeichern. Zudem kann das Fahrzeug eine relative Position des erkannten Merkmales in Bezug auf eine in dem Navigationssystem abgespeicherte Nutzinformation wie z.B. einem Verkehrsschild oder einem Gebäude oder einer Straßenabbiegung oder einem Kurvenmittelpunkt abspeichern.
  • Zudem kann zusätzlich eine Kennung für den verwendeten Sensor abgespeichert werden, mit dem das Merkmal erfasst wurde. Die Kennung kann beispielsweise Informationen über den Typ des Sensors und/oder die Einbaulage des Sensors am Fahrzeug aufweisen. Damit kann beispielsweise ein relativer Abstand des Sensors in Bezug auf die GPS-Ortung des Fahrzeuges berechnet werden, so dass eine genauere Festlegung der absoluten und der relativen Position des erfassten Merkmals möglich ist. Zudem kann aufgrund der Kennung erkannt werden, von welchem Sensortyp ein Merkmal erfasst wurde. Damit können beispielsweise Merkmale gleicher oder ähnlicher Sensoren gekennzeichnet und gemeinsam ausgewertet werden. Zudem können Merkmale, die mit verschiedenen Sensoren erfasst wurden, getrennt verarbeitet werden. Somit wird die Genauigkeit des Verfahrens verbessert.
  • Eine weitere Ausgestaltung der Erfindung besteht darin, Informationen über viele Fahrten beispielsweise mit einem Fahrzeug oder mit verschiedenen Fahrzeugen zu sammeln und auszuwerten. Beispielsweise können die Informationen, d.h. die Zusatzinformationen in einer zentralen Recheneinheit abgelegt, ausgewertet und wieder an die Fahrzeuge übermittelt werden.
  • 2 zeigt in einer schematischen Darstellung ein System für eine zentrale Sammlung von Daten mithilfe eines Servers als weitere Recheneinheit 19. Ein Fahrzeug 13 fährt eine Strecke ab und zeichnet mithilfe eines Sensorsystems 4 Zusatzinformationen, d.h. Merkmale und absolute Positionen bzw. relative Positionen der Merkmale in Bezug auf bekannte Nutzinformation z.B. Objekte mit bekannten örtlichen Positionen auf. Die Merkmale können beispielsweise auch Verkehrszeichen sein, die beispielsweise mithilfe einer Videosensorik erkannt werden. Zudem können als Merkmale Fahrbahngeometrien erfasst werden, die beispielsweise eine optisch erkennbare Struktur oder ein Element der Fahrbahnoberfläche darstellt.
  • Das vom Fahrzeug erfasste Merkmal und die Position bzw. die relative Position des Merkmals zu einer Nutzinformation wird von dem Fahrzeug 13 über eine Schnittstelle 20 an eine zentrale Recheneinheit 19 übermittelt, die ebenfalls eine zweite Schnittstelle 21 aufweist. In der zentralen Recheneinheit 19 werden Zusatzinformationen von verschiedenen Fahrzeugen zusammengetragen und mithilfe einer Datenaggregation verdichtet. Ist beispielsweise ein neues Verkehrszeichen aufgestellt worden, das noch nicht als Nutzinformation abgespeichert ist, so kann das Verkehrzeichen auch ein Merkmal für eine Zusatzinformation darstellen. Ein Verkehrszeichen (Beschränkung 60 km/h) ist vor einer Kurve aufgestellt. Die Kurve besitzt eine Krümmung mit Scheitelpunkt, in dem man aus Sicherheitsgründen nicht schneller als 60 km/h fahren darf. Sowohl das Verkehrszeichen (60 km/h) als auch die Kurvengeometrie mit einer definierten Krümmung stellen Nutzinformation dar. Gleichzeitig kann die „Nutzinformation Verkehrszeichen“ aber auch als Merkmal mit einer relativen Position (z.B. 120m) zum Scheitelpunkt mit der maximalen Kurvenkrümmung verwendet werden. Sobald der Videosensor das Verkehrszeichen detektiert hat, ist auch die genaue Position des Fahrzeugs zum Scheitelpunkt der Kurve mit einer bestimmten Krümmung bekannt. In diesem Fall kann das Verkehrszeichen sowohl als Nutzinformation (für eine Funktion wie z.B. einen Geschwindigkeitswarner) als auch als Merkmal zur Bestimmung der relativen Position vor der Kurve dienen.
  • In einer weiteren Ausführungsform lässt sich beispielsweise eine sehr sichere Verkehrszeicheninformation mit einer genauen Positionsangabe des Verkehrszeichens erreichen, wenn mehrere Fahrzeuge das gleiche Verkehrszeichen erkannt und die Position bzw. die relative Position an die Recheneinheit 19 übermittelt haben. Beispielsweise können die Fahrzeuge das Verkehrszeichen mit unterschiedlichen Videosensoren erfassen und das Verkehrszeichen und die Position des Verkehrszeichens an die Recheneinheit übermitteln. Dazu weisen die Videosensoren beispielsweise Bilderkennungsverfahren auf, mit denen die Art des Verkehrszeichens erkannt wird.
  • Beispielsweise kann mithilfe eines Bilderkennungsverfahrens ein Verkehrszeichen mit einer Geschwindigkeitsbegrenzung von 60 km/h erkannt werden. Erkennen beispielsweise 18 Fahrzeuge die Geschwindigkeitsbegrenzung von 60 km/h und nur zwei Fahrzeuge eine Geschwindigkeitsbegrenzung von 90 km/h, so kann die Recheneinheit aufgrund der statistischen Auswertung sicher davon ausgehen, dass das von den Fahrzeugen erfasste Verkehrsschild eine Geschwindigkeitsbegrenzung von 60 km/h darstellt. Diese Information kann wiederum an die Fahrzeuge zurückgegeben werden. Somit können auch die Fahrzeuge, die ein falsches Verkehrszeichen erkannt haben, beim nächsten Vorbeifahren aufgrund der von der Recheneinheit bereitgestellten Information ein Verkehrsschild mit einer Geschwindigkeitsbegrenzung von 60 km/h erkennen, obwohl eventuell die Videosensorik des Fahrzeuges beschädigt ist.
  • In der zentralen Recheneinheit 19 kann beispielsweise aufgrund der Kennung der Sensoren erkannt werden, ob manche Fahrzeuge Sensoren mit höherer Präzision aufweisen. Somit können beispielsweise die Daten der Sensoren mit höherer Präzision bevorzugt oder mit einem Faktor bewertet bei der Datenaggregation berücksichtigt werden.
  • Als Datenaggregation können beispielsweise Mittelwerte von absoluten und/oder relativen Positionen von erfassten Merkmalen gebildet werden. Liegen beispielsweise Daten von einem qualitativ schlechten Sensor und einem qualitativ hochwertigen Sensor vor, so können beispielsweise die Daten des hochwertigen Sensors alleine verwendet werden, um beispielsweise eine absolute Position eines Merkmals bzw. eine relative Position eines Merkmals abzuspeichern und wieder an die Fahrzeuge auszugeben.
  • Beispielsweise kann eine sichere Verkehrszeicheninformation mit hoher Positionsgüte erreicht werden, wenn viele Fahrzeuge mit unterschiedlichen Videosensoren ein Verkehrszeichen passieren und die erfassten Merkmale und die Position bzw. die relative Position an die zentrale Recheneinheit 19 gemeldet werden. Auf diese Art lassen sich auch hochgenaue Fahrbahngeometrien wie z.B. Kurven erfassen. Dazu werden beispielsweise die Bewegungsdaten mehrerer Fahrzeuge an ein und derselben Stelle erfasst. Die Bewegungsdaten können beispielsweise von Sensoren wie dem Videosensor, dem Lenkwinkelsensor und dem GPS-System beispielsweise in Form von Bewegungsverläufen erfasst werden. Die Bewegungsverläufe können mithilfe einer Datenaggregation verdichtet werden, beispielsweise werden Mittelwerte gebildet. Somit kann die zentrale Recheneinheit 19 wertvolle und hochgenaue Informationen über das Fahrzeugumfeld erfassen und an die Fahrzeuge übermitteln.
  • Damit können die Fahrzeuge die bereitgestellte Information beispielsweise vorausschauend zur Darstellung von Assistenzfunktionen berücksichtigen. Die Information kann z.B. eine Verkehrszeicheninformation oder eine Fahrbahngeometrie sein. Dazu kann das Fahrzeug die Information über ein Merkmal und die Position des Merkmals von der zentralen Recheneinheit 19 und/oder von anderen Fahrzeugen erhalten. Das Fahrzeug kann diese Information in seiner lokalen Navigationskarte einbinden. Dabei können bekannte Verfahren wie Map-Matching verwendet werden. Aufgrund von Ungenauigkeiten in der digitalen Karten und einer Ungenauigkeit bei einer GPS-Ortung kann mithilfe der zusätzlich erfassten Daten, d.h. der erfassten Merkmale und deren Position eine Verbesserung der Ortung erreicht werden.
  • Für viele Assistenzfunktionen besteht der Bedarf an einer möglichst genauen Positionsortung des Fahrzeuges, beispielsweise bei einer automatischen Notbremsung vor einer zu schnell befahrenen Kurve. Dazu kann beispielsweise dem Fahrzeug ein erfasstes Merkmal und eine relative Position des erfassten Merkmales in Bezug auf einen Kurvenscheitel zur Verfügung gestellt werden. Das Merkmal kann beispielsweise ein Riss in der Fahrbahnoberfläche, ein Teerfleck in der Fahrbahnoberfläche oder eine andere Struktur der Fahrbahn oder der Umgebung wie beispielsweise ein Entwässerungsgully sein. Somit kann das Fahrzeug bei Erfassen des abgespeicherten Merkmals die Entfernung zum Kurvenscheitel genauer oder früher als mit den üblichen Navigationsdaten berechnen und beispielsweise automatisch das Notbremsmanöver früher und/oder passender einleiten. Dazu verfügt das Fahrzeug über eine entsprechende Recheneinheit 18 und entsprechende Stellglieder, die in die Fahrzeugsysteme wie z.B. Motor, Kupplung, Bremse eingreifen.
  • Die Merkmale können dazu verwendet werden, um die Position eines Nutzdatums, beispielsweise eines Verkehrszeichens oder einer Straßengeometrie relativ zu der Position des Merkmals abzulegen. Das Fahrzeug speichert das Merkmal, den relativen Abstand zwischen dem erfassten Merkmal und der Nutzinformation, beispielsweise einem erkannten Verkehrszeichen in einem eigenen Datenspeicher ab. Das Fahrzeug überträgt das Merkmal, den relativen Abstand zwischen dem erfassten Merkmal und der Nutzinformation, beispielsweise einem erkannten Verkehrszeichen, an die externe Recheneinheit 19. Die externe Recheneinheit 19 gibt diese Information an andere Fahrzeuge weiter, so dass die Fahrzeuge, die danach die gleiche Strecke auf der Fahrbahn befahren und beispielsweise den Riss in der Fahrbahn erkennen, zusätzlich die Information zur Verfügung haben, dass in einem Abstand von 20 m ein Verkehrszeichen mit einer Geschwindigkeitsbegrenzung von 60 km/h steht.
  • Auf diese Weise können die nachfolgenden Fahrzeuge diese Zusatzinformation nutzen, um eine hochgenaue Ortung ihrer aktuellen Position relativ zu einer Nutzinformation vorzunehmen. Dazu wird vorzugsweise eine aggregierte Information über das Merkmal und dessen Position an die Fahrzeuge übertragen. Das nachfolgende Fahrzeug erkennt aufgrund seiner Navigationsvorschau mittels GPS-Ortung und beispielsweise elektronischem Horizont, dass es sich einer Nutzinformation, wie z.B. einem Verkehrszeichen oder einer bestimmten Fahrbahngeometrie nähert. Diese Information ist noch relativ grob. Wenn die Sensorik des Fahrzeugs aber das Merkmal in seinem Umfeld erkennt, so kann es aufgrund des übermittelten relativen Abstandes zwischen dem erkannten Merkmal und einer Nutzinformation ermitteln, wie weit das Fahrzeug noch von der Nutzinformation entfernt ist. Auf diese Weise kann rechtzeitig ein Fahrerassistenzsystem aktiviert werden, um beispielsweise die Geschwindigkeit zu reduzieren.
  • Nun kann es aber vorkommen, dass verschiedene Fahrzeuge unterschiedliche Sensorvarianten verwenden. So kann ein Videosensor, der Fahrbahnränder erkennt, je nach Hersteller eine höhere oder geringere Bildpunktauflösung besitzen. Die Helligkeitsempfindlichkeit oder die Farbempfindlichkeit kann unterschiedlich sein. Alle diese Sensorvarianten können genutzt werden, um Merkmale beispielsweise einen Riss, einen Teerfleck, ein Schild usw. zu erfassen. Dabei können die von den Sensoren erfassten Signale aber sehr unterschiedlich ausfallen. Dasselbe gilt für einen Radar- oder Lidar-Sensor. Der Radar- oder Lidar-Sensor lässt sich gleichermaßen für die Erkennung von Objekten im Umfeld einsetzen, ihre Signale beim Erkennen eines Merkmals können jedoch sehr unterschiedlich sein, und insbesondere von der Auflösung, dem Blickwinkel und der verwendeten Technologie abhängen. Im Extremfall verwendet ein Fahrzeug einen nach vorne gerichteten Videosensor (beispielsweise in Form einer Verkehrszeichenkamera), um ein Merkmal zu erfassen. Ein anderes Fahrzeug kann beispielsweise einen nach hinten gerichteten Videosensor (Rückfahrkamera) verwenden, um ein Merkmal zu erfassen. Die erfassten Merkmale, d.h. die Signale der Sensoren werden aufgrund unterschiedlicher Kameras, unterschiedlicher Objektive, unterschiedlicher Blickwinkel und/oder unterschiedlicher Einbaupositionen unterschiedlich ausfallen. Eine weitere Ausgestaltung sieht deshalb vor, dass ein Sensor, der zur Erfassung eines Merkmals verwendet wird, auch eine Sensorinformation, d.h. eine Kennung über sich selbst aufweist, die ebenfalls in der externen Recheneinheit abgespeichert ist. Somit kann die externe Recheneinheit die Steuersignale der erfassten Merkmale verschiedener Sensorvarianten ablegen und die Sensorsignale über die Sensorkennung kennzeichnen. Bei dieser Ausgestaltung würde beispielsweise ein nachfolgendes Fahrzeug seine Sensorinformation an den zentralen Server schicken und dann neben den Nutzdaten nur die Sensorsignale als Abbild des Merkmals und dessen Position erhalten, die mit der Sensorvariante erzeugt wurde, über die auch das Fahrzeug verfügt.
  • Somit können die zu den Fahrzeugen von der Recheneinheit übermittelten Daten ausgewählt und entsprechend den im Fahrzeug vorhandenen Sensorsystemen angepasst werden. Auf diese Weise wird die Übermittlung unnötiger Daten vermieden.
  • Weiterhin können auch die Sensorsignale gleicher Sensoren von der Recheneinheit 19 gemittelt werden, um ein optimiertes Sensorsignal für ein Merkmal zu erhalten. Anstelle der Mittelung können auch andere Arten von Verfahren zur Verbesserung des Sensorsignals verwendet werden. Somit wird eine Optimierung der Sensorsignale und damit eine verbesserte Erkennung des gleichen Merkmals durch ein anderes Fahrzeug ermöglicht.
  • Die Recheneinheit 19 überträgt Daten, insbesondere die aggregierten Daten, d.h. beispielsweise ein Videosignal eines bestimmten Merkmals und eine Position des bestimmten Merkmals an ein weiteres Fahrzeug 14. Das weitere Fahrzeug 14 erfasst beispielsweise mithilfe einer Videokamera ein Videosignal. Das Fahrzeug vergleicht das erfasste Videosignal mit dem abgespeicherten und von der Recheneinheit 19 übermittelten Videosignal. Aus dem Vergleich erkennt das Fahrzeug, dass es sich um das gleiche Videosignal handelt. Somit kann das Fahrzeug die Position bzw. die relative Position des Merkmals, das dem Videosignal entspricht, für die Führung des Fahrzeugs verwenden. Das Fahrzeug erkennt beispielsweise aus der Zusatzinformation, dass in einem festgelegten Abstand zum erkannten Merkmal ein Nutzsignal, beispielsweise ein Verkehrszeichen angeordnet ist. Somit wird eine genaue Ermittlung des Abstands des Fahrzeugs zum Verkehrszeichen ermöglicht.
  • Das Verfahren ist unabhängig von der Art des verwendeten Sensors. Zudem kann die Recheneinheit 19 Signale von verschiedenen Sensoren verwenden, um das Erkennen eines Merkmals zu verifizieren. Beispielsweise kann ein Fahrzeug mit einem Videosensor einen Straßendeckel an einer festgelegten Position erfassen und das Signal des Videosensors an die Recheneinheit 19 übermitteln. Zudem kann das gleiche oder ein anderes Fahrzeug mithilfe eines anderen Sensors, beispielsweise eines Radarsensors, ein Signal für eine erhöhte Reflexion an der festgelegten Position erfassen und an die Recheneinheit 19 übermitteln. Die Recheneinheit 19 erkennt aufgrund der Signale der verschiedenen Sensoren, dass ein charakteristisches Merkmal an der festgelegten Position vorhanden ist. Somit wird die Sicherheit für die Erkennung eines Merkmals erhöht.

Claims (13)

  1. Verfahren zum Erfassen von Navigationsdaten, wobei ein Fahrzeug mit einem Sensor ein Merkmal der Straße und/oder der Umgebung erfasst, wobei das Fahrzeug eine Position des Merkmals ermittelt, wobei das Merkmal und die Position des Merkmals als Zusatzinformation zu Navigationsdaten abgespeichert oder an eine externe Recheneinheit übermittelt werden.
  2. Verfahren nach Anspruch 1, wobei als Position des Merkmals eine relative Position des Merkmals relativ zu einer Nutzinformation der Navigationsdaten ermittelt wird und die relative Position als Teil der Zusatzinformation abgespeichert und/oder übermittelt wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Merkmal und die Position öfters von einem oder mehreren Fahrzeugen erfasst wird, und wobei als Position ein Mittelwert der erfassten Positionen abgespeichert wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei dem Sensor eine Kennung zugeordnet ist, wobei die Kennung zusätzlich zu der Zusatzinformation abgespeichert ist und/oder übermittelt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Zusatzinformation von dem Fahrzeug an eine externe Recheneinheit übertragen wird, wobei die externe Recheneinheit in einem anderen Fahrzeug angeordnet ist oder als stationäre Recheneinheit ausgebildet ist.
  6. Verfahren nach Anspruch 2 und 5, wobei die Mittelung der Position und/oder die Mittelung der relativen Position in der stationären Recheneinheit durchgeführt wird, und wobei die stationäre Recheneinheit die gemittelte Position und/oder die gemittelte Position und/oder die gemittelte geometrische Information an Fahrzeuge übermittelt.
  7. Verfahren nach einem der Ansprüche 4 bis 6, wobei die Kennung eine Information über die Art des Sensors, beispielsweise den Sensortyp und/oder eine Information über die Lage oder Ausrichtung des Sensors im Fahrzeug aufweist.
  8. Verfahren nach Anspruch 5 und 7, wobei die Recheneinheit aufgrund der Kennung einen Mittelwert über Positionen der Sensoren gleicher Kennung durchführt und/oder wobei die Recheneinheit zu den Kennungen Vergleichswerte kennt, um die Positionen der Sensoren am Fahrzeug verschiedener Kennungen relativ zu bewerten und mitteln zu können.
  9. Verfahren nach einem der Ansprüche 2 bis 8, wobei als Nutzinformation ein Verkehrszeichen und/oder eine Fahrbahngeometrie verwendet wird.
  10. Computerprogrammprodukt mit Programmcodemitteln zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 9, wenn das Computerprogrammprodukt auf einer Verarbeitungseinrichtung abläuft oder auf einem computerlesbaren Datenträger gespeichert ist.
  11. Recheneinheit eines Fahrzeuges, die ausgebildet ist, um ein Verfahren nach einem der Ansprüche 1 bis 9 durchzuführen.
  12. Externe Recheneinheit, die ausgebildet ist, um von einem Fahrzeug ein vom Fahrzeug erfasstes Merkmal der Straße und/oder der Umgebung und eine vom Fahrzeug erfasste Position des Merkmals zu empfangen, wobei die Recheneinheit ausgebildet ist, um das Merkmal und die Position des Merkmals als Zusatzinformation abzuspeichern und wieder an Fahrzeuge zu übermitteln.
  13. Externe Recheneinheit nach Anspruch 12, wobei die Recheneinheit ausgebildet ist, um die Position des gleichen Merkmals von mehreren Fahrzeugen und/oder mehreren Messungen des gleichen Fahrzeuges zu mitteln und wieder an Fahrzeuge zu übermitteln.
DE102011082379A 2011-09-08 2011-09-08 Verfahren zum Erfassen von Navigationsdaten Pending DE102011082379A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102011082379A DE102011082379A1 (de) 2011-09-08 2011-09-08 Verfahren zum Erfassen von Navigationsdaten
IT001443A ITMI20121443A1 (it) 2011-09-08 2012-08-27 Procedimento per il rilevamento di dati di navigazione
FR1258099A FR2979987B1 (fr) 2011-09-08 2012-08-30 Procede de saisie de donnees de navigation
CN201210337698.7A CN102997926B (zh) 2011-09-08 2012-09-06 一种用于获取导航数据的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011082379A DE102011082379A1 (de) 2011-09-08 2011-09-08 Verfahren zum Erfassen von Navigationsdaten

Publications (1)

Publication Number Publication Date
DE102011082379A1 true DE102011082379A1 (de) 2013-03-14

Family

ID=47739901

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011082379A Pending DE102011082379A1 (de) 2011-09-08 2011-09-08 Verfahren zum Erfassen von Navigationsdaten

Country Status (4)

Country Link
CN (1) CN102997926B (de)
DE (1) DE102011082379A1 (de)
FR (1) FR2979987B1 (de)
IT (1) ITMI20121443A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013009856A1 (de) * 2013-06-13 2014-12-18 Audi Ag Positionsbestimmung eines stationären Verkehrsobjekts mittels einer zentralen Serveranordnung
EP2840459A3 (de) * 2013-08-22 2015-03-04 Robert Bosch Gmbh Verfahren zum Einstellen einer Dynamik eines datenaggregationsbasierten Services
WO2015185048A1 (de) * 2014-06-05 2015-12-10 Conti Temic Microelectronic Gmbh Verfahren und system zur bestimmung einer fahrzeugposition eines fahrzeuges
DE102016004651A1 (de) 2016-04-16 2017-10-19 Audi Ag System und Verfahren zum Hinweisen eines Fahrers eines Zielfahrzeugs auf ein potentiell eintretendes Verkehrsereignis
DE102017212361A1 (de) * 2017-07-19 2019-01-24 Audi Ag Verfahren zum Betrieb eines Kraftfahrzeugs
DE102015203016B4 (de) 2015-02-19 2019-08-01 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
WO2019191292A1 (en) * 2018-03-29 2019-10-03 Aurora Innovation, Inc. Relative atlas for autonomous vehicle and generation thereof
US10474699B2 (en) 2018-03-29 2019-11-12 Aurora Innovation, Inc. Use of relative atlas in autonomous vehicle
US11256729B2 (en) 2018-03-29 2022-02-22 Aurora Operations, Inc. Autonomous vehicle relative atlas incorporating hypergraph data structure

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014201824A1 (de) 2014-02-03 2015-08-06 Robert Bosch Gmbh Verfahren und Vorrichtung zur Positionsbestimmung eines Fahrzeugs
DE102016205433A1 (de) * 2015-11-25 2017-06-14 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung, Kartenverwaltungseinrichtung und System zum punktgenauen Lokalisieren eines Kraftfahrzeugs in einem Umfeld
CN106686165B (zh) * 2016-12-30 2018-08-17 维沃移动通信有限公司 一种路况检测的方法及移动终端
DE102018200827A1 (de) * 2018-01-19 2019-07-25 Robert Bosch Gmbh Verfahren zur Ausrichtung von Karten eines LIDAR-Systems
FR3085761B1 (fr) * 2018-09-11 2021-01-15 Continental Automotive France Systeme et procede de localisation de la position d'un objet routier par apprentissage automatique non supervise

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6236938B1 (en) * 1999-08-05 2001-05-22 Amadeus Consulting Group, Inc. Systems and methods for creating maps using GPS systems
EP1288625B1 (de) * 2001-08-31 2011-07-27 Pioneer Corporation Navigationssvorrichtung vom Kommunikationstyp und Servervorrichtung
JP4557288B2 (ja) * 2005-01-28 2010-10-06 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識方法、並びにそれを用いた位置特定装置、車両制御装置及びナビゲーション装置
JP4437556B2 (ja) * 2007-03-30 2010-03-24 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
DE102008012661A1 (de) * 2007-08-25 2009-02-26 Continental Teves Ag & Co. Ohg Aktualisierungseinheit und Verfahren zur Aktualisierung einer digitalen Karte
DE102009017731A1 (de) * 2008-04-30 2009-11-05 Continental Teves Ag & Co. Ohg Selbstlernende Karte auf Basis von Umfeldsensoren
GB0822893D0 (en) * 2008-12-16 2009-01-21 Tele Atlas Bv Advanced speed profiles - Further updates
US8417451B2 (en) * 2008-12-08 2013-04-09 John A. Hersey Autonomous cooperative surveying
WO2011080920A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 経路情報生成装置及び経路情報生成方法

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013009856A1 (de) * 2013-06-13 2014-12-18 Audi Ag Positionsbestimmung eines stationären Verkehrsobjekts mittels einer zentralen Serveranordnung
DE102013009856B4 (de) 2013-06-13 2023-11-02 Audi Ag Positionsbestimmung eines stationären Verkehrsobjekts mittels einer zentralen Serveranordnung
EP2840459A3 (de) * 2013-08-22 2015-03-04 Robert Bosch Gmbh Verfahren zum Einstellen einer Dynamik eines datenaggregationsbasierten Services
WO2015185048A1 (de) * 2014-06-05 2015-12-10 Conti Temic Microelectronic Gmbh Verfahren und system zur bestimmung einer fahrzeugposition eines fahrzeuges
US10955854B2 (en) 2014-06-05 2021-03-23 Conti Temic Microelectronic Gmbh Method and system for determining the position of a vehicle
DE102015203016B4 (de) 2015-02-19 2019-08-01 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102016004651A1 (de) 2016-04-16 2017-10-19 Audi Ag System und Verfahren zum Hinweisen eines Fahrers eines Zielfahrzeugs auf ein potentiell eintretendes Verkehrsereignis
DE102016004651B4 (de) 2016-04-16 2019-02-21 Audi Ag System und Verfahren zum Hinweisen eines Fahrers eines Zielfahrzeugs auf ein potentiell eintretendes Verkehrsereignis
DE102017212361A1 (de) * 2017-07-19 2019-01-24 Audi Ag Verfahren zum Betrieb eines Kraftfahrzeugs
DE102017212361B4 (de) * 2017-07-19 2021-02-25 Audi Ag Verfahren zum Betrieb eines Kraftfahrzeugs
US10521913B2 (en) 2018-03-29 2019-12-31 Aurora Innovation, Inc. Relative atlas for autonomous vehicle and generation thereof
KR20200134313A (ko) * 2018-03-29 2020-12-01 오로라 이노베이션, 인크. 자율주행 차량을 위한 상대적인 아틀라스 및 그 생성
US10503760B2 (en) 2018-03-29 2019-12-10 Aurora Innovation, Inc. Use of relative atlas in an autonomous vehicle
US10474699B2 (en) 2018-03-29 2019-11-12 Aurora Innovation, Inc. Use of relative atlas in autonomous vehicle
US11256730B2 (en) 2018-03-29 2022-02-22 Aurora Operations, Inc. Use of relative atlas in an autonomous vehicle
US11257218B2 (en) 2018-03-29 2022-02-22 Aurora Operations, Inc. Relative atlas for autonomous vehicle and generation thereof
US11256729B2 (en) 2018-03-29 2022-02-22 Aurora Operations, Inc. Autonomous vehicle relative atlas incorporating hypergraph data structure
US11450007B2 (en) 2018-03-29 2022-09-20 Aurora Operations, Inc. Relative atlas for autonomous vehicle and generation thereof
KR20220138032A (ko) * 2018-03-29 2022-10-12 오로라 오퍼레이션스, 인크. 자율주행 차량을 위한 상대적인 아틀라스 및 그 생성
KR102454408B1 (ko) * 2018-03-29 2022-10-12 오로라 오퍼레이션스, 인크. 자율주행 차량을 위한 상대적인 아틀라스 및 그 생성
US11526538B2 (en) 2018-03-29 2022-12-13 Aurora Operations, Inc. Autonomous vehicle relative atlas incorporating hypergraph data structure
KR102493094B1 (ko) 2018-03-29 2023-01-27 오로라 오퍼레이션스, 인크. 자율주행 차량을 위한 상대적인 아틀라스 및 그 생성
WO2019191292A1 (en) * 2018-03-29 2019-10-03 Aurora Innovation, Inc. Relative atlas for autonomous vehicle and generation thereof

Also Published As

Publication number Publication date
CN102997926B (zh) 2017-06-16
FR2979987B1 (fr) 2016-02-19
CN102997926A (zh) 2013-03-27
FR2979987A1 (fr) 2013-03-15
ITMI20121443A1 (it) 2013-03-09

Similar Documents

Publication Publication Date Title
DE102011082379A1 (de) Verfahren zum Erfassen von Navigationsdaten
DE102017112024B4 (de) Übertragungsnotwendigkeits-Bestimmungsvorrichtung
DE112020004931T5 (de) Systeme und verfahren zur bestimmung der verkehrssicherheit
EP2746725A2 (de) Verfahren und Steuervorrichtung zum Bereitstellen eines vorausliegenden Straßenverlaufs
DE112020002764T5 (de) Systeme und verfahren zur fahrzeugnavigation
EP3529561B1 (de) System und verfahren zur erzeugung von digitalen strassenmodellen aus luft- oder satellitenbildern und von fahrzeugen erfassten daten
EP2447126A2 (de) Verfahren und Vorrichtung zur Bestimmung eines plausiblen Fahrstreifens zur Führung eines Fahrzeugs sowie Kraftwagen
DE102018221054B4 (de) Verfahren zum Bereitstellen von Kartendaten in einem Kraftfahrzeug, Kraftfahrzeug und zentrale Datenverarbeitungseinrichtung
DE102016213817B4 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeuges relativ zu den Fahrstreifen einer Fahrbahn
WO2017194457A1 (de) Verfahren zur erfassung von verkehrszeichen
DE102010007091A1 (de) Verfahren zur Positionsermittlung für ein Kraftfahrzeug
DE10258167B4 (de) Verfahren für ein Fahrzeug
DE102016122338A1 (de) Informations-verarbeitungseinrichtung, informations-verarbeitungsverfahren, steuerungsvorrichtung für ein fahrzeug und steuerungsverfahren für ein fahrzeug
DE102017212361B4 (de) Verfahren zum Betrieb eines Kraftfahrzeugs
DE102015209147A1 (de) Verfahren zur Parkflächenerkennung
DE112022000380T5 (de) Systeme und verfahren zur einheitlichen geschwindigkeitskartierung und navigation
DE112020005275T5 (de) Systeme und verfahren zur selektiven verzögerung eines fahrzeugs
EP1814095A2 (de) Verfahren zur Bestimmung eines zukünftigen Strassenverlaufs durch Kommunikation zwischen Kraftfahrzeugen
WO2019201650A1 (de) Verfahren und vorrichtung zum bestimmen einer hochgenauen position eines fahrzeugs
DE102017221839A1 (de) Verfahren zur Positionsbestimmung für ein Fahrzeug, Steuergerät und Fahrzeug
EP3688412B1 (de) Verfahren und vorrichtung zum bestimmen einer hochgenauen position und zum betreiben eines automatisierten fahrzeugs
EP3673234A1 (de) Verfahren und vorrichtung zum bestimmen einer hochgenauen position und zum betreiben eines automatisierten fahrzeugs
EP2172826B1 (de) Verfahren und Vorrichtung zum Ermitteln eines Fahrspurverlaufs
WO2016012014A1 (de) Verfahren zum betrieb eines assistenzsystems eines kraftfahrzeugs sowie assistenzsystem
DE102019216732A1 (de) Verfahren sowie System zum Plausibilisieren von Kartendaten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication