DE102020118629B4 - Computerimplementiertes Verfahren zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs - Google Patents

Computerimplementiertes Verfahren zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs Download PDF

Info

Publication number
DE102020118629B4
DE102020118629B4 DE102020118629.0A DE102020118629A DE102020118629B4 DE 102020118629 B4 DE102020118629 B4 DE 102020118629B4 DE 102020118629 A DE102020118629 A DE 102020118629A DE 102020118629 B4 DE102020118629 B4 DE 102020118629B4
Authority
DE
Germany
Prior art keywords
features
vehicle
feature groups
feature
estimated position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020118629.0A
Other languages
English (en)
Other versions
DE102020118629A1 (de
Inventor
Barbara Rössle
Pascal Minnerup
Martin Zeman
Sebastian GRUENWEDEL
Maxi Winter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102020118629.0A priority Critical patent/DE102020118629B4/de
Priority to US18/016,048 priority patent/US20230280465A1/en
Priority to CN202180061255.7A priority patent/CN116194802A/zh
Priority to PCT/EP2021/067885 priority patent/WO2022012923A1/de
Publication of DE102020118629A1 publication Critical patent/DE102020118629A1/de
Application granted granted Critical
Publication of DE102020118629B4 publication Critical patent/DE102020118629B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

Computerimplementiertes Verfahren (200) zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs (105), umfassend die Schritte:a. Empfangen (205) einer digitalen Karte;b. Empfangen (210) einer geschätzten Position des Fahrzeugs (105), wobei die geschätzte Position eine Position in der digitalen Karte ist oder einer Position in der digitalen Karte zuordenbar ist;c. Erkennen (215) einer Anzahl von ersten Features (400) in der digitalen Karte, wobei die ersten Features (400) auf wenigstens ein neben einer Fahrbahn befindliches Objekt (310-370) hinweisen;d. Gruppieren (220) der ersten Features (400) in eine Anzahl von ersten Feature-Gruppen (405-470) in der Weise, dass alle ersten Features (400), die sich in einem jeweiligen hinsichtlich seiner longitudinalen Ausdehnung definierten Bereich neben der Fahrbahn befinden, einer dem jeweiligen Bereich zugeordneten ersten Feature-Gruppe (405-470) angehören;e. Empfangen (225) von Sensorinformationen über ein Umfeld des Fahrzeugs (105);f. Erkennen (230) einer Anzahl von zweiten Features (500) in den Sensorinformationen, wobei die zweiten Features (500) auf wenigstens ein neben einer Fahrbahn befindliches Objekt (310-370) hinweisen;g. Gruppieren (235) der zweiten Features (500) in eine Anzahl von zweiten Feature-Gruppen (505-570) in der Weise, dass alle zweiten Features (500), die sich in einem jeweiligen hinsichtlich seiner longitudinalen Ausdehnung definierten Bereich neben der Fahrbahn befinden, einer dem jeweiligen Bereich zugeordneten zweiten Feature-Gruppe (505-570) angehören;h. Aussortieren (240) von ersten Feature-Gruppen (410, 425), deren maximale laterale Ausdehnung einen ersten vorbestimmten Wert (B1) überschreitet und/oder Aussortieren von zweiten Feature-Gruppen (510, 525), deren maximale laterale Ausdehnung einen zweiten vorbestimmen Wert (B2) überschreitet;i. Zuordnen (245) wenigstens einiger der nicht aussortierten ersten Feature-Gruppen (405, 415, 445-470) zu einer jeweiligen nicht aussortierten zweiten Feature-Gruppe (505, 515, 545-570);j. Bestimmen (250) der Validität der geschätzten Position des Fahrzeugs (105) auf der Basis eines Vergleichs von Positionen einer Anzahl der nicht aussortierten ersten Feature-Gruppen (405, 415, 445-470) mit Positionen der jeweils zugeordneten zweiten Feature-Gruppen (505, 515, 545-570).

Description

  • Die Erfindung betrifft ein computerimplementiertes Verfahren zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs. Insbesondere betrifft die Erfindung die Absicherung der Bestimmung einer Fahrzeugposition gegen mögliche Fehler.
  • Des Weiteren betrifft die Erfindung eine Verarbeitungseinrichtung und ein Computerprogramm zur Ausführung eines solchen Verfahrens sowie ein computerlesbares (Speicher)medium, das Befehle zum Ausführen eines solchen Verfahrens umfasst.
  • Ein Fahrzeug kann einen Fahrassistenten aufweisen, der dazu eingerichtet ist, eine Längs- oder Quersteuerung des Fahrzeugs zu beeinflussen. Beispielsweise kann ein Fahrspurassistent dazu eingerichtet sein, das Fahrzeug zwischen Fahrbahnmarkierungen zu halten. Die Markierungen können z.B. mittels einer Kamera abgetastet und automatisch erkannt werden.
  • Die US 2019 / 0 308 620 A1 beschreibt z.B. eine merkmalsbasierte Vorhersage für einen automatisierten Fahrbetrieb eines Fahrzeugs. Dabei erfasst ein Fahrzeug, während es eine Umgebung durchquert, Sensordaten und stellt diese einem Computersystem bereit. Die Sensordaten können Ereignisse angeben, wie z. B. einen Spurwechsel, die Agenten in der Umgebung zugeordnet sind. Das Computersystem kann basierend auf den Sensordaten eine Zeit bestimmen, die dem Ereignis zugeordnet ist, und Merkmale bestimmen, die einer Zeitspanne relativ zu der Zeit des Ereignisses zugeordnet sind. In einem Beispiel kann das Computersystem die Merkmale mit zusätzlichen Merkmalen aggregieren, die anderen ähnlichen Ereignissen zugeordnet sind, um Trainingsdaten zu generieren und zumindest auf der Grundlage der Trainingsdaten ein maschinell erlerntes Modell zum Vorhersagen neuer Ereignisse trainieren. In einem Beispiel kann das maschinell erlernte Modell an Fahrzeuge übertragen werden, die dazu konfiguriert sind, einen Fahrbetrieb zumindest teilweise basierend auf Ausgaben des maschinell erlernten Modells zu ändern.
  • Viele Fahrassistenten erfordern die Kenntnis einer genauen Position des Fahrzeugs. Die Position kann in Längs- und/oder Querrichtung bestimmt und bezüglich eines vorbestimmten Referenzpunkts ausgedrückt werden. Eine absolute geographische Position kann beispielsweise bezüglich eines vorbestimmten geodätischen Referenzsystems wie dem WGS84 bestimmt werden. Eine relative Position des Fahrzeugs kann beispielsweise in Querrichtung bezüglich einer erkannten Fahrspurmarkierung angegeben werden.
  • Die US 2019 / 0 156 128 A1 beschreibt Vorrichtungen und Verfahren zum Erzeugen von Geometrien für streifenförmige Objekte. Die Geometrien können verwendet werden, um eine Karte zu aktualisieren oder anschließend eine Lokalisierung durchzuführen. Dabei wird ein Bild identifiziert, das eine Fahrbahn mit einem oder mehreren streifenförmigen Objekten enthält. Die streifenförmigen Objekte können Fahrspurlinien für Straßenränder oder Fahrspuren der Fahrbahn umfassen. Die streifenförmigen Objekte können eine Barriere enthalten. Mindestens eine Zielregion innerhalb des Bildes wird bestimmt. Der mindestens eine Zielbereich ist so geformt, dass er das eine oder die mehreren streifenförmigen Objekte schneidet, und enthält eine Vielzahl von Pixeln. Es wird eine Bildanalyse des Bildes durchgeführt, um zu bestimmen, ob der mindestens eine Zielbereich ein Pixel enthält, das mit dem einen oder den mehreren streifenförmigen Objekten gemeinsam ist. Eine Geometrie wird unter Verwendung des gemeinsamen Pixels konstruiert.
  • Die US 2011 / 0 044 543 A1 beschreibt ein Merkmalsextraktionsverfahren für eine Vielzahl von Merkmalen, zu denen Merkmalsinformationen betreffend zumindest eine Position und eines Merkmalstyps in einer Merkmalsinformationsspeichereinheit enthalten sind. Das Verfahren umfasst: den Schritt des Gruppierens eines Clusters von Merkmalen, in dem ein Internes der jeweiligen Merkmale kleiner oder gleich einem vorbestimmten Gruppierungsintervall ist, um eine Merkmalsgruppe zu bilden; den Schritt des Ausschließens eines Merkmals, das nicht zur Verwendung in einem Bilderkennungsprozess des Merkmals in Bezug auf Bildinformationen geeignet ist, aus dem Cluster der Merkmale innerhalb der Merkmalsgruppe; und den Schritt des Extrahierens eines Teils oder aller Merkmale innerhalb der Merkmalsgruppe, die als Ergebnis des Ausschlussschritts als ein Zielmerkmal verbleiben, das für die Verwendung in dem Bilderkennungsprozess geeignet ist.
  • Die Bestimmung der Position des Fahrzeugs unterliegt üblicherweise einer Reihe von Fehlern und Ungenauigkeiten. Sensoren stellen beispielsweise verrauschte und/oder verfälschte Informationen bereit oder können gelegentlich ganz ausfallen. Unterschiedliche Messbedingungen oder komplexe Verarbeitungsheuristiken führen zu unterschiedlich genauen oder verlässlichen Bestimmungen. Wird das Fahrzeug auf der Basis einer solchermaßen bestimmten Position gesteuert, kann die Sicherheit des Fahrzeugs oder eines Insassen gefährdet sein.
  • Ein wissenschaftlicher Beitrag von Javanmardi et al. (JAVANMARDI, E. [et al.]: Autonomous vehicle self-localization based on abstract map and multi-channel LiDAR in urban area. IATSS research, 2019, 43. Jg., Nr. 1, S. 1-13.) schlägt Methoden für eine Lidar-basierte Fahrzeuglokalisierung vor, die auf zwei verschiedenen abstrakten Kartenformaten, welche städtische Gebiete darstellen, beruhen. Das erste Format ist eine mehrschichtige 2D-Vektorkarte von Gebäudegrundrissen, die die Gebäudegrenzen durch Vektoren (Linien) darstellt. Das zweite Format ist eine planare Oberflächenkarte von Gebäuden und Boden. Beide Kartenformate nutzen die gleiche Idee, dass die Unsicherheit (Abweichung) jedes Vektors oder jeder ebenen Fläche berechnet und in die Karte aufgenommen wird. Später in der Lokalisierungsphase werden Lidar-Beobachtungsdaten von Lidar mit der abstrakten Karte abgeglichen, um den genauen Standort des Fahrzeugs zu bestimmen.
  • Um eine möglichst sichere Bestimmung der Position des Fahrzeugs zu ermöglichen, kann man z.B. auf Verfahren zurückgreifen, die einen Schritt der Lokalisierung und einen Schritt der Validierung umfassen.
  • Dabei wird im Rahmen der Lokalisierung eine Fahrzeugposition geschätzt. Beispielsweise kann das Schätzen der Fahrzeugposition mit Bezug auf eine digitale Karte unter Verwendung von Daten eines Satellitennavigationssystems (z.B. GPS oder DGPS) erfolgen.
  • Im Rahmen der Validierung wird die Validität der Positionsschätzung beurteilt, indem die geschätzte Fahrzeugposition mit sensorisch erfassten Daten über das Fahrzeugumfeld abgeglichen wird. Dabei kann z.B. mittels eines Vergleichs von erfassten Daten eines LiDAR-Sensors mit Daten einer bereitgestellten Karte, die erwarteten Features anzeigt, welche durch den LiDAR-Sensor prinzipiell erfassbar sind, überprüft werden, ob die geschätzte Position plausibel ist. Falls durch den LiDAR-Sensor erfasste Features eine hinreichende Übereinstimmung mit den erwarteten Features aufweisen, wird die geschätzte Fahrzeugposition durch die Validierung bestätigt (d.h. positiv validiert). Hingegen kann z.B. vorgesehen sein, dass die geschätzte Position ausdrücklich nicht bestätigt wird, wenn sich aus dem Vergleich von erfassten Features und erwarteten Features eine Abweichung von der geschätzten Position, die einen vorbestimmten Wert (z.B. 2 Meter) überschreitet.
  • Das Validieren kann z.B. mittels einer elektronischen Datenverarbeitungsvorrichtung ausgeführt werden. Beispielsweise kann dabei dem oben erwähnten LiDAR-Sensor als einer Informationsquelle für die Validierung auf einer logischen bzw. datentechnischen Verarbeitungsebene eine als (LiDAR-)„Validator“ (Englisch: validator) bezeichnete Softwarekomponenten zugeordnet sein.
  • Um insgesamt eine zuverlässige Positionsbestimmung zu gewährleisten, ist es wünschenswert, statistische Unsicherheiten, mit denen die Validierung an sich behaftet ist, möglichst gering zu halten.
  • Um die Unsicherheit eines einzelnen Validators zu ermitteln, kann ein statistischer Test durchgeführt werden. Dabei wird z.B. anhand verfügbarer Sensordaten, die während einer physischen Fahrzeugfahrt zu einem Zeitpunkt erfasst wurden, geprüft, ob der Validator, dem eine Anzahl (absichtlich) falscher Positionsschätzungen zur Verfügung gestellt werden, diese auf der Grundlage der Sensordaten ablehnt. Durch Verwendung von Sensordaten, die zu mehreren unterschiedlichen Zeitpunkten erfasst worden sind, kann eine aussagekräftige Statistik erstellt werden.
  • Es ist insbesondere erstrebenswert, dass die Anzahl von falschen Positivmeldungen (Englisch: „false positives“) eines Validators, d.h. von positiven Bestätigungen einer tatsächlich falschen Position durch den Validator, gering ist. Mit anderen Worten soll es sehr unwahrscheinlich sein, dass der Validator, wenn er aufgefordert wird, die Validität einer falschen Positionsschätzung zu beurteilen, diese Positionsschätzung bestätigt.
  • Eine Herausforderung, die sich im Zusammenhang mit der Unsicherheit der Validierung stellt, besteht darin, dass ein Umfeldsensor, wie z.B. ein LiDAR-Sensor, im Allgemeinen nur einen Teil der gemäß einer digitalen Karte „erwarteten“ Features im Fahrzeugumfeld wahrnehmen wird. Zudem kann es vorkommen, dass die (ggf. wenigen) erfassten Features, die demnach für den Abgleich zur Verfügung stehen, zu mehreren unterschiedlichen Features in der Karte passen. Es kann also mitunter eine Ambiguität (d.h. Mehrdeutigkeit) in der Zuordnung von erfassten und erwarteten Features vorliegen, die sich aus Sicht des Validators in eine Ambiguität der Fahrzeugposition übersetzt.
  • Hiervon ausgehend besteht eine der Erfindung zu Grunde liegende Aufgabe darin, eine verbesserte Bestimmung der Validität einer geschätzten Position eines Fahrzeugs vorzuschlagen. Die Erfindung löst die Aufgabe mittels der Gegenstände der unabhängigen Ansprüche. Unteransprüche geben bevorzugte Ausführungsformen wieder.
  • Die Aufgabe wird durch die Merkmale der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsformen sind in den abhängigen Ansprüchen beschrieben.
  • Es wird darauf hingewiesen, dass zusätzliche Merkmale eines von einem unabhängigen Patentanspruch abhängigen Patentanspruchs ohne die Merkmale des unabhängigen Patentanspruchs oder nur in Kombination mit einer Teilmenge der Merkmale des unabhängigen Patentanspruchs eine eigene und von der Kombination sämtlicher Merkmale des unabhängigen Patentanspruchs unabhängige Erfindung bilden können, die zum Gegenstand eines unabhängigen Anspruchs, einer Teilungsanmeldung oder einer Nachanmeldung gemacht werden kann. Dies gilt in gleicher Weise für in der Beschreibung beschriebene technische Lehren, die eine von den Merkmalen der unabhängigen Patentansprüche unabhängige Erfindung bilden können.
  • Ein erster Aspekt der vorliegenden Erfindung betrifft ein computerimplementiertes Verfahren zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs.
  • Ein Schritt des Verfahrens ist das Empfangen einer digitalen Karte.
  • Dabei kann die digitale Karte beispielsweise seitens einer digitalen Verarbeitungseinrichtung und/oder seitens eines logischen Softwaremoduls (welches z.B. als „Validator“ bezeichnet werden kann) empfangen werden. Bei der digitalen Karte kann es sich beispielsweise um eine hochgenaue digitale Karte handeln, welche insbesondere eine Fahrbahn samt Fahrspuren sowie Objekte im Fahrzeugumfeld, wie z.B. Hindernisse am Fahrbahnrand, darstellt.
  • Das Empfangen der digitalen Karte kann z.B. insbesondere das Laden eines relevanten Kartenausschnitts einer derartigen Karte umfassen, wobei der Kartenausschnitt Karteninformationen über das Fahrzeugumfeld enthält.
  • Die digitale Karte kann beispielsweise von einem Kartenspeicher bereitgestellt werden, welcher in dem Fahrzeug angeordnet sein kann. Alternativ kann die digitale Karte auch von außerhalb des Fahrzeugs, beispielsweise von einem Server, an das Fahrzeug übermittelt werden, wobei die Übermittlung vorzugsweise über eine drahtlose Kommunikationsschnittstelle erfolgt.
  • Die digitale Karte kann z.B. wenigstens teilweise auf sensorisch erfassten Daten beruhen, welche bei einer oder mehreren Erkundungsfahrten eines Erkundungsfahrzeugs aufgezeichnet wurden. Eine dabei eingesetzte Umfeldsensorik kann beispielsweise einen Empfänger eines globalen Satellitennavigationssystems (z.B. GPS oder DGPS), eine oder mehrere optische Kameras, einen oder mehrere RADAR-Sensoren und/oder einen oder mehrere LiDAR-Sensoren umfassen.
  • Dementsprechend kann die digitale Karte mehrere Schichten enthalten, wobei z.B. eine Schicht auf Daten eines globalen Satellitennavigationssystems beruht, eine weitere Schicht auf optischen Kameradaten beruht und eine weitere Schicht auf LiDAR-Daten beruht. Die verschiedenen Schichten können Features enthalten, die mittels der jeweiligen Sensorik erkannt werden können.
  • Die digitale Karte kann insbesondere zweidimensionale Informationen enthalten. Das bedeutet, dass der digitalen Karte z.B. insbesondere Informationen über einen Verlauf einer Fahrbahn mitsamt Fahrspuren in einer Draufsicht entnommen werden können, wodurch eine Lokalisierung des Fahrzeugs hinsichtlich einer aktuellen Fahrspur ermöglicht wird.
  • Optional kann die digitale Karte bei einigen Ausführungsformen auch dreidimensionale Informationen enthalten. Dementsprechend können auch Höheninformationen von Objekten bereitgestellt werden. So kann die digitale Karte z.B. zusätzlich zu dem Verlauf einer Leitplanke in einer zweidimensionalen Draufsicht auch Daten über die Höhe der Leitplanke umfassen. Eine solche Karte mit einer 2D-Draufsicht und einigen zusätzlichen Höheninformationen wird oft als 2,5D bezeichnet. Alternativ kann die Karte auch voll 3D sein.
  • Ein weiterer Schritt des Verfahrens ist das Empfangen einer geschätzten Position des Fahrzeugs, wobei die geschätzte Position eine Position in der digitalen Karte ist oder einer Position in der digitalen Karte (vorzugsweise eindeutig) zuordenbar ist.
  • Gemäß einer Ausführungsform kann ein erweitertes Verfahren zusätzlich auch einen Schritt des Schätzens der Position des Fahrzeugs umfassen, wobei dieser Schritt mittels einer elektronischen Verarbeitungsvorrichtung ausgeführt werden kann.
  • Unter dem Schätzen einer Position ist im Rahmen der vorliegenden Beschreibung ein vorläufiges Bestimmen der Position zu verstehen. Dies kann, muss aber nicht notwendigerweise, eine statistische Schätzoperation im mathematischen Sinne, umfassen.
  • Die Positionsschätzung kann dabei noch mit einer Unsicherheit behaftet sein, die ggf. erst durch die anschließende Validierung auf ein (z.B. unter Sicherheitsaspekten) akzeptables Maß verringert werden kann.
  • Das Schätzen der Fahrzeugposition kann beispielsweise in Bezug auf Karteninformationen erfolgen, d.h. es kann z.B. geschätzt werden, an welcher Kartenposition sich das Fahrzeug befindet.
  • Beispielsweise kann das Schätzen der Fahrzeugposition unter Verwendung von Daten eines Satellitennavigationssystems (z.B. GPS oder DGPS) erfolgen. Zusätzlich oder alternativ können dabei auch Sensordaten herangezogen werden, die z.B. von einer Umfeldsensorik des Fahrzeugs bereitgestellt werden. Die Umfeldsensorik kann z.B. einen oder mehrere RADAR- und/oder LiDAR-Sensoren und/oder eine oder mehrere Kameras umfassen.
  • Gemäß einer Ausführungsform wird die Fahrzeugposition unter Verwendung von Odometriedaten geschätzt. Die Odometriedaten können z.B. eine erfolgte Bewegung bezüglich einer früher eingenommenen Position ausdrücken und beispielsweise auf der Basis von Signalen bestimmt werden, die von Drehratensensoren an Rädern des Fahrzeugs bereitgestellt werden.
  • Die Positionsschätzung kann insbesondere relativ zu einer oder mehreren Fahrspurbegrenzungen erfolgen und z.B. eine Aussage darüber treffen, auf welcher von mehreren Fahrspuren das Fahrzeug fährt.
  • Um beispielsweise beim autonomen oder hochautomatisierten Fahren eine hinreichende Sicherheit gewährleisten zu können, ist es nämlich erforderlich, dass die Fahrzeugposition relativ zu den umgebenden Fahrspuren zuverlässig bestimmt wird. Es ist also im Rahmen eines Gesamtsicherheitskonzepts erstrebenswert, mit einer sehr hohen statistischen Zuverlässigkeit festzustellen, auf welcher Fahrspur sich das Fahrzeug befindet. Mit anderen Worten ist eine hohe Lokalisierungssicherheit, insbesondere bezüglich der Fahrspur, wünschenswert.
  • Um die Integrität der Fahrzeugpositionsschätzung zu gewährleisten, wird diese validiert. Mit anderen Worten wird die Validität (d.h. die Gültigkeit) der geschätzten Position des Fahrzeugs bestimmt. In diesem Zusammenhang sind die weiteren Verfahrensschritte, die nachfolgend beschrieben werden, zu verstehen.
  • Im Einklang mit den Schritten, die weiter unten genauer beschrieben werden, erfolgt das Validieren der geschätzten Fahrzeugposition verfahrensgemäß unter Verwendung Informationen, die in der digitalen Karte enthalten sind, sowie von Informationen, die von einer Umfeldsensorik des Fahrzeugs zur Verfügung gestellt werden. Die Umfeldsensorik umfasst bevorzugt mehrere verschiedenartige und/oder statistisch unabhängige Sensoren, wie z.B. einen oder mehrere LiDAR-Sensoren und/oder einen oder mehrere RADAR-Sensoren und/oder einen oder mehrere optische Kameras.
  • Das Validieren kann mittels einer Verarbeitungsvorrichtung ausgeführt werden. Dem oder den jeweiligen für die Validierung verwendeten Umfeldsensoren können dabei auf einer logischen bzw. datentechnischen Verarbeitungsebene z.B. ein oder mehrere als „Validatoren“ (Englisch: validator) bezeichnete Softwarekomponenten zugeordnet sein.
  • Eine zuverlässige laterale Lokalisierung, einschließlich einer Bestimmung, auf welcher Fahrspur das Fahrzeug fährt, ist im Allgemeinen besonders wichtig. Dies kann z.B. mittels eines oder mehrerer Validatoren überprüft werden. Ein Validator, der eine laterale Lokalisierung validiert, kann z.B. außerdem auch eine longitudinale Lokalisierung überprüfen (ggf. mit niedrigerer Genauigkeitsanforderung im Vergleich zu der lateralen Lokalisierung). Es können z.B. auch ein oder mehrere Validatoren vorgesehen sein, welche prüfen, dass das Fahrzeug überhaupt auf der richtigen Straße ist.
  • Allgemein ist bevorzugt, dass mehrere unterschiedliche Validatoren überprüfen, ob jeweils zugeordnete Sensordaten eine geschätzte Position bestätigen oder nicht. Beispielsweise kann ein erster Validator basierend auf LiDAR-Daten eine Aussage darüber treffen, ob das Fahrzeug sich entsprechend der geschätzten Position in einer bestimmten Fahrspur befindet. Zusätzlich kann ein zweiter Validator, z.B. auf Basis einer Kameraspurerkennung, eine entsprechende Bewertung der Positionsschätzung abgeben. Falls beide Validatoren die Positionsschätzung bestätigen, ist im Allgemeinen eine höhere Sicherheit gegeben, dass die Positionsschätzung richtig ist, im Vergleich zu einer Situation, in der nur die Bestätigung durch einen Validator vorliegt oder im Vergleich zu einer Situation, in welcher einer oder gar beide Validatoren die Positionsschätzung ausdrücklich nicht bestätigen.
  • Eine Nicht-Bestätigung der Positionsschätzung durch einen Validator kann z.B. in Fällen eintreten, in denen die dem Validator zur Verfügung stehenden Daten nicht ausreichen, um die Position verlässlich zu bestätigen und/oder wenn eine tatsächliche Abweichung hinsichtlich der Position festgestellt wird.
  • Das Validierungskonzept beruht demnach bei vorteilhaften Ausführungsformen auf einer Reihe vorzugsweise statistisch unabhängiger Validatoren, die eine Positionsschätzung bestätigen können. Wenn genügend Validatoren eine Schätzung bestätigen, gilt die Positionsschätzung als sicher.
  • Durch ein solches Validierungskonzept kann die bestimmte Position des Fahrzeugs prinzipiell beliebig sicher in einem vorbestimmten Fehlerbereich liegen. Wird die Position des Fahrzeugs etwa auf der Basis dreier Validatoren validiert, und sind Wahrscheinlichkeiten für eine fehlerhafte Validierung durch die einzelnen Validatoren derart bestimmt, dass jeweils in nur einem von 1000 Fällen eine fehlerhafte Validierung durch einen Validator erfolgt, so kann eine mit positivem Ergebnis validierte Position des Fahrzeugs in nur einem von 1000 * 1000 * 1000 = 1 000 000 000 Fällen dennoch falsch sein. Für diese Bestimmung wurde angenommen, dass die Validatoren voneinander unabhängig sind. Insgesamt kann die Wahrscheinlichkeit für eine unbemerkte Fehlbestimmung der Fahrzeugposition so unwahrscheinlich gemacht werden, dass die Position mit einer Sicherheit bestimmt werden kann, die einer geforderten Gebrauchssicherheit genügt. Beispielsweise kann die Validierung auf diese Weise sicherstellen, dass die geschätzte Position mit sehr großer Wahrscheinlichkeit nicht um mehr als 2 Meter von der tatsächlichen Position abweicht.
  • Entsprechend dem Vorstehenden ist es prinzipiell wünschenswert, dass die einzelnen Validatoren so selten wie möglich scheitern. Scheitern kann in diesem Zusammenhang insbesondere bedeuten, dass ein Validator eine Positionsschätzung bestätigt, die eigentlich falsch ist („false positive“). So könnte es z.B. zu einer sicherheitskritischen Situation führen, wenn beispielsweise ein LiDAR-basierter Validator, ggf. zusammen mit weiteren Validatoren, fälschlicherweise zu dem Ergebnis kommt, dass eine Positionsschätzung korrekt ist.
  • Die nachfolgend beschriebenen Verfahrensschritte sollen eine Validierung der geschätzten Fahrzeugposition ermöglichen, bei welcher insbesondere die Gefahr von solchen falschen Positivmeldungen gering ist.
  • Dabei ist ein weiterer Schritt das Erkennen einer Anzahl von ersten Features in der digitalen Karte, wobei die ersten Features auf wenigstens ein neben einer Fahrbahn befindliches Objekt hinweisen.
  • Bei dem Objekt bzw. den Objekten kann es sich z.B. um eine Leitplanke, eine Graskante, eine Straßenlaterne, einen Baum oder ein Gebäude handeln. Grundsätzlich kommen alle Arten von Objekten infrage, die zumindest prinzipiell auch mittels der Umfeldsensorik des Fahrzeugs erfasst werden können. Im Rahmen der Validierung der Fahrzeugposition können solche Objekte als Orientierungspunkte (Landmarken) dienen.
  • Die ersten Features, die auf ein oder mehrere solcher Objekte hinweisen, können beispielsweise in Form von Datenpunkten einer Datenpunktwolke vorliegen, wobei jeder Datenpunkt einer Position in der digitalen Karte entspricht. Dabei ist auch denkbar, dass die digitale Karte das Objekt bzw. die Objekte zunächst in Form von kontinuierlichen Strukturen, wie z.B. Flächen oder Linien, darstellt, wobei diese Strukturen für die weitere Verarbeitung durch Sampling in eine Punktwolke überführt werden.
  • In einem weiteren Schritt werden die ersten Features in eine Anzahl von ersten Feature-Gruppen gruppiert. Dies geschieht in der Weise, dass alle ersten Features, die sich in einem jeweiligen hinsichtlich seiner longitudinalen Ausdehnung definierten Bereich neben der Fahrbahn befinden, einer dem jeweiligen Bereich zugeordneten ersten Feature-Gruppe angehören.
  • Beispielsweise können mehrere zusammenhängende Bereiche definiert werden, die sich jeweils über eine vorbestimmte Länge (z.B. 1 Meter) entlang der Fahrbahn erstrecken. Sämtliche erste Features, die sich in einem solchen Bereich befinden können dann derselben ersten Feature-Gruppe zugeordnet werden. Im Ergebnis entstehen so mehrere erste Feature-Gruppen, die jeweils erste Features enthalten, welche sich in den jeweils zugeordneten Bereichen befinden.
  • Ein weiterer Schritt ist das Empfangen von Sensorinformationen über ein Umfeld des Fahrzeugs.
  • Die Sensorinformationen können z.B. mittels eines ersten Sensors erfasst worden sein, der Teil einer Umfeldsensorik des Fahrzeugs ist.
  • Im Allgemeinen ist die Umfeldsensorik dazu eingerichtet, Informationen bezüglich des Umfelds des Fahrzeugs zu erfassen und bereitzustellen. Die Umfeldsensorik kann insbesondere eine Kamera, eine Tiefenkamera, einen Radarsensor, einen LiDAR-Sensor oder einen ähnlichen Sensor umfassen. Ein derartiger Sensor arbeitet bevorzugt berührungslos, beispielsweise mittels Detektion von elektromagnetischen Wellen oder Ultraschallwellen, und kann bildgebend sein.
  • Bei einer bevorzugten Ausführungsform sind die Sensorinformationen mittels eines LiDAR-Sensors erzeugt worden.
  • Ein weiterer Schritt ist das Erkennen einer Anzahl von zweiten Features in den Sensorinformationen, wobei die zweiten Features auf wenigstens ein neben einer Fahrbahn befindliches Objekt hinweisen.
  • Die zweiten Features, die auf ein oder mehrere solcher Objekte hinweisen, können beispielsweise in Form von Datenpunkten einer Datenpunktwolke vorliegen, wobei jeder einzelne Datenpunkt z.B. einen sensorisch erfassten Messpunkt mitsamt seiner Position in Bezug auf das Fahrzeug anzeigt. Beispielsweise kann eine derartige Datenpunktwolke von einem LiDAR-Scanner bereitgestellt werden.
  • Ein weiterer Schritt ist das Gruppieren der zweiten Features in eine Anzahl von zweiten Feature-Gruppen in der Weise, dass alle zweiten Features, die sich in einem jeweiligen hinsichtlich seiner longitudinalen Ausdehnung definierten Bereich neben der Fahrbahn befinden, einer dem jeweiligen Bereich zugeordneten zweiten Feature-Gruppe angehören.
  • Beispielsweise können, wie vorstehend bereits mit Bezug auf das Gruppieren der ersten Features beschrieben, mehrere zusammenhängende Bereiche definiert werden, die sich jeweils über eine vorbestimmte Länge (z.B. 1 Meter) entlang der Fahrbahn erstrecken. Sämtliche zweite Features, die sich in einem solchen Bereich befinden, können dann derselben zweiten Feature-Gruppe zugeordnet werden. Im Ergebnis entstehen auf diese Weise mehrere zweite Feature-Gruppen, die jeweils zweite Features enthalten, welche sich in den jeweils zugeordneten Bereichen befinden.
  • Die Aufteilung in Bereiche, die jeweils eine definierte longitudinale Begrenzung haben, kann dabei dieselbe sein, die beim Gruppieren der ersten Features verwendet wird.
  • Im Folgenden werden die oben erwähnten Bereiche, die sich longitudinal über eine definierte Distanz entlang der Fahrbahn erstrecken, mitunter auch als „Buckets“ bezeichnet. Die Aufteilung der ersten und zweiten Features bei der Gruppierung in Feature-Gruppen anhand der Bereiche kann man sich nämlich bildlich auch so veranschaulichen, dass die Features in unterschiedliche Behälter geworfen werden.
  • Ein weiterer Schritt ist das Aussortieren von ersten Feature-Gruppen, deren maximale laterale Ausdehnung (d.h. z.B. ein Abstand zwischen einem am weitesten links befindlichen Feature zu einem am weitesten rechts befindlichen Feature) einen ersten vorbestimmten Wert (z.B. 1 Meter) überschreitet und/oder das Aussortieren von zweiten Feature-Gruppen, deren maximale laterale Ausdehnung einen zweiten vorbestimmen Wert, welcher identisch mit dem ersten Wert sein kann, überschreitet. Insbesondere können alle ersten bzw. zweiten Feature-Gruppen, deren laterale Ausdehnung den ersten bzw. zweiten vorbestimmten Wert überschreitet, aussortiert werden.
  • Ein weiterer Schritt ist das Zuordnen wenigstens einiger der nicht aussortierten ersten Feature-Gruppen zu einer jeweiligen nicht aussortierten zweiten Feature-Gruppe.
  • Dabei können insbesondere solche ersten und zweiten Feature-Gruppen einander zugeordnet werden, welche einander in dem Sinne entsprechen, dass angenommen werden kann, dass sie dasselbe Objekt oder dieselben Teile eines Objekts in der digitalen Karte bzw. im Fahrzeugumfeld beschreiben. Wenn beim Gruppieren der ersten bzw. zweiten Features dieselbe Aufteilung der digitalen Karte bzw. eines entsprechenden Ausschnitts des sensorisch erfassten Fahrzeugumfelds in longitudinal abgegrenzte Bereiche verwendet worden ist, können die einander zugeordneten Feature-Gruppen einander insbesondere in dem Sinne entsprechen, dass sie einander entsprechenden Bereichen zugeordnet sind.
  • Ein weiterer Schritt ist das Bestimmen der Validität der geschätzten Position des Fahrzeugs auf der Basis eines Vergleichs von Positionen einer Anzahl der nicht aussortierten ersten Feature-Gruppen mit Positionen der jeweils zugeordneten zweiten Feature-Gruppen. Dabei werden die Positionen der ersten und zweiten Feature-Gruppen bevorzugt in einem gemeinsamen Koordinatensystem verglichen, welches in einer festen Beziehung zu der digitalen Karte steht. Das Bestimmen der Gültigkeit der geschätzten Position erfolgt somit durch einen Abgleich von ersten Features, die aufgrund der Karteninformationen erwartet werden und zweiten Features, die mittels der Umfeldsensorik erfasst werden.
  • In Übereinstimmung mit dem Vorstehenden kann die Validität der geschätzten Position z.B. in der Weise bestimmt wird, dass ausgehend von der (hypothetischen) Annahme, dass die geschätzte Position korrekt wäre, die Positionen der Anzahl der ersten Feature-Gruppen mit den Positionen der jeweils zugeordneten zweiten Feature-Gruppen in einem gemeinsamen Koordinatensystem verglichen werden.
  • Dabei kann vorgesehen sein, dass die geschätzte Position bestätigt (d.h. positiv validiert) wird, wenn die Positionen aller einander zugeordneten Feature-Gruppen sich um weniger als eine vorbestimmte Distanz (wie z.B. 50 cm oder 1 m) unterscheiden.
  • Gemäß einer Ausführungsvariante können als Kriterien für die Bewertung von Positionsabweichungen in longitudinaler bzw. lateraler Richtung auch unterschiedliche vorbestimmte Distanzen vorgesehen sein. So kann z.B. vorgesehen sein, dass die geschätzte Position bestätigt wird, wenn ein lateraler Abstand zwischen den einander zugeordneten Feature-Gruppen nicht größer als 50 cm ist und wenn ein longitudinaler Abstand zwischen den einander zugeordneten Feature-Gruppen nicht größer als 1 Meter ist.
  • Mit der Angabe, dass es sich um eine oder mehrere vorbestimmte Distanzen handelt, soll nicht etwa ausgedrückt werden, dass diese nicht manuell oder automatisch entsprechend einem Algorithmus veränderbar wäre. Vielmehr soll ausgesagt werden, dass der Positionsabgleich zwischen den einander zugeordneten Feature-Gruppen im Rahmen der Validierung jeweils in Bezug auf eine in diesem konkreten Zusammenhang vorbestimmte Distanz erfolgt. Damit ist aber nicht ausgeschlossen, dass der Wert der Distanz im Laufe der Zeit oder für bestimmte räumliche Bereiche oder in Abhängigkeit von anderen Parametern zweckmäßig angepasst werden kann.
  • Gemäß einer weiteren Ausführungsform kann die Entscheidung, ob die Anordnung der einander zugeordneten Feature-Gruppen zu einer Positionsschätzung passt, auch anhand einer statistischen Betrachtung getroffen werden. So kann z.B. vorgesehen sein, dass die geschätzte Position bestätigt wird, wenn die Positionen wenigstens eines definierten Anteils (wie z.B. mindestens 90%) der einander zugeordneten Feature-Gruppen sich um weniger als eine vorbestimmte Distanz (ggf. unterschieden nach lateraler und longitudinaler Richtung, wie oben beschrieben) unterscheiden.
  • Eine optionale Weiterbildung sieht ferner vor, dass die statistische Betrachtung auch eine Abstandsverteilung berücksichtigt. Beispielsweise kann vorgesehen sein, dass als Voraussetzung für eine Bestätigung der geschätzten Position wenigstens 60% der betrachteten Paare von einander zugeordneten ersten und zweiten Feature-Gruppen nicht weiter als 30 cm voneinander entfernt sein dürfen und dass zugleich wenigstens 90% der Paare nicht weiter als 60 cm voneinander entfernt sein dürfen.
  • Es wird ferner darauf hingewiesen, dass im Rahmen der Validierung der (ggf. statistische) Abgleich der Positionen der einander zugeordneten Feature-Gruppen jeweils mit Bezug auf eine bestimmte Gesamtheit von Feature-Gruppen erfolgen kann, welche z.B. einem momentan betrachteten Kartenausschnitt entsprechen kann. So kann z.B. ein Kartenausschnitt betrachtet werden, der sich über eine Länge von 20-40 Meter (longitudinal) entlang der Fahrbahn erstreckt. Dies würde bei einer definierten Länge der einzelnen Bereiche von 1 Meter dazu führen, dass dem Abgleich eine Gesamtheit von maximal 20-40 Feature-Gruppen zu Grunde gelegt wird. Wenn z.B. 90% dieser Feature-Gruppen übereinstimmen (d.h. nicht weiter als um eine vorbestimmte Distanz auseinanderliegen), wird die geschätzte Position validiert, wie bereits weiter oben beispielhaft ausgeführt wurde.
  • Es liegt auch im Rahmen der Erfindung, dass in einem optionalen weiteren Schritt zunächst überprüft werden kann, ob nach dem Aussortieren einiger erster und/oder zweiter Feature-Gruppen noch eine ausreichende Anzahl von Feature-Gruppen, die einander zugeordnet werden können, verbleibt. So kann z.B. vorgesehen sein, dass die geschätzte Position nicht bestätigt wird, wenn lediglich eine Anzahl von einander zuordenbaren Feature-Gruppen verbleibt, die auf der Karte einer Länge von weniger als 10 Meter (oder eine andere vorbestimmte Distanz) entsprechen. Es kann z.B. als eine notwendige Voraussetzung für eine Bestätigung der Position vorgesehen sein, dass die einander zuordenbaren Features eine Fahrbahnlänge von wenigstens 10 Meter (oder eine andere vorbestimmte Distanz) abdecken müssen.
  • Die Erfindung geht von dem Gedanken aus, dass die Zuverlässigkeit der Validierung einer geschätzten Fahrzeugposition verbessert und insbesondere die Wahrscheinlichkeit von falschen Bestätigungen verringert werden kann, indem gezielt verhindert wird, dass solche Features aus einer digitalen Karte und/oder aus Umfeldsensordaten für die Bestimmung der Validität der Positionsschätzung verwendet werden, die bei einem Abgleich von digitaler Karte und Umfeldsensordaten zu Ambiguitäten (d.h. Mehrdeutigkeiten) führen könnten.
  • Erfindungsgemäß ist deshalb vorgesehen, dass erste und/oder zweite Feature-Gruppen, deren jeweilige maximale laterale Ausdehnung einen vorbestimmten Wert überschreitet aussortiert werden, sodass sie bei der Bestimmung der Validität nicht herangezogen werden und das Ergebnis nicht verfälschen können.
  • Dies kann beispielsweise lateral sehr weit ausgedehnte Objekte am Fahrbahnrand betreffen. Ferner können mehrere lateral voneinander beabstandete Objekte betroffen sein, die sich in der Weise überlappen, dass sie einen gemeinsamen longitudinalen Erstreckungsbereich haben. Durch die Eibeziehung solcher Objekte bei der Validierung insbesondere einer geschätzten lateralen Position könnte nämlich eine unerwünschte Mehrdeutigkeit entstehen. Verfahrensgemäß können Features, die solchen Objekten entsprechen, aussortiert werden, sodass die potenzielle Ambiguität bei der Bestimmung der Validität der geschätzten Position nicht zum Tragen kommen kann.
  • Mit anderen Worten sieht das Verfahren also vor, eine Teilmenge der in den Kartendaten und in den Umfeldsensordaten vorliegenden Objektinformationen zu bestimmen, welche für eine Bestimmung der Validität der geschätzten Position nicht herangezogen werden soll. Das Validieren der geschätzten Position erfolgt sodann nur anhand der übrigen Objektinformationen.
  • Gemäß einer vorteilhaften Ausführungsform wird das Verfahren für Features, die auf Objekte auf unterschiedlichen Fahrbahnseiten hindeuten, separat ausgeführt wird. Mit anderen Worten können sämtliche Verfahrensschritte einerseits für Features, die auf Objekte am linken Fahrbahnrand hinweisen, ausgeführt werden und unabhängig davon für Features, die auf Objekte am rechten Fahrbahnrand hinweisen. Dementsprechend können auf der Softwareebene separate Validatoren implementiert sein, wobei ein Validator nur Objektinformationen vom linken Fahrbahnrand und ein separater Validator nur Objektinformationen vom rechten Fahrbahnrand zu Grunde legt.
  • Auf diese Weise kann verhindert werden, dass Ambiguitäten, die durch eine bestimmte Art oder Anordnung von Objekten auf einer Fahrbahnseite eingeführt werden, die Verwertung von Objektinformationen bezüglich der anderen Fahrbahnseite unnötigerweise beeinträchtigen. Es kann z.B. vorkommen, dass über eine gewisse Fahrbahnlänge Objekte am rechten Fahrbahnrand für eine Positionsvalidierung ungeeignet sind. In einem solchen Fall kann es jedoch sinnvoll sein, die Objektinformationen, die sich auf den linken Fahrbahnrand für die Validierung dennoch heranzuziehen.
  • Beispielsweise kann vorgesehen sein, dass das Ergebnis der Bestimmung der Validität der Positionsschätzung insgesamt positiv ausfällt, wenn ein erster Validator, der Objektinformationen vom rechten Fahrbahnrand verwendet, die Positionsschätzung bestätigt und wenn zugleich ein zweiter Validator, der Objektinformationen vom linken Fahrbahnrand verwendet, keine Aussage trifft, z.B. weil nicht genügend verwertbare Features am rechten Fahrbahnrand erfasst werden.
  • Ferner kann z.B. vorgesehen sein, dass das Ergebnis der Bestimmung der Validität der geschätzten Fahrzeugposition neutral ist (d.h. es wird weder eine Bestätigung noch eine klare Falsifikation ausgegeben), falls der erste Validator die Positionsschätzung bestätigt und der zweite Validator die Positionsschätzung ausdrücklich nicht bestätigt (d.h. die Positionsschätzung falsifiziert).
  • Es liegt auch im Rahmen der Erfindung, dass für den oben beschriebenen Schritt des Aussortierens die ersten Features und/oder die zweiten Features, die sich in einem jeweiligen hinsichtlich seiner longitudinalen Ausdehnung definierten Bereich neben der Fahrbahn befinden, zusätzlich auch als Teil derjenigen ersten bzw. zweiten Feature-Gruppen betrachtet werden, die jeweiligen longitudinal benachbarten Bereichen zugeordnet sind. Mit anderen Worten werden bei dieser Ausführungsvariante die jeweiligen Features für den Schritt des Aussortierens jeweils auch in benachbarte „Buckets“ geworfen. Hierdurch werden die entsprechenden Objekte, auf die die Features hinweisen, sozusagen virtuell verlängert. Legt man beispielsweise Bereiche (Buckets) mit einer jeweiligen Länge von 1 Meter zu Grunde, so resultiert eine virtuelle Verlängerung um 2 Meter. Auf diese Weise kann z.B. einer longitudinaler Messtoleranz Rechnung getragen werden.
  • Gemäß einer Ausführungsform stellen die digitale Karte und die Sensorinformationen jeweils auch Höheninformationen über die (ersten bzw. zweiten) Features bereit. Dabei werden solche Features, deren Höhe sich wenigstens um eine vorbestimmte Höhendifferenz unterscheidet, nicht einer selben Feature-Gruppe zugeordnet.
  • Die Feature-Höhe kann demnach als ein mögliches Unterscheidungsmerkmal verwendet werden, welches eine mögliche Ambiguität auflösen kann. Beispielsweise können eine Graskante und eine Leitplanke, die sich in ein und demselben Bereich parallel entlang des Fahrbahnrands erstrecken, anhand der Höhe unterschieden werden, sodass sie keine Ambiguität einführen, die die Zuverlässigkeit der Validierung der geschätzten Position beeinträchtigen könnte.
  • Im Einklang mit dem Vorstehenden kann ein verwendeter Algorithmus also insbesondere auf einer 2D-Darstellung oder auf einer 3D-Darstellung des Fahrzeugumfelds basieren. Eine 2D-Darstellung kann dabei den Vorteil haben, dass sie mit geringere Rechenressourcen auskommt. Bei einer 3D-Darstellung kann die Gruppierung der Features nicht nur für jede Längsposition, sondern auch für jede Höhe erfolgen, sodass ggf. insgesamt mehr Features für die Validierung verwertet werden können.
  • Das Schätzen und/oder das Validieren der Position des Fahrzeugs kann z.B. wenigstens teilweise mittels maschinellem Lernen ausgeführt werden. Beispielsweise kann das Schätzen der Position und/oder das Validieren der Position mittels eines künstlichen neuronalen Netzwerks oder eines anderen maschinell lernfähigen Systems erfolgen.
  • Wenn maschinelles Lernen verwendet wird, ist für eine gute Absicherung eine ausreichende Datenbasis und eine geeignete „Ground Truth“ erforderlich. Als Datensatz können z.B. die Daten von Testfahrten mit Millionen von Kilometern benutzt werden. Diese Daten können zu Testzwecken z.B. absichtlich mit gefälschten Positionsschätzungen verknüpft werden, die der LiDAR-basierte Validator zurückweisen muss, sowie mit (z.B. von einem Referenz-DGPS-Sensor empfangenen) Ground-Truth-Positionen, die der Validator als richtig bestätigen muss.
  • Das Verfahren kann weiter verbessert werden, indem eine Pose des Fahrzeugs bestimmt, d.h. in der erfindungsgemäß vorgeschlagenen Weise geschätzt und validiert, wird. Eine Pose umfasst zusätzlich zu der Position des Fahrzeugs eine Ausrichtung des Fahrzeugs (z.B. eine Ausrichtung relativ zu einer oder mehreren Fahrspurbegrenzungen). Die Position kann dabei beispielsweise in kartesischen Koordinaten entlang eines Rechtssystems zweier oder dreier Achsen angegeben werden und die Ausrichtung als Drehwinkel um diese Achsen.
  • Gemäß einem zweiten Aspekt der Erfindung wird eine Verarbeitungseinrichtung vorgeschlagen, wobei die Verarbeitungseinrichtung zum Durchführen eines Verfahrens gemäß dem ersten Erfindungsaspekt ausgelegt ist. Merkmale oder Vorteile des Verfahrens können dementsprechend auf die Verarbeitungseinrichtung übertragen werden oder umgekehrt.
  • Die Verarbeitungseinrichtung kann z.B. Teil eines Steuerungssystems des Fahrzeugs sein, welches einen oder mehrere Prozessoren (wie z.B. CPUs und/oder GPUs) umfasst, auf welchen die nötigen Rechenoperationen zur Durchführung des Verfahrens ablaufen.
  • Es können auch unterschiedliche Verarbeitungseinrichtungen verwendet werden, etwa eine dedizierte Verarbeitungseinrichtung zum Schätzen einer der Position und eine weitere Verarbeitungseinrichtung zum Validieren der Position.
  • Beispielsweise kann das Fahrzeug, dessen Position validiert werden soll, eine Verarbeitungseinrichtung gemäß dem zweiten Aspekt aufweisen.
  • Das Fahrzeug umfasst dabei bevorzugt einen Antriebsmotor und ist ein Kraftfahrzeug, insbesondere ein straßengebundenes Kraftfahrzeug. Das Kraftfahrzeug kann in Längsrichtung zum Beispiel durch Beeinflussen des Antriebsmotors oder einer Bremseinrichtung gesteuert werden.
  • Bevorzugt ist das Fahrzeug zum wenigstens teilweise automatisierten Fahren, bis hin zum hochautomatisierten oder sogar autonomen Fahren eingerichtet.
  • Beispielsweise kann eine Fahrfunktion des Fahrzeugs in Abhängigkeit der geschätzten und validierten Position gesteuert werden. Die Fahrfunktion kann insbesondere eine Längs- und/oder Quersteuerung des Fahrzeugs bewirken, etwa in Form eines Geschwindigkeitsassistenten oder eines Spurhalteassistenten. Die geschätzte und validierte Position kann dabei ein sicherheitsrelevanter Parameter des Fahrzeugs sein und sich z.B. in Längs- und/oder Querrichtung des Fahrzeugs bemessen.
  • Ein dritter Aspekt betrifft ein Computerprogramm, welches Befehle umfasst, die bei der Ausführung des Computerprogramms durch eine Verarbeitungseinrichtung diese veranlassen, ein Verfahren gemäß dem zweiten Erfindungsaspekt auszuführen.
  • Ein vierter Aspekt der Erfindung betrifft ein computerlesbares (Speicher)medium, welches Befehle umfasst, die bei der Ausführung durch eine Verarbeitungseinrichtung diese veranlassen, ein Verfahren gemäß dem ersten Aspekt auszuführen.
  • Es versteht sich dabei, dass die vorstehend im Zusammenhang mit dem dritten und vierten Erfindungsaspekt genannte Verarbeitungseinrichtung insbesondere eine Verarbeitungseinrichtung gemäß dem zweiten Erfindungsaspekt sein kann.
  • Beispielsweise kann die Verarbeitungseinrichtung einen programmierbaren Mikrocomputer oder Mikrocontroller umfassen und das Verfahren kann in Form eines Computerprogrammprodukts mit Programmcodemitteln vorliegen. Das Computerprogrammprodukt kann auch auf einem computerlesbaren Datenträger abgespeichert sein.
  • Die Erfindung wird nun anhand von Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. Dabei sind die in der Beschreibung genannten und/oder in den Zeichnungen alleine gezeigten Merkmale und Merkmalskombinationen nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
    • 1A zeigt schematisch und bespielhaft einen Ausschnitt einer digitalen Karte mit einer Anzahl von ersten Features, die auf Objekte im Umfeld eines Fahrzeugs hinweisen.
    • 1B zeigt schematisch und bespielhaft eine Anzahl sensorisch erfasster zweiter Features, die auf Objekte im Umfeld des Fahrzeugs hinweisen.
    • 2A zeigt den Kartenausschnitt aus 1A, wobei einer alternativen Gruppierung der ersten Features in Feature-Gruppen zugrunde gelegt ist.
    • 2B zeigt die sensorisch erfassten zweiten Features aus 1B, wobei einer alternativen Gruppierung der zweiten Features in Feature-Gruppen zugrunde gelegt ist.
    • 3 zeigt ein schematisches Ablaufdiagramm eines computerimplementierten Verfahrens zum Bestimmen der Validität einer geschätzten Fahrzeugposition.
  • Die 1A-2B beziehen sich auf ein Beispielszenario, in welchem die Validität einer geschätzten Position eines Kraftfahrzeugs 105 anhand von Objekten 310-370, die sich neben einer Fahrbahn befinden, bestimmt wird.
  • Im Folgenden wird die Erfindung exemplarisch anhand dieses Beispielszenarios erläutert, wobei sogleich auch auf die 3 Bezug genommen wird, die ein schematisches Ablaufdiagramm eines erfindungsgemäßen Verfahrens 200 zeigt.
  • Das Fahrzeug 105 ist zum automatisierten Fahren eingerichtet. Hierfür muss es in der Lage sein, seine Position, insbesondere in Bezug auf Fahrspurbegrenzungen und Objekte im Fahrzeugumfeld, zu bestimmen. Eine Fahrfunktion des Fahrzeugs 105 kann dann in Abhängigkeit der bestimmten Position automatisch gesteuert werden. Die Fahrfunktion kann insbesondere eine automatische Längs- und/oder Quersteuerung des Fahrzeugs 105 bewirken.
  • Das Fahrzeug 105 ist mit einer Umfeldsensorik ausgestattet, wobei in den 1A-2B exemplarisch jeweils nur ein Umfeldsensor in Form eines LiDAR-Sensors 1151 dargestellt ist. Darüber hinaus kann die Umfeldsensorik des Fahrzeugs 105 beispielsweise einen oder mehrere Kameras und einen oder mehrere RADAR-Sensoren umfassen. Ferner kann eine in den Figuren nicht explizit dargestellte Empfangsvorrichtung für ein globales Satellitennavigationssystem und/oder ein Odometer zur Bereitstellung von Odometriedaten vorgesehen sein.
  • Weiterhin ist in dem Fahrzeug 105 eine Verarbeitungseinrichtung 120 angeordnet. Die Verarbeitungseinrichtung 120 kann z.B. Teil eines Steuerungssystems für die automatisierten Fahrfunktionen des Fahrzeugs 105 sein. Dabei umfasst die Verarbeitungseinrichtung 120 einen oder mehrere Prozessoren (wie z.B. CPUs und/oder GPUs), auf welchen die nötigen Rechenoperationen zur Durchführung eines Verfahrens 200 zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs 105 ablaufen.
  • Schritte des Verfahrens 200 sind in 3 schematisch veranschaulicht. Im Folgenden werden die einzelnen Verfahrensschritte 205-250 unter Bezugnahme auf die 1A-2B beispielhaft erläutert.
  • In einem Schritt 205 wird eine digitale Karte seitens der Verarbeitungseinrichtung 120 bzw. seitens eines Softwaremoduls, das von der Verarbeitungseinrichtung 120 ausgeführt wird, empfangen. Die digitale Karte wird bei dem vorliegenden Ausführungsbeispiel von einem digitalen Kartenspeicher 125 bereitgestellt, welcher in dem Fahrzeug 105 angeordnet und kommunikativ mit der Verarbeitungseinrichtung 120 verbunden ist.
  • Das Empfangen der digitalen Karte umfasst konkret das Laden eines relevanten Kartenausschnitts, der relevante Karteninformationen über das Fahrzeugumfeld enthält. Der Kartenausschnitt kann beispielsweise eine Fahrbahnlänge von 40 Metern abdecken.
  • Einige der empfangenen Karteninformationen sind in 1A bildlich dargestellt. Der geladene Kartenausschnitt zeigt demnach insbesondere eine Fahrbahn samt Fahrspurbegrenzungen sowie mehrere Objekte 310, 320, 330, 340, 350, 360, 370, die sich gemäß den Karteninformationen links und rechts neben der Fahrbahn am Fahrbahnrand befinden.
  • Beispielsweise kann unter den Objekten eine Leitplanke 310 sein, die sich longitudinal entlang der Fahrbahn erstreckt, wie auf der linken Seite in 1A gezeigt. Unter den schematisch dargestellten Objekten 320-370, die sich rechts von der Fahrbahn befinden, können beispielsweise Abschnitte einer Leiplanke, einer Graskante, einer Lärmschutzwand oder dergleichen sein. Auch Bäume, Büsche, Straßenlaternen Brückenpfeiler usw. können unter den Objekten 320-370 sein.
  • Die digitale Karte kann z.B. wenigstens teilweise auf sensorisch erfassten Daten beruhen, welche bei einer oder mehreren Erkundungsfahrten eines Erkundungsfahrzeugs eines Service-Providers der digitalen Karte aufgezeichnet wurden. Dabei kann die digitale Karte z.B. mehrere Schichten enthalten, wobei die verschiedenen Schichten Features enthalten, die mittels unterschiedlichen Umfeldsensoren des Fahrzeugs 105 erkannt werden können.
  • Im Folgenden wird davon ausgegangen, dass unter den in der digitalen Karte gemäß 1A gezeigten Objekte 310-370 wenigstens einige Objekte sind, die im Fahrzeugumfeld prinzipiell mittels des LiDAR-Sensors 1151 erfasst werden können.
  • In einem weiteren Schritt 210 wird seitens der Verarbeitungseinrichtung bzw. des Softwaremoduls eine geschätzte Position des Fahrzeugs 105 empfangen. Die geschätzte Position ist eine Position in der digitalen Karte oder jedenfalls einer Position in der digitalen Karte zuordenbar ist. Bei dem vorliegenden Beispiel entspricht die geschätzte Fahrzeugposition der Position in der digitalen Karte, an welcher das Fahrzeug 105 in 1A eingezeichnet ist.
  • Das Fahrzeug 105 befindet sich entsprechend der Positionsschätzung auf der linken Fahrspur. Die Positionsschätzung kann jedoch mit einer gewissen Unsicherheit behaftet sein und soll daher im Rahmen der weiteren Verfahrensschritte möglichst zuverlässig anhand von Informationen, die der LiDAR-Sensor 1151 bereitstellt, validiert werden.
  • Ein weiterer Schritt 215 ist das Erkennen einer Anzahl von ersten Features 400 in der digitalen Karte, welche auf die neben der Fahrbahn befindlichen Objekte 310-370 hinweisen. Die ersten Features liegen in Form von Datenpunkten vor, die insgesamt die Objekte 310-370 beschreiben. In 1A wird dies durch eine gepunktete Darstellung der Objekte 310-370 schematisch verdeutlicht.
  • Es ist dabei auch möglich, dass die digitale Karte die Objekte 310-370 zunächst in Form von kontinuierlichen Strukturen, wie z.B. Flächen oder Linien, enthält, und dass diese Strukturen für die weitere Verarbeitung durch Sampling in eine Gesamtheit von einzelnen Datenpunkten werden.
  • In einem weiteren Schritt 220 werden die ersten Features 400 in eine Anzahl von ersten Feature-Gruppen 405-470 gruppiert. Dies geschieht in der Weise, dass alle ersten Features 400, die sich in einem jeweiligen hinsichtlich seiner longitudinalen Ausdehnung definierten Bereich neben der Fahrbahn befinden, einer dem jeweiligen Bereich zugeordneten ersten Feature-Gruppe 405-470 angehören.
  • Konkret werden bei dem vorliegenden Ausführungsbeispiel mehrere zusammenhängende Bereiche definiert, die sich jeweils über eine vorbestimmte Länge L (z.B. 1 Meter) longitudinal entlang der Fahrbahn erstrecken. In 1A wird dies durch mehrere horizontale gestrichelte Linien verdeutlicht, die jeweils einen solchen streifenförmigen Bereich begrenzen.
  • Alle ersten Features 400, die sich in einem jeweiligen Bereich befinden, werden derselben ersten Feature-Gruppe 405-470 zugeordnet. In 1A beziehen sich die Bezugszeichen 405-470 also nicht auf die unterschiedlichen Bereiche an sich, sondern auf die entsprechenden Feature-Gruppen, die alle Features 400 enthalten, die sich in einem jeweiligen Bereich befinden.
  • Beispielsweise gehören sämtliche Features (Datenpunkte) 400, die das Objekt 340 beschreiben, derselben Feature-Gruppe 425 an, da sie sich alle in demselben streifenförmigen Bereich befinden. Im Gegensatz dazu sind z.B. die Features 400, die das Objekt 360 beschreiben, auf drei benachbarte Feature-Gruppen 445, 450, 455 aufgeteilt, da sie sich über drei benachbarte Bereiche erstrecken. Die Feature-Gruppe 410 enthält sowohl Features 400, die das Objekt 320 beschreiben als auch Features 400, die das Objekt 330 beschreiben. Auf der linken Seite der Fahrbahn erstreckt sich das Objekt 310 ebenfalls über mehrere Bereiche und damit Feature-Gruppen, wobei hier nur eine Feature-Gruppe 470 exemplarisch mit einem Bezugszeichen versehen ist.
  • Ein weiterer Schritt ist das Empfangen 225 von Sensorinformationen über das Fahrzeugumfeld. Bei dem vorliegenden Ausführungsbeispiel werden die Sensorinformationen mittels des LiDAR-Sensors 1151 erzeugt und an die Verarbeitungseinrichtung 120 übermittelt.
  • In einem weiteren Schritt 230, der im Folgenden mit Bezug auf 1B erläutert werden soll, wird mittels der Verarbeitungseinrichtung 120 in den Sensorinformationen eine Anzahl von zweiten Features 500 erkannt. Die zweiten Features 500 weisen bei dem vorliegenden Ausführungsbeispiel auf einige Objekte 310, 320, 330, 340, 360, 370 aus der Gesamtheit von Objekten 310-370 hin, welche auch in der digitalen Karte gemäß 1A verzeichnet sind. Das in der digitalen Karte verzeichnete Objekt 350 ist jedoch durch den LiDAR-Sensor 1151 vorliegend nicht erfasst worden. Ein Grund hierfür kann z.B. sein, dass das Objekt 350 seiner Beschaffenheit nach nicht oder nur schwer mittels LiDAR erkennbar ist oder dass das Objekt 350 tatsächlich nicht im Fahrzeugumfeld vorhanden ist, etwa weil die digitale Karte insoweit nicht mehr aktuell ist.
  • Ähnlich wie die ersten Features 400 liegen auch die zweiten Features 500 in Form von Datenpunkten vor. Dabei kann z.B. jeder einzelne Datenpunkt 500 einem durch den LiDAR-Sensor 1151 erfassten Messpunkt entsprechen. Jeder Datenpunkt 500 hat eine eindeutige Position in Bezug auf das Fahrzeug 105, wie in 1 B veranschaulicht.
  • Ein weiterer Schritt 235 ist das Gruppieren der zweiten Features 500 in eine Anzahl von zweiten Feature-Gruppen 505-570 in der Weise, dass alle zweiten Features 500, die sich in einem jeweiligen hinsichtlich seiner longitudinalen Ausdehnung definierten Bereich neben der Fahrbahn befinden, einer dem jeweiligen Bereich zugeordneten zweiten Feature-Gruppe 505-570 angehören.
  • Das Gruppieren 235 der zweiten Features 500 kann ganz analog zu dem Gruppieren 220 der ersten Features 400 ausgeführt werden. Beispielsweise können, wie vorstehend bereits mit Bezug auf das Gruppieren 220 der ersten Features 400 beschrieben, mehrere zusammenhängende streifenförmige Bereiche definiert werden, die sich jeweils über eine vorbestimmte Länge L (z.B. 1 Meter) entlang der Fahrbahn erstrecken. Sämtliche zweite Features 500, die sich in einem solchen Bereich befinden können dann einer selben zweiten Feature-Gruppe 505-570 zugeordnet werden. Im Ergebnis entstehen so mehrere zweite Feature-Gruppen 505-570, die jeweils zweite Features 500 enthalten, welche sich in den jeweils zugeordneten Bereichen befinden.
  • Die Aufteilung in Bereiche, die jeweils eine definierte longitudinale Begrenzung haben, ist bei dem hier beschriebenen Ausführungsbeispiel dieselbe, die bereits beim Gruppieren 220 der ersten Features 400 verwendet worden ist. Wie eingangs erwähnt, kann man sich die Aufteilung der ersten und zweiten Features 400, 500 bei der Gruppierung in entsprechende Feature-Gruppen 405-470, 505-507 bildlich in der Weise veranschaulichen, dass die Features 400, 500 in mehrere Buckets (entsprechend den unterschiedlichen Bereichen) geworfen werden.
  • In einem weiteren Schritt 240 werden einige erste und/oder zweite Feature-Gruppen 410, 425, 510, 525 aussortiert, sodass sie im Rahmen der nachfolgenden Verfahrensschritte für das Validieren der geschätzten Fahrzeugposition nicht herangezogen werden.
  • Konkret können z.B. alle ersten Feature-Gruppen 410, 425, deren maximale laterale Ausdehnung einen ersten vorbestimmten Wert B1 (z.B. 1 Meter) überschreitet, aussortiert werden.
  • In 1A sind die anhand dieses Kriteriums aussortierten Feature-Gruppen 410, 425 mit einem dunklen „X“ markiert. Nicht aussortierte Feature-Gruppen 405, 415, 435-470 sind mit einem dunklen Haken versehen. Ein helles „X“ markiert jeweils Bereiche, in denen gar keine ersten Features vorhanden sind, die für das Validieren der geschätzten Fahrzeugposition verwendet werden könnten.
  • Beispielsweise gehören die Features der aussortierten Feature-Gruppe 410 zu zwei unterschiedlichen länglichen Objekten 320, 330, die sich in dem der Feature-Gruppe 410 zugeordneten Bereich in der Weise überlappen, dass sie einen gemeinsamen longitudinalen Erstreckungsbereich haben. Ein maximaler lateraler (d.h. quer zu der Fahrbahn gemessener) Abstand von ersten Features 400 der beiden Objekte 320, 330 überschreitet dabei den ersten vorbestimmten Wert B1, was zum Aussortieren der Feature-Gruppe 410 führt.
  • Die aussortierte Feature-Gruppe 425 gehört zu einem einzigen Objekt 340, dessen laterale Ausdehnung größer als der erste vorbestimmte Wert B1 ist.
  • Zusätzlich oder alternativ zum Aussortieren einiger erster Feature-Gruppen 410, 425 können in ganz analoger Weise auch alle zweite Feature-Gruppen 510, 525, deren maximale laterale Ausdehnung einen zweiten vorbestimmen Wert B2 überschreitet, aussortiert werden. Dies ist in 1 B verdeutlicht, wo die aussortierten zweiten Feature-Gruppen 510, 525 wiederum mit einem dunklen „X“ gekennzeichnet sind. Der zweite Wert B2 kann dabei identisch mit dem ersten Wert B1 sein.
  • Durch das Aussortieren 240 der genannten Feature-Gruppen 410, 425, 510, 525 kann verhindert werden, dass für Validierung insbesondere einer geschätzten lateralen Position eine unerwünschte Mehrdeutigkeit entsteht.
  • Die 2A und 2B veranschaulicht eine Ausführungsvariante des Aussortier-Schritts 240, wobei für die Zwecke des Aussortierens 240 die ersten Features 400 und/oder die zweiten Features 500, die sich in einem jeweiligen hinsichtlich seiner longitudinalen Ausdehnung definierten Bereich neben der Fahrbahn befinden, zusätzlich auch als Teil derjenigen ersten bzw. zweiten Feature-Gruppen 405, 415, 445-470, 505, 515, 545-570 betrachtet werden, die jeweiligen longitudinal benachbarten Bereichen zugeordnet sind. Hiervon ausgehend werden sodann dieselben Kriterien hinsichtlich der lateralen Ausdehnung der Feature-Gruppen angewendet wie oben mit Bezug auf 1A und 1B beschrieben. Bei dieser Variante werden folglich z.B. auch die ersten Feature-Gruppen 405 und 415 sowie die entsprechenden zweiten Feature-Gruppen 505 und 515 aussortiert.
  • Bei dieser Ausführungsvariante werden die jeweiligen Features 400, 500 für den Schritt 240 des Aussortierens also bildlich gesprochen jeweils auch in benachbarte Buckets geworfen. Hierdurch werden die entsprechenden Objekte 320-370, auf die die Features 400, 500 hinweisen, sozusagen virtuell verlängert. Legt man beispielsweise Bereiche (Buckets) mit einer jeweiligen Länge von 1 Meter zu Grunde, so resultiert eine virtuelle longitudinale Verlängerung um 2 Meter. Auf diese Weise kann z.B. einer longitudinaler Messtoleranz Rechnung getragen werden.
  • Ein weiterer Schritt 245 ist das Zuordnen wenigstens einiger der nicht aussortierten ersten Feature-Gruppen 405, 415, 445-470 zu einer jeweiligen nicht aussortierten zweiten Feature-Gruppe 505, 515, 545-570. Dabei können insbesondere solche ersten und zweiten Feature-Gruppen einander zugeordnet werden, welche einander in dem Sinne entsprechen, dass angenommen werden kann, dass sie dasselbe Objekt oder dieselben Teile eines Objekts in der digitalen Karte bzw. im Fahrzeugumfeld beschreiben.
  • Bei dem vorliegenden Ausführungsbeispiel wurde beim Gruppieren 220, 235 der ersten bzw. zweiten Features 400, 500 dieselbe Aufteilung der digitalen Karte (vgl. 1A bzw. 2A) bzw. des Ausschnitts des sensorisch erfassten Fahrzeugumfelds (vgl. 1B bzw. 2B) in longitudinal abgegrenzte Bereiche verwendet, und die einander zugeordneten Feature-Gruppen 405, 415, 445-470, 505, 515, 545-570 entsprechen einander in dem Sinne, dass sie einander entsprechenden Bereichen zugeordnet sind. So wird z.B. die erste Feature-Gruppe 405 der zweiten Feature-Gruppe 505 zugeordnet, die erste Feature-Gruppe 410 wird der zweiten Feature-Grupp 510 zugeordnet usw.
  • Ein weiterer Schritt 250 ist das Bestimmen der Validität der geschätzten Position des Fahrzeugs 105 auf der Basis eines Vergleichs von Positionen einer Anzahl der nicht aussortierten ersten Feature-Gruppen 405, 415, 445-470 mit Positionen der jeweils zugeordneten zweiten Feature-Gruppen 505, 515, 545-570. Das Bestimmen der Gültigkeit der geschätzten Position erfolgt somit durch einen Abgleich der Positionen von ersten Features 400, die aufgrund der Karteninformationen (vgl. 1A bzw. 2A) erwartet werden und der Positionen von zweiten Features 500 (vgl. 1B bzw. 2B), die mittels der Umfeldsensorik 1151 erfasst werden.
  • Die Validität der geschätzten Position wird bei dem Ausführungsbeispiel gemäß den 1A-B in der Weise bestimmt, dass ausgehend von der Annahme, dass die geschätzte Position korrekt wäre, die Positionen der Anzahl der ersten Feature-Gruppen 405, 415, 445-470 mit den Positionen der jeweils zugeordneten zweiten Feature-Gruppen 505, 515, 545-570 in einem gemeinsamen Koordinatensystem verglichen werden.
  • Bei der Ausführungsvariante gemäß 2A-B werden demgegenüber - aufgrund des abgewandelten Gruppierens/Aussortierens - auf der rechten Seite nur die Feature-Gruppen 435, 445, 450 und 465 für den Positionsvergleich herangezogen.
  • Es kann z.B. vorgesehen sein, dass die geschätzte Fahrzeugposition bestätigt wird, wenn die Positionen aller einander zugeordneten Feature-Gruppen 405, 415, 445-470, 505, 515, 545-570 sich um weniger als eine vorbestimmte Distanz (wie z.B. 50 cm oder 1 m) unterscheiden.
  • Für die Bewertung von Positionsabweichungen in longitudinaler bzw. lateraler Richtung können auch unterschiedliche vorbestimmte Distanzen vorgesehen sein. So kann z.B. vorgesehen sein, dass die geschätzte Position bestätigt wird, wenn ein lateraler Abstand zwischen den jeweiligen einander zugeordneten Feature-Gruppen 405, 415, 445-470, 505, 515, 545-570 nicht größer als 50 cm ist und wenn ein longitudinaler Abstand zwischen den jeweiligen einander zugeordneten Feature-Gruppen 405, 415, 445-470, 505, 515, 545-570 nicht größer als 1 Meter ist. Augenscheinlich ist dies beim Vergleich der 1A und 1B bzw. der 2A und 2B der Fall, sodass in dem vorliegenden Beispielszenario die geschätzten Fahrzeugposition durch den LiDAR-Validator bestätigt würde.
  • Die Entscheidung, ob die Anordnung der einander zugeordneten Feature-Gruppen 405, 415, 445-470, 505, 515, 545-570 zu einer Positionsschätzung passen, kann auch anhand einer statistischen Betrachtung getroffen werden. So kann z.B. vorgesehen sein, dass die geschätzte Position bestätigt wird, wenn die Positionen wenigstens eines definierten Anteils (wie z.B. mindestens 90%) der einander zugeordneten Feature-Gruppen 405, 415, 445-470, 505, 515, 545-570 sich um weniger als eine vorbestimmte Distanz (ggf. unterschieden nach lateraler und longitudinaler Richtung, wie weiter oben beschrieben) unterscheiden.
  • Die statistische Betrachtung kann dabei auch eine statistische Abstandsverteilung berücksichtigen. Beispielsweise kann vorgesehen sein, dass als Voraussetzung für eine Bestätigung der geschätzten Position wenigstens 60% der betrachteten Paare von einander zugeordneten ersten und zweiten Feature-Gruppen 405, 415, 445-470, 505, 515, 545-570 nicht weiter als 30 cm voneinander entfernt sein dürfen und dass zugleich wenigstens 90% der Paare nicht weiter als 60 cm voneinander entfernt sein dürfen.
  • Der Abgleich der Positionen der einander zugeordneten Feature-Gruppen 405, 415, 445-470, 505, 515, 545-570 kann jeweils mit Bezug auf eine bestimmte Gesamtheit von Feature-Gruppen erfolgen kann, welche z.B. einem momentan betrachteten Kartenausschnitt entsprechen kann. So kann z.B. ein Abschnitt betrachtet werden, der sich über eine Länge von 20-40 Meter (longitudinal) entlang der Fahrbahn erstreckt. Dies würde bei einer definierten Länge der einzelnen Bereiche von 1 Meter dazu führen, dass dem Abgleich eine Gesamtheit von maximal 20-40 Feature-Gruppen zu Grunde gelegt wird. Wenn z.B. 90% dieser Feature-Gruppen übereinstimmen (d.h. nicht weiter als um eine vorbestimmte Distanz auseinanderliegen), wird die geschätzte Position validiert.
  • Gemäß einer vorteilhaften Ausführungsform wird das Verfahren 200 für Features 400, 500, die auf Objekte auf unterschiedlichen Fahrbahnseiten hindeuten, separat ausgeführt. Bezogen auf das vorliegende Ausführungsbeispiel können also sämtliche Verfahrensschritte einerseits für die Features 400, 500, die das Objekt 310 am linken Fahrbahnrand hinweisen, ausgeführt werden und unabhängig davon für die Features 400, 500, die auf die Objekte 320-370 am rechten Fahrbahnrand hinweisen.
  • Falls z.B. die am rechten Fahrbahnrand befindlichen Objekte 320-370 insgesamt für eine Positionsvalidierung ungeeignet sind, weil zu viele Feature-Gruppen aussortiert werden (vgl. z.B. 2A-B), können bei dieser Ausführungsform die Informationen über das Objekt 310 am linken Fahrbahnrand, dennoch herangezogen werden, um die geschätzte Fahrzeugposition zu validieren.

Claims (11)

  1. Computerimplementiertes Verfahren (200) zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs (105), umfassend die Schritte: a. Empfangen (205) einer digitalen Karte; b. Empfangen (210) einer geschätzten Position des Fahrzeugs (105), wobei die geschätzte Position eine Position in der digitalen Karte ist oder einer Position in der digitalen Karte zuordenbar ist; c. Erkennen (215) einer Anzahl von ersten Features (400) in der digitalen Karte, wobei die ersten Features (400) auf wenigstens ein neben einer Fahrbahn befindliches Objekt (310-370) hinweisen; d. Gruppieren (220) der ersten Features (400) in eine Anzahl von ersten Feature-Gruppen (405-470) in der Weise, dass alle ersten Features (400), die sich in einem jeweiligen hinsichtlich seiner longitudinalen Ausdehnung definierten Bereich neben der Fahrbahn befinden, einer dem jeweiligen Bereich zugeordneten ersten Feature-Gruppe (405-470) angehören; e. Empfangen (225) von Sensorinformationen über ein Umfeld des Fahrzeugs (105); f. Erkennen (230) einer Anzahl von zweiten Features (500) in den Sensorinformationen, wobei die zweiten Features (500) auf wenigstens ein neben einer Fahrbahn befindliches Objekt (310-370) hinweisen; g. Gruppieren (235) der zweiten Features (500) in eine Anzahl von zweiten Feature-Gruppen (505-570) in der Weise, dass alle zweiten Features (500), die sich in einem jeweiligen hinsichtlich seiner longitudinalen Ausdehnung definierten Bereich neben der Fahrbahn befinden, einer dem jeweiligen Bereich zugeordneten zweiten Feature-Gruppe (505-570) angehören; h. Aussortieren (240) von ersten Feature-Gruppen (410, 425), deren maximale laterale Ausdehnung einen ersten vorbestimmten Wert (B1) überschreitet und/oder Aussortieren von zweiten Feature-Gruppen (510, 525), deren maximale laterale Ausdehnung einen zweiten vorbestimmen Wert (B2) überschreitet; i. Zuordnen (245) wenigstens einiger der nicht aussortierten ersten Feature-Gruppen (405, 415, 445-470) zu einer jeweiligen nicht aussortierten zweiten Feature-Gruppe (505, 515, 545-570); j. Bestimmen (250) der Validität der geschätzten Position des Fahrzeugs (105) auf der Basis eines Vergleichs von Positionen einer Anzahl der nicht aussortierten ersten Feature-Gruppen (405, 415, 445-470) mit Positionen der jeweils zugeordneten zweiten Feature-Gruppen (505, 515, 545-570).
  2. Verfahren (200) nach Anspruch 1, wobei die Validität der geschätzten Position in der Weise bestimmt (250) wird, dass ausgehend von der Annahme, dass die geschätzte Position korrekt wäre, die Positionen der Anzahl der ersten Feature-Gruppen (405, 415, 445-470) mit den Positionen der jeweils zugeordneten zweiten Feature-Gruppen (505, 515, 545-570) in einem gemeinsamen Koordinatensystem verglichen werden.
  3. Verfahren (200) nach Anspruch 1 oder 2, wobei die geschätzte Position bestätigt wird, wenn die Positionen aller einander zugeordneten Feature-Gruppen (405, 415, 445-470, 505, 515, 545-570) sich um weniger als eine vorbestimmte Distanz unterscheiden.
  4. Verfahren (200) nach Anspruch 1 oder 2, wobei die geschätzte Position bestätigt wird, wenn die Positionen wenigstens eines definierten Anteils der einander zugeordneten Feature-Gruppen (405, 415, 445-470, 505, 515, 545-570) sich um weniger als eine vorbestimmte Distanz unterscheiden.
  5. Verfahren (200) nach einem der vorhergehenden Ansprüche, wobei die Sensorinformationen mittels eines LiDAR-Sensors (1151) erzeugt worden sind.
  6. Verfahren (200) nach einem der vorhergehenden Ansprüche, wobei das Verfahren (200) für Features, die auf Objekte (310-370) auf unterschiedlichen Fahrbahnseiten hindeuten, separat ausgeführt wird.
  7. Verfahren (200) nach einem der vorhergehenden Ansprüche, wobei für das Aussortieren (240) die ersten Features (400) und/oder die zweiten Features (500), die sich in einem jeweiligen hinsichtlich seiner longitudinalen Ausdehnung definierten Bereich neben der Fahrbahn befinden, zusätzlich auch als Teil derjenigen ersten bzw. zweiten Feature-Gruppen (405, 415, 445-470, 505, 515, 545-570) betrachtet werden, die jeweiligen longitudinal benachbarten Bereichen zugeordnet sind.
  8. Verfahren (200) nach einem der vorhergehenden Ansprüche, wobei die digitale Karte und die Sensorinformationen jeweils auch Höheninformationen über die Features (400, 500) bereitstellen und wobei Features (400, 500), deren Höhe sich wenigstens um eine vorbestimmte Höhendifferenz unterscheidet, nicht einer selben Feature-Gruppe zugeordnet werden.
  9. Verarbeitungseinrichtung (120), wobei die Verarbeitungseinrichtung (120) zum Durchführen eines Verfahrens (200) nach einem der vorhergehenden Ansprüche ausgelegt ist.
  10. Computerprogramm, umfassend Befehle, die bei der Ausführung des Computerprogramms durch eine Verarbeitungseinrichtung (120) diese veranlassen, ein Verfahren (200) nach einem der Ansprüche 1 bis 8 auszuführen.
  11. Computerlesbares (Speicher)medium, umfassend Befehle, die bei der Ausführung durch eine Verarbeitungseinrichtung (120) diese veranlassen, ein Verfahren (200) nach einem der Ansprüche 1 bis 8 auszuführen.
DE102020118629.0A 2020-07-15 2020-07-15 Computerimplementiertes Verfahren zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs Active DE102020118629B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102020118629.0A DE102020118629B4 (de) 2020-07-15 2020-07-15 Computerimplementiertes Verfahren zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs
US18/016,048 US20230280465A1 (en) 2020-07-15 2021-06-29 Computer-Implemented Method for Determining the Validity of an Estimated Position of a Vehicle
CN202180061255.7A CN116194802A (zh) 2020-07-15 2021-06-29 用于确定车辆的估计位置的有效性的计算机实施的方法
PCT/EP2021/067885 WO2022012923A1 (de) 2020-07-15 2021-06-29 Computerimplementiertes verfahren zum bestimmen der validität einer geschätzten position eines fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020118629.0A DE102020118629B4 (de) 2020-07-15 2020-07-15 Computerimplementiertes Verfahren zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs

Publications (2)

Publication Number Publication Date
DE102020118629A1 DE102020118629A1 (de) 2022-01-20
DE102020118629B4 true DE102020118629B4 (de) 2022-12-29

Family

ID=76859599

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020118629.0A Active DE102020118629B4 (de) 2020-07-15 2020-07-15 Computerimplementiertes Verfahren zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs

Country Status (4)

Country Link
US (1) US20230280465A1 (de)
CN (1) CN116194802A (de)
DE (1) DE102020118629B4 (de)
WO (1) WO2022012923A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022201421A1 (de) 2022-02-11 2023-08-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bestimmen einer Position und/oder Orientierung eines mobilen Geräts in einer Umgebung
DE102022201427A1 (de) 2022-02-11 2023-08-17 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bestimmen einer Position und/oder Orientierung eines mobilen Geräts in einer Umgebung
DE102022122259A1 (de) 2022-09-02 2024-03-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum clustern von datenobjekten

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110044543A1 (en) 2007-05-31 2011-02-24 Aisin Aw Co., Ltd. Feature extraction method, and image recognition method and feature database creation method using the same
US20190156128A1 (en) 2017-11-20 2019-05-23 Here Global B.V. Automatic localization geometry generator for stripe-shaped objects
US20190308620A1 (en) 2018-04-06 2019-10-10 Zoox, Inc. Feature-based prediction

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016214027A1 (de) * 2016-07-29 2018-02-01 Volkswagen Aktiengesellschaft Verfahren und System zum Erfassen von Landmarken in einem Verkehrsumfeld einer mobilen Einheit
DE102018004229A1 (de) * 2018-05-25 2019-11-28 Daimler Ag Verfahren zum Steuern eines zur Durchführung eines automatisierten Fahrbetriebs eingerichteten Fahrzeugsystems eines Fahrzeugs und Vorrichtung zur Durchführung des Verfahrens
DE102019133316A1 (de) 2019-12-06 2021-06-10 Bayerische Motoren Werke Aktiengesellschaft Bestimmen einer Position eines Fahrzeugs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110044543A1 (en) 2007-05-31 2011-02-24 Aisin Aw Co., Ltd. Feature extraction method, and image recognition method and feature database creation method using the same
US20190156128A1 (en) 2017-11-20 2019-05-23 Here Global B.V. Automatic localization geometry generator for stripe-shaped objects
US20190308620A1 (en) 2018-04-06 2019-10-10 Zoox, Inc. Feature-based prediction

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JAVANMARDI, E. [et al.]: Autonomous vehicle self-localization based on ab-stract map and multi-channel LiDAR in urban area. IATSS research, 2019, 43. Jg., Nr. 1, S. 1-13.

Also Published As

Publication number Publication date
US20230280465A1 (en) 2023-09-07
DE102020118629A1 (de) 2022-01-20
CN116194802A (zh) 2023-05-30
WO2022012923A1 (de) 2022-01-20

Similar Documents

Publication Publication Date Title
EP3669142B1 (de) Verfahren zum steuern eines zur durchführung eines automatisierten fahrbetriebs eingerichteten fahrzeugsystems eines fahrzeugs und vorrichtung zur durchführung des verfahrens
DE102020118629B4 (de) Computerimplementiertes Verfahren zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs
EP3380811B1 (de) Verfahren und system zum erstellen einer digitalen karte
EP3380810B1 (de) Verfahren, vorrichtung, kartenverwaltungseinrichtung und system zum punktgenauen lokalisieren eines kraftfahrzeugs in einem umfeld
EP3491417A1 (de) Verfahren und system zum erfassen von landmarken in einem verkehrsumfeld einer mobilen einheit
WO2020016385A1 (de) Verfahren und system zum bestimmen einer position eines fahrzeugs
DE102018220024B3 (de) Verfahren zur Fusion von Sensordaten von mehreren Sensoren und Fusionsvorrichtung zum Fusionieren von Sensordaten von mehreren Sensoren
DE102017217212A1 (de) Verfahren zur Lokalisierung eines höher automatisierten Fahrzeugs (HAF), insbesondere eines hochautomatisierten Fahrzeugs, und ein Fahrzeugsystem
DE102019133316A1 (de) Bestimmen einer Position eines Fahrzeugs
DE102016214045A1 (de) Verfahren und Vorrichtung zum Ermitteln eines Fahrbahnmodells für ein Fahrzeugumfeld
DE102017129501A1 (de) Autonome Kraftfahrzeug-Objekterkennung
DE112020002267T5 (de) Anomalie-Diagnosevorrichtung
WO2021139974A1 (de) Verfahren zur zusammenführung mehrerer datensätze für die erzeugung eines aktuellen spurmodells einer fahrbahn und vorrichtung zur datenverarbeitung
DE102017108107A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur schätzung einer pose eines kraftfahrzeugs
EP3155454B1 (de) Verfahren und system zur anpassung eines navigationssystems
DE102016220581A1 (de) Verfahren und vorrichtung zur bestimmung eines umfeldmodells
DE112020003551T5 (de) Straßenkurvenerzeugung in Bildern der realen Welt als ein Verfahren zur Datenaugmentierung
DE102020118589A1 (de) Verbesserter fahrzeugbetrieb
EP3802257A1 (de) Steuerung eines kraftfahrzeugs
DE102020118628A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Position eines Fahrzeugs
DE102019211006B4 (de) Auswerten von Sensordaten eines Fahrzeugs
DE102019119000B4 (de) Bestimmen einer Fahrspurbegrenzung
DE102020206239B4 (de) Verfahren und System zum Bestimmen einer Eigenposition eines Kraftfahrzeugs sowie ein mit einem solchen System ausgerüstetes Kraftfahrzeug
DE102020131997A1 (de) Positionierung bezüglich Landmarken
DE102021107385A1 (de) Verfahren zum Bestimmen, in welcher Fahrspur sich ein Fahrzeug befindet und System zum Betreiben einer Fahrerassistenzfunktion

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final