DE102020126973A1 - Verfahren und system zur lokalisierten fahrspurwahrnehmung - Google Patents

Verfahren und system zur lokalisierten fahrspurwahrnehmung Download PDF

Info

Publication number
DE102020126973A1
DE102020126973A1 DE102020126973.0A DE102020126973A DE102020126973A1 DE 102020126973 A1 DE102020126973 A1 DE 102020126973A1 DE 102020126973 A DE102020126973 A DE 102020126973A DE 102020126973 A1 DE102020126973 A1 DE 102020126973A1
Authority
DE
Germany
Prior art keywords
point cloud
vehicle
confidence interval
perceived
mapped
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020126973.0A
Other languages
English (en)
Inventor
Lawrence A. Bush
Brent N. Bacchus
James P. Neville
Upali P. Mudalige
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102020126973A1 publication Critical patent/DE102020126973A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein System und Verfahren zur Überwachung eines Straßensegments umfasst die Bestimmung einer geographischen Position eines Fahrzeugs im Kontext einer digitalisierten Straßenkarte. Eine wahrgenommene Punktwolke und eine dem Straßensegment zugeordnete kartierte Punktwolke werden bestimmt. Ein Fehlervektor wird auf der Grundlage einer Transformation zwischen der kartierten Punktwolke und der wahrgenommenen Punktwolke bestimmt. Ein erstes Konfidenzintervall wird aus einem Gauß'schen Prozess abgeleitet, der sich aus vergangenen Beobachtungen zusammensetzt. Ein zweites Konfidenzintervall, das einer Längsdimension zugeordnet ist, und ein drittes Konfidenzintervall, das einer Querdimension zugeordnet ist, werden auf der Grundlage der kartierten Punktwolke und der wahrgenommenen Punktwolke bestimmt. Eine Kalman-Filteranalyse wird ausgeführt, um dynamisch eine Position des Fahrzeugs relativ zur Straßenkarte auf der Grundlage des Fehlervektors, des ersten Konfidenzintervalls, des zweiten Konfidenzintervalls und des dritten Konfidenzintervalls zu bestimmen.

Description

  • EINLEITUNG
  • Fahrzeuge, einschließlich nicht-autonomer, semi-autonomer und autonomer Fahrzeuge, können Karteninformationen nutzen, um einen Bediener über eine Navigation und/oder direkte Betriebssteuerung einer oder mehrerer Komponenten eines fortgeschrittenen Fahrerassistenzsystems (ADAS) oder eines autonomen Fahrzeugsystems zu informieren. Solche Karteninformationen können in Form einer digitalisierten Karte eines Straßensystems vorliegen. Digitalisierte Karten von Straßensystemen können auf der Grundlage von Daten erstellt werden, die von Vermessungsfahrzeugen gewonnen werden, die das Straßennetz durchqueren und relevante Daten erfassen, sowie durch andere Verfahren. Solche Karten können lokalisierte Ungenauigkeiten aufweisen. Darüber hinaus können Teile solcher Karten aufgrund von Straßenreparaturen, Straßenbauarbeiten und anderen Änderungen am Straßennetz veraltet sein.
  • Dementsprechend ist es wünschenswert, einen Teil einer Fahrbahn in Echtzeit wahrzunehmen, um eine Bodenwahrheit zu ermitteln, die mit einer digitalisierten Karte verglichen werden kann, um die digitalisierte Karte zu korrigieren oder anderweitig zu aktualisieren, die Position des Fahrzeugs auf der Fahrbahn zu bestimmen und den Betrieb von Navigationssystemen und ADAS/autonomen Fahrzeugsystemen zu verbessern.
  • BESCHREIBUNG
  • Es wird ein System für ein auf einer Fahrbahn fahrendes Fahrzeug beschrieben, das einen räumlichen Sensor, einen GPS-Sensor, ein Navigationssystem und eine Steuerung umfasst. Der räumliche Sensor ist so angeordnet, dass er ein Straßensegment der Fahrbahn proximal zum Fahrzeug überwacht. Ein Speichergerät mit einer digitalisierten Straßenkarte ist ebenfalls enthalten. Die Steuerung steht in Kommunikation mit dem Raumsensor, dem GPS-Sensor, dem Navigationssystem und dem Speichergerät. Die Steuerung enthält einen ausführbaren Befehlssatz, um über den GPS-Sensor eine geographische Position des Fahrzeugs im Kontext der Straßenkarte zu bestimmen und über den räumlichen Sensor den Straßenabschnitt zu überwachen. Es werden eine wahrgenommene Punktwolke einschließlich einer erfassten Kante für das Straßensegment auf der Grundlage des räumlichen Sensors und eine kartierte Punktwolke einschließlich einer kartierten Kante für das Straßensegment auf der Grundlage der digitalisierten Straßenkarte bestimmt. Ein Fehlervektor wird auf der Grundlage einer Transformation zwischen der kartierten Punktwolke und der wahrgenommenen Punktwolke bestimmt, und es wird auch ein erstes Konfidenzintervall bestimmt, das dem Fehlervektor zugeordnet ist. Das erste Konfidenzintervall wird aus einem Gauß'schen Verfahren abgeleitet, das sich aus früheren Fehlerbeobachtungen an einem Fahrbahnrand des Straßensegments zusammensetzt. Ein zweites Konfidenzintervall in Verbindung mit einer Längsdimension auf der Grundlage der kartierten Punktwolke und der wahrgenommenen Punktwolke wird bestimmt, und ein drittes Konfidenzintervall in Verbindung mit einer Querdimension auf der Grundlage der kartierten Punktwolke und der wahrgenommenen Punktwolke wird bestimmt. Eine Kalman-Filteranalyse wird ausgeführt, um die Position des Fahrzeugs relativ zur digitalisierten Straßenkarte dynamisch zu bestimmen, basierend auf dem Fehlervektor, dem ersten Konfidenzintervall, dem zweiten Konfidenzintervall und dem dritten Konfidenzintervall. Der Betrieb des Fahrzeugs wird auf der Grundlage der Position des Fahrzeugs relativ zur digitalisierten Straßenkarte gesteuert. Das Gauß'sche Verfahren wird verwendet, um die digitalisierte Straßenkarte offline zu aktualisieren.
  • Ein Aspekt der Offenbarung beinhaltet, dass der Befehlssatz ausführbar ist, um eine ICP-Analyse (Discounted Distance Iterative Closest Point) der kartierten Punktwolke und der wahrgenommenen Punktwolke in einem ungestörten Zustand durchzuführen, um die Transformation zwischen der kartierten Punktwolke und der wahrgenommenen Punktwolke für das Straßensegment zu bestimmen. Die Transformation wird auch als Fehlervektor bezeichnet. Ein Gauß-Prozess wird abgefragt, um das erste Konfidenzintervall in Verbindung mit dem Fehlervektor und dem Standort des Fahrzeugs zu bestimmen.
  • Ein weiterer Aspekt der Offenbarung beinhaltet, dass der Befehlssatz ausführbar ist, um eine gestörte Sensitivitätsanalyse der kartierten Punktwolke und der wahrgenommenen Punktwolke durchzuführen, um das zweite Konfidenzintervall zu bestimmen, das mit der longitudinalen Dimension verbunden ist, basierend auf der kartierten Punktwolke und der wahrgenommenen Punktwolke, und um das dritte Konfidenzintervall zu bestimmen, das mit der lateralen Dimension verbunden ist, basierend auf der kartierten Punktwolke und der wahrgenommenen Punktwolke.
  • Ein weiterer Aspekt der Offenbarung beinhaltet, dass der Befehlssatz ausführbar ist, um die gestörte Sensitivitätsanalyse der abgebildeten Punktwolke und der wahrgenommenen Punktwolke auszuführen, indem eine x-Dimension-Störung der wahrgenommenen Punktwolke induziert wird, um das zweite Konfidenzintervall zu bestimmen, das mit der Längsdimension verbunden ist.
  • Ein weiterer Aspekt der Offenbarung beinhaltet, dass der Befehlssatz ausführbar ist, um die gestörte Sensitivitätsanalyse der abgebildeten Punktwolke und der wahrgenommenen Punktwolke auszuführen, indem eine Störung der y-Dimension der wahrgenommenen Punktwolke induziert wird, um das dritte Konfidenzintervall zu bestimmen, das mit der lateralen Dimension verbunden ist.
  • Ein weiterer Aspekt der Offenbarung beinhaltet, dass der Befehlssatz ausführbar ist, um die Straßenkarte für das Straßensegment auf der Grundlage des Fehlervektors zu aktualisieren.
  • Ein weiterer Aspekt der Offenbarung beinhaltet, dass es sich bei dem räumlichen Sensor um eine Digitalkamera handelt, die so angeordnet ist, dass sie ein Straßensegment der Fahrbahn proximal zum und vor dem Fahrzeug überwacht.
  • Ein weiterer Aspekt der Offenbarung beinhaltet, dass es sich bei dem räumlichen Sensor um einen Radar- oder Lidarsensor handelt, der so angeordnet ist, dass er einen Straßenabschnitt der Fahrbahn proximal und vor dem Fahrzeug überwacht.
  • Ein weiterer Aspekt der Offenbarung umfasst ein fortgeschrittenes Fahrerassistenzsystem (Advanced Driver Assistance System, ADAS), wobei der Befehlssatz ausführbar ist, um einen mit dem ADAS verbundenen Fahrautomatisierungszustand auf der Grundlage der Position des Fahrzeugs relativ zur Straßenkarte zu steuern.
  • Die obige Zusammenfassung ist nicht dazu gedacht, jede mögliche Ausführungsform oder jeden Aspekt der vorliegenden Offenbarung darzustellen. Vielmehr soll die vorstehende Zusammenfassung einige der neuartigen Aspekte und Merkmale, die hier offenbart wurden, veranschaulichen. Die oben genannten Merkmale und Vorteile sowie andere Merkmale und Vorteile der vorliegenden Offenbarung werden aus der folgenden detaillierten Beschreibung der repräsentativen Ausführungsformen und Modalitäten für die Durchführung der vorliegenden Offenbarung leicht ersichtlich, wenn sie in Verbindung mit den beigefügten Figuren und den beigefügten Ansprüchen genommen wird.
  • Figurenliste
  • Eine oder mehrere Ausführungsformen werden nun beispielhaft anhand der begleitenden Figuren beschrieben, in denen:
    • 1 zeigt schematisch die Seitenansicht eines Fahrzeugs, das auf einer Fahrfläche, wie z.B. einer gepflasterten Fahrbahn, steht und diese entsprechend der Offenbarung befahren kann.
    • 2 zeigt bildlich die Draufsicht auf ein Straßensegment, bei dem es sich um einen Ausschnitt der digitalisierten Straßenkarte handeln kann, der gemäß der Offenbarung von einer Ausführungsform des Fahrzeugs verwendet werden kann, die unter Bezugnahme auf 1 beschrieben ist.
    • 3 zeigt schematisch Details in Bezug auf einen ersten Teil einer Kontrollroutine zur dynamischen Bewertung der Genauigkeit eines Straßenabschnitts einer digitalisierten Straßenkarte im Fahrzeug und einen Prozess zur Aktualisierung der digitalisierten Straßenkarte in Übereinstimmung mit der Offenbarung.
    • 4 zeigt grafisch Details in Bezug auf eine Gauß'sche Analyse von Daten, die mit einem Straßensegment einer digitalisierten Straßenkarte verbunden sind, in Übereinstimmung mit der Offenbarung.
    • 5 zeigt schematisch Details im Zusammenhang mit einem zweiten Teil einer Kontrollroutine zur dynamischen Bewertung der Genauigkeit eines Straßenabschnitts einer digitalisierten Straßenkarte im Fahrzeug in Übereinstimmung mit der Offenbarung.
    • 6 zeigt bildlich Details in Bezug auf eine wahrgenommene Punktwolke und eine kartierte Punktwolke in Verbindung mit einem Straßensegment, in Übereinstimmung mit der Offenbarung.
    • 7 zeigt bildlich Details einer gestörten Sensitivitätsanalyse einer kartierten Punktwolke und einer wahrgenommenen Punktwolke, einschließlich x-dimensionaler Störungen und zugehöriger Vektoren, in Übereinstimmung mit der Offenbarung.
  • Die beigefügten Figuren sind nicht notwendigerweise maßstabsgetreu und können eine etwas vereinfachte Darstellung verschiedener bevorzugter Merkmale der vorliegenden Offenbarung, wie sie hier offenbart wird, darstellen, einschließlich z.B. bestimmter Abmessungen, Ausrichtungen, Orte und Formen. Einzelheiten, die mit solchen Merkmalen verbunden sind, werden zum Teil durch die spezielle beabsichtigte Anwendung und die Verwendungsumgebung bestimmt.
  • DETAILLIERTE BESCHREIBUNG
  • Die hier beschriebenen und illustrierten Bestandteile der offenbarten Ausführungsformen können in einer Vielzahl unterschiedlicher Konfigurationen angeordnet und gestaltet werden. Die folgende detaillierte Beschreibung soll daher nicht, wie behauptet, den Umfang der Offenbarung einschränken, sondern ist lediglich repräsentativ für mögliche Ausführungsformen davon. Obwohl in der folgenden Beschreibung zahlreiche spezifische Details aufgeführt sind, um ein gründliches Verständnis der hier offengelegten Ausführungsformen zu ermöglichen, können einige Ausführungsformen auch ohne einige dieser Details praktiziert werden. Darüber hinaus wurde aus Gründen der Klarheit bestimmtes technisches Material, das in dem verwandten technischen Gebiet verstanden wird, nicht im Detail beschrieben, um die Offenbarung nicht unnötig zu verschleiern.
  • Die Figuren sind in vereinfachter Form und nicht maßstabsgetreu. Aus Gründen der Zweckmäßigkeit und Klarheit können in Bezug auf die Figuren Richtungsbezeichnungen wie längs, quer, oben, unten, links, rechts, oben, , unten, hinten und vorne verwendet werden. Diese und ähnliche Richtungsbegriffe sind nicht so auszulegen, dass sie den Umfang der Offenbarung einschränken. Darüber hinaus kann die Offenbarung, wie sie hier veranschaulicht und beschrieben wird, auch in Ermangelung eines Elements erfolgen, das hier nicht ausdrücklich offengelegt wird.
  • Wie hier verwendet, bezieht sich der Begriff „System“ auf mechanische und elektrische Hardware, Software, Firmware, elektronische Steuerkomponenten, Verarbeitungslogik und/oder Prozessorvorrichtungen, einzeln oder in Kombination, die die beschriebene Funktionalität bereitstellen. Dies kann, ohne Einschränkung, eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam, dediziert oder als Gruppe), der ein oder mehrere Software- oder Firmware-Programme ausführt, Speicher zur Aufnahme von Software- oder Firmware-Befehlen, eine kombinierte Logikschaltung und/oder andere Komponenten umfassen.
  • Unter Bezugnahme auf die Figuren, in denen gleiche Bezugszahlen gleichen oder ähnlichen Komponenten in den verschiedenen Abbildungen entsprechen, zeigt 1 in Übereinstimmung mit den hier offengelegten Ausführungsformen schematisch eine Seitenansicht eines Fahrzeugs 10, das auf einer Fahrfläche 70, wie z.B. einer gepflasterten Straßenoberfläche, angeordnet ist und diese überqueren kann. Das Fahrzeug 10 umfasst ein bordeigenes Navigationssystem 24, ein computerlesbares Speichergerät oder -medium (Speicher) 23, das eine digitalisierte Straßenkarte 25 , ein räumliches Überwachungssystem 100, eine Fahrzeug-Steuerung 50, einen GPS-Sensor 52, ein Gerät für die Mensch-Maschine-Schnittstelle (HMI) 60 und in einer Ausführungsform eine autonome Steuerung 65 und eine Telematik-Steuerung 75 umfasst. Das Fahrzeug 10 kann eine mobile Plattform in Form eines Nutzfahrzeugs, eines Industriefahrzeugs, eines landwirtschaftlichen Fahrzeugs, eines Personenkraftfahrzeugs, eines Flugzeugs, eines Wasserfahrzeugs, eines Zugs, eines Geländefahrzeugs, eines persönlichen Bewegungsapparats, eines Roboters und dergleichen umfassen, um die Zwecke dieser Offenbarung zu erfüllen, ist aber nicht darauf beschränkt.
  • In einer Ausführung umfasst das räumliche Überwachungssystem 100 einen oder mehrere räumliche Sensoren und Systeme, die so angeordnet sind, dass sie eine sichtbare Region 32 überwachen, die sich vor dem Fahrzeug 10 befindet, sowie eine räumliche Überwachungssteuerung 110. Die räumlichen Sensoren, die so angeordnet sind, dass sie die sichtbare Region 32 vor dem Fahrzeug 10 überwachen, umfassen z.B. einen Lidarsensor 34, einen Radarsensor 36, eine Digitalkamera 38 usw. Jeder der räumlichen Sensoren ist am Fahrzeug angeordnet, um die gesamte oder einen Teil der sichtbaren Region 32 zu überwachen, um nahegelegene entfernte Objekte wie Straßenmerkmale, Fahrbahnmarkierungen, Gebäude, Fußgänger, Straßenschilder, Verkehrsampeln und -schilder, andere Fahrzeuge und geografische Merkmale, die sich in der Nähe des Fahrzeugs 10 befinden, zu erkennen. Die Raumüberwachungs-Steuerung 110 erzeugt digitale Darstellungen der sichtbaren Region 32 auf der Grundlage der von den räumlichen Sensoren eingegebenen Daten. Die Raumüberwachungs-Steuerung 110 kann Eingaben von den räumlichen Sensoren auswerten, um einen linearen Bereich, die relative Geschwindigkeit und die Trajektorie des Fahrzeugs 10 im Hinblick auf jedes nahe gelegene entfernte Objekt zu bestimmen. Die räumlichen Sensoren können sich an verschiedenen Stellen des Fahrzeugs 10 befinden, einschließlich der vorderen Ecken, hinteren Ecken, hinteren Seiten und mittleren Seiten. Die räumlichen Sensoren können einen vorderen Radarsensor und eine Kamera in einer Ausführungsform enthalten, obwohl die Offenbarung nicht so begrenzt ist. Die Platzierung der räumlichen Sensoren ermöglicht es der Raumüberwachungs-Steuerung 110, den Verkehrsfluss zu überwachen, einschließlich nahegelegener Fahrzeuge, Kreuzungen, Fahrbahnmarkierungen und anderer Objekte um das Fahrzeug 10 herum. Die vom Raumüberwachungssteuergerät 110 erzeugten Daten können von einem Prozessor zur Erkennung von Fahrspurmarkierungen (nicht abgebildet) verwendet werden, um die Fahrbahn abzuschätzen. Die räumlichen Sensoren des Fahrzeug-Raumüberwachungssystems 100 können objektlokalisierende Erfassungsgeräte einschließlich Entfernungssensoren umfassen, wie z.B. FM-CW (frequenzmodulierte Dauerstrich)-Radare, Impuls- und FSK (Frequency Shift Keying)-Radare und Lidar (Light Detection and Ranging)-Geräte sowie Ultraschallgeräte, die sich auf Effekte wie Doppler-Effekt-Messungen stützen, um vorwärts gerichtete Objekte zu lokalisieren. Zu den möglichen Geräten zur Lokalisierung von Objekten gehören ladungsgekoppelte Geräte (CCD) oder CMOS-Videobildsensoren (CMOS = Complementary Metal Oxide Semiconductor) und andere Kamera-/Videobildprozessoren, die digitale fotografische Verfahren verwenden, um vorwärts gerichtete Objekte einschließlich eines oder mehrerer Fahrzeuge zu „sehen“.
  • Der Lidar-Sensor 34 verwendet einen gepulsten und reflektierten Laserstrahl, um die Entfernung oder den Abstand zu einem Objekt zu messen. Der Radarsensor 36 verwendet Funkwellen, um Entfernung, Winkel und/oder Geschwindigkeit eines Objekts zu bestimmen. Die Kamera 38 umfasst einen Bildsensor, ein Objektiv und eine Kamera-Steuerung. Der Bildsensor ist ein elektro-optisches Gerät, das ein optisches Bild in ein elektronisches Signal umwandelt und dabei eine mehrdimensionale Anordnung lichtempfindlicher Sensorelemente verwendet. Die Kamerasteuerung ist operativ mit dem Bildsensor verbunden, um den sichtbaren Bereich 32 zu überwachen. Die Kamera-Steuerung ist so angeordnet, dass er den Bildsensor so steuert, dass er ein Bild eines Sichtfeldes (FOV) erfasst, das dem sichtbaren Bereich 32 zugeordnet ist und über das Objektiv auf den Bildsensor projiziert wird. Die optische Linse kann so konfiguriert werden, dass sie Merkmale wie ein Pin-Loch-Objektiv, ein Fischaugen-Objektiv, ein Stereo-Objektiv, ein Teleskop-Objektiv usw. enthält. Die Kamera 38 erfasst über den Bildsensor periodisch eine Bilddatei, die dem sichtbaren Bereich 32 zugeordnet ist, mit einer gewünschten Rate, z.B. 30 Bilddateien pro Sekunde. Jede Bilddatei besteht aus einer 2D- oder 3D-Digitaldarstellung der gesamten oder eines Teils der sichtbaren Region 32, die mit einer Originalauflösung der Kamera 38 erfasst wurde. In einer Ausführungsform liegt die Bilddatei in Form eines 24-Bit-Bildes vor, das RGB (rot-grün-blau) Werte des sichtbaren Lichtspektrums und Tiefenwerte enthält, die den sichtbaren Bereich 32 darstellen. Andere Ausführungsformen der Bilddatei können entweder ein 2D- oder 3D-Bild mit einer bestimmten Auflösung enthalten, das eine Schwarzweiß- oder Graustufendarstellung des Spektrums des sichtbaren Lichts der sichtbaren Region 32, eine Darstellung des Infrarotspektrums der sichtbaren Region 32 oder andere Bilddarstellungen ohne Einschränkung darstellt. Die Bilddarstellungen der Vielzahl von Bilddateien können auf Parameter in Bezug auf Helligkeit und/oder Leuchtdichte in einer Ausführungsform ausgewertet werden. Alternativ können die Bilddarstellungen auf der Grundlage von RGB-Farbkomponenten, Helligkeit, Textur, Kontur oder Kombinationen davon bewertet werden. Der Bildsensor kommuniziert mit einem Encoder, der die digitale Signalverarbeitung (DSP) für jede Bilddatei ausführt. Der Bildsensor der Kamera 38 kann so konfiguriert werden, dass er das Bild mit einer nominellen Standard-Definitionsauflösung, z.B. 640x480 Pixel, erfasst. Alternativ kann der Bildsensor der Kamera 38 so konfiguriert werden, dass er das Bild mit einer nominell hochauflösenden Auflösung, z. B. 1440x1024 Pixel, oder mit einer anderen geeigneten Auflösung erfasst. Der Bildsensor der Kamera 38 kann Standbilder oder alternativ digitale Videobilder mit einer vorbestimmten Bildaufnahmerate erfassen. Die Bilddateien werden der Kamera-Steuerung als kodierte Datendateien übermittelt, die in einem nichttransitorischen digitalen Datenspeichermedium in einer Ausführungsform für die On-Board- oder Off-Board-Analyse gespeichert werden.
  • Die Kamera 38 ist vorteilhaft auf dem Fahrzeug 10 an einer Stelle angebracht und positioniert, die die Aufnahme von Bildern des sichtbaren Bereichs 32 ermöglicht, wobei mindestens ein Teil des sichtbaren Bereichs 32 einen Teil der Fahrfläche 70 einschließt, der sich vor dem Fahrzeug 10 befindet und eine Flugbahn des Fahrzeugs 10 einschließt. Der sichtbare Bereich 32 kann auch eine Umgebung einschließen, die z.B. den Fahrzeugverkehr, Straßenrandobjekte, Fußgänger und andere Merkmale, den Himmel, einen Horizont, die Fahrspur und den ankommenden Verkehr vor dem Fahrzeug 10 einschließt. Es können auch andere Kameras (nicht abgebildet) verwendet werden, einschließlich z.B. einer zweiten Kamera, die an einem hinteren Teil oder einem Seitenteil des Fahrzeugs 10 angeordnet ist, um die Rückseite des Fahrzeugs 10 und eine der rechten oder linken Seiten des Fahrzeugs 10 zu überwachen.
  • Die autonome Steuerung 65 ist so konfiguriert, dass sie autonomes Fahren oder ADAS-Fahrzeugfunktionalitäten (Advanced Driver Assistance System) implementiert. Eine solche Funktionalität kann ein fahrzeugseitiges Steuersystem umfassen, das in der Lage ist, ein gewisses Maß an Fahrautomatisierung zu bieten. Die Begriffe „Fahrer“ und „Bediener“ beschreiben die Person, die für die Steuerung des Betriebs des Fahrzeugs 10 verantwortlich ist, unabhängig davon, ob sie aktiv an der Steuerung einer oder mehrerer Fahrzeugfunktionen oder an der Steuerung des autonomen Fahrzeugbetriebs beteiligt ist. Die Fahrautomatisierung kann eine Reihe von dynamischen Fahr- und Fahrzeugfunktionen umfassen. Die Fahrautomatisierung kann ein gewisses Maß an automatischer Steuerung oder Intervention in Bezug auf eine einzelne Fahrzeugfunktion, wie Lenkung, Beschleunigung und/oder Bremsen, beinhalten, wobei der Fahrer ständig die Gesamtkontrolle über das Fahrzeug hat 10. Die Fahrautomatisierung kann ein gewisses Maß an automatischer Steuerung oder Intervention in Bezug auf die gleichzeitige Steuerung mehrerer Fahrzeugfunktionen, wie Lenkung, Beschleunigung und/oder Bremsen, umfassen, wobei der Fahrer ständig die Gesamtkontrolle über das Fahrzeug hat. Die Fahrtautomatisierung kann die gleichzeitige automatische Steuerung von Fahrzeug-Fahrfunktionen einschließen, die Lenkung, Beschleunigung und Bremsen umfassen, wobei der Fahrer die Kontrolle über das Fahrzeug für einen Zeitraum während einer Fahrt abgibt. Die Fahrtautomatisierung kann die gleichzeitige automatische Steuerung von Fahrzeugantriebsfunktionen, einschließlich Lenkung, Beschleunigung und Bremsen, umfassen, wobei der Fahrer die Steuerung des Fahrzeugs für einen Zeitraum während einer Fahrt abgibt. Die Fahrautomation umfasst Hardware und Steuerungen, die so konfiguriert sind, dass sie die räumliche Umgebung unter verschiedenen Fahrmodi überwachen, um verschiedene Fahraufgaben während des dynamischen Fahrzeugbetriebs auszuführen. Die Fahrautomation kann in Form von nicht einschränkenden Beispielen den Tempomat, den adaptiven Tempomat, die Spurwechselwamung, den Eingriff und die Steuerung, das automatische Einparken, die Beschleunigung, das Bremsen und dergleichen umfassen. Zu den autonomen Fahrzeugfunktionen gehören, als nichtbegrenzende Beispiele, die Funktion des adaptiven Tempomats (ACC), Spurführung und Spurhaltefunktion, Spurwechselfunktion, Lenkhilfefunktion, Objektvermeidungsfunktion, Parkhilfefunktion, Fahrzeugbremsfunktion, Fahrzeuggeschwindigkeit und -beschleunigung, Querbewegungsfunktion, z.B. als Teil der Spurführung, Spurhalte- und Spurwechselfunktion usw. Somit kann der Bremsbefehl durch das autonome Steuergerät 65 unabhängig von einer Aktion des Fahrzeugführers und als Reaktion auf eine autonome Steuerfunktion erzeugt werden.
  • Bedienteile können sich im Fahrgastraum des Fahrzeugs 10 befinden und können, als nicht einschränkende Beispiele, ein Lenkrad, ein Gaspedal, das Bremspedal und ein Eingabegerät für den Bediener, das ein Element der HMI-Einrichtung 60 ist, umfassen. Die Bedienelemente ermöglichen es dem Fahrzeugführer, mit dem Fahrzeug 10 zu interagieren und das Fahrzeug 10 direkt zu bedienen, wenn es zur Personenbeförderung eingesetzt wird. Die Bedienelemente des Bedieners, einschließlich Lenkrad, Gaspedal, Bremspedal, Gangwahlschalter und dergleichen, können in einigen Ausführungen des Fahrzeugs 10 weggelassen werden.
  • Das HMI-Gerät 60 dient der Mensch-Maschine-Interaktion zur Steuerung des Betriebs eines Infotainmentsystems, des GPS-Sensors 52, des Navigationssystems 24 u.ä. und enthält eine Steuerung. Das HMI-Gerät 60 überwacht Bedieneranfragen und stellt dem Bediener Informationen zur Verfügung, darunter den Status von Fahrzeugsystemen sowie Service- und Wartungsinformationen. Das HMI-Gerät 60 kommuniziert mit einer Vielzahl von Bedienerschnittstellengeräten und/oder steuert deren Betrieb, wobei die Bedienerschnittstellengeräte in der Lage sind, eine mit dem Betrieb eines der autonomen Fahrzeugsteuersysteme verbundene Nachricht zu übertragen. Das HMI-Gerät 60 kann auch mit einem oder mehreren Geräten kommunizieren, die biometrische Daten in Verbindung mit dem Fahrzeugbediener überwachen, wie z.B. die Blickposition, die Körperhaltung und die Verfolgung der Kopfposition, unter anderem. Das HMI-Gerät 60 ist der Einfachheit halber als ein einheitliches Gerät dargestellt, kann aber in einer Ausführungsform des hier beschriebenen Systems als eine Mehrzahl von Steuerungen und zugehörigen Sensorvorrichtungen konfiguriert werden. Bedienerschnittstellenvorrichtungen können Vorrichtungen umfassen, die in der Lage sind, eine Nachricht zu übermitteln, die den Bediener zum Handeln auffordert, und können ein elektronisches Sichtanzeigemodul enthalten, z.B. eine Flüssigkristallanzeige (LCD), eine Heads-up-Anzeige (HUD), eine Audio-Feedback-Vorrichtung, eine tragbare Vorrichtung und einen haptischen Sitz. Die Bedienerschnittstellengeräte, die in der Lage sind, den Bediener zum Handeln zu zwingen, werden vorzugsweise durch oder über das HMI-Gerät 60 gesteuert. Das HUD kann Informationen, die auf eine Innenseite einer Windschutzscheibe des Fahrzeugs reflektiert werden, im Sichtfeld des Bedieners projizieren, einschließlich der Übertragung eines Vertrauensniveaus, das mit der Bedienung eines der autonomen Fahrzeugsteuersysteme verbunden ist. Das HUD kann auch Augmented-Reality-Informationen wie z.B. Fahrspurlage, Fahrzeugweg, Richtungs- und/oder Navigationsinformationen und ähnliches liefern.
  • Das On-Board-Navigationssystem 24 verwendet die digitalisierte Straßenkarte 25, um einem Fahrzeugführer Navigationsunterstützung und Informationen zu liefern. Das autonome Steuergerät 65 verwendet die digitalisierte Straßenkarte 25 für die Steuerung des autonomen Fahrzeugbetriebs oder der ADAS-Fahrzeugfunktionen.
  • Das Fahrzeug 10 kann eine Telematik-Steuerung 75 enthalten, die ein drahtloses Telematik-Kommunikationssystem umfasst, das in der Lage ist, außerhalb des Fahrzeugs zu kommunizieren, einschließlich der Kommunikation mit einem Kommunikationsnetzwerk 90, das über drahtlose und drahtgebundene Kommunikationsmöglichkeiten verfügt. Das Telematik-Steuergerät 75 ist für die Kommunikation außerhalb des Fahrzeugs geeignet, die eine Fahrzeug-Fahrzeug-Kommunikation mit kurzer Reichweite (V2V) und/oder eine Fahrzeug-Alles-Kommunikation (V2x) einschließt, die auch die Kommunikation mit einem Infrastrukturmonitor, z.B. einer Verkehrskamera, einschließen kann. Alternativ oder zusätzlich verfügt die Telematik-Steuerung 75 über ein drahtloses Telematik-Kommunikationssystem, das in der Lage ist, eine drahtlose Kommunikation über kurze Entfernungen mit einem Handgerät, z.B. einem Mobiltelefon, einem Satellitentelefon oder einem anderen telefonischen Gerät, durchzuführen. In einer Ausführung enthält das Handheld-Gerät eine Software-Anwendung, die ein drahtloses Protokoll zur Kommunikation mit der Telematik-Steuerung 75 enthält, und das Handheld-Gerät führt die Kommunikation außerhalb des Fahrzeugs aus, einschließlich der Kommunikation mit einem Off-Board-Server 95 über das Kommunikationsnetz 90. Alternativ oder zusätzlich führt die Telematik-Steuerung 75 die Kommunikation mit dem Fahrzeugäußeren direkt aus, indem er über das Kommunikationsnetz 90 mit dem Server 95 außerhalb des Fahrzeugs kommuniziert.
  • Der Begriff „Steuerung“ und verwandte Begriffe wie Mikro-Steuerung, Steuereinheit, Prozessor und ähnliche Bezeichnungen beziehen sich auf eine oder mehrere Kombinationen von anwendungsspezifischen integrierten Schaltungen (ASIC), Field-Programmable Gate Array (FPGA), elektronischen Schaltungen, Zentraleinheit(en), z.B. Mikroprozessor(en) und zugehörigen nichtflüchtigen Speicherbausteinen in Form von Speicher- und Speichereinheiten (nur lesen, programmierbar nur lesen, wahlfreier Zugriff, Festplatte usw.), die durch Speicher 23 gekennzeichnet sind. Die nicht-transitorische Speicherkomponente ist in der Lage, maschinenlesbare Befehle in Form von einem oder mehreren Software- oder Firmware-Programmen oder -Routinen, kombinatorischen Logikschaltkreisen, Ein-/Ausgabeschaltkreisen und -vorrichtungen, Signalkonditionierungs- und Pufferschaltkreisen und anderen Komponenten zu speichern, auf die ein oder mehrere Prozessoren zugreifen können, um eine beschriebene Funktionalität bereitzustellen. Ein-/Ausgabeschaltung(en) und -vorrichtungen umfassen Analog/Digital-Wandler und verwandte Vorrichtungen, die Eingänge von Sensoren überwachen, wobei diese Eingänge mit einer voreingestellten Abtastfrequenz oder als Reaktion auf ein Triggerereignis überwacht werden. Software, Firmware, Programme, Anweisungen, Steuerroutinen, Code, Algorithmen und ähnliche Begriffe bedeuten Steuerung-ausführbare Befehlssätze einschließlich Kalibrierungen und Nachschlagetabellen. Jeder Regler führt Steuerroutine(n) aus, um die gewünschten Funktionen bereitzustellen. Die Routinen können in regelmäßigen Abständen ausgeführt werden, zum Beispiel alle 100 Mikrosekunden während des laufenden Betriebs. Alternativ können Routinen als Reaktion auf das Eintreten eines auslösenden Ereignisses ausgeführt werden. Die Kommunikation zwischen Reglern, Aktoren und/oder Sensoren kann über eine direkte verdrahtete Punkt-zu-Punkt-Verbindung, eine vernetzte Kommunikationsbusverbindung, eine drahtlose Verbindung oder eine andere geeignete Kommunikationsverbindung erfolgen. Zur Kommunikation gehört der Austausch von Datensignalen in geeigneter Form, darunter z.B. elektrische Signale über ein leitendes Medium, elektromagnetische Signale über Luft, optische Signale über Lichtwellenleiter und dergleichen. Bei den Datensignalen kann es sich um diskrete, analoge oder digitalisierte Analogsignale handeln, die Eingänge von Sensoren, Aktuatorbefehle und die Kommunikation zwischen Steuerungen darstellen. Der Begriff „Signal“ bezieht sich auf einen physisch wahrnehmbaren Indikator, der Informationen übermittelt, und kann eine geeignete Wellenform (z.B. elektrisch, optisch, magnetisch, mechanisch oder elektromagnetisch) sein, wie z.B. Gleichstrom, Wechselstrom, Sinuswelle, Dreieckwelle, Rechteckwelle, Schwingung und dergleichen, die in der Lage ist, ein Medium zu durchlaufen. Ein Parameter ist definiert als eine messbare Größe, die eine physikalische Eigenschaft einer Vorrichtung oder eines anderen Elements darstellt, die mit Hilfe eines oder mehrerer Sensoren und/oder eines physikalischen Modells erkennbar ist. Ein Parameter kann einen diskreten Wert haben, z.B. entweder „1“ oder „0“, oder er kann im Wert stufenlos variabel sein.
  • Wie hier verwendet, beschreiben die Begriffe „dynamisch“ und „dynamisches“ Schritte oder Prozesse, die in Echtzeit ausgeführt werden und dadurch gekennzeichnet sind, dass Zustände von Parametern überwacht oder anderweitig bestimmt werden und die Zustände der Parameter während der Ausführung einer Routine oder zwischen Iterationen der Routineausführung regelmäßig oder periodisch aktualisiert werden.
  • 2 zeigt schematisch die Draufsicht auf ein Straßensegment 200, das ein Ausschnitt der digitalisierten Straßenkarte 25 sein kann, der von einer Ausführungsform des Fahrzeugs 10 verwendet werden kann, die mit Bezug auf 1 beschrieben wird. Es wird auch eine Ausführungsform des Fahrzeugs 10 gezeigt, die mit Bezug auf 1 beschrieben wird. Das Beispielstraßensegment 200 ist eine T-Kreuzung mit einem Hauptstraßenelement 202 und einem Nebenstraßenelement 204, das im rechten Winkel an das Hauptstraßenelement 202 anschließt. Das Beispielstraßensegment 200 ist in jeder Fahrtrichtung einspurig dargestellt. Das Straßensegment 200 und die damit verbundenen Konzepte können jedoch auf Straßenabschnitte angewendet werden, die als mehrspurige Straßen konfiguriert sind. Das Fahrzeug 10 ist auf dem Nebenstraßenelement 204 angeordnet und nähert sich, wie dargestellt, dem Hauptstraßenelement 202. Gezeigt ist ein Randabschnitt 205 des Straßensegments 200, der eine geophysikalische Bodenwahrheit darstellt. Es ist ein Bezugsrahmen 240 dargestellt, der eine Längsrichtung (X) und eine Querrichtung (Y) umfasst, die im Zusammenhang mit der Ausrichtung des Fahrzeugs 10 definiert sind. Ein erster Satz von Punkten 210 wird gezeigt, die geophysikalische Positionen einer Vielzahl von Fahrbahnmarkierungen darstellen, die am Randbereich 205 des Straßensegments 200 angeordnet sind, wie sie von einem weiteren der räumlichen Sensoren des Fahrzeug-Raumüberwachungssystems 100 wahrgenommen werden. Die erste Gruppe von Punkten 210 bildet eine wahrgenommene Punktwolke, die mit dem Straßensegment 200 assoziiert ist. Ein zweiter Satz von Punkten 220 repräsentieren kartenbasierte Standorte der Fahrbahnmarkierungen, die auf der digitalisierten Straßenkarte 25 identifiziert sind, einzelnen der Fahrbahnmarkierungen 210 entsprechen und einen Kartenrand 225 darstellen. Der zweite Satz von Punkten bildet eine kartografische Punktwolke, die dem Straßensegment 200 zugeordnet ist. Ein dritter Punkt 235 stellt eine geophysikalische Position des Fahrzeugs 10 dar, die vom GPS-Sensor 52 angezeigt wird. Wie in Beilage 230 gezeigt, kann ein Fehlervektor 231 identifiziert werden, der eine Differenz zwischen der kartenbasierten Position einer der Fahrbahnmarkierungen 220, angezeigt durch 221, und der geophysikalischen Position einer der Fahrbahnmarkierungen 210, angezeigt durch 211, darstellt, einschließlich einer Transformation, die in der Längsrichtung (X) 232 und der Querrichtung (Y) 233 quantifiziert wird.
  • Die geophysikalische Lage der Fahrbahnmarkierungen 210, dargestellt durch den Kartenrand 225 des Straßensegments 200 und des zugehörigen Fahrbahnsegments, kann durch Gl. 1 ausgedrückt werden, wie folgt ausgedrückt werden. y=A + Bx + Cx 2 + D x 3
    Figure DE102020126973A1_0001
  • Mit Gl. 1 verbundene Parameter können für die wahrgenommene Punktwolke entwickelt werden, die durch den ersten Satz von Punkten 210 in Verbindung mit dem Straßensegment 200 gebildet wird. Parameter im Zusammenhang mit Gl. 1 können auch für die kartierte Punktwolke entwickelt werden, die durch den zweiten Satz von Punkten 220 in Verbindung mit dem Straßenabschnitt 200 gebildet wird.
  • Wie hierin beschrieben, werden ein System und ein zugehöriges Verfahren zur Echtzeit-Fahrzeugpositionierung unter Verwendung von Fahrspurwahrnehmungseingaben bereitgestellt, die mit Hilfe von Polynomgleichungen beschrieben werden, wobei eine Ausführungsform des Fahrzeugs 10 verwendet wird, das unter Bezugnahme auf 1 beschrieben wird und auf einer Fahrbahn fährt, einschließlich, als nicht einschränkendes Beispiel, des Straßenabschnitts 200, der unter Bezugnahme auf 2 beschrieben wird. Das System umfasst einen räumlichen Sensor, einen GPS-Sensor, ein Navigationssystem und eine Steuerung. Der räumliche Sensor ist so angeordnet, dass er ein Straßensegment der Fahrbahn proximal zum Fahrzeug überwacht. Ein fahrzeugeigenes Speichergerät mit einer Straßenkarte ist ebenfalls enthalten. Die Steuerung steht in Kommunikation mit dem Raumsensor, dem GPS-Sensor, dem Navigationssystem und dem Speichergerät. Die Steuerung enthält einen ausführbaren Befehlssatz, um über den GPS-Sensor eine geographische Position des Fahrzeugs im Kontext der Straßenkarte zu bestimmen und über den räumlichen Sensor den Straßenabschnitt zu überwachen. Es werden eine wahrgenommene Punktwolke einschließlich einer erfassten Kante für das Straßensegment auf der Grundlage des räumlichen Sensors und eine kartierte Punktwolke einschließlich einer kartierten Kante für das Straßensegment auf der Grundlage der Straßenkarte bestimmt. Insgesamt wird davon ausgegangen, dass die wahrgenommene Punktwolke relativ zur Bodenwahrheit genauer ist als die kartierte Punktwolke. Die wahrgenommene Punktwolke wird auf die kartographierte Punktwolke transformiert, d.h. die kartographierte Punktwolke ist fixiert und die wahrgenommene Punktwolke wird transformiert, wie unter Bezugnahme auf eine zweite Routine beschrieben, die in 5 beschrieben ist.
  • Ein Fehlervektor wird auf der Grundlage einer Transformation zwischen der abgebildeten Punktwolke und der wahrgenommenen Punktwolke bestimmt, und ein erstes Konfidenzintervall, das dem Fehlervektor zugeordnet ist, wird ebenfalls bestimmt. Ein zweites Konfidenzintervall in Verbindung mit einer longitudinalen Dimension auf der Basis der abgebildeten Punktwolke und der wahrgenommenen Punktwolke wird bestimmt, und ein drittes Konfidenzintervall in Verbindung mit einer lateralen Dimension auf der Basis der abgebildeten Punktwolke und der wahrgenommenen Punktwolke wird durch eine gestörte Sensitivitätsanalyse, wie hier beschrieben, bestimmt. Eine Kalman-Filteranalyse wird ausgeführt, um die Position des Fahrzeugs relativ zur Straßenkarte dynamisch zu bestimmen, basierend auf dem Fehlervektor, dem ersten Konfidenzintervall, dem zweiten Konfidenzintervall und dem dritten Konfidenzintervall. Der Betrieb des Fahrzeugs 10 wird auf der Grundlage der Position des Fahrzeugs 10 relativ zur Fahrbahnkarte 25 gesteuert. Dies wird mit Bezug auf die 3-7 wie folgt beschrieben.
  • 3 zeigt schematisch Details im Zusammenhang mit einer ersten Routine 300 zur dynamischen Bewertung der Genauigkeit eines Straßensegments einer digitalisierten Straßenkarte im Fahrzeug, um ein erstes Konfidenzintervall zu bestimmen, das mit einer Transformation zwischen der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment verbunden ist. Die erfasste Kante für das Straßensegment wird als eine wahrgenommene Punktwolke 310 dargestellt, und die kartierte Kante für das Straßensegment wird als eine kartierte Punktwolke 320 dargestellt. Dazu gehört die Anwendung einer ICP-Analyse (Discounted Distance Iterative Closest Point) der kartierten Punktwolke 320 und der wahrgenommenen Punktwolke 310 in einem ungestörten Zustand und die Abfrage eines Gauß-Prozesses zur Bestimmung des ersten Konfidenzintervalls, das mit der Transformation zwischen der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment verbunden ist. Die Routine 300 wird unter Bezugnahme auf eine Ausführungsform des Fahrzeugs 10 beschrieben, das unter Bezugnahme auf 1 beschrieben wird, und ein Beispiel für das Straßensegment 200, das unter Bezugnahme auf 2 beschrieben wird. Die Kontrollroutine 300 kann im Fahrzeug ausgeführt werden, z.B. durch die Raumüberwachungs-Steuerung 110, das Navigationssystem 24 oder in einer eigenständigen Steuerung.
  • Die Eingaben für die erste Routine 300 umfassen die wahrgenommene Punktwolke 310, die dem ersten Satz von Punkten 210 im Zusammenhang mit dem Straßenabschnitt 200 entspricht, der unter Bezugnahme auf 2 beschrieben wird, und die kartierte Punktwolke 320, die dem zweiten Satz von Punkten 220 im Zusammenhang mit dem Straßenabschnitt 200 entspricht, der unter Bezugnahme auf 2 beschrieben wird. Die wahrgenommene Punktwolke 310 und die kartierte Punktwolke 320 werden in einen distance discounted iterative closest point (ICP)-Algorithmus 330 eingegeben, der mit den Daten in der wahrgenommenen Punktwolke 310 und den entsprechenden Daten in der kartierten Punktwolke 320 arbeitet, um einen ungestörten Transformationsvektor 340 zu bestimmen. Die Implementierung von ICP-Algorithmen zur Bestimmung einer Transformation zwischen Punktwolken wird in der Kunst verstanden. Der ungestörte Transformationsvektor 340 kann in einer Datenbank von Kartenfehlern erfasst werden, die an einer Vielzahl von GPS-Koordinaten bestimmt wird. Die Datenbank von Kartenfehlern wird in einem Gauß'schen Verfahren verwendet, das aus früheren Beobachtungen zusammengesetzt ist, um einen Fehler in einem Fahrbahnrand des Straßenabschnitts zu bestimmen und die darauf basierende Karte zu aktualisieren, und kann in einem Speichergerät des Off-Board-Servers 95 gespeichert werden.
  • Der ungestörte Transformationsvektor 340 wird als Fehlervektor 355 ausgegeben, der mit der wahrgenommenen Punktwolke 310, die den erfassten Rand für das Straßensegment darstellt, und der kartierten Punktwolke 320, die den kartierten Rand für das Straßensegment darstellt, verknüpft ist. Der Gauß'sche Prozess 350 wird abgefragt, um den Grad des Vertrauens in die Beobachtung zu bestimmen. So enthält das Ergebnis des Gauß-Prozesses 350 den zugehörigen Fehlervektor 355 an einem bestimmten GPS-Koordinatenpunkt, basierend auf Informationen in der Datenbank der Kartenfehler, die an der GPS-Koordinate bestimmt werden. Der Fehlervektor 355 bezieht sich auf die Transformation zwischen der abgetasteten Kante, z.B. der abgetasteten Kante 215, und einer Kartenkante, z.B. der Kartenkante 225, die unter Bezugnahme auf 2 dargestellt sind. Die Transformation kann in der Längsrichtung (X) und in der Querrichtung (Y) quantifiziert werden. Der Fehlervektor 355 kann verwendet werden, um die digitalisierte Straßenkarte 25, die vom Navigationssystem 24 verwendet wird, und die Fahrzeugposition zu aktualisieren. Als nicht einschränkendes Beispiel kann dies die Aktualisierung des Kartenrandes 225 des Straßenabschnitts 200 umfassen, der unter Bezugnahme auf 2 dargestellt ist.
  • Der Gauß'sche Prozess 350 wird an jeder der GPS-Koordinaten abgefragt, um den ungestörten Transformationsvektor 340 auszuwerten und den an diesem Ort beobachteten mittleren Fehler und die entsprechende Standardabweichung zu bestimmen. Unter Verwendung dieser Werte kann die ungestörte Transformation durch die Anzahl der Standardabweichungen beschrieben werden, die sie in beiden Richtungen vom Mittelwert entfernt ist, und diese Information wird verwendet, um anzugeben, wie wahrscheinlich es ist, dass dieser Wert beobachtet wird. Je weiter sie vom historisch beobachteten Mittelwert entfernt ist, desto unwahrscheinlicher ist ihr Auftreten und desto geringer das Vertrauen in die Sensormesswerte. Der Gauß-Prozess 350 kann in seiner Umsetzung N-dimensional sein und so verschiedene Fehlerdarstellungen erfassen. Aspekte des Gauß'schen Prozesses 350 können in einem Speichergerät des Off-Board-Servers 95 gespeichert werden.
  • 4 zeigt grafisch Daten im Zusammenhang mit der Ausführung eines Gauß-Prozesses 400, der die geschätzte Größe eines Fehlervektors und das zugehörige Konfidenzintervall für einen bestimmten GPS-Punkt enthält. Ein erster Satz von Balken 410 repräsentiert eine Größe des Fehlervektors von einer Referenzlinie 405, z.B. einer Straßenkante, mit zugehörigen Fehlerbalken 412, die die Unsicherheit anzeigen. Ein zweiter Satz von Balken 420 stellt die Größen der geschätzten Fehlervektoren von der Referenzlinie 405 dar, wobei die zugehörigen geschätzten Fehlerbalken 422 die Unsicherheit anzeigen. Linie 430 drückt den interpolierten Fehler aus, so dass eine GPS-Koordinate einen mittleren historischen Fehler und ein Konfidenzintervall enthält, die berichtet werden können.
  • 5 zeigt schematisch eine zweite Routine 500 zur dynamischen Bewertung der Genauigkeit eines Straßenabschnitts einer digitalisierten Fahrbahn im Fahrzeug. Die zweite Routine-500 beinhaltet eine gestörte Empfindlichkeitsanalyse einer kartierten Punktwolke und einer wahrgenommenen Punktwolke. In einer Ausführung umfasst die gestörte Sensitivitätsanalyse eine gestörte iterative Nahpunktanalyse (ICP) mit Entfernungsdiskontierung in Form einer zweiten iterativen Nahpunktanalyse mit Entfernungsdiskontierung (ICP) der kartierten Punktwolke und der wahrgenommenen Punktwolke. Die gestörte Empfindlichkeitsanalyse umfasst das Induzieren von x-dimensionalen Störungen der wahrgenommenen Punktwolke und dann das Induzieren von y-dimensionalen Störungen der wahrgenommenen Punktwolke, die mit der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment verbunden ist, und das Bestimmen aktualisierter Transformationen zwischen der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment und einer aktualisierten Fahrzeugposition in Bezug auf die Karte.
  • Die zweite Routine 500 ist als eine Sammlung von Blöcken in einem logischen Flussdiagramm dargestellt, das eine Sequenz von Operationen darstellt, die in Hardware, Software oder einer Kombination davon implementiert werden können. Im Zusammenhang mit Software stellen die Blöcke Computerbefehle dar, die, wenn sie von einem oder mehreren Prozessoren ausgeführt werden, die rezitierten Operationen ausführen. Der Einfachheit und Klarheit der Veranschaulichung halber wird das Verfahren unter Bezugnahme auf das Fahrzeug 10 beschrieben, das unter Bezugnahme auf 1 beschrieben wird. Tabelle 1
    BLOCK BLOCK INHALT
    310 Eingabe Wahrgenommene Punktwolke PCp
    320 Eingabe Kartierte Punktwolke PCm
    330 Ausführen des entfernungsdiskontierten ICP-Algorithmus
    340 Ungestörte Transformation bestimmen
    545 Ungestörte Transformation um 180° drehen
    560 Gestörte Sensitivitätsanalyse-Routine
    561 j=0 initialisieren
    562 Initialisieren i=0
    563 PCp + Noisei einstellen
    564 Ausführen des entfernungsdiskontierten ICP-Algorithmus
    565 Neue Transformi bestimmen
    566 Ist i>4?
    567 Schrittweite i
    568 Bestimmen des Pearson-Korrelationskoeffizienten
    569 Ist j>1?
    570 Schrittweite j
    572 Rückkehr-Vertrauensintervall der Fahrzeugposition in der Längsrichtung (X) und in der Querrichtung (Y). Abmessungen
    574 Kalman-Filter ausführen
    580 Karte aktualisieren
  • Die Ausführung der zweiten Routine 500 kann wie folgt ablaufen. Die Schritte der zweiten Routine 500 können in einer geeigneten Reihenfolge ausgeführt werden und sind nicht auf die unter Bezugnahme auf 5 beschriebene Reihenfolge beschränkt. Wie hier verwendet, bedeutet der Begriff „1“ eine bejahende Antwort oder „JA“ und der Begriff „0“ eine verneinende Antwort oder „NEIN“.
  • Die Eingaben für die zweite Routine 500 umfassen die wahrgenommene Punktwolke 310, die dem ersten Satz von Punkten 210 im Zusammenhang mit dem Straßenabschnitt 200 entspricht, der unter Bezugnahme auf 2 beschrieben wird, und die kartierte Punktwolke 320, die dem zweiten Satz von Punkten 220 im Zusammenhang mit dem Straßenabschnitt 200 entspricht, der unter Bezugnahme auf 2 beschrieben wird.
  • Die wahrgenommene Punktwolke 310 und die kartierte Punktwolke 320 werden in den ersten distance discounted iterative closest point (ICP)-Algorithmus (330) eingegeben, um den ungestörten Transformationsvektor 340 zwischen der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment und ein zugehöriges erstes Konfidenzintervall 342 zu bestimmen. Der ungestörte Transformationsvektor 340 kann in Form eines Vektors ausgedrückt werden, der in einen lateralen Fehlerterm, d.h. Δx, und einen longitudinalen Fehlerterm, d.h. Δy, zwischen einzelnen Punkten der wahrgenommenen Punktwolke 310 und der kartierten Punktwolke 320 zerlegt werden kann. Eine statische Form des Gaußschen Prozesses 350' ist im Speicher 23 des Fahrzeugs 10 gespeichert. Der statische Gauß'sche Prozess 350' wird an jeder der GPS-Koordinaten abgefragt, um den ungestörten Transformationsvektor 340 auszuwerten und den an diesem Ort beobachteten mittleren Fehler und die entsprechende Standardabweichung zu bestimmen. Mit Hilfe dieser Werte kann die ungestörte Transformation durch die Anzahl der Standardabweichungen beschrieben werden, die sie in beiden Richtungen vom Mittelwert entfernt ist. Diese Information wird verwendet, um anzugeben, wie wahrscheinlich es ist, dass dieser Wert beobachtet wird. Je weiter er vom historisch beobachteten Mittelwert entfernt ist, desto unwahrscheinlicher ist sein Auftreten und desto geringer das Vertrauen in die Sensormesswerte.
  • Die wahrgenommene Punktwolke 310 und die kartierte Punktwolke 320 werden auch in eine gestörte Sensitivitätsanalyse-Routine 560 eingegeben. Die gestörte Sensitivitätsanalyse -Routine (perturbed sensitivity analysis routine) 560 ist ein iterativer Prozess, der durch Induzieren einer Vielzahl von x-dimensionalen Störungen in die wahrgenommene Punktwolke 310 (563) und Ausführen einer Ausführungsform des entfernungsdiskontierten ICP-Algorithmus (564) arbeitet, um eine Vielzahl von x-Transformierten zwischen der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment (565) auf der Grundlage der x-dimensionalen Störungen zu bestimmen. 7 zeigt schematisch Beispiele für x-Dimension-Störungen und zugehörige Vektoren. Zeile 710 stellt eine Grundwahrheit in Form einer Kante für ein Straßensegment dar, die Punkte 712 stellen eine wahrgenommene Punktwolke dar, und die Punkte 714-2 stellen Punkte einer kartierten Punktwolke dar. Die Punkte 714-1, 714-3 und 714-4 stellen die x-dimensionalen Störungen in der wahrgenommenen Punktwolke dar. Der Vektor 720 stellt eine ursprüngliche Transformation dar, die um 180o gedreht wurde, der Vektor 722 stellt das durch die Störung eingeführte Rauschen dar, der Vektor 723 stellt eine neue Transformation dar und der Vektor 726 stellt eine Kombination der Vektoren 720 und 722 dar und ist von der Größe her gleich dem Vektor 723.
  • Die gestörte Sensitivitätsanalyse-Routine 560 führt die Schritte 562, 563, 564, 565, 566, 567 erneut aus, um eine Vielzahl von y-Dimensions-Störungen zu induzieren und den entfernungsdiskontierten ICP-Algorithmus (564) auszuführen, um eine Vielzahl von y-Transformationen zwischen der erfassten Kante für das Straßensegment und der abgebildeten Kante für das Straßensegment (565) basierend auf den y-Dimensions-Störungen zu bestimmen, das einer Drehung von 1800 (545) unterzogen wurde. Die Störungen der y-Dimension umfassen die Addition von Rauschen nur in der y-Dimension und haben keinen Einfluss auf die Drehung um 180 Grad, die so durchgeführt wird, dass bei Addition der Vektoren die Größe mit dem Vektor 723 vergleichbar ist. Der ICP-Algorithmus (564) zur Entfernungsdiskontierung versucht, eine Transformation zwischen der wahrgenommenen Punktwolke 310 und der kartierten Punktwolke 320 zu finden, indem er quadratische Fehler zwischen den Punkten durch Punktübereinstimmung minimiert, wobei den Punkten, die weiter von den räumlichen Sensoren entfernt sind, ein abnehmendes Gewicht zugewiesen wird. Die Störung führt zu einer Verschiebung der wahrgenommenen Punktwolke um eine vorbestimmte Größe in der x-Dimension und der y-Dimension und zur Ausführung der entfernungsdiskontierten ICP 564. Wenn es keinen Unterschied zwischen der Transformation für die gestörte Punktwolke und der ungestörten Punktwolke gibt und die ursprüngliche Transformation der ungestörten Punktwolke um 180 Grad plus den Rauschvektor gedreht ist, wird den Punktwolken ein Informationsgewinn in dieser Dimension und damit eine geringe Unsicherheit zugeschrieben.
  • Der Transformationsvektor, auch als Fehlervektor bezeichnet, wird unter Verwendung des iterativen Algorithmus für den nächstgelegenen Punkt berechnet, der so modifiziert wird, dass das Gewicht von Punkten, die weiter vom Sensor entfernt sind, abgezogen wird. Diese Aktualisierung der Minimierungsfunktion ist unten aufgeführt. Der Fehlervektor kann auf der Grundlage der folgenden Minimierungsbeziehung bestimmt werden: t = argmin x i , y i C γ | x i | d ( x i , y i ) 2
    Figure DE102020126973A1_0002

    wobei:
    • (xi, yi) stellt die Störungen in den x-Wert und den y-Wert für jedes der Elemente der wahrgenommenen Punktwolke dar,
    γ = 0,95 | x i | und
    Figure DE102020126973A1_0003

    C stellt eine Entsprechung zwischen einem Punkt in der wahrgenommenen Kante der wahrgenommenen Punktwolke 310 und der kartierten Kante der kartierten Punktwolke 320 dar. Ein bestimmter Punkt in der wahrgenommenen Punktwolke 310 soll dem Punkt in der kartierten Punktwolke 320 entsprechen, der den kleinsten euklidischen Abstand zwischen den beiden Punkten aufweist.
  • Wenn die Mehrzahl der x-Dimensions-Störungen induziert und die zugehörigen aktualisierten Transformationen bestimmt wurden, wird ein Pearson-Korrelationskoeffizient (568) gemäß EQ ausgeführt. 3, wie folgt ausgeführt: r xy = i = 1 n ( x i x ¯ ) ( y i y ¯ ) i = 1 n ( x i x ¯ ) 2 i = 1 n ( y i y ¯ ) 2
    Figure DE102020126973A1_0004

    wobei:
    xi=∥gedrehte ursprüngliche Transformation + Rauschen)∥2
    yi=∥Neue Transformation)∥2
  • Die ursprüngliche Transformation wird durch den Vektor 620 in 6 angezeigt;
    Die gedrehte Originaltransformation wird durch den Vektor 626 in 6 angezeigt;
    Das Rauschen wird durch den Vektor 622 in 6 angezeigt; und
    Die neue Transformation wird durch den Vektor 624 in 6 angezeigt.
  • Der Pearson-Korrelationskoeffizient wird für Störungen in der x-Dimension und Störungen in der y-Dimension in einem iterativen Prozess ausgeführt, der die Schritte 561, 562, 563, 564, 565, 566 umfasst. Die ursprüngliche Transformation in Kombination mit zusätzlichem Rauschen, das durch die Störungen induziert wird, sollte gleich der neuen Transformation sein, wenn genügend Informationen über die Straßenform vorhanden sind, um eine Grundwahrheit zu finden und das Rauschen zu entfernen.
  • Der Vergleich wird mit Hilfe des Pearson-Korrelationskoeffizienten (Gl. 3) durchgeführt, der bei perfekter positiver Korrelation gleich 1 ist. Wenn der Pearson-Korrelationskoeffizient sich 0 nähert, impliziert dies einen Mangel an Korrelation zwischen dem induzierten Rauschen und den entdeckten Transformationen.
  • Die Ausgabe der gestörten Sensitivitätsanalyse-Routine 560 umfasst ein zweites Konfidenzintervall 571, das der Längsrichtung auf der Grundlage der kartierten Punktwolke und der wahrgenommenen Punktwolke zugeordnet ist, und ein drittes Konfidenzintervall 573, das der Querrichtung auf der Grundlage der kartierten Punktwolke und der wahrgenommenen Punktwolke zugeordnet ist (572).
  • Das erste Konfidenzintervall 342, das durch die ungestörte Transformation 340 bestimmt wird, der Fehlervektor 355, der dem Gauß-Prozess 350 zugeordnet ist, und die Ergebnisse der gestörten Sensitivitätsanalyseroutine 560 einschließlich des zweiten Konfidenzintervalls 571, das der Längsachse zugeordnet ist, und des dritten Konfidenzintervalls 573, das der Querachse zugeordnet ist, werden als Eingaben für einen Kalman-Filter 574 bereitgestellt, um dynamisch eine Position des Fahrzeugs 10 in Bezug auf den Kartenteil des Straßensegments in Echtzeit zu bestimmen.
  • Der Kalman-Filter 574 wird ausgeführt, um dynamisch eine Position des Fahrzeugs 10 (575) relativ zur Straßenkarte 200 zu bestimmen, basierend auf dem Fehlervektor 355, dem ersten Konfidenzintervall 342, dem zweiten Konfidenzintervall 571 und dem dritten Konfidenzintervall 573.
  • Die Sensitivitätsanalyse bewertet und schätzt die Unsicherheit in der Ausgabe eines mathematischen Modells in jeder Dimension, d.h. in der Quer- und in der Längsrichtung, und teilt und ordnet die Unsicherheit verschiedenen Quellen der Unsicherheit in den Eingaben zu.
  • Die Ergebnisse des Kalman-Filters 574 können verwendet werden, um die Position des Fahrzeugs 10 (575) in Bezug auf die Straßenkarte in Echtzeit dynamisch zu aktualisieren, basierend auf der endgültigen Transformation zwischen der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment und der damit verbundenen Unsicherheit (580). Das Gesamtergebnis umfasst die Aktualisierung der Straßenkarte auf der Grundlage der Transformation zwischen der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment und der damit verbundenen Unsicherheit. Der Betrieb des Navigationssystems 24 kann auf der Grundlage der aktualisierten Straßenkarte für das Straßensegment erfolgen. Wenn das Fahrzeug 10 mit irgendeiner Form von ADAS oder anderen autonomen Fahrfähigkeiten ausgestattet ist, ist die autonome Steuerung 65 in der Lage, einen mit dem ADAS verbundenen Fahrautomatisierungszustand, wie Lenkung oder Bremsen, auf der Grundlage der aktualisierten Straßenkarte für das Straßensegment zu steuern. Der Betrieb des Fahrzeugs 10, einschließlich des Navigationssystems 24 und des autonomen Steuergeräts 65, wird auf der Grundlage der aktualisierten Straßenkarte für das Straßensegment verbessert.
  • Um die Komplexität des Suchraums zu reduzieren und eine höhere Übereinstimmung zwischen der erfassten Kante 215 und der Kartenkante 225 zu ermöglichen, definiert die ICP-Analyse 330 des Entfernungsabschlags den Maßstab der erfassten Kante und der kartografierten Kante auf 1 m bis 1 m, wodurch die Notwendigkeit entfällt, den Maßstab der erfassten Kante so zu verändern, dass er dem Maßstab der kartografierten Kante entspricht. Die ICP-Analyse 330 des Abstandsrabatts definiert auch den gemessenen Rand 215 als Versatz in Längsrichtung (X) und in Querrichtung (Y) zum Kartenrand 225, ohne Rotationselement um die Achse des Fahrzeugs 10. Experimentell erweist sich dies als besser, da die Erfassung mit geringer Treue (low fidelity sensing) weit entfernt vom räumlichen Sensor zu schlechten Drehanwendungen führt. Darüber hinaus deuten empirische Beobachtungen darauf hin, dass die Qualität der Daten umso geringer ist, je weiter sie vom Sensor entfernt sind. Daher wird der Informationsgewinn von Punkten, die weiter vom Fahrzeug entfernt sind, in der ICP-Minimierungsfunktion abgezogen. Der laterale Fehlerterm und der longitudinale Fehlerterm stellen Abbildungsfehler in den jeweiligen lateralen und longitudinalen Dimensionen dar.
  • So wird die Ausgabe 338 der Transformation 338 aus der ICP-Analyse 330 zur Entwicklung einer Fehlermetrik verwendet, die mit dem Gauß-Prozess 350 kombiniert werden kann, um Fehler an verschiedenen Punkten auf der Karte abzuschätzen und so eine verbesserte Vertrauensmetrik für die Lokalisierungstransformation zu erzeugen.
  • Das Flussdiagramm und die Blockdiagramme in den Flussdiagrammen veranschaulichen die Architektur, die Funktionalität und den Betrieb möglicher Implementierungen von Systemen, Verfahren und Computerprogrammprodukten entsprechend den verschiedenen Ausführungsformen der vorliegenden Offenbarung. In dieser Hinsicht kann jeder Block in dem Flussdiagramm oder den Blockdiagrammen ein Modul, ein Segment oder einen Teil des Codes darstellen, der eine oder mehrere ausführbare Anweisungen zur Implementierung der angegebenen logischen Funktion(en) enthält. Es wird auch darauf hingewiesen, dass jeder Block der Blockdiagramme und/oder Flussdiagrammdarstellungen und Kombinationen von Blöcken in den Blockdiagrammen und/oder Flussdiagrammdarstellungen durch Hardware-basierte Systeme mit dedizierter Funktion implementiert werden kann, die die spezifizierten Funktionen oder Handlungen oder Kombinationen von Hardware mit dedizierter Funktion und Computerbefehlen ausführen. Diese Computerprogrammbefehle können auch auf einem computerlesbaren Medium gespeichert werden, das einen Computer oder eine andere programmierbare Datenverarbeitungsanlage auf eine bestimmte Funktionsweise anweisen kann, so dass die auf dem computerlesbaren Medium gespeicherten Befehle einen Fertigungsgegenstand einschließlich eines Befehlssatzes erzeugen, der die im Flussdiagramm und/oder in den Blockdiagrammabbildungen und/oder Blockabbildungen spezifizierte Funktion/Wirkung implementiert.
  • Die detaillierte Beschreibung und die Figuren oder Abbildungen sind unterstützend und beschreibend für die vorliegenden Lehren, aber der Umfang der vorliegenden Lehren wird allein durch die Ansprüche definiert. Während einige der besten Arten und andere Ausführungsformen zur Durchführung der vorliegenden Lehren ausführlich beschrieben wurden, gibt es verschiedene alternative Entwürfe und Ausführungsformen, um die in den beigefügten Ansprüchen definierten vorliegenden Lehren zu praktizieren.

Claims (10)

  1. Ein System für ein Fahrzeug, umfassend: einen räumlichen Sensor, einen GPS-Sensor, einen Navigationssystem, eine Steuerung und einem Speichergerät; wobei das Speichergerät eine digitalisierte Straßenkarte einer Straße enthält; wobei der räumliche Sensor zur Überwachung eines Straßenabschnitts der Fahrbahn angeordnet ist; die Steuerung in Kommunikation mit dem Raumsensor, dem GPS-Sensor, dem Navigationssystem und dem Speichergerät steht, wobei die Steuerung einen Befehlssatz enthält, und der Befehlssatz ausführbar ist zum: Bestimmen, über den GPS-Sensor, einer geographischen Position des Fahrzeugs im Kontext der digitalisierten Straßenkarte; Überwachen, über den räumlichen Sensor, des Straßenabschnitts; Bestimmen einer wahrgenommenen Punktwolke einschließlich einer wahrgenommenen Kante für das Straßensegment auf der Grundlage des räumlichen Sensors; Bestimmen einer kartierten Punktwolke einschließlich einer kartierten Kante für den Straßenabschnitt auf der Grundlage der digitalisierten Straßenkarte; Bestimmen eines Fehlervektors, der auf einer Transformation zwischen der kartierten Punktwolke und der wahrgenommenen Punktwolke basiert; Bestimmen eines ersten Konfidenzintervalls, das mit dem Fehlervektor verbunden ist; Bestimmen eines zweiten Konfidenzintervalls in Verbindung mit einer Längsdimension auf der Grundlage der kartierten Punktwolke und der wahrgenommenen Punktwolke; Bestimmen eines dritten Konfidenzintervalls in Verbindung mit einer lateralen Dimension auf der Grundlage der kartierten Punktwolke und der wahrgenommenen Punktwolke; Ausführen einer Kalman-Filteranalyse zur dynamischen Bestimmung einer Position des Fahrzeugs relativ zur digitalisierten Straßenkarte auf der Grundlage des Fehlervektors, des ersten Konfidenzintervalls, des zweiten Konfidenzintervalls und des dritten Konfidenzintervalls; und Steuern des Fahrzeugbetriebs auf der Grundlage der Position des Fahrzeugs relativ zur digitalisierten Straßenkarte.
  2. Das System von Anspruch 1, wobei der Befehlssatz ausführbar ist zum: Durchführen einer erste ICP-Analyse (Discounted Distance Iterative Closest Point) der kartierten Punktwolke und der wahrgenommenen Punktwolke in einem ungestörten Zustand, um den Fehlervektor zwischen der kartierten Punktwolke und der wahrgenommenen Punktwolke für das Straßensegment zu bestimmen; Bestimmen des Fehlervektors basierend auf dem Fehlervektor zwischen der abgebildeten Punktwolke und der wahrgenommenen Punktwolke; und Abfragen eines Gaußschen Prozess, um das erste mit dem Fehlervektor verbundene Vertrauensintervall zu bestimmen.
  3. Das System nach Anspruch 1, das ferner den ausführbaren Befehlssatz zur Durchführung einer gestörten Sensitivitätsanalyse der abgebildeten Punktwolke und der wahrgenommenen Punktwolke zur Bestimmung des zweiten Konfidenzintervalls in Verbindung mit der Längsabmessung auf der Grundlage der abgebildeten Punktwolke und der wahrgenommenen Punktwolke und zur Bestimmung des dritten Konfidenzintervalls in Verbindung mit der Querabmessung auf der Grundlage der abgebildeten Punktwolke und der wahrgenommenen Punktwolke umfasst.
  4. Das System nach Anspruch 3, wobei der Befehlssatz, der ausführbar ist, um die gestörte Sensitivitätsanalyse der abgebildeten Punktwolke und der wahrgenommenen Punktwolke auszuführen, den Befehlssatz umfasst, der ausführbar ist, um eine Störung der x-Dimension der wahrgenommenen Punktwolke zu induzieren, um das zweite Konfidenzintervall zu bestimmen, das mit der Längsdimension verbunden ist.
  5. Das System nach Anspruch 3, wobei der Befehlssatz, der zur Ausführung der gestörten Sensitivitätsanalyse der abgebildeten Punktwolke und der wahrgenommenen Punktwolke ausführbar ist, den Befehlssatz umfasst, der zur Induzierung einer Störung der y-Dimension der wahrgenommenen Punktwolke ausführbar ist, um das dritte Konfidenzintervall zu bestimmen, das mit der lateralen Dimension verbunden ist.
  6. Das System von Anspruch 1, das ferner den ausführbaren Befehlssatz zur Aktualisierung der digitalisierten Straßenkarte für das Straßensegment auf der Grundlage des Fehlervektors unter Verwendung eines Gauß-Prozesses umfasst, der aus früheren Fehlerbeobachtungen an einer bestimmten Stelle der digitalisierten Straßenkarte besteht.
  7. Das System nach Anspruch 1, wobei der räumliche Sensor eine Digitalkamera umfasst, die so angeordnet ist, dass sie das Straßensegment der Fahrbahn proximal zum und vor dem Fahrzeug überwacht.
  8. Das System nach Anspruch 1, wobei der räumliche Sensor entweder einen Radarsensor oder einen Lidarsensor umfasst, der so angeordnet ist, dass er das Straßensegment der Fahrbahn proximal zu und vor dem Fahrzeug überwacht.
  9. Das System nach Anspruch 1, das ferner ein fortgeschrittenes Fahrerassistenzsystem (ADAS) umfasst, wobei der Befehlssatz ausführbar ist, um einen dem ADAS zugeordneten Fahrautomatisierungszustand auf der Grundlage der Position des Fahrzeugs relativ zur digitalisierten Straßenkarte zu steuern.
  10. Ein Verfahren zum Steuern eines Fahrzeugs, wobei das Fahrzeug einen räumlichen Sensor, einen GPS-Sensor, ein Navigationssystem und eine Steuerung umfasst, wobei das Verfahren umfasst: Überwachen eines Straßenabschnitts einer Fahrbahn, auf der das Fahrzeug fährt, mit Hilfe des räumlichen Sensors; Bestimmen einer geographischen Position des Fahrzeugs über den GPS-Sensor im Kontext einer digitalisierten Straßenkarte des Straßenabschnitts; Bestimmen einer wahrgenommenen Punktwolke einschließlich einer wahrgenommenen Kante für den Straßenabschnitt auf der Grundlage der Überwachung durch den räumlichen Sensor; Bestimmen einer kartierten Punktwolke einschließlich einer kartierten Kante für das Straßensegment auf der Grundlage der digitalisierten Straßenkarte; Bestimmen eines Fehlervektors auf der Grundlage einer Transformation zwischen der kartierten Punktwolke und der wahrgenommenen Punktwolke; Bestimmen eines ersten Konfidenzintervalls, das mit dem Fehlervektor assoziiert ist; Bestimmen eines zweiten Konfidenzintervalls in Verbindung mit einer Längsdimension auf der Grundlage der kartierten Punktwolke und der wahrgenommenen Punktwolke; Bestimmen eines dritten Konfidenzintervalls in Verbindung mit einer lateralen Dimension auf der Grundlage der kartierten Punktwolke und der wahrgenommenen Punktwolke; Ausführen einer Kalman-Filteranalyse zur dynamischen Bestimmung einer Position des Fahrzeugs relativ zur digitalisierten Straßenkarte auf der Grundlage des Fehlervektors, des ersten Konfidenzintervalls, des zweiten Konfidenzintervalls und des dritten Konfidenzintervalls; und Steuern des Fahrzeugbetriebs auf der Grundlage der Position des Fahrzeugs relativ zur digitalisierten Straßenkarte.
DE102020126973.0A 2019-11-20 2020-10-14 Verfahren und system zur lokalisierten fahrspurwahrnehmung Pending DE102020126973A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/689,672 2019-11-20
US16/689,672 US11327506B2 (en) 2019-11-20 2019-11-20 Method and system for localized travel lane perception

Publications (1)

Publication Number Publication Date
DE102020126973A1 true DE102020126973A1 (de) 2021-05-20

Family

ID=75683949

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020126973.0A Pending DE102020126973A1 (de) 2019-11-20 2020-10-14 Verfahren und system zur lokalisierten fahrspurwahrnehmung

Country Status (3)

Country Link
US (1) US11327506B2 (de)
CN (1) CN112824997B (de)
DE (1) DE102020126973A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11403947B2 (en) * 2020-04-14 2022-08-02 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for identifying available parking spaces using connected vehicles
JP7194224B2 (ja) * 2021-03-31 2022-12-21 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11845429B2 (en) * 2021-09-30 2023-12-19 GM Global Technology Operations LLC Localizing and updating a map using interpolated lane edge data
US11987251B2 (en) 2021-11-15 2024-05-21 GM Global Technology Operations LLC Adaptive rationalizer for vehicle perception systems toward robust automated driving control
US12092458B2 (en) 2021-12-01 2024-09-17 GM Global Technology Operations LLC System and process for correcting gyroscope drift for a motor vehicle
CN115236645B (zh) * 2022-09-23 2023-01-24 北京小马易行科技有限公司 激光雷达的姿态确定方法以及姿态确定装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201116959D0 (en) * 2011-09-30 2011-11-16 Bae Systems Plc Vehicle localisation with 2d laser scanner and 3d prior scans
US9513130B1 (en) * 2014-09-24 2016-12-06 Rockwell Collins, Inc. Variable environment high integrity registration transformation system and related method
EP3106836B1 (de) * 2015-06-16 2018-06-06 Volvo Car Corporation Einheit und verfahren zur einstellung einer strassenbegrenzung
ES2800725T3 (es) * 2016-06-22 2021-01-04 Outsight Métodos y sistemas para detectar intrusiones en un volumen controlado
EP3324209A1 (de) * 2016-11-18 2018-05-23 Dibotics Verfahren und systeme zur fahrzeugumgebungskartenerzeugung und -aktualisierung
CN111108342B (zh) * 2016-12-30 2023-08-15 辉达公司 用于高清地图创建的视觉测程法和成对对准
US10678247B2 (en) * 2017-08-28 2020-06-09 GM Global Technology Operations LLC Method and apparatus for monitoring of an autonomous vehicle
CN108225348B (zh) * 2017-12-29 2021-08-24 百度在线网络技术(北京)有限公司 地图创建以及运动实体定位的方法和装置
US11009365B2 (en) * 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization
US10529089B2 (en) * 2018-02-23 2020-01-07 GM Global Technology Operations LLC Crowd-sensed point cloud map
GB201804082D0 (en) * 2018-03-14 2018-04-25 Five Ai Ltd Image annotation
US10740645B2 (en) * 2018-06-29 2020-08-11 Toyota Research Institute, Inc. System and method for improving the representation of line features
CN109186625B (zh) * 2018-10-24 2020-05-05 北京奥特贝睿科技有限公司 智能车辆利用混合采样滤波进行精确定位的方法及系统
CN109459734B (zh) * 2018-10-30 2020-09-11 百度在线网络技术(北京)有限公司 一种激光雷达定位效果评估方法、装置、设备及存储介质
CN109798903B (zh) * 2018-12-19 2021-03-30 广州文远知行科技有限公司 一种从地图数据中获取道路信息的方法及装置
CN109991984B (zh) * 2019-04-22 2024-04-30 上海蔚来汽车有限公司 用于生成高精细地图的方法、装置和计算机存储介质
CN110349192B (zh) * 2019-06-10 2021-07-13 西安交通大学 一种基于三维激光点云的在线目标跟踪系统的跟踪方法

Also Published As

Publication number Publication date
CN112824997B (zh) 2024-06-21
CN112824997A (zh) 2021-05-21
US20210149415A1 (en) 2021-05-20
US11327506B2 (en) 2022-05-10

Similar Documents

Publication Publication Date Title
DE102018120845B4 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102020126973A1 (de) Verfahren und system zur lokalisierten fahrspurwahrnehmung
DE102020110458A1 (de) Fahrzeugpfadvorhersage
DE102020131323A1 (de) Kamera-zu-lidar-kalibration und -validierung
DE102019112002A1 (de) Systeme und verfahren zur automatischen detektion von anhängereigenschaften
DE102018120841A1 (de) Verfahren und vorrichtung zum überwachen eines autonomen fahrzeugs
DE102018120786A1 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102017100763A1 (de) Fahrzeugautonomes steuersystem und verfahren
DE102013209415A1 (de) Dynamische Hinweisüberlagerung mit Bildbeschneidung
EP3731187A1 (de) Verfahren und vorrichtung zur bestimmung der geografischen position und orientierung eines fahrzeugs
DE102021102785A1 (de) Verfahren und vorrichtung zur spurerkennung auf einer fahrzeugfahrfläche
DE102019126542A1 (de) Lokalisierung einer stationären kamera
DE102018124509A1 (de) Verfahren und Vorrichtung zur Steuerung eines Fahrzeugsitzes
DE102021100101A1 (de) Fahrzeugsensorkalibrierung
DE112021006299T5 (de) Verfahren und Systeme zur Bodensegmentierung mittels Graphenschnitten
DE102019108610A1 (de) Verbesserung des fahrzeugverhaltens unter verwendung von informationen aus anderen fahrzeugleuchten
DE102020102725A1 (de) Verfahren und vorrichtung für eine kontextabhängige, aus der crowd-source stammende, spärliche, hochauflösende karte
DE102022111798A1 (de) Verknüpfung von wahrgenommenen und kartierten fahrbahnrändern zur lokalisierung
DE102020126804A1 (de) Im fahrzeug befindliches bildgebungssystem
DE102020124331A1 (de) Fahrzeugspurkartierung
DE112021005708T5 (de) Verfahren und Systeme zur Verfolgung einer Fahrspur über die Zeit
DE112021006402T5 (de) Schätzung von Automatikbelichtungswerten einer Kamera durch Priorisieren eines Objekts von Interesse auf Basis von kontextuellen Eingaben aus 3D-Karten
DE102018112233A1 (de) Bereitstellung eines verkehrsspiegelinhalts für einen fahrer
DE112021006111T5 (de) Systeme und Verfahren zur monokularisierten Objekterkennung
DE102020130506A1 (de) Verfahren und vorrichtung zum überwachen eines giersensors

Legal Events

Date Code Title Description
R012 Request for examination validly filed