-
EINLEITUNG
-
Fahrzeuge, einschließlich nicht-autonomer, semi-autonomer und autonomer Fahrzeuge, können Karteninformationen nutzen, um einen Bediener über eine Navigation und/oder direkte Betriebssteuerung einer oder mehrerer Komponenten eines fortgeschrittenen Fahrerassistenzsystems (ADAS) oder eines autonomen Fahrzeugsystems zu informieren. Solche Karteninformationen können in Form einer digitalisierten Karte eines Straßensystems vorliegen. Digitalisierte Karten von Straßensystemen können auf der Grundlage von Daten erstellt werden, die von Vermessungsfahrzeugen gewonnen werden, die das Straßennetz durchqueren und relevante Daten erfassen, sowie durch andere Verfahren. Solche Karten können lokalisierte Ungenauigkeiten aufweisen. Darüber hinaus können Teile solcher Karten aufgrund von Straßenreparaturen, Straßenbauarbeiten und anderen Änderungen am Straßennetz veraltet sein.
-
Dementsprechend ist es wünschenswert, einen Teil einer Fahrbahn in Echtzeit wahrzunehmen, um eine Bodenwahrheit zu ermitteln, die mit einer digitalisierten Karte verglichen werden kann, um die digitalisierte Karte zu korrigieren oder anderweitig zu aktualisieren, die Position des Fahrzeugs auf der Fahrbahn zu bestimmen und den Betrieb von Navigationssystemen und ADAS/autonomen Fahrzeugsystemen zu verbessern.
-
BESCHREIBUNG
-
Es wird ein System für ein auf einer Fahrbahn fahrendes Fahrzeug beschrieben, das einen räumlichen Sensor, einen GPS-Sensor, ein Navigationssystem und eine Steuerung umfasst. Der räumliche Sensor ist so angeordnet, dass er ein Straßensegment der Fahrbahn proximal zum Fahrzeug überwacht. Ein Speichergerät mit einer digitalisierten Straßenkarte ist ebenfalls enthalten. Die Steuerung steht in Kommunikation mit dem Raumsensor, dem GPS-Sensor, dem Navigationssystem und dem Speichergerät. Die Steuerung enthält einen ausführbaren Befehlssatz, um über den GPS-Sensor eine geographische Position des Fahrzeugs im Kontext der Straßenkarte zu bestimmen und über den räumlichen Sensor den Straßenabschnitt zu überwachen. Es werden eine wahrgenommene Punktwolke einschließlich einer erfassten Kante für das Straßensegment auf der Grundlage des räumlichen Sensors und eine kartierte Punktwolke einschließlich einer kartierten Kante für das Straßensegment auf der Grundlage der digitalisierten Straßenkarte bestimmt. Ein Fehlervektor wird auf der Grundlage einer Transformation zwischen der kartierten Punktwolke und der wahrgenommenen Punktwolke bestimmt, und es wird auch ein erstes Konfidenzintervall bestimmt, das dem Fehlervektor zugeordnet ist. Das erste Konfidenzintervall wird aus einem Gauß'schen Verfahren abgeleitet, das sich aus früheren Fehlerbeobachtungen an einem Fahrbahnrand des Straßensegments zusammensetzt. Ein zweites Konfidenzintervall in Verbindung mit einer Längsdimension auf der Grundlage der kartierten Punktwolke und der wahrgenommenen Punktwolke wird bestimmt, und ein drittes Konfidenzintervall in Verbindung mit einer Querdimension auf der Grundlage der kartierten Punktwolke und der wahrgenommenen Punktwolke wird bestimmt. Eine Kalman-Filteranalyse wird ausgeführt, um die Position des Fahrzeugs relativ zur digitalisierten Straßenkarte dynamisch zu bestimmen, basierend auf dem Fehlervektor, dem ersten Konfidenzintervall, dem zweiten Konfidenzintervall und dem dritten Konfidenzintervall. Der Betrieb des Fahrzeugs wird auf der Grundlage der Position des Fahrzeugs relativ zur digitalisierten Straßenkarte gesteuert. Das Gauß'sche Verfahren wird verwendet, um die digitalisierte Straßenkarte offline zu aktualisieren.
-
Ein Aspekt der Offenbarung beinhaltet, dass der Befehlssatz ausführbar ist, um eine ICP-Analyse (Discounted Distance Iterative Closest Point) der kartierten Punktwolke und der wahrgenommenen Punktwolke in einem ungestörten Zustand durchzuführen, um die Transformation zwischen der kartierten Punktwolke und der wahrgenommenen Punktwolke für das Straßensegment zu bestimmen. Die Transformation wird auch als Fehlervektor bezeichnet. Ein Gauß-Prozess wird abgefragt, um das erste Konfidenzintervall in Verbindung mit dem Fehlervektor und dem Standort des Fahrzeugs zu bestimmen.
-
Ein weiterer Aspekt der Offenbarung beinhaltet, dass der Befehlssatz ausführbar ist, um eine gestörte Sensitivitätsanalyse der kartierten Punktwolke und der wahrgenommenen Punktwolke durchzuführen, um das zweite Konfidenzintervall zu bestimmen, das mit der longitudinalen Dimension verbunden ist, basierend auf der kartierten Punktwolke und der wahrgenommenen Punktwolke, und um das dritte Konfidenzintervall zu bestimmen, das mit der lateralen Dimension verbunden ist, basierend auf der kartierten Punktwolke und der wahrgenommenen Punktwolke.
-
Ein weiterer Aspekt der Offenbarung beinhaltet, dass der Befehlssatz ausführbar ist, um die gestörte Sensitivitätsanalyse der abgebildeten Punktwolke und der wahrgenommenen Punktwolke auszuführen, indem eine x-Dimension-Störung der wahrgenommenen Punktwolke induziert wird, um das zweite Konfidenzintervall zu bestimmen, das mit der Längsdimension verbunden ist.
-
Ein weiterer Aspekt der Offenbarung beinhaltet, dass der Befehlssatz ausführbar ist, um die gestörte Sensitivitätsanalyse der abgebildeten Punktwolke und der wahrgenommenen Punktwolke auszuführen, indem eine Störung der y-Dimension der wahrgenommenen Punktwolke induziert wird, um das dritte Konfidenzintervall zu bestimmen, das mit der lateralen Dimension verbunden ist.
-
Ein weiterer Aspekt der Offenbarung beinhaltet, dass der Befehlssatz ausführbar ist, um die Straßenkarte für das Straßensegment auf der Grundlage des Fehlervektors zu aktualisieren.
-
Ein weiterer Aspekt der Offenbarung beinhaltet, dass es sich bei dem räumlichen Sensor um eine Digitalkamera handelt, die so angeordnet ist, dass sie ein Straßensegment der Fahrbahn proximal zum und vor dem Fahrzeug überwacht.
-
Ein weiterer Aspekt der Offenbarung beinhaltet, dass es sich bei dem räumlichen Sensor um einen Radar- oder Lidarsensor handelt, der so angeordnet ist, dass er einen Straßenabschnitt der Fahrbahn proximal und vor dem Fahrzeug überwacht.
-
Ein weiterer Aspekt der Offenbarung umfasst ein fortgeschrittenes Fahrerassistenzsystem (Advanced Driver Assistance System, ADAS), wobei der Befehlssatz ausführbar ist, um einen mit dem ADAS verbundenen Fahrautomatisierungszustand auf der Grundlage der Position des Fahrzeugs relativ zur Straßenkarte zu steuern.
-
Die obige Zusammenfassung ist nicht dazu gedacht, jede mögliche Ausführungsform oder jeden Aspekt der vorliegenden Offenbarung darzustellen. Vielmehr soll die vorstehende Zusammenfassung einige der neuartigen Aspekte und Merkmale, die hier offenbart wurden, veranschaulichen. Die oben genannten Merkmale und Vorteile sowie andere Merkmale und Vorteile der vorliegenden Offenbarung werden aus der folgenden detaillierten Beschreibung der repräsentativen Ausführungsformen und Modalitäten für die Durchführung der vorliegenden Offenbarung leicht ersichtlich, wenn sie in Verbindung mit den beigefügten Figuren und den beigefügten Ansprüchen genommen wird.
-
Figurenliste
-
Eine oder mehrere Ausführungsformen werden nun beispielhaft anhand der begleitenden Figuren beschrieben, in denen:
- 1 zeigt schematisch die Seitenansicht eines Fahrzeugs, das auf einer Fahrfläche, wie z.B. einer gepflasterten Fahrbahn, steht und diese entsprechend der Offenbarung befahren kann.
- 2 zeigt bildlich die Draufsicht auf ein Straßensegment, bei dem es sich um einen Ausschnitt der digitalisierten Straßenkarte handeln kann, der gemäß der Offenbarung von einer Ausführungsform des Fahrzeugs verwendet werden kann, die unter Bezugnahme auf 1 beschrieben ist.
- 3 zeigt schematisch Details in Bezug auf einen ersten Teil einer Kontrollroutine zur dynamischen Bewertung der Genauigkeit eines Straßenabschnitts einer digitalisierten Straßenkarte im Fahrzeug und einen Prozess zur Aktualisierung der digitalisierten Straßenkarte in Übereinstimmung mit der Offenbarung.
- 4 zeigt grafisch Details in Bezug auf eine Gauß'sche Analyse von Daten, die mit einem Straßensegment einer digitalisierten Straßenkarte verbunden sind, in Übereinstimmung mit der Offenbarung.
- 5 zeigt schematisch Details im Zusammenhang mit einem zweiten Teil einer Kontrollroutine zur dynamischen Bewertung der Genauigkeit eines Straßenabschnitts einer digitalisierten Straßenkarte im Fahrzeug in Übereinstimmung mit der Offenbarung.
- 6 zeigt bildlich Details in Bezug auf eine wahrgenommene Punktwolke und eine kartierte Punktwolke in Verbindung mit einem Straßensegment, in Übereinstimmung mit der Offenbarung.
- 7 zeigt bildlich Details einer gestörten Sensitivitätsanalyse einer kartierten Punktwolke und einer wahrgenommenen Punktwolke, einschließlich x-dimensionaler Störungen und zugehöriger Vektoren, in Übereinstimmung mit der Offenbarung.
-
Die beigefügten Figuren sind nicht notwendigerweise maßstabsgetreu und können eine etwas vereinfachte Darstellung verschiedener bevorzugter Merkmale der vorliegenden Offenbarung, wie sie hier offenbart wird, darstellen, einschließlich z.B. bestimmter Abmessungen, Ausrichtungen, Orte und Formen. Einzelheiten, die mit solchen Merkmalen verbunden sind, werden zum Teil durch die spezielle beabsichtigte Anwendung und die Verwendungsumgebung bestimmt.
-
DETAILLIERTE BESCHREIBUNG
-
Die hier beschriebenen und illustrierten Bestandteile der offenbarten Ausführungsformen können in einer Vielzahl unterschiedlicher Konfigurationen angeordnet und gestaltet werden. Die folgende detaillierte Beschreibung soll daher nicht, wie behauptet, den Umfang der Offenbarung einschränken, sondern ist lediglich repräsentativ für mögliche Ausführungsformen davon. Obwohl in der folgenden Beschreibung zahlreiche spezifische Details aufgeführt sind, um ein gründliches Verständnis der hier offengelegten Ausführungsformen zu ermöglichen, können einige Ausführungsformen auch ohne einige dieser Details praktiziert werden. Darüber hinaus wurde aus Gründen der Klarheit bestimmtes technisches Material, das in dem verwandten technischen Gebiet verstanden wird, nicht im Detail beschrieben, um die Offenbarung nicht unnötig zu verschleiern.
-
Die Figuren sind in vereinfachter Form und nicht maßstabsgetreu. Aus Gründen der Zweckmäßigkeit und Klarheit können in Bezug auf die Figuren Richtungsbezeichnungen wie längs, quer, oben, unten, links, rechts, oben, , unten, hinten und vorne verwendet werden. Diese und ähnliche Richtungsbegriffe sind nicht so auszulegen, dass sie den Umfang der Offenbarung einschränken. Darüber hinaus kann die Offenbarung, wie sie hier veranschaulicht und beschrieben wird, auch in Ermangelung eines Elements erfolgen, das hier nicht ausdrücklich offengelegt wird.
-
Wie hier verwendet, bezieht sich der Begriff „System“ auf mechanische und elektrische Hardware, Software, Firmware, elektronische Steuerkomponenten, Verarbeitungslogik und/oder Prozessorvorrichtungen, einzeln oder in Kombination, die die beschriebene Funktionalität bereitstellen. Dies kann, ohne Einschränkung, eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam, dediziert oder als Gruppe), der ein oder mehrere Software- oder Firmware-Programme ausführt, Speicher zur Aufnahme von Software- oder Firmware-Befehlen, eine kombinierte Logikschaltung und/oder andere Komponenten umfassen.
-
Unter Bezugnahme auf die Figuren, in denen gleiche Bezugszahlen gleichen oder ähnlichen Komponenten in den verschiedenen Abbildungen entsprechen, zeigt 1 in Übereinstimmung mit den hier offengelegten Ausführungsformen schematisch eine Seitenansicht eines Fahrzeugs 10, das auf einer Fahrfläche 70, wie z.B. einer gepflasterten Straßenoberfläche, angeordnet ist und diese überqueren kann. Das Fahrzeug 10 umfasst ein bordeigenes Navigationssystem 24, ein computerlesbares Speichergerät oder -medium (Speicher) 23, das eine digitalisierte Straßenkarte 25 , ein räumliches Überwachungssystem 100, eine Fahrzeug-Steuerung 50, einen GPS-Sensor 52, ein Gerät für die Mensch-Maschine-Schnittstelle (HMI) 60 und in einer Ausführungsform eine autonome Steuerung 65 und eine Telematik-Steuerung 75 umfasst. Das Fahrzeug 10 kann eine mobile Plattform in Form eines Nutzfahrzeugs, eines Industriefahrzeugs, eines landwirtschaftlichen Fahrzeugs, eines Personenkraftfahrzeugs, eines Flugzeugs, eines Wasserfahrzeugs, eines Zugs, eines Geländefahrzeugs, eines persönlichen Bewegungsapparats, eines Roboters und dergleichen umfassen, um die Zwecke dieser Offenbarung zu erfüllen, ist aber nicht darauf beschränkt.
-
In einer Ausführung umfasst das räumliche Überwachungssystem 100 einen oder mehrere räumliche Sensoren und Systeme, die so angeordnet sind, dass sie eine sichtbare Region 32 überwachen, die sich vor dem Fahrzeug 10 befindet, sowie eine räumliche Überwachungssteuerung 110. Die räumlichen Sensoren, die so angeordnet sind, dass sie die sichtbare Region 32 vor dem Fahrzeug 10 überwachen, umfassen z.B. einen Lidarsensor 34, einen Radarsensor 36, eine Digitalkamera 38 usw. Jeder der räumlichen Sensoren ist am Fahrzeug angeordnet, um die gesamte oder einen Teil der sichtbaren Region 32 zu überwachen, um nahegelegene entfernte Objekte wie Straßenmerkmale, Fahrbahnmarkierungen, Gebäude, Fußgänger, Straßenschilder, Verkehrsampeln und -schilder, andere Fahrzeuge und geografische Merkmale, die sich in der Nähe des Fahrzeugs 10 befinden, zu erkennen. Die Raumüberwachungs-Steuerung 110 erzeugt digitale Darstellungen der sichtbaren Region 32 auf der Grundlage der von den räumlichen Sensoren eingegebenen Daten. Die Raumüberwachungs-Steuerung 110 kann Eingaben von den räumlichen Sensoren auswerten, um einen linearen Bereich, die relative Geschwindigkeit und die Trajektorie des Fahrzeugs 10 im Hinblick auf jedes nahe gelegene entfernte Objekt zu bestimmen. Die räumlichen Sensoren können sich an verschiedenen Stellen des Fahrzeugs 10 befinden, einschließlich der vorderen Ecken, hinteren Ecken, hinteren Seiten und mittleren Seiten. Die räumlichen Sensoren können einen vorderen Radarsensor und eine Kamera in einer Ausführungsform enthalten, obwohl die Offenbarung nicht so begrenzt ist. Die Platzierung der räumlichen Sensoren ermöglicht es der Raumüberwachungs-Steuerung 110, den Verkehrsfluss zu überwachen, einschließlich nahegelegener Fahrzeuge, Kreuzungen, Fahrbahnmarkierungen und anderer Objekte um das Fahrzeug 10 herum. Die vom Raumüberwachungssteuergerät 110 erzeugten Daten können von einem Prozessor zur Erkennung von Fahrspurmarkierungen (nicht abgebildet) verwendet werden, um die Fahrbahn abzuschätzen. Die räumlichen Sensoren des Fahrzeug-Raumüberwachungssystems 100 können objektlokalisierende Erfassungsgeräte einschließlich Entfernungssensoren umfassen, wie z.B. FM-CW (frequenzmodulierte Dauerstrich)-Radare, Impuls- und FSK (Frequency Shift Keying)-Radare und Lidar (Light Detection and Ranging)-Geräte sowie Ultraschallgeräte, die sich auf Effekte wie Doppler-Effekt-Messungen stützen, um vorwärts gerichtete Objekte zu lokalisieren. Zu den möglichen Geräten zur Lokalisierung von Objekten gehören ladungsgekoppelte Geräte (CCD) oder CMOS-Videobildsensoren (CMOS = Complementary Metal Oxide Semiconductor) und andere Kamera-/Videobildprozessoren, die digitale fotografische Verfahren verwenden, um vorwärts gerichtete Objekte einschließlich eines oder mehrerer Fahrzeuge zu „sehen“.
-
Der Lidar-Sensor 34 verwendet einen gepulsten und reflektierten Laserstrahl, um die Entfernung oder den Abstand zu einem Objekt zu messen. Der Radarsensor 36 verwendet Funkwellen, um Entfernung, Winkel und/oder Geschwindigkeit eines Objekts zu bestimmen. Die Kamera 38 umfasst einen Bildsensor, ein Objektiv und eine Kamera-Steuerung. Der Bildsensor ist ein elektro-optisches Gerät, das ein optisches Bild in ein elektronisches Signal umwandelt und dabei eine mehrdimensionale Anordnung lichtempfindlicher Sensorelemente verwendet. Die Kamerasteuerung ist operativ mit dem Bildsensor verbunden, um den sichtbaren Bereich 32 zu überwachen. Die Kamera-Steuerung ist so angeordnet, dass er den Bildsensor so steuert, dass er ein Bild eines Sichtfeldes (FOV) erfasst, das dem sichtbaren Bereich 32 zugeordnet ist und über das Objektiv auf den Bildsensor projiziert wird. Die optische Linse kann so konfiguriert werden, dass sie Merkmale wie ein Pin-Loch-Objektiv, ein Fischaugen-Objektiv, ein Stereo-Objektiv, ein Teleskop-Objektiv usw. enthält. Die Kamera 38 erfasst über den Bildsensor periodisch eine Bilddatei, die dem sichtbaren Bereich 32 zugeordnet ist, mit einer gewünschten Rate, z.B. 30 Bilddateien pro Sekunde. Jede Bilddatei besteht aus einer 2D- oder 3D-Digitaldarstellung der gesamten oder eines Teils der sichtbaren Region 32, die mit einer Originalauflösung der Kamera 38 erfasst wurde. In einer Ausführungsform liegt die Bilddatei in Form eines 24-Bit-Bildes vor, das RGB (rot-grün-blau) Werte des sichtbaren Lichtspektrums und Tiefenwerte enthält, die den sichtbaren Bereich 32 darstellen. Andere Ausführungsformen der Bilddatei können entweder ein 2D- oder 3D-Bild mit einer bestimmten Auflösung enthalten, das eine Schwarzweiß- oder Graustufendarstellung des Spektrums des sichtbaren Lichts der sichtbaren Region 32, eine Darstellung des Infrarotspektrums der sichtbaren Region 32 oder andere Bilddarstellungen ohne Einschränkung darstellt. Die Bilddarstellungen der Vielzahl von Bilddateien können auf Parameter in Bezug auf Helligkeit und/oder Leuchtdichte in einer Ausführungsform ausgewertet werden. Alternativ können die Bilddarstellungen auf der Grundlage von RGB-Farbkomponenten, Helligkeit, Textur, Kontur oder Kombinationen davon bewertet werden. Der Bildsensor kommuniziert mit einem Encoder, der die digitale Signalverarbeitung (DSP) für jede Bilddatei ausführt. Der Bildsensor der Kamera 38 kann so konfiguriert werden, dass er das Bild mit einer nominellen Standard-Definitionsauflösung, z.B. 640x480 Pixel, erfasst. Alternativ kann der Bildsensor der Kamera 38 so konfiguriert werden, dass er das Bild mit einer nominell hochauflösenden Auflösung, z. B. 1440x1024 Pixel, oder mit einer anderen geeigneten Auflösung erfasst. Der Bildsensor der Kamera 38 kann Standbilder oder alternativ digitale Videobilder mit einer vorbestimmten Bildaufnahmerate erfassen. Die Bilddateien werden der Kamera-Steuerung als kodierte Datendateien übermittelt, die in einem nichttransitorischen digitalen Datenspeichermedium in einer Ausführungsform für die On-Board- oder Off-Board-Analyse gespeichert werden.
-
Die Kamera 38 ist vorteilhaft auf dem Fahrzeug 10 an einer Stelle angebracht und positioniert, die die Aufnahme von Bildern des sichtbaren Bereichs 32 ermöglicht, wobei mindestens ein Teil des sichtbaren Bereichs 32 einen Teil der Fahrfläche 70 einschließt, der sich vor dem Fahrzeug 10 befindet und eine Flugbahn des Fahrzeugs 10 einschließt. Der sichtbare Bereich 32 kann auch eine Umgebung einschließen, die z.B. den Fahrzeugverkehr, Straßenrandobjekte, Fußgänger und andere Merkmale, den Himmel, einen Horizont, die Fahrspur und den ankommenden Verkehr vor dem Fahrzeug 10 einschließt. Es können auch andere Kameras (nicht abgebildet) verwendet werden, einschließlich z.B. einer zweiten Kamera, die an einem hinteren Teil oder einem Seitenteil des Fahrzeugs 10 angeordnet ist, um die Rückseite des Fahrzeugs 10 und eine der rechten oder linken Seiten des Fahrzeugs 10 zu überwachen.
-
Die autonome Steuerung 65 ist so konfiguriert, dass sie autonomes Fahren oder ADAS-Fahrzeugfunktionalitäten (Advanced Driver Assistance System) implementiert. Eine solche Funktionalität kann ein fahrzeugseitiges Steuersystem umfassen, das in der Lage ist, ein gewisses Maß an Fahrautomatisierung zu bieten. Die Begriffe „Fahrer“ und „Bediener“ beschreiben die Person, die für die Steuerung des Betriebs des Fahrzeugs 10 verantwortlich ist, unabhängig davon, ob sie aktiv an der Steuerung einer oder mehrerer Fahrzeugfunktionen oder an der Steuerung des autonomen Fahrzeugbetriebs beteiligt ist. Die Fahrautomatisierung kann eine Reihe von dynamischen Fahr- und Fahrzeugfunktionen umfassen. Die Fahrautomatisierung kann ein gewisses Maß an automatischer Steuerung oder Intervention in Bezug auf eine einzelne Fahrzeugfunktion, wie Lenkung, Beschleunigung und/oder Bremsen, beinhalten, wobei der Fahrer ständig die Gesamtkontrolle über das Fahrzeug hat 10. Die Fahrautomatisierung kann ein gewisses Maß an automatischer Steuerung oder Intervention in Bezug auf die gleichzeitige Steuerung mehrerer Fahrzeugfunktionen, wie Lenkung, Beschleunigung und/oder Bremsen, umfassen, wobei der Fahrer ständig die Gesamtkontrolle über das Fahrzeug hat. Die Fahrtautomatisierung kann die gleichzeitige automatische Steuerung von Fahrzeug-Fahrfunktionen einschließen, die Lenkung, Beschleunigung und Bremsen umfassen, wobei der Fahrer die Kontrolle über das Fahrzeug für einen Zeitraum während einer Fahrt abgibt. Die Fahrtautomatisierung kann die gleichzeitige automatische Steuerung von Fahrzeugantriebsfunktionen, einschließlich Lenkung, Beschleunigung und Bremsen, umfassen, wobei der Fahrer die Steuerung des Fahrzeugs für einen Zeitraum während einer Fahrt abgibt. Die Fahrautomation umfasst Hardware und Steuerungen, die so konfiguriert sind, dass sie die räumliche Umgebung unter verschiedenen Fahrmodi überwachen, um verschiedene Fahraufgaben während des dynamischen Fahrzeugbetriebs auszuführen. Die Fahrautomation kann in Form von nicht einschränkenden Beispielen den Tempomat, den adaptiven Tempomat, die Spurwechselwamung, den Eingriff und die Steuerung, das automatische Einparken, die Beschleunigung, das Bremsen und dergleichen umfassen. Zu den autonomen Fahrzeugfunktionen gehören, als nichtbegrenzende Beispiele, die Funktion des adaptiven Tempomats (ACC), Spurführung und Spurhaltefunktion, Spurwechselfunktion, Lenkhilfefunktion, Objektvermeidungsfunktion, Parkhilfefunktion, Fahrzeugbremsfunktion, Fahrzeuggeschwindigkeit und -beschleunigung, Querbewegungsfunktion, z.B. als Teil der Spurführung, Spurhalte- und Spurwechselfunktion usw. Somit kann der Bremsbefehl durch das autonome Steuergerät 65 unabhängig von einer Aktion des Fahrzeugführers und als Reaktion auf eine autonome Steuerfunktion erzeugt werden.
-
Bedienteile können sich im Fahrgastraum des Fahrzeugs 10 befinden und können, als nicht einschränkende Beispiele, ein Lenkrad, ein Gaspedal, das Bremspedal und ein Eingabegerät für den Bediener, das ein Element der HMI-Einrichtung 60 ist, umfassen. Die Bedienelemente ermöglichen es dem Fahrzeugführer, mit dem Fahrzeug 10 zu interagieren und das Fahrzeug 10 direkt zu bedienen, wenn es zur Personenbeförderung eingesetzt wird. Die Bedienelemente des Bedieners, einschließlich Lenkrad, Gaspedal, Bremspedal, Gangwahlschalter und dergleichen, können in einigen Ausführungen des Fahrzeugs 10 weggelassen werden.
-
Das HMI-Gerät 60 dient der Mensch-Maschine-Interaktion zur Steuerung des Betriebs eines Infotainmentsystems, des GPS-Sensors 52, des Navigationssystems 24 u.ä. und enthält eine Steuerung. Das HMI-Gerät 60 überwacht Bedieneranfragen und stellt dem Bediener Informationen zur Verfügung, darunter den Status von Fahrzeugsystemen sowie Service- und Wartungsinformationen. Das HMI-Gerät 60 kommuniziert mit einer Vielzahl von Bedienerschnittstellengeräten und/oder steuert deren Betrieb, wobei die Bedienerschnittstellengeräte in der Lage sind, eine mit dem Betrieb eines der autonomen Fahrzeugsteuersysteme verbundene Nachricht zu übertragen. Das HMI-Gerät 60 kann auch mit einem oder mehreren Geräten kommunizieren, die biometrische Daten in Verbindung mit dem Fahrzeugbediener überwachen, wie z.B. die Blickposition, die Körperhaltung und die Verfolgung der Kopfposition, unter anderem. Das HMI-Gerät 60 ist der Einfachheit halber als ein einheitliches Gerät dargestellt, kann aber in einer Ausführungsform des hier beschriebenen Systems als eine Mehrzahl von Steuerungen und zugehörigen Sensorvorrichtungen konfiguriert werden. Bedienerschnittstellenvorrichtungen können Vorrichtungen umfassen, die in der Lage sind, eine Nachricht zu übermitteln, die den Bediener zum Handeln auffordert, und können ein elektronisches Sichtanzeigemodul enthalten, z.B. eine Flüssigkristallanzeige (LCD), eine Heads-up-Anzeige (HUD), eine Audio-Feedback-Vorrichtung, eine tragbare Vorrichtung und einen haptischen Sitz. Die Bedienerschnittstellengeräte, die in der Lage sind, den Bediener zum Handeln zu zwingen, werden vorzugsweise durch oder über das HMI-Gerät 60 gesteuert. Das HUD kann Informationen, die auf eine Innenseite einer Windschutzscheibe des Fahrzeugs reflektiert werden, im Sichtfeld des Bedieners projizieren, einschließlich der Übertragung eines Vertrauensniveaus, das mit der Bedienung eines der autonomen Fahrzeugsteuersysteme verbunden ist. Das HUD kann auch Augmented-Reality-Informationen wie z.B. Fahrspurlage, Fahrzeugweg, Richtungs- und/oder Navigationsinformationen und ähnliches liefern.
-
Das On-Board-Navigationssystem 24 verwendet die digitalisierte Straßenkarte 25, um einem Fahrzeugführer Navigationsunterstützung und Informationen zu liefern. Das autonome Steuergerät 65 verwendet die digitalisierte Straßenkarte 25 für die Steuerung des autonomen Fahrzeugbetriebs oder der ADAS-Fahrzeugfunktionen.
-
Das Fahrzeug 10 kann eine Telematik-Steuerung 75 enthalten, die ein drahtloses Telematik-Kommunikationssystem umfasst, das in der Lage ist, außerhalb des Fahrzeugs zu kommunizieren, einschließlich der Kommunikation mit einem Kommunikationsnetzwerk 90, das über drahtlose und drahtgebundene Kommunikationsmöglichkeiten verfügt. Das Telematik-Steuergerät 75 ist für die Kommunikation außerhalb des Fahrzeugs geeignet, die eine Fahrzeug-Fahrzeug-Kommunikation mit kurzer Reichweite (V2V) und/oder eine Fahrzeug-Alles-Kommunikation (V2x) einschließt, die auch die Kommunikation mit einem Infrastrukturmonitor, z.B. einer Verkehrskamera, einschließen kann. Alternativ oder zusätzlich verfügt die Telematik-Steuerung 75 über ein drahtloses Telematik-Kommunikationssystem, das in der Lage ist, eine drahtlose Kommunikation über kurze Entfernungen mit einem Handgerät, z.B. einem Mobiltelefon, einem Satellitentelefon oder einem anderen telefonischen Gerät, durchzuführen. In einer Ausführung enthält das Handheld-Gerät eine Software-Anwendung, die ein drahtloses Protokoll zur Kommunikation mit der Telematik-Steuerung 75 enthält, und das Handheld-Gerät führt die Kommunikation außerhalb des Fahrzeugs aus, einschließlich der Kommunikation mit einem Off-Board-Server 95 über das Kommunikationsnetz 90. Alternativ oder zusätzlich führt die Telematik-Steuerung 75 die Kommunikation mit dem Fahrzeugäußeren direkt aus, indem er über das Kommunikationsnetz 90 mit dem Server 95 außerhalb des Fahrzeugs kommuniziert.
-
Der Begriff „Steuerung“ und verwandte Begriffe wie Mikro-Steuerung, Steuereinheit, Prozessor und ähnliche Bezeichnungen beziehen sich auf eine oder mehrere Kombinationen von anwendungsspezifischen integrierten Schaltungen (ASIC), Field-Programmable Gate Array (FPGA), elektronischen Schaltungen, Zentraleinheit(en), z.B. Mikroprozessor(en) und zugehörigen nichtflüchtigen Speicherbausteinen in Form von Speicher- und Speichereinheiten (nur lesen, programmierbar nur lesen, wahlfreier Zugriff, Festplatte usw.), die durch Speicher 23 gekennzeichnet sind. Die nicht-transitorische Speicherkomponente ist in der Lage, maschinenlesbare Befehle in Form von einem oder mehreren Software- oder Firmware-Programmen oder -Routinen, kombinatorischen Logikschaltkreisen, Ein-/Ausgabeschaltkreisen und -vorrichtungen, Signalkonditionierungs- und Pufferschaltkreisen und anderen Komponenten zu speichern, auf die ein oder mehrere Prozessoren zugreifen können, um eine beschriebene Funktionalität bereitzustellen. Ein-/Ausgabeschaltung(en) und -vorrichtungen umfassen Analog/Digital-Wandler und verwandte Vorrichtungen, die Eingänge von Sensoren überwachen, wobei diese Eingänge mit einer voreingestellten Abtastfrequenz oder als Reaktion auf ein Triggerereignis überwacht werden. Software, Firmware, Programme, Anweisungen, Steuerroutinen, Code, Algorithmen und ähnliche Begriffe bedeuten Steuerung-ausführbare Befehlssätze einschließlich Kalibrierungen und Nachschlagetabellen. Jeder Regler führt Steuerroutine(n) aus, um die gewünschten Funktionen bereitzustellen. Die Routinen können in regelmäßigen Abständen ausgeführt werden, zum Beispiel alle 100 Mikrosekunden während des laufenden Betriebs. Alternativ können Routinen als Reaktion auf das Eintreten eines auslösenden Ereignisses ausgeführt werden. Die Kommunikation zwischen Reglern, Aktoren und/oder Sensoren kann über eine direkte verdrahtete Punkt-zu-Punkt-Verbindung, eine vernetzte Kommunikationsbusverbindung, eine drahtlose Verbindung oder eine andere geeignete Kommunikationsverbindung erfolgen. Zur Kommunikation gehört der Austausch von Datensignalen in geeigneter Form, darunter z.B. elektrische Signale über ein leitendes Medium, elektromagnetische Signale über Luft, optische Signale über Lichtwellenleiter und dergleichen. Bei den Datensignalen kann es sich um diskrete, analoge oder digitalisierte Analogsignale handeln, die Eingänge von Sensoren, Aktuatorbefehle und die Kommunikation zwischen Steuerungen darstellen. Der Begriff „Signal“ bezieht sich auf einen physisch wahrnehmbaren Indikator, der Informationen übermittelt, und kann eine geeignete Wellenform (z.B. elektrisch, optisch, magnetisch, mechanisch oder elektromagnetisch) sein, wie z.B. Gleichstrom, Wechselstrom, Sinuswelle, Dreieckwelle, Rechteckwelle, Schwingung und dergleichen, die in der Lage ist, ein Medium zu durchlaufen. Ein Parameter ist definiert als eine messbare Größe, die eine physikalische Eigenschaft einer Vorrichtung oder eines anderen Elements darstellt, die mit Hilfe eines oder mehrerer Sensoren und/oder eines physikalischen Modells erkennbar ist. Ein Parameter kann einen diskreten Wert haben, z.B. entweder „1“ oder „0“, oder er kann im Wert stufenlos variabel sein.
-
Wie hier verwendet, beschreiben die Begriffe „dynamisch“ und „dynamisches“ Schritte oder Prozesse, die in Echtzeit ausgeführt werden und dadurch gekennzeichnet sind, dass Zustände von Parametern überwacht oder anderweitig bestimmt werden und die Zustände der Parameter während der Ausführung einer Routine oder zwischen Iterationen der Routineausführung regelmäßig oder periodisch aktualisiert werden.
-
2 zeigt schematisch die Draufsicht auf ein Straßensegment 200, das ein Ausschnitt der digitalisierten Straßenkarte 25 sein kann, der von einer Ausführungsform des Fahrzeugs 10 verwendet werden kann, die mit Bezug auf 1 beschrieben wird. Es wird auch eine Ausführungsform des Fahrzeugs 10 gezeigt, die mit Bezug auf 1 beschrieben wird. Das Beispielstraßensegment 200 ist eine T-Kreuzung mit einem Hauptstraßenelement 202 und einem Nebenstraßenelement 204, das im rechten Winkel an das Hauptstraßenelement 202 anschließt. Das Beispielstraßensegment 200 ist in jeder Fahrtrichtung einspurig dargestellt. Das Straßensegment 200 und die damit verbundenen Konzepte können jedoch auf Straßenabschnitte angewendet werden, die als mehrspurige Straßen konfiguriert sind. Das Fahrzeug 10 ist auf dem Nebenstraßenelement 204 angeordnet und nähert sich, wie dargestellt, dem Hauptstraßenelement 202. Gezeigt ist ein Randabschnitt 205 des Straßensegments 200, der eine geophysikalische Bodenwahrheit darstellt. Es ist ein Bezugsrahmen 240 dargestellt, der eine Längsrichtung (X) und eine Querrichtung (Y) umfasst, die im Zusammenhang mit der Ausrichtung des Fahrzeugs 10 definiert sind. Ein erster Satz von Punkten 210 wird gezeigt, die geophysikalische Positionen einer Vielzahl von Fahrbahnmarkierungen darstellen, die am Randbereich 205 des Straßensegments 200 angeordnet sind, wie sie von einem weiteren der räumlichen Sensoren des Fahrzeug-Raumüberwachungssystems 100 wahrgenommen werden. Die erste Gruppe von Punkten 210 bildet eine wahrgenommene Punktwolke, die mit dem Straßensegment 200 assoziiert ist. Ein zweiter Satz von Punkten 220 repräsentieren kartenbasierte Standorte der Fahrbahnmarkierungen, die auf der digitalisierten Straßenkarte 25 identifiziert sind, einzelnen der Fahrbahnmarkierungen 210 entsprechen und einen Kartenrand 225 darstellen. Der zweite Satz von Punkten bildet eine kartografische Punktwolke, die dem Straßensegment 200 zugeordnet ist. Ein dritter Punkt 235 stellt eine geophysikalische Position des Fahrzeugs 10 dar, die vom GPS-Sensor 52 angezeigt wird. Wie in Beilage 230 gezeigt, kann ein Fehlervektor 231 identifiziert werden, der eine Differenz zwischen der kartenbasierten Position einer der Fahrbahnmarkierungen 220, angezeigt durch 221, und der geophysikalischen Position einer der Fahrbahnmarkierungen 210, angezeigt durch 211, darstellt, einschließlich einer Transformation, die in der Längsrichtung (X) 232 und der Querrichtung (Y) 233 quantifiziert wird.
-
Die geophysikalische Lage der Fahrbahnmarkierungen
210, dargestellt durch den Kartenrand
225 des Straßensegments
200 und des zugehörigen Fahrbahnsegments, kann durch Gl. 1 ausgedrückt werden, wie folgt ausgedrückt werden.
-
Mit Gl. 1 verbundene Parameter können für die wahrgenommene Punktwolke entwickelt werden, die durch den ersten Satz von Punkten 210 in Verbindung mit dem Straßensegment 200 gebildet wird. Parameter im Zusammenhang mit Gl. 1 können auch für die kartierte Punktwolke entwickelt werden, die durch den zweiten Satz von Punkten 220 in Verbindung mit dem Straßenabschnitt 200 gebildet wird.
-
Wie hierin beschrieben, werden ein System und ein zugehöriges Verfahren zur Echtzeit-Fahrzeugpositionierung unter Verwendung von Fahrspurwahrnehmungseingaben bereitgestellt, die mit Hilfe von Polynomgleichungen beschrieben werden, wobei eine Ausführungsform des Fahrzeugs 10 verwendet wird, das unter Bezugnahme auf 1 beschrieben wird und auf einer Fahrbahn fährt, einschließlich, als nicht einschränkendes Beispiel, des Straßenabschnitts 200, der unter Bezugnahme auf 2 beschrieben wird. Das System umfasst einen räumlichen Sensor, einen GPS-Sensor, ein Navigationssystem und eine Steuerung. Der räumliche Sensor ist so angeordnet, dass er ein Straßensegment der Fahrbahn proximal zum Fahrzeug überwacht. Ein fahrzeugeigenes Speichergerät mit einer Straßenkarte ist ebenfalls enthalten. Die Steuerung steht in Kommunikation mit dem Raumsensor, dem GPS-Sensor, dem Navigationssystem und dem Speichergerät. Die Steuerung enthält einen ausführbaren Befehlssatz, um über den GPS-Sensor eine geographische Position des Fahrzeugs im Kontext der Straßenkarte zu bestimmen und über den räumlichen Sensor den Straßenabschnitt zu überwachen. Es werden eine wahrgenommene Punktwolke einschließlich einer erfassten Kante für das Straßensegment auf der Grundlage des räumlichen Sensors und eine kartierte Punktwolke einschließlich einer kartierten Kante für das Straßensegment auf der Grundlage der Straßenkarte bestimmt. Insgesamt wird davon ausgegangen, dass die wahrgenommene Punktwolke relativ zur Bodenwahrheit genauer ist als die kartierte Punktwolke. Die wahrgenommene Punktwolke wird auf die kartographierte Punktwolke transformiert, d.h. die kartographierte Punktwolke ist fixiert und die wahrgenommene Punktwolke wird transformiert, wie unter Bezugnahme auf eine zweite Routine beschrieben, die in 5 beschrieben ist.
-
Ein Fehlervektor wird auf der Grundlage einer Transformation zwischen der abgebildeten Punktwolke und der wahrgenommenen Punktwolke bestimmt, und ein erstes Konfidenzintervall, das dem Fehlervektor zugeordnet ist, wird ebenfalls bestimmt. Ein zweites Konfidenzintervall in Verbindung mit einer longitudinalen Dimension auf der Basis der abgebildeten Punktwolke und der wahrgenommenen Punktwolke wird bestimmt, und ein drittes Konfidenzintervall in Verbindung mit einer lateralen Dimension auf der Basis der abgebildeten Punktwolke und der wahrgenommenen Punktwolke wird durch eine gestörte Sensitivitätsanalyse, wie hier beschrieben, bestimmt. Eine Kalman-Filteranalyse wird ausgeführt, um die Position des Fahrzeugs relativ zur Straßenkarte dynamisch zu bestimmen, basierend auf dem Fehlervektor, dem ersten Konfidenzintervall, dem zweiten Konfidenzintervall und dem dritten Konfidenzintervall. Der Betrieb des Fahrzeugs 10 wird auf der Grundlage der Position des Fahrzeugs 10 relativ zur Fahrbahnkarte 25 gesteuert. Dies wird mit Bezug auf die 3-7 wie folgt beschrieben.
-
3 zeigt schematisch Details im Zusammenhang mit einer ersten Routine 300 zur dynamischen Bewertung der Genauigkeit eines Straßensegments einer digitalisierten Straßenkarte im Fahrzeug, um ein erstes Konfidenzintervall zu bestimmen, das mit einer Transformation zwischen der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment verbunden ist. Die erfasste Kante für das Straßensegment wird als eine wahrgenommene Punktwolke 310 dargestellt, und die kartierte Kante für das Straßensegment wird als eine kartierte Punktwolke 320 dargestellt. Dazu gehört die Anwendung einer ICP-Analyse (Discounted Distance Iterative Closest Point) der kartierten Punktwolke 320 und der wahrgenommenen Punktwolke 310 in einem ungestörten Zustand und die Abfrage eines Gauß-Prozesses zur Bestimmung des ersten Konfidenzintervalls, das mit der Transformation zwischen der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment verbunden ist. Die Routine 300 wird unter Bezugnahme auf eine Ausführungsform des Fahrzeugs 10 beschrieben, das unter Bezugnahme auf 1 beschrieben wird, und ein Beispiel für das Straßensegment 200, das unter Bezugnahme auf 2 beschrieben wird. Die Kontrollroutine 300 kann im Fahrzeug ausgeführt werden, z.B. durch die Raumüberwachungs-Steuerung 110, das Navigationssystem 24 oder in einer eigenständigen Steuerung.
-
Die Eingaben für die erste Routine 300 umfassen die wahrgenommene Punktwolke 310, die dem ersten Satz von Punkten 210 im Zusammenhang mit dem Straßenabschnitt 200 entspricht, der unter Bezugnahme auf 2 beschrieben wird, und die kartierte Punktwolke 320, die dem zweiten Satz von Punkten 220 im Zusammenhang mit dem Straßenabschnitt 200 entspricht, der unter Bezugnahme auf 2 beschrieben wird. Die wahrgenommene Punktwolke 310 und die kartierte Punktwolke 320 werden in einen distance discounted iterative closest point (ICP)-Algorithmus 330 eingegeben, der mit den Daten in der wahrgenommenen Punktwolke 310 und den entsprechenden Daten in der kartierten Punktwolke 320 arbeitet, um einen ungestörten Transformationsvektor 340 zu bestimmen. Die Implementierung von ICP-Algorithmen zur Bestimmung einer Transformation zwischen Punktwolken wird in der Kunst verstanden. Der ungestörte Transformationsvektor 340 kann in einer Datenbank von Kartenfehlern erfasst werden, die an einer Vielzahl von GPS-Koordinaten bestimmt wird. Die Datenbank von Kartenfehlern wird in einem Gauß'schen Verfahren verwendet, das aus früheren Beobachtungen zusammengesetzt ist, um einen Fehler in einem Fahrbahnrand des Straßenabschnitts zu bestimmen und die darauf basierende Karte zu aktualisieren, und kann in einem Speichergerät des Off-Board-Servers 95 gespeichert werden.
-
Der ungestörte Transformationsvektor 340 wird als Fehlervektor 355 ausgegeben, der mit der wahrgenommenen Punktwolke 310, die den erfassten Rand für das Straßensegment darstellt, und der kartierten Punktwolke 320, die den kartierten Rand für das Straßensegment darstellt, verknüpft ist. Der Gauß'sche Prozess 350 wird abgefragt, um den Grad des Vertrauens in die Beobachtung zu bestimmen. So enthält das Ergebnis des Gauß-Prozesses 350 den zugehörigen Fehlervektor 355 an einem bestimmten GPS-Koordinatenpunkt, basierend auf Informationen in der Datenbank der Kartenfehler, die an der GPS-Koordinate bestimmt werden. Der Fehlervektor 355 bezieht sich auf die Transformation zwischen der abgetasteten Kante, z.B. der abgetasteten Kante 215, und einer Kartenkante, z.B. der Kartenkante 225, die unter Bezugnahme auf 2 dargestellt sind. Die Transformation kann in der Längsrichtung (X) und in der Querrichtung (Y) quantifiziert werden. Der Fehlervektor 355 kann verwendet werden, um die digitalisierte Straßenkarte 25, die vom Navigationssystem 24 verwendet wird, und die Fahrzeugposition zu aktualisieren. Als nicht einschränkendes Beispiel kann dies die Aktualisierung des Kartenrandes 225 des Straßenabschnitts 200 umfassen, der unter Bezugnahme auf 2 dargestellt ist.
-
Der Gauß'sche Prozess 350 wird an jeder der GPS-Koordinaten abgefragt, um den ungestörten Transformationsvektor 340 auszuwerten und den an diesem Ort beobachteten mittleren Fehler und die entsprechende Standardabweichung zu bestimmen. Unter Verwendung dieser Werte kann die ungestörte Transformation durch die Anzahl der Standardabweichungen beschrieben werden, die sie in beiden Richtungen vom Mittelwert entfernt ist, und diese Information wird verwendet, um anzugeben, wie wahrscheinlich es ist, dass dieser Wert beobachtet wird. Je weiter sie vom historisch beobachteten Mittelwert entfernt ist, desto unwahrscheinlicher ist ihr Auftreten und desto geringer das Vertrauen in die Sensormesswerte. Der Gauß-Prozess 350 kann in seiner Umsetzung N-dimensional sein und so verschiedene Fehlerdarstellungen erfassen. Aspekte des Gauß'schen Prozesses 350 können in einem Speichergerät des Off-Board-Servers 95 gespeichert werden.
-
4 zeigt grafisch Daten im Zusammenhang mit der Ausführung eines Gauß-Prozesses 400, der die geschätzte Größe eines Fehlervektors und das zugehörige Konfidenzintervall für einen bestimmten GPS-Punkt enthält. Ein erster Satz von Balken 410 repräsentiert eine Größe des Fehlervektors von einer Referenzlinie 405, z.B. einer Straßenkante, mit zugehörigen Fehlerbalken 412, die die Unsicherheit anzeigen. Ein zweiter Satz von Balken 420 stellt die Größen der geschätzten Fehlervektoren von der Referenzlinie 405 dar, wobei die zugehörigen geschätzten Fehlerbalken 422 die Unsicherheit anzeigen. Linie 430 drückt den interpolierten Fehler aus, so dass eine GPS-Koordinate einen mittleren historischen Fehler und ein Konfidenzintervall enthält, die berichtet werden können.
-
5 zeigt schematisch eine zweite Routine 500 zur dynamischen Bewertung der Genauigkeit eines Straßenabschnitts einer digitalisierten Fahrbahn im Fahrzeug. Die zweite Routine-500 beinhaltet eine gestörte Empfindlichkeitsanalyse einer kartierten Punktwolke und einer wahrgenommenen Punktwolke. In einer Ausführung umfasst die gestörte Sensitivitätsanalyse eine gestörte iterative Nahpunktanalyse (ICP) mit Entfernungsdiskontierung in Form einer zweiten iterativen Nahpunktanalyse mit Entfernungsdiskontierung (ICP) der kartierten Punktwolke und der wahrgenommenen Punktwolke. Die gestörte Empfindlichkeitsanalyse umfasst das Induzieren von x-dimensionalen Störungen der wahrgenommenen Punktwolke und dann das Induzieren von y-dimensionalen Störungen der wahrgenommenen Punktwolke, die mit der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment verbunden ist, und das Bestimmen aktualisierter Transformationen zwischen der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment und einer aktualisierten Fahrzeugposition in Bezug auf die Karte.
-
Die zweite Routine
500 ist als eine Sammlung von Blöcken in einem logischen Flussdiagramm dargestellt, das eine Sequenz von Operationen darstellt, die in Hardware, Software oder einer Kombination davon implementiert werden können. Im Zusammenhang mit Software stellen die Blöcke Computerbefehle dar, die, wenn sie von einem oder mehreren Prozessoren ausgeführt werden, die rezitierten Operationen ausführen. Der Einfachheit und Klarheit der Veranschaulichung halber wird das Verfahren unter Bezugnahme auf das Fahrzeug
10 beschrieben, das unter Bezugnahme auf
1 beschrieben wird.
Tabelle 1
BLOCK | BLOCK INHALT |
310 | Eingabe Wahrgenommene Punktwolke PCp |
320 | Eingabe Kartierte Punktwolke PCm |
330 | Ausführen des entfernungsdiskontierten ICP-Algorithmus |
340 | Ungestörte Transformation bestimmen |
545 | Ungestörte Transformation um 180° drehen |
560 | Gestörte Sensitivitätsanalyse-Routine |
561 | j=0 initialisieren |
562 | Initialisieren i=0 |
563 | PCp + Noisei einstellen |
564 | Ausführen des entfernungsdiskontierten ICP-Algorithmus |
565 | Neue Transformi bestimmen |
566 | Ist i>4? |
567 | Schrittweite i |
568 | Bestimmen des Pearson-Korrelationskoeffizienten |
569 | Ist j>1? |
570 | Schrittweite j |
572 | Rückkehr-Vertrauensintervall der Fahrzeugposition in der Längsrichtung (X) und in der Querrichtung (Y). Abmessungen |
574 | Kalman-Filter ausführen |
580 | Karte aktualisieren |
-
Die Ausführung der zweiten Routine 500 kann wie folgt ablaufen. Die Schritte der zweiten Routine 500 können in einer geeigneten Reihenfolge ausgeführt werden und sind nicht auf die unter Bezugnahme auf 5 beschriebene Reihenfolge beschränkt. Wie hier verwendet, bedeutet der Begriff „1“ eine bejahende Antwort oder „JA“ und der Begriff „0“ eine verneinende Antwort oder „NEIN“.
-
Die Eingaben für die zweite Routine 500 umfassen die wahrgenommene Punktwolke 310, die dem ersten Satz von Punkten 210 im Zusammenhang mit dem Straßenabschnitt 200 entspricht, der unter Bezugnahme auf 2 beschrieben wird, und die kartierte Punktwolke 320, die dem zweiten Satz von Punkten 220 im Zusammenhang mit dem Straßenabschnitt 200 entspricht, der unter Bezugnahme auf 2 beschrieben wird.
-
Die wahrgenommene Punktwolke 310 und die kartierte Punktwolke 320 werden in den ersten distance discounted iterative closest point (ICP)-Algorithmus (330) eingegeben, um den ungestörten Transformationsvektor 340 zwischen der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment und ein zugehöriges erstes Konfidenzintervall 342 zu bestimmen. Der ungestörte Transformationsvektor 340 kann in Form eines Vektors ausgedrückt werden, der in einen lateralen Fehlerterm, d.h. Δx, und einen longitudinalen Fehlerterm, d.h. Δy, zwischen einzelnen Punkten der wahrgenommenen Punktwolke 310 und der kartierten Punktwolke 320 zerlegt werden kann. Eine statische Form des Gaußschen Prozesses 350' ist im Speicher 23 des Fahrzeugs 10 gespeichert. Der statische Gauß'sche Prozess 350' wird an jeder der GPS-Koordinaten abgefragt, um den ungestörten Transformationsvektor 340 auszuwerten und den an diesem Ort beobachteten mittleren Fehler und die entsprechende Standardabweichung zu bestimmen. Mit Hilfe dieser Werte kann die ungestörte Transformation durch die Anzahl der Standardabweichungen beschrieben werden, die sie in beiden Richtungen vom Mittelwert entfernt ist. Diese Information wird verwendet, um anzugeben, wie wahrscheinlich es ist, dass dieser Wert beobachtet wird. Je weiter er vom historisch beobachteten Mittelwert entfernt ist, desto unwahrscheinlicher ist sein Auftreten und desto geringer das Vertrauen in die Sensormesswerte.
-
Die wahrgenommene Punktwolke 310 und die kartierte Punktwolke 320 werden auch in eine gestörte Sensitivitätsanalyse-Routine 560 eingegeben. Die gestörte Sensitivitätsanalyse -Routine (perturbed sensitivity analysis routine) 560 ist ein iterativer Prozess, der durch Induzieren einer Vielzahl von x-dimensionalen Störungen in die wahrgenommene Punktwolke 310 (563) und Ausführen einer Ausführungsform des entfernungsdiskontierten ICP-Algorithmus (564) arbeitet, um eine Vielzahl von x-Transformierten zwischen der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment (565) auf der Grundlage der x-dimensionalen Störungen zu bestimmen. 7 zeigt schematisch Beispiele für x-Dimension-Störungen und zugehörige Vektoren. Zeile 710 stellt eine Grundwahrheit in Form einer Kante für ein Straßensegment dar, die Punkte 712 stellen eine wahrgenommene Punktwolke dar, und die Punkte 714-2 stellen Punkte einer kartierten Punktwolke dar. Die Punkte 714-1, 714-3 und 714-4 stellen die x-dimensionalen Störungen in der wahrgenommenen Punktwolke dar. Der Vektor 720 stellt eine ursprüngliche Transformation dar, die um 180o gedreht wurde, der Vektor 722 stellt das durch die Störung eingeführte Rauschen dar, der Vektor 723 stellt eine neue Transformation dar und der Vektor 726 stellt eine Kombination der Vektoren 720 und 722 dar und ist von der Größe her gleich dem Vektor 723.
-
Die gestörte Sensitivitätsanalyse-Routine 560 führt die Schritte 562, 563, 564, 565, 566, 567 erneut aus, um eine Vielzahl von y-Dimensions-Störungen zu induzieren und den entfernungsdiskontierten ICP-Algorithmus (564) auszuführen, um eine Vielzahl von y-Transformationen zwischen der erfassten Kante für das Straßensegment und der abgebildeten Kante für das Straßensegment (565) basierend auf den y-Dimensions-Störungen zu bestimmen, das einer Drehung von 1800 (545) unterzogen wurde. Die Störungen der y-Dimension umfassen die Addition von Rauschen nur in der y-Dimension und haben keinen Einfluss auf die Drehung um 180 Grad, die so durchgeführt wird, dass bei Addition der Vektoren die Größe mit dem Vektor 723 vergleichbar ist. Der ICP-Algorithmus (564) zur Entfernungsdiskontierung versucht, eine Transformation zwischen der wahrgenommenen Punktwolke 310 und der kartierten Punktwolke 320 zu finden, indem er quadratische Fehler zwischen den Punkten durch Punktübereinstimmung minimiert, wobei den Punkten, die weiter von den räumlichen Sensoren entfernt sind, ein abnehmendes Gewicht zugewiesen wird. Die Störung führt zu einer Verschiebung der wahrgenommenen Punktwolke um eine vorbestimmte Größe in der x-Dimension und der y-Dimension und zur Ausführung der entfernungsdiskontierten ICP 564. Wenn es keinen Unterschied zwischen der Transformation für die gestörte Punktwolke und der ungestörten Punktwolke gibt und die ursprüngliche Transformation der ungestörten Punktwolke um 180 Grad plus den Rauschvektor gedreht ist, wird den Punktwolken ein Informationsgewinn in dieser Dimension und damit eine geringe Unsicherheit zugeschrieben.
-
Der Transformationsvektor, auch als Fehlervektor bezeichnet, wird unter Verwendung des iterativen Algorithmus für den nächstgelegenen Punkt berechnet, der so modifiziert wird, dass das Gewicht von Punkten, die weiter vom Sensor entfernt sind, abgezogen wird. Diese Aktualisierung der Minimierungsfunktion ist unten aufgeführt. Der Fehlervektor kann auf der Grundlage der folgenden Minimierungsbeziehung bestimmt werden:
wobei:
- (xi, yi) stellt die Störungen in den x-Wert und den y-Wert für jedes der Elemente der wahrgenommenen Punktwolke dar,
C stellt eine Entsprechung zwischen einem Punkt in der wahrgenommenen Kante der wahrgenommenen Punktwolke 310 und der kartierten Kante der kartierten Punktwolke 320 dar. Ein bestimmter Punkt in der wahrgenommenen Punktwolke 310 soll dem Punkt in der kartierten Punktwolke 320 entsprechen, der den kleinsten euklidischen Abstand zwischen den beiden Punkten aufweist.
-
Wenn die Mehrzahl der x-Dimensions-Störungen induziert und die zugehörigen aktualisierten Transformationen bestimmt wurden, wird ein Pearson-Korrelationskoeffizient (
568) gemäß EQ ausgeführt. 3, wie folgt ausgeführt:
wobei:
x
i=∥gedrehte ursprüngliche Transformation + Rauschen)∥
2
y
i=∥Neue Transformation)∥
2
-
Die ursprüngliche Transformation wird durch den Vektor 620 in 6 angezeigt;
Die gedrehte Originaltransformation wird durch den Vektor 626 in 6 angezeigt;
Das Rauschen wird durch den Vektor 622 in 6 angezeigt; und
Die neue Transformation wird durch den Vektor 624 in 6 angezeigt.
-
Der Pearson-Korrelationskoeffizient wird für Störungen in der x-Dimension und Störungen in der y-Dimension in einem iterativen Prozess ausgeführt, der die Schritte 561, 562, 563, 564, 565, 566 umfasst. Die ursprüngliche Transformation in Kombination mit zusätzlichem Rauschen, das durch die Störungen induziert wird, sollte gleich der neuen Transformation sein, wenn genügend Informationen über die Straßenform vorhanden sind, um eine Grundwahrheit zu finden und das Rauschen zu entfernen.
-
Der Vergleich wird mit Hilfe des Pearson-Korrelationskoeffizienten (Gl. 3) durchgeführt, der bei perfekter positiver Korrelation gleich 1 ist. Wenn der Pearson-Korrelationskoeffizient sich 0 nähert, impliziert dies einen Mangel an Korrelation zwischen dem induzierten Rauschen und den entdeckten Transformationen.
-
Die Ausgabe der gestörten Sensitivitätsanalyse-Routine 560 umfasst ein zweites Konfidenzintervall 571, das der Längsrichtung auf der Grundlage der kartierten Punktwolke und der wahrgenommenen Punktwolke zugeordnet ist, und ein drittes Konfidenzintervall 573, das der Querrichtung auf der Grundlage der kartierten Punktwolke und der wahrgenommenen Punktwolke zugeordnet ist (572).
-
Das erste Konfidenzintervall 342, das durch die ungestörte Transformation 340 bestimmt wird, der Fehlervektor 355, der dem Gauß-Prozess 350 zugeordnet ist, und die Ergebnisse der gestörten Sensitivitätsanalyseroutine 560 einschließlich des zweiten Konfidenzintervalls 571, das der Längsachse zugeordnet ist, und des dritten Konfidenzintervalls 573, das der Querachse zugeordnet ist, werden als Eingaben für einen Kalman-Filter 574 bereitgestellt, um dynamisch eine Position des Fahrzeugs 10 in Bezug auf den Kartenteil des Straßensegments in Echtzeit zu bestimmen.
-
Der Kalman-Filter 574 wird ausgeführt, um dynamisch eine Position des Fahrzeugs 10 (575) relativ zur Straßenkarte 200 zu bestimmen, basierend auf dem Fehlervektor 355, dem ersten Konfidenzintervall 342, dem zweiten Konfidenzintervall 571 und dem dritten Konfidenzintervall 573.
-
Die Sensitivitätsanalyse bewertet und schätzt die Unsicherheit in der Ausgabe eines mathematischen Modells in jeder Dimension, d.h. in der Quer- und in der Längsrichtung, und teilt und ordnet die Unsicherheit verschiedenen Quellen der Unsicherheit in den Eingaben zu.
-
Die Ergebnisse des Kalman-Filters 574 können verwendet werden, um die Position des Fahrzeugs 10 (575) in Bezug auf die Straßenkarte in Echtzeit dynamisch zu aktualisieren, basierend auf der endgültigen Transformation zwischen der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment und der damit verbundenen Unsicherheit (580). Das Gesamtergebnis umfasst die Aktualisierung der Straßenkarte auf der Grundlage der Transformation zwischen der erfassten Kante für das Straßensegment und der kartierten Kante für das Straßensegment und der damit verbundenen Unsicherheit. Der Betrieb des Navigationssystems 24 kann auf der Grundlage der aktualisierten Straßenkarte für das Straßensegment erfolgen. Wenn das Fahrzeug 10 mit irgendeiner Form von ADAS oder anderen autonomen Fahrfähigkeiten ausgestattet ist, ist die autonome Steuerung 65 in der Lage, einen mit dem ADAS verbundenen Fahrautomatisierungszustand, wie Lenkung oder Bremsen, auf der Grundlage der aktualisierten Straßenkarte für das Straßensegment zu steuern. Der Betrieb des Fahrzeugs 10, einschließlich des Navigationssystems 24 und des autonomen Steuergeräts 65, wird auf der Grundlage der aktualisierten Straßenkarte für das Straßensegment verbessert.
-
Um die Komplexität des Suchraums zu reduzieren und eine höhere Übereinstimmung zwischen der erfassten Kante 215 und der Kartenkante 225 zu ermöglichen, definiert die ICP-Analyse 330 des Entfernungsabschlags den Maßstab der erfassten Kante und der kartografierten Kante auf 1 m bis 1 m, wodurch die Notwendigkeit entfällt, den Maßstab der erfassten Kante so zu verändern, dass er dem Maßstab der kartografierten Kante entspricht. Die ICP-Analyse 330 des Abstandsrabatts definiert auch den gemessenen Rand 215 als Versatz in Längsrichtung (X) und in Querrichtung (Y) zum Kartenrand 225, ohne Rotationselement um die Achse des Fahrzeugs 10. Experimentell erweist sich dies als besser, da die Erfassung mit geringer Treue (low fidelity sensing) weit entfernt vom räumlichen Sensor zu schlechten Drehanwendungen führt. Darüber hinaus deuten empirische Beobachtungen darauf hin, dass die Qualität der Daten umso geringer ist, je weiter sie vom Sensor entfernt sind. Daher wird der Informationsgewinn von Punkten, die weiter vom Fahrzeug entfernt sind, in der ICP-Minimierungsfunktion abgezogen. Der laterale Fehlerterm und der longitudinale Fehlerterm stellen Abbildungsfehler in den jeweiligen lateralen und longitudinalen Dimensionen dar.
-
So wird die Ausgabe 338 der Transformation 338 aus der ICP-Analyse 330 zur Entwicklung einer Fehlermetrik verwendet, die mit dem Gauß-Prozess 350 kombiniert werden kann, um Fehler an verschiedenen Punkten auf der Karte abzuschätzen und so eine verbesserte Vertrauensmetrik für die Lokalisierungstransformation zu erzeugen.
-
Das Flussdiagramm und die Blockdiagramme in den Flussdiagrammen veranschaulichen die Architektur, die Funktionalität und den Betrieb möglicher Implementierungen von Systemen, Verfahren und Computerprogrammprodukten entsprechend den verschiedenen Ausführungsformen der vorliegenden Offenbarung. In dieser Hinsicht kann jeder Block in dem Flussdiagramm oder den Blockdiagrammen ein Modul, ein Segment oder einen Teil des Codes darstellen, der eine oder mehrere ausführbare Anweisungen zur Implementierung der angegebenen logischen Funktion(en) enthält. Es wird auch darauf hingewiesen, dass jeder Block der Blockdiagramme und/oder Flussdiagrammdarstellungen und Kombinationen von Blöcken in den Blockdiagrammen und/oder Flussdiagrammdarstellungen durch Hardware-basierte Systeme mit dedizierter Funktion implementiert werden kann, die die spezifizierten Funktionen oder Handlungen oder Kombinationen von Hardware mit dedizierter Funktion und Computerbefehlen ausführen. Diese Computerprogrammbefehle können auch auf einem computerlesbaren Medium gespeichert werden, das einen Computer oder eine andere programmierbare Datenverarbeitungsanlage auf eine bestimmte Funktionsweise anweisen kann, so dass die auf dem computerlesbaren Medium gespeicherten Befehle einen Fertigungsgegenstand einschließlich eines Befehlssatzes erzeugen, der die im Flussdiagramm und/oder in den Blockdiagrammabbildungen und/oder Blockabbildungen spezifizierte Funktion/Wirkung implementiert.
-
Die detaillierte Beschreibung und die Figuren oder Abbildungen sind unterstützend und beschreibend für die vorliegenden Lehren, aber der Umfang der vorliegenden Lehren wird allein durch die Ansprüche definiert. Während einige der besten Arten und andere Ausführungsformen zur Durchführung der vorliegenden Lehren ausführlich beschrieben wurden, gibt es verschiedene alternative Entwürfe und Ausführungsformen, um die in den beigefügten Ansprüchen definierten vorliegenden Lehren zu praktizieren.