DE102022112395A1 - Von kreuzungsknoten unterstützte hochauflösende kartierung - Google Patents

Von kreuzungsknoten unterstützte hochauflösende kartierung Download PDF

Info

Publication number
DE102022112395A1
DE102022112395A1 DE102022112395.2A DE102022112395A DE102022112395A1 DE 102022112395 A1 DE102022112395 A1 DE 102022112395A1 DE 102022112395 A DE102022112395 A DE 102022112395A DE 102022112395 A1 DE102022112395 A1 DE 102022112395A1
Authority
DE
Germany
Prior art keywords
data
vehicle
lidar
map
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022112395.2A
Other languages
English (en)
Inventor
Ankit Girish Vora
Siddharth Agarwal
Krishanth Krishnan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102022112395A1 publication Critical patent/DE102022112395A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/646Following a predefined trajectory, e.g. a line marked on the floor or a flight path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/245Arrangements for determining position or orientation using dead reckoning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • G05D1/248Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons generated by satellites, e.g. GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Navigation (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein computerimplementiertes Verfahren zum Steuern eines Fahrzeugs beinhaltet Empfangen von ersten Sensorikdaten, die die Position und Abmessungen eines Merkmals in einer kartierten Region identifizieren, über einen Prozessor von zwei oder mehr IX-Steuervorrichtungen, die an zwei oder mehr stationären Positionen angeordnet sind, die bekannte Breitengrade, Längengrade und Ausrichtungen aufweisen. Der Prozessor generiert eine Vielzahl von IX-Knoten auf Grundlage der ersten Sensorikdaten, die von den IX-Steuervorrichtungen empfangen werden, und empfängt eine LiDAR-Punktwolke, die LiDAR-Daten und andere Fahrzeugsensorikvorrichtungsdaten wie etwa Trägheitsmesseinheitsdaten (IMU-Daten) beinhaltet, die von einem Fahrzeug (AV), das in der kartierten Region fährt, empfangen werden. Die LiDAR-Punktwolke beinhaltet eine Karte der simultanen Lokalisierung und Kartierung (SLAM-Karte), die zweite Abmessungsinformationen und zweite Positionsinformationen aufweist, die mit dem Merkmal in der kartierten Region assoziiert sind. Der Prozessor generiert ohne GPS- und/oder Echtzeitkinematikinformationen eine optimierte hochauflösende Karte (HD-Karte), die absolute Genauigkeit aufweist, unter Verwendung von Stapeloptimierung und Kartenglättung.

Description

  • GEBIET DER TECHNIK
  • Die vorliegende Offenbarung betrifft hochauflösende Karten und insbesondere von Kreuzungsknoten (intersection nodes - IX-Knoten) unterstützte Kartenerstellung für Infrastruktur für autonome Fahrzeuge.
  • ALLGEMEINER STAND DER TECHNIK
  • Hochauflösende Karten (High Definition maps - HD-Karten) sind ein bedeutender Aspekt von autonomen Fahrzeugen und ihrer Funktionalität. Autonome Fahrzeuge (autonomous vehicles - AVs) verwenden HD-Karten, um die Fahrzeugposition in ihrer Betriebsumgebung zu interpretieren und zu lokalisieren. Für eine genaue Lokalisierung muss das Fahrzeugsteuersystem mit Präzision verstehen, wo das AV in der Welt lokalisiert ist und wo das AV in der Karte lokalisiert ist.
  • Absolute Genauigkeit und relative Genauigkeit werden beide beim Quantifizieren der Gesamtgenauigkeit einer Karte erwogen. Bei absoluter Genauigkeit handelt es sich darum, wie nahe ein gemessener Wert an einem bekannten absoluten wahren Wert liegt. Diese Metrik wird häufig in bekannten Einheiten bereitgestellt, wie etwa Metern, cm, mm, Zoll oder Fuß. Bei relativer Genauigkeit handelt es sich darum, wie nahe ein gemessener Wert relativ gesehen an einem Standardwert liegt. Anders ausgedrückt, ist die relative Genauigkeit von Mal stab und Translation unabhängig.
  • Es wird derzeit erwogen, dass die relative Genauigkeit größere Bedeutung für den AV-Betrieb aufweist, da sich AVs häufig auf Lokalisierungstechniken verlassen, die auf optischer Abstands- und Geschwindigkeitsmessung (Light Detection and Ranging - LiDAR) und Kameras basieren. HD-Karten beinhalten häufig Informationen wie etwa Spurlinien, Gebäude und andere Umgebungsmerkmale. HD-Karten sind genau (das heil t, sie weisen eine relativ hohe gemessene relative und absolute Genauigkeit auf), indem sie den geografischen Standort und eine geografische Lokalisierung mit einem zuverlässigen Präzisionsgrad darstellen, der durch AVs zur Selbstlokalisierung und Navigation verwendet werden kann. Unter Verwendung einer genauen HD-Karte kann ein AV, während es in einer kartierten Umgebung betrieben wird, autonom seinen Standort in der realen Welt bestimmen und bestimmen, wo das Fahrzeug in Bezug auf kartierte Objekte positioniert ist. Herkömmliche HD-Kartenerstellungssysteme können eine relativ genaue Karte generieren, können aber keine absolute genaue Karte generieren, wenn eines oder mehrere von einem globalen Positionsbestimmungssystem (Global Positioning System - GPS) und RTK fehlen.
  • Die Offenbarung in dieser Schrift wird in Bezug auf diese und andere Erwägungen dargestellt.
  • KURZDARSTELLUNG
  • Ein computerimplementiertes Verfahren zum Steuern eines Fahrzeugs beinhaltet Empfangen von ersten Sensorikdaten, die die Position und Abmessungen eines Merkmals in einer kartierten Region identifizieren, über einen Prozessor von zwei oder mehr IX-Steuervorrichtungen, die an zwei oder mehr stationären Positionen angeordnet sind, die bekannte Breitengrade, Längengrade und Ausrichtungen aufweisen. Der Prozessor generiert eine Vielzahl von IX-Knoten auf Grundlage der ersten Sensorikdaten, die von den IX-Steuervorrichtungen empfangen werden, und empfängt eine LiDAR-Punktwolke, die LiDAR-Daten und andere Fahrzeugsensorikvorrichtungsdaten wie etwa Trägheitsmesseinheitsdaten (Inertial Measurement Unit data - IMU-Daten) beinhaltet, die von einem Fahrzeug (AV), das in der kartierten Region fährt, empfangen werden. Die LiDAR-Punktwolke beinhaltet eine Karte der simultanen Lokalisierung und Kartierung (simultaneous localization and mapping map - SLAM-Karte), die zweite Abmessungsinformationen und zweite Positionsinformationen aufweist, die mit dem Merkmal in der kartierten Region assoziiert sind. Der Prozessor generiert ohne GPS- und/oder Echtzeitkinematikinformationen eine optimierte hochauflösende Karte (HD-Karte), die absolute Genauigkeit aufweist, unter Verwendung von Stapeloptimierung und Kartenglättung.
  • Figurenliste
  • Die detaillierte Beschreibung wird unter Bezugnahme auf die beigefügten Zeichnungen dargelegt. Die Verwendung der gleichen Bezugszeichen kann ähnliche oder identische Elemente angeben. Für verschiedene Ausführungsformen können andere Elemente und/oder Komponenten als die in den Zeichnungen veranschaulichten genutzt werden und einige Elemente und/oder Komponenten sind in verschiedenen Ausführungsformen unter Umständen nicht vorhanden. Elemente und/oder Komponenten in den Figuren sind nicht unbedingt mal stabsgetreu gezeichnet. Für die gesamte Offenbarung gilt, dass Terminologie im Singular und Plural in Abhängigkeit des Kontexts austauschbar verwendet werden kann.
    • 1 veranschaulicht ein beispielhaftes Blockdiagramm eines hochauflösenden Kartensystems (HD-Kartensystems) gemäl der vorliegenden Offenbarung.
    • 2 bildet eine beispielhafte Rechenumgebung ab, in der Techniken und Strukturen zum Bereitstellen der in dieser Schrift offenbarten Systeme und Verfahren implementiert sein können.
    • 3 bildet ein beispielhaftes Satellitenbild einer zu kartierenden Region und eine Platzierung von zwei Kreuzungssteuerpunkten (oder -knoten) (IX-Steuerpunkten oder -Knoten) gemäl der vorliegenden Offenbarung ab.
    • 4 bildet eine Karte von IX-Steuerpunkten ab, die durch das HD-Kartensystem aus 1 gemäl der vorliegenden Offenbarung generiert werden.
    • 5 veranschaulicht eine beispielhafte LiDAR-Punktwolke, die eine Kombination von durch das Fahrzeug erlangten Knotendaten der simultanen Lokalisierung und Kartierung (SLAM-Knotendaten) und durch die IX-Steuerknoten erlangten IX-Knotendaten gemäl der vorliegenden Offenbarung umfasst.
    • 6 bildet ein Ablaufdiagramm eines beispielhaften Verfahrens zum Erstellen einer HD-Karte unter Verwendung des HD-Kartensystems aus 1 gemäl der vorliegenden Offenbarung ab.
  • DETAILLIERTE BESCHREIBUNG
  • Die Offenbarung wird nachfolgend unter Bezugnahme auf die beigefügten Zeichnungen, in denen beispielhafte Ausführungsformen der Offenbarung gezeigt sind, ausführlicher beschrieben und soll nicht einschränkend sein.
  • Hochauflösende Karten (HD-Karten) sind ein bedeutender Aspekt von autonomen Fahrzeugen und ihrer Funktionalität. Autonome Fahrzeuge (AVs) verwenden HD-Karten, um ihre Position zu interpretieren und zu lokalisieren. AVs erfordern häufig ein genaues Verständnis davon, wo das Fahrzeug in der realen Welt lokalisiert ist und wo das AV in der Karte lokalisiert ist. Zwei Ausdrücke sind gut definiert und werden verwendet, um die Genauigkeit von AV-Karten zu quantifizieren: absolute Genauigkeit & relative Genauigkeit.
  • Die absolute Genauigkeit misst, wie weit sich die realen Koordinaten eines beobachteten Objekts von den kartierten Koordinaten dieses Objekts unterscheiden. Zum Beispiel kann ein Lichtmast einen beobachteten realen Breitengrad, Längengrad von 42,3546, 83,2578 und einen kartierten Breitengrad, Längengrad von 42,3543, 83,2575 aufweisen. Die absolute Genauigkeit des Objekts in der Karte wird gemessen, indem ein Ursprung gewählt wird und der Abstand des kartierten Objekts in Bezug auf den Ursprung zu einem bekannten Abstand zwischen dem gleichen realen Objekt und dem lokalisierten Ursprung bewertet wird. Die Karte ist in dem gegebenen Beispiel nicht absolut genau, da sich die Koordinaten zwischen den tatsächlichen lokalisierten Koordinaten und den kartierten Koordinaten unterscheiden.
  • Die relative Genauigkeit ist ein Mal für die Relativität der Karte. Ein Ursprung wird auf einer Karte gewählt und idealerweise sind Merkmale mal genau. In einer relativ genauen Karte kann eine Linienlänge von 2 m genau 2 m betragen, aber in der Karte an einer ungenauen Position erscheinen. Zum Beispiel kann eine Spurlinie in der realen Welt eine Länge von 2 m aufweisen und in einer absoluten genauen Karte wäre die Linienlänge von 2 m in der Karte als 2 m lang messbar. Falls die relative Genauigkeit der Karte gering ist, dann kann die messbare Länge der Spurlinie 2,1 m oder 1,9 m usw. betragen.
  • Die relative Genauigkeit ist bisher für den AV-Betrieb von größerer Bedeutung, da sich das AV häufig auf LiDAR- und kamerabasierte Lokalisierungstechniken stützt. In jüngster Zeit ist der Schwerpunkt auf die AV-Lokalisierung unter Verwendung von auf GPS und Echtzeitkinematik (Real-Time-Kinematics - RTK) basierender Lokalisierung gelegt worden, was die Bedeutung der absoluten Genauigkeit einer hochauflösenden Karte (HD-Karte) erhöht hat. Herkömmliche Techniken zur Generierung von HD-Karten verlassen sich auf GPS und RTK, um eine absolut genaue Karte zu generieren. Dieser Verlass ist unter Umständen in einigen Situationen, in denen GPS oder RTK nicht verfügbar sein können, nicht ideal. Zum Beispiel können in einem Umfeld, in dem GPS-Signale für ein zuverlässiges GPS-Lokalisierungssignal nicht angemessen übertragen werden, herkömmliche Techniken zur Generierung von HD-Karten schwierig oder unmöglich zu implementieren sein.
  • Simultane Lokalisierung und Kartierung (SLAM) hilft dabei, eine hohe relative Genauigkeit zu erreichen, trägt aber nicht zum Erreichen von absoluter Genauigkeit bei. Um absolute Genauigkeit zu erreichen, haben herkömmliche Systeme unter Verwendung einer GPS-Basisstation einen Steuerpunkt eingerichtet, der kalibriert und während eines Zeitraums ausgeregelt wird, um eine genaue Positionsablesung bereitzustellen. In einem Beispiel für eine Kalibrierungsprozedur werden 5-8 GPS-Knoten oder -Punkte auf einer Straße in bekannten Abständen von einem Ursprung (der zum Beispiel eine GPS-Basisstation sein kann) eingerichtet. Die Positionen der GPS-Knoten werden dann relativ zu der GPS-Basisstation gemessen. Nachdem Messungen von verschiedenen Punkten in der Region, die kartiert wird, zu der tatsächlichen bekannten Basisstationsposition vorgenommen worden sind, wird der GPS-Standort der GPS-Knoten relativ zu der tatsächlichen bekannten Basisstationsposition gemessen, und Abweichungen von den erwarteten relativen Kartenstandorten für diese Punkte werden quantifiziert. Die Abweichungen werden an 5-10 Standorten über die kartierte Region gemessen. Wenn die quantifizierten Abweichungen in der kartierten Region identifiziert und gemessen worden sind, wird die gesamte Karte um eine durchschnittliche gemessene Abweichung über die kartierte Region verschoben.
  • Obwohl diese Prozedur die absolute Genauigkeit der HD-Karte erhöhen kann, verlassen sich herkömmliche Systeme auf RTK und GPS, um mehrere Steuerpunkte einzurichten und zu messen. Die RTK ist jedoch unter Umständen nicht immer verfügbar. Es kann daher in diesen und anderen Situationen vorteilhaft sein, HD-Karten unter Verwendung von intelligenten Kreuzungsknoten (IX-Knoten) mit fester Position erstellen zu lassen, die mit LiDAR-Sensoriksystemen ausgestattet sind, wobei die IX-Knoten feste und bekannte Positionen und Ausrichtungen aufweisen. Gemäl einer oder mehreren Ausführungsformen empfängt ein HD-Kartensystem LiDAR-Nachrichten von zwei oder mehr IX-Knoten, die an bekannten Standorten in dem kartierten Bereich positioniert sind, und es kombiniert die LiDAR-Nachrichten mit Sensorikdaten, die von einem Fahrzeug empfangen werden, das in dem kartierten Bereich fährt, um eine aggregierte und optimierte HD-Karte auf Grundlage der kombinierten Datensätze zu generieren. Dieses offenbarte System kann die Abhängigkeit davon beheben, dass sowohl GPS- als auch RTK-basierte Lokalisierung während des Kartenerstellungsprozesses aktiv sind.
  • Insbesondere kann ein computerimplementiertes Verfahren zum Generieren einer HD-Karte Empfangen von ersten Sensorikdaten, die die Position und Abmessungen eines Merkmals in einer kartierten Region identifizieren, über einen Prozessor von zwei oder mehr IX-Steuervorrichtungen beinhalten, die an zwei oder mehr stationären Positionen angeordnet sind, die bekannte Breitengrade, Längengrade und Ausrichtungen aufweisen. Der Prozessor kann eine Vielzahl von IX-Knoten auf Grundlage der ersten Sensorikdaten, die von den IX-Steuervorrichtungen empfangen werden, generieren und eine LiDAR-Punktwolke empfangen, die LiDAR-Daten und Trägheitsmesseinheitsdaten (IMU-Daten) von einem Fahrzeug, das in der kartierten Region fährt, beinhaltet. Die LiDAR-Punktwolke kann SLAM-Kartendaten beinhalten, die zweite Abmessungsinformationen und zweite Positionsinformationen aufweisen, die mit dem Merkmal in der kartierten Region assoziiert sind. Der Prozessor kann ohne GPS- und/oder Echtzeitkinematikinformationen eine optimierte hochauflösende Karte (HD-Karte) unter Verwendung von Stapeloptimierung durch Implementieren von Kartenglättung oder ähnlichen Techniken generieren. 1 veranschaulicht ein beispielhaftes Blockdiagramm eines hochauflösenden Kartierungssystems 100 (HD-Kartierungssystems) gemäl der vorliegenden Offenbarung. Das HD-Kartensystem 100 kann ein Fahrzeug 105, eine erste IX-Steuerpunktvorrichtung 110, eine zweite IX-Steuerpunktvorrichtung 115 und ein HD-Kartenrechensystem 135 beinhalten.
  • Als kurzen Überblick über das HD-Kartensystem 100 kann das HD-Kartensystem 100 IX-Knotendaten 130 aufnehmen, die Sensorikdaten an den IX-Steuerpunkten beinhalten können, die mit den IX-Steuerpunktvorrichtungen 115 und 135 assoziiert sind. Die IX-Knotendaten 130 können Abmessungsinformationen (z. B. Länge, Breite, Höhe) und Positionsinformationen (z. B. Breitengrad, Längengrad) beinhalten, die mit Merkmalen in der Betriebsumgebung des Fahrzeugs 105 assoziiert sind. Merkmale können zum Beispiel ein Gebäude, eine Straße, ein Bordstein, eine Straßenmarkierung usw. sein. Der IX-Knoten (z. B. die IX-Steuerpunktvorrichtung 115) kann Informationen beinhalten, die mit der Größe und Lokalisierung von Merkmalen in der kartierten Umgebung assoziiert sind, die unter Verwendung von Sensorikvorrichtungen erlangt wird, die an Bord der jeweiligen mit den IX-Steuerpunktvorrichtungen 110 und 115 angeordnet sind.
  • Die IX-Steuerpunktsensorikvorrichtungen können neben anderen Sensoren, wie etwa Kamerasystemen, SONAR, RADAR oder anderen Sensorikvorrichtungen, ein LiDAR 120 beinhalten, das an Bord der Vorrichtung angeordnet ist. Die IX-Steuerpunkte können in der Betriebsumgebung an festen und bekannten Positionen angeordnet sein und im Vorfeld von Kartierungsvorgängen kalibriert werden. Obwohl einige Ausführungsformen zwei IX-Steuerpunktvorrichtungen 110 und 115 beschreiben, versteht es sich, dass eine beliebige Anzahl an Steuerpunktvorrichtungen (zwei oder mehr) verwendet werden kann, was die absolute und relative Genauigkeit der HD-Karte 155 erhöhen kann.
  • Das Fahrzeug 105 kann Fahrzeugsensorikdaten 125 unter Verwendung von an Bord befindlicher Sensorikausrüstung, wie etwa eines Rot-Grün-Blau-(RGB-)Kamerasystems, eines LiDAR-Systems und/oder einer IMU, erlangen. Das Fahrzeug 105 kann den kartierten Bereich (z. B. den in Bezug auf 2 abgebildeten Bereich) durchqueren, indem es entlang der Fahrbahnen in dem Bereich fährt und Fahrzeugsensorikdaten in vorbestimmten Intervallen sammelt, wenn das Fahrzeug fährt. Vorbestimmte Intervalle können zeitbasiert sein (z. B. alle 1 Sekunde, drei Sekunden, 10 Sekunden usw.) und/oder können abstandsbasiert sein (z. B. alle 5 m, 8 m, 20 m usw.).
  • Das HD-Kartensystem 100 kann ferner IX-Knotendaten 130 empfangen, die LiDAR-, Kamera- oder andere sensorikbasierte SLAM-Daten von den IX-Steuerpunktvorrichtungen 110, 115 beinhalten können, und die IX-Knotendaten 130 unter Verwendung eines HD-Kartierungscomputersystems 135 mit den Fahrzeugsensorikdaten 125 kombinieren.
  • Das HD-Kartierungscomputersystem 135 kann die Fahrzeugsensorikdaten mit dem IX-Steuerpunkt empfangen und mit den IX-Knotendaten 130 kombinieren und eine Vielzahl von IX-Knoten (in 4 abgebildet und nachstehend erörtert) erstellen, um eine HD-Karte 155 zu erstellen. Obwohl in dieser Schrift nicht ausdrücklich beschrieben, kann das HD-Kartierungscomputersystem ein typisches Rechensystem sein, das einen Speicher und einen Prozessor (in 1 nicht gezeigt) umfasst, und mit den IX-Steuerpunktvorrichtungen 110 und 115 verdrahtet oder drahtlos verbunden sein. In einer oder mehreren Ausführungsformen kann sich das HD-Kartierungsrechensystem 135 entweder direkt oder über ein Rechennetzwerk, wie in Bezug auf 2 beschrieben, drahtlos mit dem Fahrzeug 105 verbinden.
  • Das HD-Kartierungscomputersystem 135 kann die Fahrzeugsensorikdaten 125 und die IX-Knotendaten 130 empfangen und die HD-Karte 155 auf Grundlage der Fahrzeugsensorikdatensätze 125 und 130 mit einem Schritt 140 zur SLAM-Posengraphenerstellung, einem Schritt 145 zum Kombinieren von SLAM- und LiDAR- und IMU-Daten und einem Schritt 150 zur inkrementellen Kartenglättung und Kartierung generieren. Jeder dieser Schritte wird in den folgenden Abschnitten ausführlicher erörtert. 2 bildet eine beispielhafte Rechenumgebung 200 ab, die das Fahrzeug 105 beinhalten kann. Obwohl in dieser Schrift als Erlangen von Fahrzeugsensorikdaten 125 (wie in 1 gezeigt) unter Verwendung eines einzelnen Fahrzeugs 105 beschrieben, versteht es sich, dass eine beliebige Anzahl an Fahrzeugen verwendet werden kann, um die Fahrzeugsensorikdaten zu sammeln. Das Fahrzeug 105 kann einen Kraftfahrzeugcomputer 245 und eine Fahrzeugsteuereinheit (Vehicle Controls Unit - VCU) 265 beinhalten, die eine Vielzahl von elektronischen Steuereinheiten (electronic control units - ECUs) 217 beinhalten kann, die in Kommunikation mit dem Kraftfahrzeugcomputer 245 angeordnet ist.
  • Das Fahrzeug 105 kann zudem ein GPS 275 empfangen und/oder damit in Kommunikation stehen. Das GPS 275 kann ein Satellitensystem sein, wie etwa das globale Navigationssatellitensystem (global navigation satellite system - GLNSS), Galileo oder ein anderes ähnliches System. In anderen Aspekten kann das GPS 275 ein terrestrisches Navigationsnetzwerk sein. In einigen Ausführungsformen kann das Fahrzeug 105 eine Kombination von GPS und Koppelnavigation als Reaktion darauf nutzen, dass bestimmt wird, dass eine Schwellenanzahl an Satelliten nicht erkannt wird.
  • Der Kraftfahrzeugcomputer 245 kann eine elektronische Fahrzeugsteuerung sein oder beinhalten, die einen oder mehrere Prozessor(en) 250 und Speicher 255 aufweist. Der Kraftfahrzeugcomputer 245 kann in einigen beispielhaften Ausführungsformen in Kommunikation mit dem einen oder den mehreren Server(n) 270 angeordnet sein. Der/die Server 270 kann/können Teil einer cloudbasierten Recheninfrastruktur sein oder (eine) Einzelstationrechenvorrichtung(en) sein und mit einem Telematik-Dienstbereitstellungsnetzwerk (Service Delivery Network - SDN) assoziiert sein und/oder ein solches beinhalten, das dem Fahrzeug 105 und anderen Fahrzeugen (in 2 nicht gezeigt), die Teil einer Fahrzeugflotte sein können, die zum Kartieren der Region verwendet wird, digitale Datendienste bereitstellt.
  • Obwohl das/die von der TCU erlangte GPS oder RTK verwendet werden kann, um die Fahrzeugsensorikdaten 125 zu erlangen, beschreiben Aspekte der vorliegenden Offenbarung Verfahren zum Generieren der HD-Karte 155 (wie in 1 gezeigt) ohne die Verwendung des GPS 275 und/oder ohne RTK (von einer Telematiksteuereinheit 260 erlangt).
  • In einem Aspekt kann/können der/die Server 270 das HD-Kartierungscomputersystem 135 (wie in 1 gezeigt) als integriertes oder verbundenes Rechenteilsystem beinhalten. In einer Ausführungsform kann das HD-Kartierungscomputersystem auf dem/den Server(n) 270 als eine oder mehrere Anwendungen instanziiert werden, die die Fahrzeugsensorikdaten 125 und IX-Knotendaten 130 empfangen (in 1 abgebildet), einen SLAM-Posengraphen erstellen (in 2 nicht gezeigt), die Punktwolkendaten von dem Fahrzeug und dem IX-Knoten kombinieren und die HD-Karte 155 generieren, die einen Schwellenwert der absoluten Genauigkeit (z. B. 1-2 cm) nach inkrementeller Glättung und Kartierung erfüllt oder überschreitet. In einem anderen Aspekt kann das HD-Kartierungscomputersystem 135 ein separates Rechensystem sein, das in Kommunikation mit dem/den Server(n) 270 angeordnet ist.
  • Das Fahrzeug 105 kann die Form eines beliebigen Passagier- oder Nutzautomobils, wie zum Beispiel eines Pkw, eins Lkw, eines Crossover-Fahrzeugs, eines Vans, eines Minivans, eines Taxis, eines Busses usw., annehmen und dazu konfiguriert und/oder programmiert sein, verschiedene Arten von Kraftfahrzeugantriebssystemen zu beinhalten.
  • Ferner kann das Fahrzeug 105 ein manuell gefahrenes Fahrzeug sein und/oder dazu konfiguriert und/oder programmiert sein, in einem vollautonomen (z. B. fahrerlosen) Modus (z. B. Autonomie der Stufe 5) oder in einem oder mehreren Teilautonomiemodi betrieben zu werden, die Fahrerassistenztechnologien beinhalten können. Beispiele für Teilautonomiemodi (oder Fahrerassistenzmodi) sind auf dem Fachgebiet weithin als Autonomiestufe 1 bis 4 bekannt.
  • Ein Fahrzeug, das autonome Automatisierung der Stufe 0 aufweist, beinhaltet unter Umständen keine autonomen Fahrmerkmale.
  • Ein Fahrzeug, das Autonomie der Stufe 1 aufweist, kann ein einzelnes automatisiertes Fahrerassistenzmerkmal, wie etwa Lenk- oder Beschleunigungsassistenz, beinhalten. Adaptive Geschwindigkeitsregelung ist ein derartiges Beispiel für ein autonomes System der Stufe 1, das Aspekte sowohl der Beschleunigung als auch der Lenkung beinhaltet.
  • Autonomie der Stufe 2 bei Fahrzeugen kann Fahrerassistenztechnologien bereitstellen, wie etwa Teilautomatisierung der Lenk- und Beschleunigungsfunktionalität, wobei das/die automatisierte(n) System(e) durch einen menschlichen Fahrer überwacht wird/werden, der nicht automatisierte Vorgänge wie etwa Bremsen und andere Steuervorgänge durchführt. In einigen Aspekten kann bei autonomen Merkmalen der Stufe 2 und höher ein primärer Benutzer das Fahrzeug steuern, während sich der Benutzer im Inneren des Fahrzeugs befindet, oder in einigen beispielhaften Ausführungsformen von einem Standort entfernt von dem Fahrzeug, aber innerhalb einer Steuerzone, die sich bis zu mehrere Meter von dem Fahrzeug entfernt erstreckt, während es sich im Fernbetrieb befindet.
  • Autonomie der Stufe 3 in einem Fahrzeug kann bedingte Automatisierung und Steuerung von Fahrmerkmalen bereitstellen. Zum Beispiel kann Fahrzeugautonomie der Stufe 3 Fähigkeiten zur „Umgebungsdetektion“ beinhalten, bei denen das autonome Fahrzeug (AV) unabhängig von einem vorhandenen Fahrer informierte Entscheidungen treffen kann, wie etwa Beschleunigen an einem sich langsam bewegenden Fahrzeug vorbei, während der vorhandene Fahrer jederzeit bereit bleibt, wieder die Steuerung des Fahrzeugs zu übernehmen, falls das System nicht dazu in der Lage ist, die Aufgabe auszuführen.
  • AVs der Stufe 4 können unabhängig von einem menschlichen Fahrer betrieben werden, aber nach wie vor Steuerelemente für den Menschen für den Übersteuerungsbetrieb beinhalten. Automatisierung der Stufe 4 kann es zudem ermöglichen, dass ein Selbstfahrmodus als Reaktion auf einen vordefinierten bedingten Auslöser, wie etwa eine Gefahr im Straßenverkehr oder einen Systemausfall, eingreift.
  • AVs der Stufe 5 können vollautonome Fahrzeugsysteme beinhalten, die keine menschliche Eingabe für den Betrieb erfordern und keine Betriebssteuerelemente für menschliches Fahren beinhalten können.
  • Gemäl Ausführungsformen der vorliegenden Offenbarung können die HD-Karte 155 und die Erstellung der HD-Karte unter Verwendung des HD-Kartierungssystems 100 unter Verwendung eines manuellen oder autonomen Fahrzeugs erzielt werden. Zum Beispiel kann das HD-Kartensystem 100 dazu konfiguriert und/oder programmiert sein, mit einem nichtautonomen Fahrzeug betrieben zu werden, oder mit einem halbautonomen oder vollautonomen Fahrzeug konfiguriert sein und/oder betrieben werden. Dementsprechend kann das HD-Kartierungssystem 100 dem Fahrzeug 105 einige Aspekte der menschlichen Steuerung bereitstellen, wenn das Fahrzeug als AV konfiguriert ist. Es versteht sich zudem, dass AVs, halbautonome Fahrzeuge und manuell gefahrene Fahrzeuge alle die HD-Karte nutzen können, die durch das HD-Kartierungssystem 100 generiert wird.
  • Das/Die Netzwerk(e) 225 veranschaulicht/veranschaulichen eine beispielhafte Kommunikationsinfrastruktur, in der die verbundenen Vorrichtungen, die in verschiedenen Ausführungsformen dieser Offenbarung erörtert werden, kommunizieren können. Das/die Netzwerk(e) 225 kann/können das Internet, ein privates Netzwerk, ein öffentliches Netzwerk oder eine andere Konfiguration sein und/oder beinhalten, die unter Verwendung eines beliebigen oder mehrerer beliebiger bekannter Kommunikationsprotokolle betrieben werden, wie zum Beispiel Transmission Control Protocol/Internet Protocol (TCP/IP), Bluetooth®, BLE®, Wi-Fi auf Grundlage des Standards 802.11 des Institute of Electrical and Electronics Engineers (IEEE), UWB und Mobilfunktechnologien, wie etwa Time Division Multiple Access (TDMA), Code Division Multiple Access (CDMA), High Speed Packet Access (HSPDA), Long-Term Evolution (LTE), Global System for Mobile Communications (GSM) und Fifth Generation (5G), um einige Beispiele zu nennen.
  • Der Kraftfahrzeugcomputer 245 kann in einem Motorraum des Fahrzeugs 105 (oder an anderer Stelle in dem Fahrzeug 105) eingebaut sein und als Funktionsteil des HD-Kartierungssystems 100 gemäl der Offenbarung betrieben werden. Der Kraftfahrzeugcomputer 245 kann einen oder mehrere Prozessor(en) 250 und einen computerlesbaren Speicher 255 beinhalten, der ein oder mehrere Programme (in 2 nicht gezeigt) zum Sammeln von Sensorikdaten, Generieren von SLAM-Informationen und Veranlassen, dass Fahrzeugsensoriksysteme LiDAR-, Kamera- und Trägheitsmesseinheitsdaten sammeln, speichern kann. In anderen Aspekten kann das Programm Anweisungen speichern, die den Prozessor dazu veranlassen, SLAM-Daten, Kameradaten und Trägheitsmesseinheitsdaten zu generieren und über ein Fahrzeugkommunikationssystem wie etwa die TCU 260 an das HD-Kartierungscomputersystem 135 zu übertragen.
  • Der eine oder die mehreren Prozessor(en) 250 kann/können in Kommunikation mit einer oder mehreren Speichervorrichtungen angeordnet sein, die in Kommunikation mit den jeweiligen Rechensystemen angeordnet sind (z. B. dem Speicher 255 und/oder einer oder mehreren externen Datenbanken, die in 2 nicht gezeigt sind). Der/die Prozessor(en) 250 kann/können den Speicher 255 nutzen, um Programme in Code zu speichern und/oder Daten zum Durchführen von Aspekten gemäl der Offenbarung zu speichern. Der Speicher 255 kann ein nichttransitorischer computerlesbarer Speicher sein, der einen Programmcode zur HD-Kartierung speichert. Der Speicher 255 kann ein beliebiges oder eine Kombination von flüchtigen Speicherelementen (z. B. dynamischem Direktzugriffsspeicher (dynamic random access memory - DRAM), synchronem dynamischem Direktzugriffsspeicher (synchronous dynamic random access memory - SDRAM) usw.) beinhalten und kann ein beliebiges oder mehrere beliebige nichtflüchtige Speicherelemente (z. B. löschbaren programmierbaren Festwertspeicher (erasable programmable read-only memory - EPROM), Flash-Speicher, elektronisch löschbaren programmierbaren Festwertspeicher (electronically erasable programmable read-only memory - EEPROM), programmierbaren Festwertspeicher (programmable read-only memory - PROM) usw.) beinhalten.
  • Die VCU 265 kann sich einen Leistungsbus 280 mit dem Kraftfahrzeugcomputer 245 teilen und dazu konfiguriert und/oder programmiert sein, die Daten zwischen Systemen des Fahrzeugs 105, verbundenen Servern (z. B. dem/den Server(n) 270) und anderen Fahrzeugen (in 2 nicht gezeigt), die als Teil einer Fahrzeugflotte (in 2 nicht gezeigt) betrieben werden, zu koordinieren. Die VCU 265 kann eine beliebige Kombination der ECUs 217, wie zum Beispiel ein Karosseriesteuermodul (Body Control Module - BCM) 293, ein Motorsteuermodul (Engine Control Module - ECM) 285, ein Getriebesteuermodul (Transmission Control Module - TCM) 290, die TCU 260, eine Steuerung 299 für Fahrerassistenztechnologien (Driver Assistances Technologies - DAT) usw. beinhalten oder damit kommunizieren. Die VCU 265 kann ferner ein Fahrzeugwahrnehmungssystem (Vehicle Perception System - VPS) 281 beinhalten und/oder damit kommunizieren.
  • Das VPS 281 kann Sensorikvorrichtungen, wie zum Beispiel ein LiDAR 282, ein Kamerasystem 283 und eine IMU 284, neben anderen Sensorikvorrichtungen beinhalten. Der Kraftfahrzeugcomputer 245 kann veranlassen, dass das VPS 281 die Sensorikvorrichtungen zur Kartendatengenerierung aktiviert, wenn das Fahrzeug 105 die kartierte Region durchquert (in Bezug auf 3 ausführlicher beschrieben). Zum Beispiel kann der Prozessor 250 das LiDAR 282 dazu veranlassen, LiDAR-Daten zu generieren, wenn das Fahrzeug in der kartierten Region fährt. Das LiDAR 282 kann physische Aspekte wie etwa Bordsteine, Fahrbahnmerkmale, Gebäude und stationäre Objekte in der kartierten Region erfassen, wobei das LiDAR Abmessungsinformationen beinhaltet, wie etwa präzise (z. B. plus oder minus 1-2 cm), die in LiDAR-Daten und andere Sensorikdaten einbezogen werden können, die durch die IX-Steuerpunktvorrichtungen 110 und 115 generiert werden (wie in 1 gezeigt). Das Fahrzeug 105 kann den kartierten Bereich durchqueren, womit mehr als ein Winkel der LiDAR-Darstellung eines Merkmals in der kartierten Region erfasst wird. Der Prozessor 250 kann LiDAR-Daten in dem Speicher 255 speichern und/oder die Daten über die TCU 260 an das HD-Kartierungsrechensystem 135 übertragen.
  • Gemäl einer anderen Ausführungsform kann/können der/die Prozessor(en) 250 das Kamerasystem 283 zudem dazu veranlassen, Bilddaten der Merkmale in dem kartierten Bereich zu erfassen, wobei die Bildinformationen zur Generierung der HD-Karte 155 verwendbar sind. Das Kamerasystem 283 kann eines oder mehrere von einem Schwarzweil - Bildprozessor, einem Rot-Grün-Blau-(RGB-)Bildprozessor, einem thermografischen Bildprozessor oder einer anderen Art von Bildsensorikvorrichtung beinhalten.
  • In anderen Aspekten kann/können der/die Prozessor(en) 250 die IMU 284 dazu veranlassen, Trägheitsmessungen zu generieren, die mit Fahrzeugbewegungen assoziiert sind, wenn das LiDAR 282, das Kamerasystem 283 (oder andere auf dem Fachgebiet bekannte Sensorikvorrichtungen) die Fahrzeugsensorikdaten generieren, wobei die IMU-Daten einen sekundären oder tertiären Informationsschatz bereitstellen, der mit dem LiDAR zur Generierung der SLAM-Daten korreliert werden kann, die durch das HD-Kartenrechensystem zur Generierung der HD-Karte 155 verwendet werden. Zum Beispiel können die IMU-Daten zur Erstellung der HD-Karte 155 mit IX-Punktwolkendaten kombiniert werden.
  • Die TCU 260 kann dazu konfiguriert und/oder programmiert sein, Fahrzeugkonnektivität mit drahtlosen Rechensystemen an Bord und außerhalb des Fahrzeugs 105 bereitzustellen, und kann einen Navigationsempfänger (NAV-Empfänger) 288 zum Empfangen und Verarbeiten eines GPS-Signals von dem GPS 275, ein BLE®-Modul (BLEM) 295, einen Wi-Fi-Sendeempfänger, einen UWB-Sendeempfänger und/oder andere drahtlose Sendeempfänger (in 2 nicht gezeigt) beinhalten, die zur drahtlosen Kommunikation zwischen dem Fahrzeug 105 und anderen Systemen, Computern und Modulen konfigurierbar sein können. Die TCU 260 kann mittels eines Busses 280 in Kommunikation mit den ECUs 217 angeordnet sein. In einigen Aspekten kann die TCU 260 als Knoten in einem CAN-Bus Daten abrufen und Daten senden. Zum Beispiel kann die TCU 260 GPS-Koordinaten von dem GPS 275 empfangen und die GPS-Koordinaten zusätzlich zu den Fahrzeugsensorikdaten 125 an das HD-Kartierungsrechensystem 135 koordinieren. Es versteht sich jedoch, dass ein Nutzen des HD-Kartierungssystems 100 die Fähigkeit beinhaltet, die HD-Karte 155 (wie in 1 gezeigt) in dem Fall, dass eines von RTK GPS nicht verfügbar ist, ohne RTK und/oder GPS zu generieren.
  • Das BLEM 295 kann drahtlose Kommunikation unter Verwendung von Bluetooth®- und BLE®-Kommunikationsprotokollen einrichten, indem es kleine Werbepakete aussendet und/oder nach Aussendungen kleiner Werbepakete lauscht und Verbindungen mit darauf reagierenden Vorrichtungen einrichtet, die gemäl in dieser Schrift beschriebenen Ausführungsformen konfiguriert sind. Zum Beispiel kann das BLEM 295 Konnektivität mit einer Vorrichtung mit einem Generic Attribute Profile (GATT) für Client-Vorrichtungen beinhalten, die auf GATT-Befehle und -Anforderungen reagieren oder diese initiieren.
  • Der Bus 280 kann als Controller-Area-Network-(CAN-)Bus konfiguriert sein, der mit einem seriellen Multimaster-Busstandard zum Verbinden von zwei oder mehr der ECUs 217 als Knoten unter Verwendung eines nachrichtenbasierten Protokolls organisiert ist, das dazu konfiguriert und/oder programmiert sein kann, es den ECUs 217 zu erlauben, miteinander zu kommunizieren. Der Bus 280 kann ein Hochgeschwindigkeits-CAN (das Bit-Geschwindigkeiten von bis zu 1 Mbit/s auf CAN, 5 Mbit/s auf CAN mit flexibler Datenrate (CAN Flexible Data Rate - CAN FD) aufweisen kann) sein oder beinhalten und kann ein Niedriggeschwindigkeits- oder fehlertolerantes CAN (bis zu 125 kbit/s) beinhalten, das in einigen Konfigurationen eine lineare Buskonfiguration verwenden kann. In einigen Aspekten können die ECUs 217 mit einem Host-Computer (z. B. dem Kraftfahrzeugcomputer 245, dem HD-Kartierungssystem 100 und/oder dem/den Server(n) 270 usw.) kommunizieren und zudem miteinander kommunizieren, ohne dass ein Host-Computer notwendig ist. Der Bus 280 kann die ECUs 217 mit dem Kraftfahrzeugcomputer 245 verbinden, sodass der Kraftfahrzeugcomputer 245 Informationen von den ECUs 217 abrufen, Informationen an diese senden und anderweitig mit diesen interagieren kann, um gemäl Ausführungsformen der vorliegenden Offenbarung beschriebene Schritte durchzuführen. Der Bus 280 kann CAN-Busknoten (z. B. die ECUs 217) durch einen Zweidrahtbus miteinander verbinden, wobei es sich um eine verdrillte Doppelleitung handeln kann, die eine charakteristische Nennimpedanz aufweist. Der Bus 280 kann zudem unter Verwendung anderer Kommunikationsprotokolllösungen erzielt werden, wie etwa Media Oriented Systems Transport (MOST) oder Ethernet. In anderen Aspekten kann der Bus 280 ein drahtloser fahrzeuginterner Bus sein.
  • Die VCU 265 kann verschiedene Verbraucher direkt über die Kommunikation des Busses 280 steuern oder eine derartige Steuerung in Verbindung mit dem BCM 293 implementieren. Die ECUs 217, die in Bezug auf die VCU 265 beschrieben sind, sind nur für beispielhafte Zwecke bereitgestellt und sollen nicht einschränkend oder ausschliel end sein. Steuerung und/oder Kommunikation mit anderen nicht in 2 gezeigten Steuermodulen ist möglich und eine derartige Steuerung wird in Erwägung gezogen.
  • In einer beispielhaften Ausführungsform können die ECUs 217 Aspekte des Fahrzeugbetriebs und der Kommunikation unter Verwendung von Eingaben von menschlichen Fahrern, Eingaben von einer Steuerung des autonomen Fahrzeugs, dem HD-Kartierungssystem 100 und/oder über drahtlose Signaleingaben, die über die drahtlose(n) Verbindung(en) von anderen verbundenen Vorrichtungen empfangen werden, steuern. Wenn sie als Knoten in dem Bus 280 konfiguriert sind, können die ECUs 217 jeweils eine zentrale Verarbeitungseinheit (central processing unit - CPU), eine CAN-Steuerung und/oder einen Sendeempfänger (in 2 nicht gezeigt) beinhalten. In anderen Aspekten können die ECUs zudem dazu konfiguriert und/oder programmiert sein, einen oder mehrere Schritte beim Generieren der Fahrzeugsensorikdaten 125 durchzuführen, die neben anderen Aspekten SLAM-Posengraphengenerierung, LiDAR-Sensorikdatensammlung, Kameradatensammlung beinhalten.
  • Das BCM 293 beinhaltet im Allgemeinen die Integration von Sensoren, Fahrzeugleistungsindikatoren und variablen Drosseln, die mit den Fahrzeugsystemen assoziiert sind, und kann prozessorbasierte Leistungsverteilungsschaltungen beinhalten, die Funktionen, die mit der Fahrzeugkarosserie assoziiert sind, wie etwa Leuchten, Fenster, Sicherheit, Türverriegelungen und Zugangssteuerung, und verschiedene Komfortsteuerelemente steuern können. Das BCM 293 kann zudem als Gateway für Bus- und Netzwerkschnittstellen betrieben werden, um mit entfernten ECUs (in 2 nicht gezeigt) zu interagieren.
  • Das BCM 293 kann eine beliebige oder mehrere beliebige Funktionen aus einer großen Bandbreite an Fahrzeugfunktionalität koordinieren, die Energieverwaltungssysteme, Alarme, Wegfahrsperren, Fahrer- und Mitfahrerzugangsautorisierungssysteme, AV-Steuersysteme, elektrische Fensterheber, Türen, Aktoren und andere Funktionalität usw. beinhalten. Das BCM 293 kann für die Energieverwaltung des Fahrzeugs, die Außenbeleuchtungssteuerung, die Scheibenwischerfunktionalität, die Funktionalität elektrischer Fensterheber und Türen, Heizungs-, Lüftungs- und Klimatisierungssysteme und Fahrerintegrationssysteme konfiguriert sein. In anderen Aspekten kann das BCM 293 die Funktionalität von Zusatzausrüstung steuern und/oder für die Integration einer derartigen Funktionalität zuständig sein.
  • Bei der Rechensystemarchitektur des Kraftfahrzeugcomputers 245, der VCU 265 und/oder des HD-Kartierungssystems 100 können gewisse Rechenmodule weggelassen werden. Es versteht sich ohne Weiteres, dass die in 2 abgebildete Rechenumgebung ein Beispiel für eine mögliche Implementierung gemäl der vorliegenden Offenbarung ist und somit nicht als einschränkend oder ausschliel end erwogen werden sollte.
  • 3 bildet ein beispielhaftes Satellitenbild einer zu kartierenden Region 300 und eine Platzierung von zwei Kreuzungssteuerpunktvorrichtungen (IX-Steuerpunktvorrichtungen) 110 bzw. 115, die an zwei festen und bekannten Standorten in der kartierten Region 300 angeordnet sein können, gemäl der vorliegende Offenbarung ab. Damit einige AVs in einer Betriebsumgebung betrieben werden können, muss der Bereich kartiert werden. Gemäl einer Ausführungsform kann die kartierte Region 300 zwei oder mehr Steuerpunktvorrichtungen 110 und 115 beinhalten, die an separaten, aber stationären Positionen in der Kartenumgebung angeordnet sind. Jede IX-Steuerpunktvorrichtung (110, 115 usw.) kann ein an Infrastruktur montierter Sensorknoten sein, der Sensoren wie zum Beispiel LiDAR, ein Kamerasystem (z. B. RGB usw.), SONAR, GPS oder andere Sensorikvorrichtungen aufweist. Die IX-Steuerpunktvorrichtungen weisen bekannte Lokalisierung (z. B. präzise bekannten Breitengrad, Längengrad) und bekannte Position/Ausrichtungen auf. Zum Beispiel kann jeder dieser Knoten einen anfänglichen und routinemäßigen Kalibrierungsprozess unter Verwendung durchlaufen, während dessen die jeweilige Position und Ausrichtung des Knotens erlangt, verifiziert und/oder kalibriert wird. Obwohl nicht gezeigt, kann das Fahrzeug, wie etwa das Fahrzeug 105, durch die gesamte kartierte Region 300 fahren, während periodisch Sensorikdaten erlangt werden, wenn das Fahrzeug durch die gesamte Kartenregion 300 fährt. Das VPS 281 kann die Fahrzeugsensorikdaten, wie etwa die Fahrzeugsensorikdaten 125 (wie in 1 gezeigt), während des Fahrens durch die kartierte Region 300 generieren und die Fahrzeugsensorikdaten 125 an das HD-Kartierungscomputersystem, wie etwa das HD-Kartierungsrechensystem 135, in Echtzeit übertragen und/oder an das HD-Kartierungsrechensystem, wie etwa das HD-Kartierungsrechensystem 135, nach Abschluss der Kartierungsvorgänge übertragen werden. Zum Beispiel kann das VPS 281 mehrere LiDAR-Karten eines Merkmals in der kartierten Region generieren, wenn sich das Fahrzeug dem Merkmal nähert, erneut, wenn sich das Fahrzeug in der Nähe des Merkmals befindet, und erneut, wenn das Fahrzeug an dem Merkmal vorbeifährt. Die sich dynamisch ändernde Position des Fahrzeugs 105, wenn es die kartierte Region durchquert, kann daher mehrere Winkel des Merkmals bereitstellen, was einen linearen Fehler in der HD-Karte iterativ reduzieren kann.
  • In anderen Aspekten kann das VPS 281 zudem Bilder des Merkmals aus den gleichen sich dynamisch ändernden Winkeln bereitstellen und IMU-Daten produzieren, die auf Trägheitsänderungen hinweisen, die das Fahrzeug 105 erfährt, wenn die Fahrzeugsensorikdaten 125 generiert werden. Die Fahrzeugsensorikdaten und die IX-Knotendaten 130 werden durch das HD-Kartierungscomputersystem zur Generierung der HD-Karte 155 kombiniert und optimiert. Gemäl einer Ausführungsform kann das VPS 181 Vorteile bereitstellen, die lineare Fehler der Merkmalsdarstellung reduzieren oder beseitigen können, indem Fahrzeugsysteme ausgenutzt werden, um mehrere Linien von Sensorikinformationen (z. B. die Fahrzeugsensorikdaten 125) zu koordinieren, die zur Generierung der HD-Karte 155 verwendet werden. Anders ausgedrückt, können die präzise lokalisierten und ausgerichteten IX-Steuerpunktvorrichtungen 110 und 115 Steuerpunkte zum Einstellen der Fahrzeugsensorikdaten 125 auf der HD-Karte 155 bereitstellen, die durch das Fahrzeugsensoriksystem generiert wird, wenn es Merkmale in der kartierten Region von der sich dynamisch ändernden Position des Fahrzeugs aus beobachtet. Dieses Merkmal kann einen deutlichen Vorteil zum Erhöhen der absoluten Genauigkeit der HD-Karte im Vergleich zu nicht kombinierten Daten von stationären IX-Knoten oder VPS-Daten bereitstellen.
  • 4 bildet eine Karte 400 von IX-Steuerpunkten 405 ab, die durch das in 1 und 2 veranschaulichte HD-Kartensystem 100 durch Kombinieren von LiDAR-Punktwolkendaten (z. B. SLAM-Daten), die durch das Fahrzeug 105 gesammelt werden, kombiniert mit den IX-Knotendaten 130, die durch die IX-Steuerpunktvorrichtungen 110, 115 (d. h. Steuerknoten) erlangt werden, gemäl der vorliegenden Offenbarung generiert werden. Die Karte 400 ist mit einer Vielzahl von Steuerpunkten 405 abgebildet, die diskrete Positionen darstellt, an denen das Fahrzeug 105 und die IX-Steuerpunktvorrichtungen 110 und 115 Sensorikdaten in der kartierten Region sammeln. Zum Beispiel veranschaulichen die IX-Steuerpunktvorrichtungen 110 und 115 die stationären Positionen, an denen diese Vorrichtungen in der kartierten Region angeordnet sind. Da es sich um stationäre Vorrichtungen handelt, können die Steuerknoten in der kartierten Region an festen Positionen positioniert und befestigt sein, wobei jede jeweilige Position einen ersten bekannten und präzise definierten Breitengrad Längengrad und eine bekannte und präzise definierte Ausrichtung in Bezug auf Zeigewinkel und Drehung aus einer bekannten Kompassrichtung aufweisen kann. Obwohl nur zwei IX-Steuerpunkte 405 in 4 gezeigt sind, versteht es sich, dass das HD-Kartierungssystem 100 eine beliebige Anzahl an Steuerknoten beinhalten kann. Eine Vielzahl von LiDAR-Sensoriklinien 115 ist in 4 abgebildet, die LiDAR-Signale darstellt, die von einer einzelnen IX-Steuerpunktvorrichtung 115 ausstrahlen. Der Übersichtlichkeit halber sind die LiDAR-Sensoriklinien, die mit der Steuerpunktvorrichtung 110 assoziiert sind, nicht gezeigt. Die IX-Steuerpunktvorrichtung 115 ist stationär und somit können das LiDAR und andere Sensorikvorrichtungen, die als Teil der IX-Steuerpunktvorrichtung 115 angeordnet sind, wiederholte Sensorikmessungen ihrer umliegenden Umgebung mit geringer erwarteter Variation von einer Messung zur nächsten nachfolgenden Messung vornehmen. Die Steuerpunktvorrichtungen 110 und 115 können die Abmessung und Position von Kartenmerkmalen von zwei oder mehr unveränderlichen Steuerpunkten aus abtasten, wodurch ähnliche an Bord des Fahrzeugs 105 angeordnete Sensorikvorrichtungen während des Schritts 150 zur inkrementellen Kartenglättung und Kartierung (wie in 1 gezeigt) kalibriert und eingestellt werden können.
  • Die anderen Punkte (die nicht die IX-Steuerpunktvorrichtungen 110 und 115 sind), die in 4 abgebildet sind, stellen diskrete Fahrzeugpositionen dar, an denen das Fahrzeug 105 die Fahrzeugsensorikdaten 125 während des Fahrens in der kartierten Region 300 sammelt. An jedem jeweiligen IX-Steuerpunkt kann das HD-Kartensystem 100 die Fahrzeugsensorikdaten 125 unter Verwendung des LIDAR 282, des Kamerasystems 283, der IMU 284 und/oder anderer Sensorikvorrichtungen an Bord des Fahrzeugs 105 (z. B. des VPS 281, wie in Bezug auf 2 beschrieben) sammeln. Jeder Knotenpunkt, der in 4 gezeigt ist (mit Ausnahme der Steuerknotenpunkte, die mit den stationären Vorrichtungen assoziiert sind (z. B. den IX-Steuerpunktvorrichtungen 110 und 115)), veranschaulicht einen Punkt, an dem das VPS 281 die Sensorikdaten messen kann und die Sensorikdaten in einer Sensorikdatenbank (in 1-4 nicht gezeigt) speichern kann, die an Bord des Fahrzeugs 105 und/oder entfernt (z. B. in einem verteilten Datenspeichersystem) angeordnet ist. Obwohl der Übersichtlichkeit halber nicht gezeigt, weist jeder jeweilige Steuerpunkt der Vielzahl von Steuerpunkten 405 LiDAR-Sensoriklinien auf, die von jedem jeweiligen Messpunkt in alle Richtungen ausstrahlt. Das Fahrzeug 105 kann SLAM-Knotendaten (z. B. die Fahrzeugsensorikdaten 125) generieren, wenn es die kartierte Region 300 durchquert, und die Fahrzeugsensorikdaten 125 an das HD-Kartierungscomputersystem 135 übertragen und/oder die Daten an Bord des Fahrzeugs 105 in dem Speicher 255 speichern.
  • Dementsprechend können die IX-Steuerpunktvorrichtungen 110 und 115 Sensorikdaten (z. B. die IX-Knotendaten 130) unter Verwendung der IX-Knoten-LiDAR-Karte (nicht separat von der kombinierten Karte aus 4 gezeigt), der Fahrzeugsensorikdatenkarte (ebenfalls nicht separat von der kombinierten Karte 400 aus 4 gezeigt) generieren, um die HD-Karte 155 nach der inkrementellen Kartenglättung und Kartierung zu generieren. Von den zwei LiDAR-Karten (eine durch die IX-Steuerpunktvorrichtungen 110 und 115 erstellt und die andere durch das VPS 181 erstellt, wenn das Fahrzeug 105 die kartierte Region durchquert) werden die von den IX-Steuerpunkten abgeleiteten Karten als Steuerpunkt angesichts des/der stationären und präzise bekannten Standorts/Standorte der IX-Steuerpunktvorrichtungen verwendet und als Basispunkte zum Positionsverschieben jedes der Vielzahl von SLAM-Knoten verwendet, die durch das Fahrzeugsensoriksystem generiert wird. Das HD-Kartierungscomputersystem 135 kann die Fahrzeugsensorikdaten 125 mit den IX-Knotendaten 130 kombinieren, um eine LiDAR-Punktwolke zu bilden (wie z. B. in 5 gezeigt).
  • 5 veranschaulicht eine beispielhafte SLAM-Knotenkarte 500, die eine Kombination von SLAM-Knotendaten (z. B. den in 4 abgebildeten Knoten, die durch das VPS 281 erlangt werden) und IX-Knotendaten, die durch die IX-Steuerpunktvorrichtungen 110 und 115 erlangt werden, gemäßder vorliegenden Offenbarung beinhalten kann. Obwohl in 5 als Karte mit ununterbrochenen Linien 505 abgebildet, veranschaulicht der vergrößerte Abschnitt 510B des Kartenausschnitts 510A eine Vielzahl von SLAM-Knoten 507, die Fahrzeugsensorikdaten 515, die in inkrementellen Abständen (z. B. 0,5-1 m) entlang des Fahrzeugfahrwegs gesammelt werden, wenn das Fahrzeug 105 die kartierte Region 300 durchquert, fusioniert mit den Punktwolkendaten (z. B. den IX-Knotendaten 130), die durch die IX-Steuerpunktvorrichtungen 110 und 120 generiert werden, darstellt. Jeder der SLAM-Atomknoten 507 kann mit der festen und bekannten Lokalisierung und Ausrichtung der IX-Steuerpunktvorrichtungen 110 und 115 assoziiert sein, die mit den unter Verwendung des VPS 281 gesammelten Fahrzeugsensorikdaten 125 fusioniert sind. Zum Beispiel können die SLAM-Knoten LiDAR-Daten 520, Kameradaten 525 und/oder IMU-Daten 530 beinhalten, wobei die Daten sowohl durch das Fahrzeug als auch durch die IX-Steuerpunktvorrichtungen 110 generiert worden sind. Obwohl die meisten der Knoten 507 aus dem VPS 281 stammen können, leiten sich mindestens zwei der Knoten aus den IX-Knotendaten 130 ab (wie in 1 gezeigt).
  • Während des Datensammlungsprozesses fährt das Fahrzeug durch die Region, in der sich die IX befindet. Infolgedessen sehen das Fahrzeug-LiDAR und das IX-LiDAR die gleiche Umgebung. Die Straßenbegrenzungen, die gleichen 3D-Strukturen usw. erscheinen sowohl in den IX-Daten als auch in den Fahrzeugdaten. Während des SLAM-Prozesses generieren die Übereinstimmungen in der Umgebung Nebenbedingungen, die durch das SLAM-Stapeloptimierungsverfahren verwendet werden. Das System kann einer beliebigen Nebenbedingung, an der IX beteiligt ist, jeweils mehr Gewicht zuweisen, und infolgedessen wird die Karte gemäßdem Standort der IX präziser justiert. Das HD-Kartierungscomputersystem 135 kann die optimierte HD-Karte durch Glätten der Vielzahl von IX-Knoten 507 (d. h. SLAM-Knoten) unter Verwendung eines Stapeloptimierungsalgorithmus generieren. Ein beispielhafter Stapeloptimierungsalgorithmus ist in der wissenschaftlichen Arbeit mit dem Titel Incremental Smoothing andMapping (Michael Kaess, Georgia Institute of Technology, Dezember 2008, die durch Bezugnahme in diese Schrift aufgenommen wird) (nachfolgend „Kaess“) beschrieben. Gemäßeiner Ausführungsform werden die IX-Knotendaten 130 von zwei stationären Steuerpunkten aus erlangt, die mit den IX-Steuerpunktvorrichtungen 110 und 120 assoziiert sind (in dieser Schrift auch als IX-Knoten und/oder IX-Steuerpunkte bezeichnet), wohingegen bei Kaess das Optimierungsproblem mit dynamischen Steuerpunkten gelöst wird. Mit Ausnahme der IX-Steuerpunktvorrichtungen 110 und 120 bewegen sich die anderen Knoten 507 relativ zueinander, um den Linearisierungsfehler global zu optimieren und zu minimieren, sodass er kleiner als ein vorbestimmter Schwellenwert für den Linearisierungsfehler ist. Zum Beispiel kann der Schwellenwert für den Linearisierungsfehler zum Beispiel plus oder minus 1 cm-2 cm betragen und somit eine absolut genaue HD-Karte 155 generieren. Mit einfachen Worten ausgedrückt, die IX-Steuerpunkte, an denen die IX-Steuerpunktvorrichtungen 110 und 115 als Referenzsteuerpunkte/Passpunkte fungieren, die stationär mit festen und bekannten Positionen sind. Zum Beispiel weisen die IX-Steuerpunktvorrichtungen 110 und 115 einen präzise (z. B. innerhalb von 1-2 cm) bekannten Längengrad, Breitengrad, Rollwinkel, Nickwinkel und Kurs in Bezug auf den Nord-Ost-Abwärts-Koordinatenrahmen (mit Einheiten in Radianten) und eine präzise bekannte Ausrichtung auf.
  • 6 bildet ein Ablaufdiagramm eines beispielhaften Verfahrens 600 zum Erstellen einer HD-Karte unter Verwendung des HD-Kartensystems aus 1 gemäßder vorliegenden Offenbarung ab. Bei Schritt 605 kann das Verfahren 600 mit Empfangen von ersten Sensorikdaten, die erste Abmessungsinformationen und erste Positionsinformationen eines Merkmals in einer kartierten Region umfassen, über einen Prozessor von einer ersten Kreuzungssteuervorrichtung (IX-Steuervorrichtung) und einer zweiten IX-Steuervorrichtung beginnen.
  • Bei Schritt 610 kann das Verfahren 600 ferner Empfangen einer LiDAR-Punktwolke, die zweite Abmessungsinformationen und zweite Positionsinformationen des Merkmals in der kartierten Region umfasst, über den Prozessor von einem Fahrzeugsensoriksystem beinhalten. In einem Aspekt kann das HD-Rechensystem die LiDAR-Punktwolke als einzelne Datenübertragung im Anschluss an eine Kartierungsfahrt empfangen, bei der das Fahrzeug in der kartierten Region fährt. In einer anderen Ausführungsform kann das HD-Kartenrechensystem die LiDAR-Punktwolkendaten inkrementell über die Fahrzeug-TCU empfangen, wenn das Fahrzeug jeden diskreten Schritt auf seiner Kartierungsmission durchläuft.
  • Zum Beispiel wird in einem Aspekt die LiDAR-Punktwolke durch das AV während des Fahrens entlang Routen in der kartierten Region gesammelt. Die Sensorikdaten können neben anderen Daten LiDAR-Sensorikdaten, Kameradaten und Trägheitsmesseinheitsdaten (IMU-Daten) beinhalten. In einem Aspekt beinhaltet das Verfahren Veranlassen, dass der Kraftfahrzeugcomputerprozessor ein oder mehrere SLAM-Generierungsprogramme instanziiert, die das Fahrzeugwahrnehmungssystem dazu veranlassen, SLAM-Daten zum Generieren der LiDAR-Punktwolke unter Verwendung des LiDAR-Moduls und/oder einer beliebigen anderen der Fahrzeugsensorikvorrichtungen wie etwa des Kamerasystems und der IMU zu erlangen.
  • In einem Aspekt kann das Fahrzeugsensoriksystem dazu konfiguriert und/oder programmiert sein, die Fahrzeugsensorikdaten an diskreten Punkten entlang der Route zu erlangen, wenn das Fahrzeug entlang Routen in der kartierten Region fährt. Zum Beispiel kann das Fahrzeugsensoriksystem LiDAR-Daten alle 1 m, 2 m, 4 m usw. erlangen. Dementsprechend kann die LiDAR-Punktwolke mehrere Bild-, LiDAR- und IMU-Daten darstellen, die mit Merkmalen in der kartierten Region assoziiert sind, wobei Datenstichproben, die mit den Merkmalen assoziiert sind, aus verschiedenen Winkeln und Ansichten erfasst werden, wenn das Fahrzeug seine Position ändert.
  • Dieser Schritt kann ferner Generieren der LiDAR-Punktwolke unter Verwendung von Kameradaten und insbesondere über das Fahrzeugsensoriksystem gesammelten Schwarzweil - oder RGB-Bildinformationen und Empfangen der Sensorikinformationen über den HD-Kartenrechensystemprozessor beinhalten. Zum Beispiel kann das Fahrzeugsensoriksystem eine Vielzahl von Bildern erlangen, die digitale Bilder des Merkmals in der kartierten Region erfasst, wenn sich das Fahrzeug dem Merkmal nähert, wenn sich das Fahrzeug in der Nähe des Merkmals befindet und wenn das Fahrzeug an dem Merkmal vorbeifährt.
  • Bei Schritt 615 kann das Verfahren 600 ferner Generieren einer Vielzahl von IX-Knoten auf Grundlage einer Kombination der ersten Sensorikdaten und der LiDAR-Punktwolke über den Prozessor beinhalten. Die Vielzahl von IX-Knoten kann einen ersten IX-Knoten an einer ersten festen und bekannten Position und einen zweiten IX-Knoten an einer zweiten festen und bekannten Position beinhalten. In einem Aspekt kann die erste IX-Steuervorrichtung in der kartierten Region an einer ersten stationären Position angeordnet sein, die einen ersten bekannten Breitengrad und einen ersten bekannten Längengrad aufweist. In einem anderen Aspekt kann die zweite IX-Steuervorrichtung an einer zweiten stationären Position angeordnet sein, die einen zweiten bekannten Breitengrad und einen zweiten bekannten Längengrad aufweist. In einem Aspekt kann dieser Schritt Kombinieren der SLAM (z. B. der LiDAR-Punktwolke), die durch das Fahrzeugsensoriksystem erlangt wird, mit den IX-Knotendaten, die durch die IX-Steuerknotenvorrichtungen generiert werden, beinhalten.
  • Bei Schritt 620 kann das Verfahren 600 ferner Generieren einer optimierten HD-Karte, die das Merkmal in der kartierten Region umfasst, durch Glätten des kombinierten IX-Knotens und SLAM-Posengraphen unter Verwendung eines Stapeloptimierungsalgorithmus beinhalten. Dieser Schritt kann Glätten der LiDAR-Punktwolkendaten unter Verwendung des Stapeloptimierungsalgorithmus durch Reduzieren eines Linearisierungsfehlers der Vielzahl von IX-Knoten beinhalten, sodass er kleiner als ein Schwellenwert für den Linearisierungsfehler ist. Gemäß in dieser Schrift beschriebenen Ausführungsformen beinhalten erste Sensorikdaten und die LiDAR-Punktwolke keine GPS-Daten. Gemäßanderen Aspekten beinhalten erste Sensorikdaten und die LiDAR-Punktwolkendaten keine Echtzeitkinematikinformationen (RTK-Informationen). Das HD-Kartensystem kann daher eine absolute und relative genaue HD-Karte generieren, wenn eines oder mehrere von GPS und RTK fehlen.
  • Dieser Schritt kann ferner inkrementelles Kartenglätten und Kartieren beinhalten, was Bestimmen eines präzise (z. B. innerhalb von 1-2 cm) bekannten Längengrads, Breitengrads, Rollwinkels, Nickwinkels und Kurses in Bezug auf den Nord-Ost-Abwärts-Koordinatenrahmen (mit Einheiten in Radianten) und einer präzise bekannten Ausrichtung für die IX-Steuerpunktvorrichtungen 110 und 115 beinhaltet.
  • In der vorstehenden Offenbarung ist auf die beigefügten Zeichnungen Bezug genommen worden, die einen Teil hiervon bilden und spezifische Implementierungen veranschaulichen, in denen die vorliegende Offenbarung praktisch umgesetzt werden kann. Es versteht sich, dass andere Implementierungen genutzt und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „ein Ausführungsbeispiel“, „eine beispielhafte Ausführungsform“ usw. geben an, dass die beschriebene Ausführungsform ein(e) konkrete(s) Merkmal, Struktur oder Eigenschaft beinhalten kann, wobei aber unter Umständen nicht unbedingt jede Ausführungsform diese(s) konkrete Merkmal, Struktur oder Eigenschaft beinhaltet. Darüber hinaus beziehen sich derartige Formulierungen nicht unbedingt auf die gleiche Ausführungsform. Ferner wird, wenn ein(e) Merkmal, Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben ist, der Fachmann ein(e) derartige(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen erkennen, ob dies nun ausdrücklich beschrieben ist oder nicht.
  • Ferner können gegebenenfalls die in dieser Schrift beschriebenen Funktionen in einem oder mehreren von Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten durchgeführt werden. Eine oder mehrere anwendungsspezifische integrierte Schaltungen (application specific integrated circuits - ASICs) können zum Beispiel dazu programmiert sein, eine(s) oder mehrere der in dieser Schrift beschriebenen Systeme und Prozeduren auszuführen. Gewisse Ausdrücke werden in der gesamten Beschreibung verwendet und Patentansprüche beziehen sich auf konkrete Systemkomponenten. Für den Fachmann liegt auf der Hand, dass mit unterschiedlichen Benennungen auf Komponenten Bezug genommen werden kann. In dieser Schrift soll nicht zwischen Komponenten unterschieden werden, die sich der Benennung nach unterscheiden, nicht aber hinsichtlich der Funktion.
  • Es versteht sich zudem, dass das Wort „Beispiel“ im in dieser Schrift verwendeten Sinne nicht ausschliel licher und nicht einschränkender Natur sein soll. Insbesondere gibt das Wort „Beispiel“ im in dieser Schrift verwendeten Sinne eines von mehreren Beispielen an und es versteht sich, dass keine übermäßige Betonung oder Bevorzugung auf das konkrete beschriebene Beispiel gerichtet wird.
  • Ein computerlesbares Medium (auch als prozessorlesbares Medium bezeichnet) beinhaltet ein beliebiges nichttransitorisches (z. B. physisches) Medium, das am Bereitstellen von Daten (z. B. Anweisungen) beteiligt ist, die durch einen Computer (z. B. durch einen Prozessor eines Computers) gelesen werden können. Ein derartiges Medium kann viele Formen annehmen, die nichtflüchtige Medien und flüchtige Medien beinhalten, aber nicht darauf beschränkt sind. Rechenvorrichtungen können computerausführbare Anweisungen beinhalten, wobei die Anweisungen durch eine oder mehrere Rechenvorrichtungen, wie etwa durch die vorstehend aufgeführten, ausführbar sein können und auf einem computerlesbaren Medium gespeichert sein können.
  • Hinsichtlich der in dieser Schrift beschriebenen Prozesse, Systeme, Verfahren, Heuristiken usw. versteht es sich, dass die Schritte derartiger Prozesse usw. zwar als gemäßeiner gewissen geordneten Abfolge erfolgend beschrieben worden sind, derartige Prozesse jedoch praktisch umgesetzt werden könnten, wobei die beschriebenen Schritte in einer Reihenfolge durchgeführt werden, die von der in dieser Schrift beschriebenen Reihenfolge abweicht. Es versteht sich ferner, dass gewisse Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder gewisse in dieser Schrift beschriebene Schritte weggelassen werden könnten. Mit anderen Worten dienen die Beschreibungen von Prozessen in dieser Schrift dem Zwecke des Veranschaulichens verschiedener Ausführungsformen und sie sollten keinesfalls dahingehend ausgelegt werden, dass sie die Patentansprüche einschränken. Dementsprechend versteht es sich, dass die vorstehende Beschreibung veranschaulichend und nicht begrenzend sein soll. Aus der Lektüre der vorstehenden Beschreibung ergeben sich viele andere Ausführungsformen und Anwendungen als die bereitgestellten Beispiele. Der Umfang sollte nicht unter Bezugnahme auf die vorstehende Beschreibung bestimmt werden, sondern stattdessen unter Bezugnahme auf die beigefügten Patentansprüche zusammen mit der gesamten Bandbreite an Äquivalenten bestimmt werden, zu denen diese Patentansprüche berechtigen. Es wird vorweggenommen und ist beabsichtigt, dass zukünftige Entwicklungen in den in dieser Schrift beschriebenen Techniken eintreten werden und dass die offenbarten Systeme und Verfahren in derartige zukünftige Ausführungsformen einbezogen werden. Insgesamt versteht es sich, dass die Anmeldung zu Modifikation und Variation in der Lage ist. Allen in den Patentansprüchen verwendeten Ausdrücken soll deren allgemeine Bedeutung zugeordnet werden, wie sie dem Fachmann auf dem Gebiet der in dieser Schrift beschriebenen Technologien bekannt ist, sofern in dieser Schrift keine ausdrückliche gegenteilige Angabe gemacht wird. Insbesondere ist die Verwendung der Singularartikel, wie etwa „ein“, „eine“, „der“, „die“, „das“ usw., dahingehend zu verstehen, dass eines oder mehrere der angegebenen Elemente genannt werden, sofern ein Patentanspruch keine ausdrückliche gegenteilige Einschränkung nennt. Mit Formulierungen, die konditionale Zusammenhänge ausdrücken, wie unter anderem „kann“, „könnte“, „können“ oder „könnten“, soll im Allgemeinen vermittelt werden, dass gewisse Ausführungsformen gewisse Merkmale, Elemente und/oder Schritte beinhalten könnten, wohingegen andere Ausführungsformen diese unter Umständen nicht beinhalten, es sei denn, es ist spezifisch etwas anderes genannt oder es ergibt sich etwas anderes aus dem jeweils verwendeten Kontext. Somit sollen derartige Formulierungen, die konditionale Zusammenhänge ausdrücken, nicht implizieren, dass Merkmale, Elemente und/oder Schritte für eine oder mehrere Ausführungsformen in irgendeiner Weise erforderlich sind.
  • Gemäßeiner Ausführungsform beinhalten die ersten Sensorikdaten und die LiDAR-Punktwolke keine Echtzeitkinematikinformationen (RTK-Informationen).
  • Gemäßder vorliegenden Erfindung wird ein nichttransitorisches computerlesbares Speichermedium in einem hochauflösenden Kartierungssystem bereitgestellt, das darauf gespeicherte Anweisungen aufweist, die bei Ausführung durch einen Prozessor den Prozessor zu Folgendem veranlassen: Empfangen von ersten Sensorikdaten, die erste Abmessungsinformationen und erste Positionsinformationen eines Merkmals in einer kartierten Region umfassen, von einer ersten Kreuzungssteuervorrichtung (IX-Steuervorrichtung) und einer zweiten IX-Steuervorrichtung; Empfangen einer LiDAR-Punktwolke, die zweite Abmessungsinformationen und zweite Positionsinformationen des Merkmals in der kartierten Region umfasst, von einem autonomen Fahrzeug (AV); und Generieren einer Vielzahl von IX-Knoten auf Grundlage einer Kombination der ersten Sensorikdaten und der LiDAR-Punktwolke; und Generieren einer optimierten hochauflösenden Karte (HD-Karte), die das Merkmal in der kartierten Region umfasst, durch Glätten der Vielzahl von IX-Knoten unter Verwendung eines Stapeloptimierungsalgorithmus. Gemäßeiner Ausführungsform reduziert der Stapeloptimierungsa einen Linearisierungsfehler der Vielzahl von IX-Knoten, sodass er kleiner als ein Schwellenwert für den Linearisierungsfehler ist.
  • Gemäßeiner Ausführungsform wird die LiDAR-Punktwolke durch das AV während des Fahrens entlang Routen in der kartierten Region gesammelt.
  • Gemäßeiner Ausführungsform ist die erste IX-Steuervorrichtung in der kartierten Region an einer ersten stationären Position angeordnet, die einen ersten bekannten Breitengrad und einen ersten bekannten Längengrad aufweist, und ist die zweite IX-Steuervorrichtung an einer zweiten stationären Position angeordnet, die einen zweiten bekannten Breitengrad und einen zweiten bekannten Längengrad aufweist.

Claims (15)

  1. Verfahren zum Steuern eines Fahrzeugs, umfassend: Empfangen von ersten Sensorikdaten, die erste Abmessungsinformationen und erste Positionsinformationen eines Merkmals in einer kartierten Region umfassen, über einen Prozessor von einer ersten Kreuzungssteuervorrichtung (IX-Steuervorrichtung) und einer zweiten IX-Steuervorrichtung; Empfangen einer LiDAR-Punktwolke, die zweite Abmessungsinformationen und zweite Positionsinformationen des Merkmals in der kartierten Region umfasst, über den Prozessor von einem autonomen Fahrzeug (AV); Generieren einer Vielzahl von IX-Knoten auf Grundlage einer Kombination der ersten Sensorikdaten und der LiDAR-Punktwolke über den Prozessor; und Generieren einer optimierten hochauflösenden Karte (HD-Karte), die das Merkmal in der kartierten Region umfasst, durch Glätten der Vielzahl von IX-Knoten unter Verwendung eines Stapeloptimierungsalgorithmus.
  2. Verfahren nach Anspruch 1, wobei der Stapeloptimierungsalgorithmus einen Linearisierungsfehler der Vielzahl von IX-Knoten reduziert, sodass er kleiner als ein Schwellenwert für den Linearisierungsfehler ist.
  3. Verfahren nach Anspruch 1, wobei die LiDAR-Punktwolke durch das AV während des Fahrens entlang Routen in der kartierten Region gesammelt wird.
  4. Verfahren nach Anspruch 1, wobei die erste IX-Steuervorrichtung in der kartierten Region an einer ersten stationären Position angeordnet ist, die einen ersten bekannten Breitengrad und einen ersten bekannten Längengrad aufweist, und die zweite IX-Steuervorrichtung an einer zweiten stationären Position angeordnet ist, die einen zweiten bekannten Breitengrad und einen zweiten bekannten Längengrad aufweist.
  5. Verfahren nach Anspruch 1, wobei die ersten Sensorikdaten LiDAR-Sensorikdaten umfassen.
  6. Verfahren nach Anspruch 1, wobei die LiDAR-Punktwolke LiDAR-Sensordaten und Trägheitsmesseinheitsdaten (IMU-Daten) umfasst.
  7. Verfahren nach Anspruch 1, wobei die ersten Sensorikdaten und die LiDAR-Punktwolke keine Daten eines globalen Positionsbestimmungssystems (GPS-Daten) beinhalten.
  8. Verfahren nach Anspruch 1, wobei die ersten Sensorikdaten und die LiDAR-Punktwolke keine Echtzeitkinematikinformationen (RTK-Informationen) beinhalten.
  9. System, umfassend: einen Prozessor; und einen Speicher zum Speichern von ausführbaren Anweisungen, wobei der Prozessor dazu programmiert ist, die Anweisungen zu Folgendem auszuführen: Empfangen von ersten Sensorikdaten, die erste Abmessungsinformationen und erste Positionsinformationen eines Merkmals in einer kartierten Region umfassen, von einer ersten Kreuzungssteuervorrichtung (IX-Steuervorrichtung) und einer zweiten IX-Steuervorrichtung; Empfangen einer LiDAR-Punktwolke, die zweite Abmessungsinformationen und zweite Positionsinformationen des Merkmals in der kartierten Region umfasst, von einem autonomen Fahrzeug (AV); und Generieren einer Vielzahl von IX-Knoten auf Grundlage einer Kombination der ersten Sensorikdaten und der LiDAR-Punktwolke; und Generieren einer optimierten hochauflösenden Karte (HD-Karte), die das Merkmal in der kartierten Region umfasst, durch Glätten der Vielzahl von IX-Knoten unter Verwendung eines Stapeloptimierungsalgorithmus.
  10. System nach Anspruch 9, wobei der Stapeloptimierungsalgorithmus einen Linearisierungsfehler der Vielzahl von IX-Knoten reduziert, sodass er kleiner als ein Schwellenwert für den Linearisierungsfehler ist.
  11. System nach Anspruch 9, wobei die LiDAR-Punktwolke durch das AV während des Fahrens entlang Routen in der kartierten Region gesammelt wird.
  12. System nach Anspruch 9, wobei die erste IX-Steuervorrichtung in der kartierten Region an einer ersten stationären Position angeordnet ist, die einen ersten bekannten Breitengrad und einen ersten bekannten Längengrad aufweist, und die zweite IX-Steuervorrichtung an einer zweiten stationären Position angeordnet ist, die einen zweiten bekannten Breitengrad und einen zweiten bekannten Längengrad aufweist.
  13. System nach Anspruch 9, wobei die ersten Sensorikdaten LiDAR-Sensorikdaten umfassen.
  14. System nach Anspruch 9, wobei die LiDAR-Punktwolke LiDAR-Sensordaten und Trägheitsmesseinheitsdaten (IMU-Daten) umfasst.
  15. System nach Anspruch 9, wobei die ersten Sensorikdaten und die LiDAR-Punktwolke keine Daten eines globalen Positionsbestimmungssystems (GPS-Daten) beinhalten.
DE102022112395.2A 2021-05-18 2022-05-17 Von kreuzungsknoten unterstützte hochauflösende kartierung Pending DE102022112395A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/323,842 2021-05-18
US17/323,842 US11914378B2 (en) 2021-05-18 2021-05-18 Intersection node-assisted high-definition mapping

Publications (1)

Publication Number Publication Date
DE102022112395A1 true DE102022112395A1 (de) 2022-11-24

Family

ID=83898811

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022112395.2A Pending DE102022112395A1 (de) 2021-05-18 2022-05-17 Von kreuzungsknoten unterstützte hochauflösende kartierung

Country Status (3)

Country Link
US (1) US11914378B2 (de)
CN (1) CN115375831A (de)
DE (1) DE102022112395A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230274642A1 (en) * 2022-02-28 2023-08-31 Gm Cruise Holdings Llc Autonomous vehicle fleet acting as a phase array for imaging and tomography
CN116129389B (zh) * 2023-03-27 2023-07-21 浙江零跑科技股份有限公司 一种车道线获取方法、计算机设备、可读存储介质及机动车

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080195316A1 (en) * 2007-02-12 2008-08-14 Honeywell International Inc. System and method for motion estimation using vision sensors
US9633315B2 (en) * 2012-04-27 2017-04-25 Excalibur Ip, Llc Method and system for distributed machine learning
US9612123B1 (en) 2015-11-04 2017-04-04 Zoox, Inc. Adaptive mapping to navigate autonomous vehicles responsive to physical environment changes
US10248124B2 (en) 2016-07-21 2019-04-02 Mobileye Vision Technologies, Inc. Localizing vehicle navigation using lane measurements
US10452078B2 (en) * 2017-05-10 2019-10-22 General Electric Company Self-localized mobile sensor network for autonomous robotic inspection
US10384609B2 (en) * 2017-06-20 2019-08-20 Ford Global Technologies, Llc Vehicle rear object proximity system using multiple cameras
CN108956145A (zh) * 2018-07-17 2018-12-07 中国科学院沈阳自动化研究所 基于无损约束降噪稀疏自编码的滚动轴承故障诊断方法
US11783707B2 (en) * 2018-10-09 2023-10-10 Ford Global Technologies, Llc Vehicle path planning
US11536844B2 (en) * 2018-12-14 2022-12-27 Beijing Voyager Technology Co., Ltd. Dynamic sensor range detection for vehicle navigation
EP3671261A1 (de) * 2018-12-21 2020-06-24 Leica Geosystems AG System zur 3d-überwachung mit lidar und multispektraler bildgebung zur objektklassifizierung
KR102160281B1 (ko) * 2018-12-28 2020-09-25 주식회사 블루인텔리전스 무인 자율 주행 경로 안내 방법 및 이에 적합한 무인 자율 주행 지원 시스템
EP4042398A1 (de) * 2019-10-10 2022-08-17 Starship Technologies OÜ Vorrichtung, system und verfahren zum unterstützen mobiler roboter beim autonomen überqueren von strassen
KR20210050925A (ko) * 2019-10-29 2021-05-10 엘지전자 주식회사 차량 충돌 회피 장치 및 방법
US11966673B2 (en) * 2020-03-13 2024-04-23 Nvidia Corporation Sensor simulation and learning sensor models with generative machine learning methods

Also Published As

Publication number Publication date
US11914378B2 (en) 2024-02-27
CN115375831A (zh) 2022-11-22
US20220374016A1 (en) 2022-11-24

Similar Documents

Publication Publication Date Title
DE102017126877B4 (de) Kraftfahrzeug
DE102018120845B4 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
EP3207538B1 (de) Kommunikationsvorrichtung für ein fahrzeug und verfahren zum kommunizieren
DE102017126925A1 (de) Automatisierte Co-Pilotsteuerung für autonome Fahrzeuge
DE102020131323A1 (de) Kamera-zu-lidar-kalibration und -validierung
DE102010005293B4 (de) System und Verfahren zur Spurpfadschätzung unter Verwendung einer Sensorvereinigung
DE102019114527A1 (de) Intelligente fahrzeugnavigationssysteme, verfahren und steuerlogik zur mehrspurtrennung und trajektorienextraktion von fahrbahnsegmenten
DE102018113078A1 (de) Fahrzeugfernparksysteme und -verfahren
DE112020000653T5 (de) Zusammenführen von daten aus mehreren lidar-vorrichtungen
DE102019201856A1 (de) Fahrzeugsteuerungssystem und Steuerverfahren
EP3830523B1 (de) Verfahren zur aktualisierung einer umgebungskarte, vorrichtung für die fahrzeugseitige durchführung von verfahrensschritten des verfahrens, fahrzeug, vorrichtung für die zentralrechnerseitige durchführung von verfahrensschritten des verfahrens sowie computerlesbares speichermedium
DE102018118220B4 (de) Verfahren zur Schätzung der Lokalisierungsgüte bei der Eigenlokalisierung eines Fahrzeuges, Vorrichtung für die Durchführung von Verfahrensschritten des Verfahrens, Fahrzeug sowie Computerprogramm
DE102018005869A1 (de) System zur Erstellung eines Umgebungsmodells eines Fahrzeugs
DE102018116633A1 (de) Vorrichtung und verfahren zum steuern einer fahrmodusumschaltung eines fahrzeugs und fahrzeugsystem
DE102022112395A1 (de) Von kreuzungsknoten unterstützte hochauflösende kartierung
DE102016003969B4 (de) Verfahren zum Erfassen von Umgebungsdaten mittels mehrerer Kraftfahrzeuge
WO2021043505A1 (de) Verfahren und vorrichtung zur ermittlung einer trajektorie eines fahrzeugs
DE102020132302A1 (de) Sicherheitssystem für ein fahrzeug
DE102020100027A1 (de) Überwachungs- und steuerinfrastruktur für fahrzeuge
DE102019100563A1 (de) Gnss-lokalisierung unter verwendung von fahrzeugsensoren
DE102019127062A1 (de) Transportinfrastrukturkommunikation und -steuerung
DE102022101233A1 (de) Verkehrssimulation und strassennetzmodellierung für autonome fahrzeuge
DE102020123587A1 (de) Betrieb eines autonomen fahrzeugs basierend auf der verfügbarkeit von navigationsinformationen
DE102020105619A1 (de) System und verfahren zur bestimmung der fahrzeugposition
EP3649521B1 (de) Verfahren zum betreiben eines höher automatisierten fahrzeugs (haf), insbesondere eines hochautomatisierten fahrzeugs

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE