-
TECHNISCHES GEBIET
-
Die vorliegende Offenbarung bezieht sich im Allgemeinen auf autonome Fahrzeuge, und insbesondere auf Systeme und Verfahren zum Erkennen und Abbilden von Fahrbahnstörobjekten, wie beispielsweise baubezogenen Objekten, in einem autonomen Fahrzeug.
-
HINTERGRUND
-
Ein autonomes Fahrzeug ist ein Fahrzeug, das in der Lage ist, seine Umgebung zu erfassen und mit geringfügiger oder gar keiner Benutzereingabe zu navigieren. Dies geschieht durch den Einsatz von Sensoren, wie beispielsweise Radar, Lidar, Bildsensoren und dergleichen. Autonome Fahrzeuge nutzen weiterhin Informationen von globalen Positioniersystemen (GPS), Navigationssystemen, Fahrzeug-Fahrzeug-Kommunikationen, Fahrzeug-Infrastruktur-Technologien und/oder drahtgesteuerten Systemen, um das Fahrzeug zu navigieren.
-
Während in den letzten Jahren signifikante Fortschritte bei Navigationssystemen zu verzeichnen waren, könnten solche Systeme in mehrfacher Hinsicht noch verbessert werden. So stoßen beispielsweise autonome Fahrzeuge auf einer Strecke zu einem geplanten Bestimmungsort oft auf bisher unbekannte Straßenbaustellenbereiche. Es wäre vorteilhaft, das Vorhandensein von Fahrbahnstörobjekten zu erkennen und abzubilden, die unter anderem bei der Wegeplanung hilfreich sind.
-
Dementsprechend ist es wünschenswert, Systeme und Verfahren zum Erkennen und Abbilden von Fahrbahnstörobjekten in autonomen Fahrzeugen bereitzustellen. Ferner werden andere wünschenswerte Funktionen und Merkmale der vorliegenden Erfindung aus der nachfolgenden ausführlichen Beschreibung und den beigefügten Ansprüchen, in Verbindung mit den beigefügten Zeichnungen, sowie mit dem vorangehenden technischen Gebiet und Hintergrund ersichtlich offensichtlich.
-
KURZDARSTELLUNG
-
Es sind Systeme und Verfahren zur Steuerung eines ersten Fahrzeugs vorgesehen. In einer Ausführungsform beinhaltet ein Baustellen-Kartierungsverfahren das Empfangen von Sensordaten in Bezug auf eine einem Fahrzeug zugeordnete Umgebung, das Bestimmen, dass ein fahrbahnstörendes Objekt innerhalb der Umgebung basierend auf den Sensordaten vorhanden ist, und das Erzeugen einer zusammengesetzten Karte mit einer Darstellung des Fahrbahnstörobjekts, das auf einer definierten Karte der Umgebung überlagert ist.
-
In einer Ausführungsform beinhaltet das Verfahren das Übertragen von Informationen, die sich auf das störende Objekt auf der Fahrbahn beziehen, über ein Netzwerk an einen Server, sodass die Informationen, die sich auf das Fahrbahnstörobjekt beziehen, über das Netzwerk für ein zweites Fahrzeug verfügbar sind, das konfiguriert ist, um zu bestimmen, dass das Fahrbahnstörobjekt in der Umgebung vorhanden ist.
-
In einer Ausführungsform beinhaltet das Bestimmen, dass das Fahrbahnstörobjekt in der Umgebung vorhanden ist, das Verarbeiten der Sensordaten über ein faltungsneuronales Netzwerkmodell.
-
In einer Ausführungsform ist das Fahrbahnstörobjekt in der Umgebung vorhanden, was das Bestimmen des Vorhandenseins von mindestens einem der folgenden Elemente beinhaltet: eine Pylone, eine Verkehrsschranke, eine Verkehrstonne, ein Baustellenzeichen, eine reflektierenden Weste, ein Baustellenhelm, ein Anhänger mit Pfeilanzeige und eine Straßenbauausrüstung.
-
In einer Ausführungsform beinhaltet das Verfahren das Bestimmen einer Position des Fahrbahnstörobjekts basierend auf Lidarsensordaten.
-
In einer Ausführungsform beinhaltet das Verfahren das Erzeugen eines Hot-Spot-Plots, der einer räumlichen Wahrscheinlichkeit des Vorhandenseins des Fahrbahnstörobjekts entspricht, und das Erzeugen der zusammengesetzten Karte basierend auf dem Hot-Spot-Plot.
-
In einer Ausführungsform beinhaltet das Verfahren das Verwenden einer homographischen Projektion eines Fahrbahnstörobjekts auf eine Bodenebene, um eine Position des Fahrbahnstörobjekts zu bestimmen.
-
Ein System zum Steuern eines Fahrzeugs gemäß einer Ausführungsform beinhaltet ein Fahrbahnstörobjekt-Erkennungsmodul und ein Fahrbahnstörobjekt-Mapping-Modul. Das Fahrbahnstörobjekt-Erkennungsmodul, beinhaltend einen Prozessor, der konfiguriert ist, um Sensordaten in Bezug auf eine dem Fahrzeug zugeordnete Umgebung zu empfangen und zu bestimmen, dass ein Fahrbahnstörobjekt innerhalb der Umgebung basierend auf den Sensordaten vorhanden ist. Das Fahrbahnstörobjekt-Mapping-Modul ist konfiguriert, um eine zusammengesetzte Karte zu erzeugen, die eine Darstellung des Fahrbahnstörobjekts beinhaltet, das auf einer definierten Karte der Umgebung überlagert ist.
-
In einer Ausführungsform überträgt das Fahrbahnstörobjekt-Mapping-Modul Informationen über ein Netzwerk an einen Server, die sich auf das Fahrbahnstörobjekt beziehen.
-
In einer Ausführungsform ist das Fahrbahnstörobjekt-Erkennungsmodul konfiguriert, um zu bestimmen, dass das Fahrbahnstörobjekt in der Umgebung vorhanden ist, indem die Sensordaten über ein faltungsneuronales Netzwerkmodell verarbeitet werden.
-
In einer Ausführungsform ist das Fahrbahnstörobjekt mindestens eines von einem Pylon, einer Verkehrsschranke, einer Verkehrstonne, einem Baustellenzeichen, einer reflektierenden Weste, einem Baustellenhelm, einem Anhänger mit Pfeilanzeige und einer Straßenbauausrüstung.
-
In einer Ausführungsform bestimmt das Fahrbahnstörobjekt-Mapping-Modul eine Position des Fahrbahnstörobjekts basierend auf Lidarsensordaten.
-
In einer Ausführungsform ist das Fahrbahnstörobjekt-Mapping-Modul konfiguriert, um einen Hot-Spot-Plot zu erzeugen, der einer räumlichen Wahrscheinlichkeit des Vorhandenseins des Fahrbahnstörobjekts entspricht, und um die zusammengesetzte Karte basierend auf dem Hot-Spot-Plot zu erzeugen.
-
In einer Ausführungsform ist das Fahrbahnstörobjekt-Mapping-Modul konfiguriert, um eine homographische Projektion von Fahrbahnstörobjekten auf eine Bodenebene zu verwenden, um eine Position des Fahrbahnstörobjekts zu bestimmen.
-
In einer Ausführungsform ist das Fahrbahnstörobjekt-Mapping-Modul konfiguriert, um Informationen über ein Netzwerk an einen Server, die sich auf das Fahrbahnstörobjekt beziehen, zu übertragen.
-
Ein autonomes Fahrzeug gemäß einer Ausführungsform beinhaltet mindestens einen Sensor, der Sensordaten bereitstellt; sowie eine Steuerung, die durch einen Prozessor und basierend auf den Sensordaten: Sensordaten in Bezug auf eine einem Fahrzeug zugeordnete Umgebung empfängt; bestimmt, dass ein Fahrbahnstörobjekt innerhalb der Umgebung basierend auf den Sensordaten vorhanden ist; und eine zusammengesetzte Karte erzeugt, die eine Darstellung des Fahrbahnstörobjekts beinhaltet, das auf einer definierten Karte der Umgebung überlagert ist.
-
In einer Ausführungsform implementiert die Steuerung ein faltungsneuronales Netzwerkmodell.
-
In einer Ausführungsform beinhaltet der mindestens eine Sensor mindestens einen von einem optischen Sensor und einem Lidarsensor.
-
In einer Ausführungsform beinhaltet das Fahrbahnstörobjekt einen Pylon, eine Verkehrsschranke, eine Verkehrstonne, ein Baustellenzeichen, eine reflektierenden Weste, einen Baustellenhelm, einen Anhänger mit Pfeilanzeige oder ein Teil der Straßenbauausrüstung.
-
In einer Ausführungsform ist die Steuerung konfiguriert, um einen Hot-Spot-Plot zu erzeugen, der einer räumlichen Wahrscheinlichkeit des Vorhandenseins des Fahrbahnstörobjekts entspricht, und um die zusammengesetzte Karte basierend auf dem Hot-Spot-Plot zu erzeugen.
-
Figurenliste
-
Die exemplarischen Ausführungsformen werden nachfolgend in Verbindung mit den folgenden Zeichnungen beschrieben, worin gleiche Bezugszeichen gleiche Elemente bezeichnen, und worin gilt:
- 1 ist ein Funktionsblockdiagramm, das ein autonomes Fahrzeug mit einem Baustellen-Abbildungssystem gemäß verschiedenen Ausführungsformen veranschaulicht;
- 2 ist ein Funktionsblockdiagramm, das ein Transportsystem mit einem oder mehreren autonomen Fahrzeugen aus 1 gemäß verschiedenen Ausführungsformen veranschaulicht;
- 3 ist ein Funktionsblockdiagramm, das ein autonomes Antriebssystem (ADS) in Verbindung mit einem autonomen Fahrzeug gemäß verschiedenen Ausführungsformen veranschaulicht;
- 4 ist eine konzeptionelle Draufsicht eines Fahrbahn- und Baustellenbereichs gemäß verschiedenen Ausführungsformen;
- 5 präsentiert exemplarische Fahrbahnstörobjekte und Indizes, die sich auf einen Baustellenbereich beziehen, gemäß verschiedenen Ausführungsformen;
- 6 veranschaulicht ein exemplarisches autonomes Fahrzeug, das die Position eines baustellenbezogenen Objekts gemäß verschiedenen Ausführungsformen bestimmt;
- 7 veranschaulicht eine Kameraansicht nach vorne auf einen Baustellenbereich gemäß verschiedenen Ausführungsformen;
- 8 veranschaulicht ein fahrbahnstörendes Hot-Spot-Bild, das dem in 7 abgebildeten Szenario entspricht, gemäß verschiedenen Ausführungsformen;
- 9 veranschaulicht eine Fahrbahnkarte mit überlagerten, Fahrbahnstörobjekten gemäß einer Ausführungsform;
- 10 ist ein Datenflussdiagramm, das ein Baustellen-Kartierungssystem eines autonomen Fahrzeugs gemäß verschiedenen Ausführungsformen veranschaulicht;
- 11 ist ein Flussdiagramm, das ein Steuerverfahren zum Steuern des autonomen Fahrzeugs gemäß verschiedenen Ausführungsformen veranschaulicht; und
- 12 ist ein Blockdiagramm eines exemplarischen faltungsneuronalen Netzwerks gemäß verschiedenen Ausführungsformen.
-
AUSFÜHRLICHE BESCHREIBUNG
-
Die folgende ausführliche Beschreibung dient lediglich als Beispiel und soll die Anwendung und Verwendung in keiner Weise einschränken. Weiterhin besteht keine Absicht, im vorstehenden technischen Bereich, Hintergrund, der Kurzzusammenfassung oder der folgenden detaillierten Beschreibung, an eine ausdrücklich oder implizit vorgestellte Theorie gebunden zu sein. Der hierin verwendete Begriff „Modul“ bezieht sich auf alle Hardware-, Software-, Firmwareprodukte, elektronische Steuerkomponenten, Verarbeitungslogik und/oder Prozessorgeräte, einzeln oder in allen Kombinationen, unter anderem beinhaltend, eine anwendungsspezifische integrierte Schaltung (ASIC), ein feldprogrammierbares Gate-Array (FPGA), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert oder Gruppenprozessor) und einen Speicher, der ein oder mehrere Software- oder Firmwareprogramme, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten ausführt, welche die beschriebene Funktionalität bieten.
-
Ausführungsformen der vorliegenden Offenbarung können hierin als funktionale und/oder logische Blockkomponenten und verschiedene Verarbeitungsschritte beschrieben sein. Es ist zu beachten, dass derartige Blockkomponenten aus einer beliebigen Anzahl an Hardware-, Software- und/oder Firmware-Komponenten aufgebaut sein können, die zur Ausführung der erforderlichen Funktionen konfiguriert sind. Zum Beispiel kann eine Ausführungsform der vorliegenden Offenbarung eines Systems oder einer Komponente verschiedene integrierte Schaltungskomponenten, beispielsweise Speicherelemente, digitale Signalverarbeitungselemente, Logikelemente, Wertetabellen oder dergleichen, einsetzen, die mehrere Funktionen unter der Steuerung eines oder mehrerer Mikroprozessoren oder anderer Steuervorrichtungen durchführen können. Zudem werden Fachleute auf dem Gebiet erkennen, dass die exemplarischen Ausführungsformen der vorliegenden Offenbarung in Verbindung mit einer beliebigen Anzahl an Systemen eingesetzt werden können, und dass das hierin beschriebene System lediglich eine exemplarische Ausführungsform der vorliegenden Offenbarung darstellt.
-
Der Kürze halber können konventionelle Techniken in Verbindung mit der Signalverarbeitung, Datenübertragung, Signalgebung, Steuerung, Maschinenlernmodelle, Radar, Lidar, Bildanalyse und weiteren funktionalen Aspekten der Systeme (und den einzelnen Bedienkomponenten der Systeme) hierin nicht im Detail beschrieben werden. Weiterhin sollen die in den verschiedenen Figuren dargestellten Verbindungslinien exemplarische Funktionsbeziehungen und/oder physikalische Verbindungen zwischen den verschiedenen Elementen darstellen. Es sollte beachtet werden, dass viele alternative oder zusätzliche funktionale Beziehungen oder physikalische Verbindungen in einer Ausführungsform der vorliegenden Offenbarung vorhanden sein können.
-
Unter Bezugnahme auf 1 ist ein bei 100 allgemein dargestelltes Baustellen-Kartierungssystem mit einem Fahrzeug 10 gemäß verschiedenen Ausführungsformen assoziiert. Im Allgemeinen ermöglicht das Baustellen-Kartierungssystem (oder einfach „System“) 100 das Erkennen und Zuordnen des Vorhandenseins von Fahrbahnstörobjekten, wie beispielsweise baustellenbezogene Objekte, in der Nähe des AV 10.
-
Wie in 1 dargestellt, beinhaltet das Fahrzeug 10 im Allgemeinen ein Fahrgestell 12, eine Karosserie 14, Vorderräder 16 und Hinterräder 18. Die Karosserie 14 ist auf dem Fahrgestell 12 angeordnet und umhüllt im Wesentlichen die anderen Komponenten des Fahrzeugs 10. Die Karosserie 14 und das Fahrgestell 12 können gemeinsam einen Rahmen bilden. Die Räder 16-18 sind jeweils mit dem Fahrgestell 12 in der Nähe einer jeweiligen Ecke der Karosserie 14 drehbar verbunden.
-
In verschiedenen Ausführungsformen ist das Fahrzeug 10 ein autonomes Fahrzeug und das Baustellen-Kartierungssystem 100 ist in das autonome Fahrzeug 10 (nachfolgend als das autonome Fahrzeug 10 bezeichnet) integriert. Das autonome Fahrzeug 10 ist beispielsweise ein Fahrzeug, das automatisch gesteuert wird, um Passagiere von einem Ort zum anderen zu befördern. Das Fahrzeug 10 ist in der veranschaulichten Ausführungsform als Pkw dargestellt, es sollte jedoch beachtet werden, dass auch jedes andere Fahrzeug einschließlich Motorräder, Lastwagen, Sportfahrzeuge (SUVs), Freizeitfahrzeuge (RVs), Schiffe, Flugzeuge usw. verwendet werden können.
-
In einer exemplarischen Ausführungsform entspricht das autonome Fahrzeug 10 einem Automatisierungssystem des Levels vier oder Levels fünf gemäß der Standardtaxonomie automatisierter Fahrlevels der Society of Automotive Engineers (SAE) „J3016“. Mit dieser Terminologie bezeichnet ein Level-Vier-System eine „hohe Automatisierung“ unter Bezugnahme auf einen Fahrmodus, bei dem das automatisierte Fahrsystem alle Aspekte der dynamischen Fahraufgabe übernimmt, selbst wenn ein menschlicher Fahrer nicht angemessen auf eine Aufforderung zum Eingreifen reagiert. Ein Level-Fünf-System hingegen zeigt eine „Vollautomatisierung“ und bezeichnet einen Fahrmodus, bei dem das automatisierte Fahrsystem alle Aspekte der dynamischen Fahraufgabe unter allen Fahrbahn- und Umweltbedingungen erfüllt, die ein menschlicher Fahrer bewältigen kann. Es versteht sich, dass die Ausführungsformen gemäß der vorliegenden Thematik nicht auf eine bestimmte Taxonomie oder Rubrik der Automatisierungskategorien beschränkt sind. Darüber hinaus können Systeme gemäß der vorliegenden Ausführungsform in Verbindung mit jedem Fahrzeug verwendet werden, in dem der vorliegende Gegenstand umgesetzt werden kann, unabhängig von seiner Autonomie.
-
Wie dargestellt, beinhaltet das autonome Fahrzeug 10 im Allgemeinen ein Antriebssystem 20, ein Übertragungssystem 22, ein Lenksystem 24, ein Bremssystem 26, ein Sensorsystem 28, ein Stellantriebsystem 30, mindestens einen Datenspeicher 32, mindestens eine Steuerung 34 und ein Kommunikationssystem 36. Das Antriebssystem 20 kann in verschiedenen Ausführungsformen einen Verbrennungsmotor, eine elektrische Maschine, wie beispielsweise einen Traktionsmotor und/oder ein Brennstoffzellenantriebssystem, beinhalten. Das Übertragungssystem 22 ist dazu konfiguriert, Leistung vom Antriebssystem 20 auf die Fahrzeugräder 16 und 18 gemäß den wählbaren Übersetzungsverhältnissen zu übertragen. Gemäß verschiedenen Ausführungsformen kann das Getriebesystem 22 ein Stufenverhältnis-Automatikgetriebe, ein stufenlos verstellbares Getriebe oder ein anderes geeignetes Getriebe beinhalten.
-
Das Bremssystem 26 ist dazu konfiguriert, den Fahrzeugrädern 16 und 18 ein Bremsmoment bereitzustellen. Das Bremssystem 26 kann in verschiedenen Ausführungsformen Reibungsbremsen, Bake-by-Wire, ein regeneratives Bremssystem, wie beispielsweise eine elektrische Maschine und/oder andere geeignete Bremssysteme, beinhalten.
-
Das Lenksystem 24 beeinflusst eine Position der Fahrzeugräder 16 und/oder 18. Während in einigen Ausführungsformen innerhalb des Umfangs der vorliegenden Offenbarung zur Veranschaulichung als ein Lenkrad 25 dargestellt, kann das Lenksystem 24 kein Lenkrad beinhalten.
-
Das Sensorsystem 28 beinhaltet eine oder mehrere Sensorvorrichtungen 40a-40n, die beobachtbare Zustände der äußeren Umgebung und/oder der inneren Umgebung des autonomen Fahrzeugs 10 (zum Beispiel den Zustand eines oder mehrerer Insassen) erfassen können. Sensorvorrichtungen 40a-40n können, sind jedoch nicht beschränkt auf, Radare (z. B. Langstrecken-, Mittelstrecken-Kurzbereich), Lidare, globale Positionierungssysteme, optische Kameras (z. B. nach vorne gerichtet, 360-Grad, nach hinten gerichtet, seitlich gerichtet, Stereo, usw.), beinhalten, Wärmebildkameras (z. B. Infrarot), Ultraschallsensoren, Geschwindigkeitsmesssensoren (z. B. Encoder) und/oder andere Sensoren, die in Verbindung mit Systemen und Verfahren gemäß dem vorliegenden Gegenstand verwendet werden können.
-
Das Stellantriebssystem 30 beinhaltet ein oder mehrere Stellantriebsvorrichtungen 42a-42n, die ein oder mehrere Fahrzeugeigenschaften, wie zum Beispiel das Antriebssystem 20, das Übertragungssystem 22, das Lenksystem 24 und das Bremssystem 26, steuern, sind aber nicht darauf beschränkt. In verschiedenen Ausführungsformen kann das autonome Fahrzeug 10 auch Fahrzeug-Innen- und/oder Außenausstattungen beinhalten, die nicht in 1 dargestellt sind, wie beispielsweise verschiedene Türen, Kofferraum- und Kabinenausstattungen, wie Luft, Musik, Beleuchtung, Touchscreen-Display-Komponenten (wie sie in Verbindung mit Navigationssystemen verwendet werden) und dergleichen.
-
Die Datenspeichervorrichtung 32 speichert Daten zur Verwendung beim automatischen Steuern des autonomen Fahrzeugs 10. In verschiedenen Ausführungsformen speichert die Datenspeichervorrichtung 32 definierte Landkarten der navigierbaren Umgebung. In verschiedenen Ausführungsformen werden die definierten Landkarten vordefiniert und von einem entfernten System (in weiteren Einzelheiten in Bezug auf 2 beschrieben) erhalten. So können beispielsweise die definierten Landkarten durch das entfernte System zusammengesetzt und dem autonomen Fahrzeug 10 (drahtlos und/oder drahtgebunden) mitgeteilt und in der Datenspeichervorrichtung 32 gespeichert werden. Routeninformationen können auch in der Datenspeichervorrichtung 32 gespeichert werden - d. h. in einer Reihe von Straßenabschnitten (die geografisch mit einer oder mehreren der definierten Karten verknüpft sind), die zusammen eine Route definieren, die der Benutzer von einem Startort (z. B. dem aktuellen Standort des Benutzers) zu einem Zielort zurücklegen kann. Wie ersichtlich ist, kann die Datenspeichervorrichtung 32 ein Teil der Steuerung 34, von der Steuerung 34 getrennt, oder ein Teil der Steuerung 34 und Teil eines separaten Systems sein.
-
Die Steuerung 34 beinhaltet mindestens einen Prozessor 44 und eine computerlesbare Speichervorrichtung oder Medien 46. Der Prozessor 44 kann eine Spezialanfertigung oder ein handelsüblicher Prozessor sein, eine Zentraleinheit (CPU), eine Grafikprozessoreinheit (GPU), eine anwendungsspezifische integrierte Schaltung (ASIC) (z.B. eine benutzerdefinierte ASIC, die ein neuronales Netzwerk implementiert), ein feldprogrammierbares Gate-Array (FPGA), ein Hilfsprozessor unter mehreren Prozessoren, verbunden mit der Steuerung 34, ein Mikroprozessor auf Halbleiterbasis (in Form eines Mikrochips oder Chip-Satzes) eine Kombination derselben oder allgemein jede beliebige Vorrichtung zur Ausführung von Anweisungen. Die computerlesbare Speichervorrichtung oder Medien 46 können flüchtige und nicht-flüchtige Speicher in einem Nur-Lese-Speicher (ROM), einem Speicher mit direktem Zugriff (RAM) und einem Keep-Alive-Memory (KAM) beinhalten. KAM ist ein persistenter oder nicht-flüchtiger Speicher, der verwendet werden kann, um verschiedene Betriebsvariablen zu speichern, während der Prozessor 44 ausgeschaltet ist. Die computerlesbare Speichervorrichtung oder Medien 46 können unter Verwendung einer beliebigen einer Anzahl an bekannten Speichervorrichtungen, wie beispielsweise PROMs (programmierbarer Nur-Lese-Speicher), EPROMs (elektrische PROM), EEPROMs (elektrisch löschbarer PROM), Flash-Speicher oder beliebige andere elektrischen, magnetischen, optischen oder kombinierten Speichervorrichtungen implementiert werden, die Daten speichern können, von denen einige ausführbare Anweisungen darstellen, die von der Steuerung 34 beim Steuern des autonomen Fahrzeugs 10 verwendet werden. In verschiedenen Ausführungsformen ist die Steuerung 34 konfiguriert, um das im Folgenden ausführlich erläuterte Fahrbahnstörobjekt-Kartierungssystem zu implementieren.
-
Die Anweisungen können ein oder mehrere separate Programme beinhalten, von denen jede eine geordnete Auflistung von ausführbaren Anweisungen zum Implementieren von logischen Funktionen beinhaltet. Die Anweisungen empfangen und verarbeiten, wenn diese vom Prozessor 44 ausgeführt werden, Signale vom Sensorsystem 28, führen Logik, Berechnungen, Verfahren und/oder Algorithmen zur automatischen Steuerung der Komponenten des autonomen Fahrzeugs 10 durch und erzeugen Steuersignale, die an das Stellgliedsystem 30 übertragen werden, um die Komponenten des autonomen Fahrzeugs 10 basierend auf der Logik, den Berechnungen, den Verfahren und/oder Algorithmen automatisch zu steuern. Obwohl in 1 nur eine Steuerung 34 dargestellt ist, können Ausführungsformen des autonomen Fahrzeugs 10 eine beliebige Anzahl an Steuerungen 34 beinhalten, die über ein geeignetes Kommunikationsmedium oder eine Kombination von Kommunikationsmedien kommunizieren und zusammenwirken, um die Sensorsignale zu verarbeiten, Logiken, Berechnungen, Verfahren und/oder Algorithmen durchzuführen, und Steuersignale zu erzeugen, um die Funktionen des autonomen Fahrzeugs 10 automatisch zu steuern.
-
Das Kommunikationssystem 36 ist konfiguriert, um Informationen drahtlos an und von anderen Einheiten 48, wie beispielsweise, jedoch nicht beschränkt auf andere Fahrzeuge („V2V“-Kommunikation,) Infrastruktur („V2I“-Kommunikation), Netzwerke („V2N“-Kommunikation), Fußgänger („V2P“-Kommunikation), entfernte Transportsysteme und/oder Benutzervorrichtungen zu übermitteln (näher beschrieben in Bezug auf 2). In einer exemplarischen Ausführungsform ist das drahtlose Kommunikationssystem 36 dazu konfiguriert, über ein drahtloses lokales Netzwerk (WLAN) unter Verwendung des IEEE 802.11-Standards, über Bluetooth oder mittels einer mobilen Datenkommunikation zu kommunizieren. Im Geltungsbereich der vorliegenden Offenbarung werden jedoch auch zusätzliche oder alternative Kommunikationsverfahren, wie beispielsweise ein dedizierter Nahbereichskommunikations-(DSRC)-Kanal, berücksichtigt. DSRC-Kanäle beziehen sich auf Einweg- oder Zweiwege-Kurzstrecken- bis Mittelklasse-Funkkommunikationskanäle, die speziell für den Automobilbau und einen entsprechenden Satz von Protokollen und Standards entwickelt wurden.
-
Mit weiterem Bezug auf 2 in verschiedenen Ausführungsformen kann das autonome Fahrzeug 10, das mit Bezug auf 1 beschrieben ist, für den Einsatz im Rahmen eines Taxi- oder Shuttle-Unternehmens in einem bestimmten geografischen Gebiet (z. B. einer Stadt, einer Schule oder einem Geschäftscampus, einem Einkaufszentrum, einem Vergnügungspark, einem Veranstaltungszentrum oder dergleichen) geeignet sein. So kann beispielsweise das autonome Fahrzeug 10 einem autonomen fahrzeugbasierten Transportsystem zugeordnet sein. 2 veranschaulicht eine exemplarische Ausführungsform einer Betriebsumgebung, die im Allgemeinen bei 50 dargestellt ist und ein autonomes fahrzeugbasiertes entferntes Transportsystem (oder einfach „entferntes Transportsystem“) 52 beinhaltet, das, wie mit Bezug auf 1 beschrieben, einem oder mehreren autonomen Fahrzeugen 10a-10n zugeordnet ist. In verschiedenen Ausführungsformen beinhaltet die Betriebsumgebung 50 (die ganz oder teilweise den in 1 dargestellten Einheiten 48 entsprechen können) ferner eine oder mehrere Benutzervorrichtungen 54, die mit dem autonomen Fahrzeug 10 und/oder dem entfernten Transportsystem 52 über ein Kommunikationsnetzwerk 56 kommunizieren.
-
Das Kommunikationsnetzwerk 56 unterstützt die Kommunikation zwischen Geräten, Systemen und Komponenten, die von der Betriebsumgebung 50 unterstützt werden (z. B. über physische Kommunikationsverbindungen und/oder drahtlose Kommunikationsverbindungen). So kann beispielsweise das Kommunikationsnetzwerk 56 ein drahtloses Trägersystem 60 beinhalten, wie beispielsweise ein Mobiltelefonsystem, das eine Vielzahl von Mobilfunktürmen (nicht dargestellt), eine oder mehrere Mobilvermittlungsstellen (MSCs) (nicht dargestellt) sowie alle anderen Netzwerkkomponenten beinhalten, die zum Verbinden des drahtlosen Trägersystems 60 mit dem Festnetz erforderlich sind. Jeder Mobilfunkturm beinhaltet Sende- und Empfangsantennen und eine Basisstation, wobei die Basisstationen verschiedener Mobilfunktürme mit den MSC verbunden sind, entweder direkt oder über Zwischenvorrichtungen, wie beispielsweise eine Basisstationssteuerung. Das Drahtlosträgersystem 60 kann jede geeignete Kommunikationstechnologie implementieren, beispielsweise digitale Technologien, wie CDMA (z. B. CDMA2000), LTE (z. B. 4G LTE oder 5G LTE), GSM/GPRS oder andere aktuelle oder neu entstehende drahtlose Technologien. Andere Mobilfunkturm/Basisstation/MSC-Anordnungen sind möglich und könnten mit dem Mobilfunkanbietersystem 60 verwendet werden. So könnten sich beispielsweise die Basisstation und der Mobilfunkturm an derselben Stelle oder entfernt voneinander befinden, jede Basisstation könnte für einen einzelnen Mobilfunkturm zuständig sein oder eine einzelne Basisstation könnte verschiedene Mobilfunktürme bedienen, oder verschiedene Basisstationen könnten mit einer einzigen MSC gekoppelt werden, um nur einige der möglichen Anordnungen zu nennen.
-
Abgesehen vom Verwenden des drahtlosen Trägersystems 60 kann ein zweites drahtloses Trägersystem in Form eines Satellitenkommunikationssystems 64 verwendet werden, um unidirektionale oder bidirektionale Kommunikation mit dem autonomen Fahrzeug 10a-10n bereitzustellen. Dies kann unter Verwendung von einem oder mehreren Kommunikationssatelliten (nicht dargestellt) und einer aufwärts gerichteten Sendestation (nicht dargestellt) erfolgen. Die unidirektionale Kommunikation kann beispielsweise Satellitenradiodienste beinhalten, worin programmierte Inhaltsdaten (Nachrichten, Musik usw.) von der Sendestation empfangen werden, für das Hochladen gepackt und anschließend zum Satelliten gesendet werden, der die Programmierung an die Teilnehmer ausstrahlt. Die bidirektionale Kommunikation kann beispielsweise Satellitentelefondienste beinhalten, die den Satelliten verwenden, um Telefonkommunikationen zwischen dem Fahrzeug 10 und der Station weiterzugeben. Die Satellitentelefonie kann entweder zusätzlich oder anstelle des Mobilfunkanbietersystems 60 verwendet werden.
-
Ein Festnetz-Kommunikationssystem 62 kann ein konventionelles Festnetz-Telekommunikationsnetzwerk beinhalten, das mit einem oder mehreren Festnetztelefonen verbunden ist und das drahtlose Trägersystem 60 mit dem entfernten Transportsystem 52 verbindet. So kann beispielsweise das Festnetz-Kommunikationssystem 62 ein Fernsprechnetz (PSTN) wie jenes sein, das verwendet wird, um festverdrahtetes Fernsprechen, paketvermittelte Datenkommunikationen und die Internetinfrastruktur bereitzustellen. Ein oder mehrere Segmente des Festnetz-Kommunikationssystems 62 könnten durch Verwenden eines normalen drahtgebundenen Netzwerks, eines Lichtleiter- oder eines anderen optischen Netzwerks, eines Kabelnetzes, von Stromleitungen, anderen drahtlosen Netzwerken, wie drahtlose lokale Netzwerke (WLANs) oder Netzwerke, die drahtlosen Breitbandzugang (BWA) bereitstellen oder jeder Kombination davon implementiert sein. Weiterhin muss das entfernte Transportsystem 52 nicht über das Festnetz-Kommunikationssystem 62 verbunden sein, sondern könnte Funktelefonausrüstung beinhalten, sodass sie direkt mit einem drahtlosen Netzwerk, wie z. B. dem drahtlosen Trägersystem 60, kommunizieren kann.
-
Obwohl in 2 nur eine Benutzervorrichtung 54 dargestellt ist, können Ausführungsformen der Betriebsumgebung 50 eine beliebige Anzahl an Benutzervorrichtungen 54, einschließlich mehrerer Benutzervorrichtungen 54 unterstützen, die das Eigentum einer Person sind, von dieser bedient oder anderweitig verwendet werden. Jede Benutzervorrichtung 54, die von der Betriebsumgebung 50 unterstützt wird, kann unter Verwendung einer geeigneten Hardwareplattform implementiert werden. In dieser Hinsicht kann die Benutzervorrichtung 54 in einem gemeinsamen Formfaktor realisiert werden, darunter auch in: einen Desktop-Computer; einem mobilen Computer (z. B. einem Tablet-Computer, einem Laptop-Computer oder einem Netbook-Computer); einem Smartphone; einem Videospielgerät; einem digitalen Media-Player; eine Komponente eines Heimunterhaltungsgeräts; einer Digitalkamera oder Videokamera; einem tragbaren Computergerät (z. B. einer Smart-Uhr, Smart-Brille, Smart-Kleidung); oder dergleichen. Jede von der Betriebsumgebung 50 unterstützte Benutzervorrichtung 54 ist als computerimplementiertes oder computergestütztes Gerät mit der Hardware-, Software-, Firmware- und/oder Verarbeitungslogik realisiert, die für die Durchführung der hier beschriebenen verschiedenen Techniken und Verfahren erforderlich ist. So beinhaltet beispielsweise die Benutzervorrichtung 54 einen Mikroprozessor in Form einer programmierbaren Vorrichtung, die eine oder mehrere in einer internen Speicherstruktur gespeicherte Anweisungen beinhaltet und angewendet wird, um binäre Eingaben zu empfangen und binäre Ausgaben zu erzeugen. In einigen Ausführungsformen beinhaltet die Benutzervorrichtung 54 ein GPS-Modul, das GPS-Satellitensignale empfangen und GPS-Koordinaten basierend auf diesen Signalen erzeugen kann. In weiteren Ausführungsformen beinhaltet die Benutzervorrichtung 54 eine Mobilfunk-Kommunikationsfunktionalität, sodass die Vorrichtung Sprach- und/oder Datenkommunikationen über das Kommunikationsnetzwerk 56 unter Verwendung eines oder mehrerer Mobilfunk-Kommunikationsprotokolle durchführt, wie hierin erläutert. In verschiedenen Ausführungsformen beinhaltet die Benutzervorrichtung 54 eine visuelle Anzeige, wie zum Beispiel ein grafisches Touchscreen-Display oder eine andere Anzeige.
-
Das entfernte Transportsystem 52 beinhaltet ein oder mehrere Backend-Serversysteme, nicht dargestellt), die an dem speziellen Campus oder dem geografischen Standort, der vom Transportsystem 52 bedient wird, Cloud-basiert, netzwerkbasiert oder resident sein können. Das entfernte Transportsystem 52 kann mit einem Live-Berater, einem automatisierten Berater, einem System der künstlichen Intelligenz oder einer Kombination davon besetzt sein. Das entfernte Transportsystem 52 kann mit den Benutzervorrichtungen 54 und den autonomen Fahrzeugen 10a-10n kommunizieren, um Fahrten zu planen, autonome Fahrzeuge 10a-10n zu versetzen und dergleichen. In verschiedenen Ausführungsformen speichert das entfernte Transportsystem 52 Kontoinformationen, wie zum Beispiel Teilnehmer-Authentisierungsdaten, Fahrzeugkennzeichen, Profilaufzeichnungen, biometrische Daten, Verhaltensmuster und andere entsprechende Teilnehmerinformationen.
-
Gemäß einem typischen Anwendungsfall-Arbeitsablauf kann ein registrierter Benutzer des entfernten Transportsystems 52 über die Benutzervorrichtung 54 eine Fahrtanforderung erstellen. Die Fahrtanforderung gibt typischerweise den gewünschten Abholort des Fahrgastes (oder den aktuellen GPS-Standort), den gewünschten Zielort (der einen vordefinierten Fahrzeugstopp und/oder ein benutzerdefiniertes Passagierziel identifizieren kann) und eine Abholzeit an. Das entfernte Transportsystem 52 empfängt die Fahrtanforderung, verarbeitet die Anforderung und sendet ein ausgewähltes der autonomen Fahrzeuge 10a-10n (wenn und sofern verfügbar), um den Passagier an dem vorgesehenen Abholort und zu gegebener Zeit abzuholen. Das Transportsystem 52 kann zudem eine entsprechend konfigurierte Bestätigungsnachricht oder Benachrichtigung an die Benutzervorrichtung 54 erzeugen und senden, um den Passagier zu benachrichtigen, dass ein Fahrzeug unterwegs ist.
-
Wie ersichtlich, bietet der hierin offenbarte Gegenstand bestimmte verbesserte Eigenschaften und Funktionen für das, was als ein standardmäßiges oder Basislinien autonomes Fahrzeug 10 und/oder ein autonomes fahrzeugbasiertes Transportsystem 52 betrachtet werden kann. Zu diesem Zweck kann ein autonomes fahrzeugbasiertes Transportsystem modifiziert, erweitert oder anderweitig ergänzt werden, um die nachfolgend näher beschriebenen zusätzlichen Funktionen bereitzustellen.
-
Gemäß verschiedener Ausführungsformen realisiert die Steuerung 34 ein autonomes Antriebssystem (ADS) 70, wie in 3 dargestellt. Das heißt, dass geeignete Soft- und/oder Hardwarekomponenten der Steuerung 34 (z. B. der Prozessor 44 und das computerlesbare Speichermedium 46) verwendet werden, um ein autonomes Antriebssystem 70 bereitzustellen, das in Verbindung mit dem Fahrzeug 10 verwendet wird.
-
In verschiedenen Ausführungsformen können die Anweisungen des autonomen Antriebssystems 70 je nach Funktion oder System gegliedert sein. Das autonome Antriebssystem 70 kann beispielsweise, wie in 3 dargestellt, ein Computer-Sichtsystem 74, ein Positionierungssystem 76, ein Leitsystem 78 und ein Fahrzeugsteuersystem 80 beinhalten. Wie ersichtlich ist, können die Anweisungen in verschiedenen Ausführungsformen in beliebig viele Systeme (z. B. kombiniert, weiter unterteilt usw.) gegliedert werden, da die Offenbarung nicht auf die vorliegenden Beispiele beschränkt ist.
-
In verschiedenen Ausführungsformen synthetisiert und verarbeitet das Computer-Sichtsystem 74 Sensordaten und prognostiziert Anwesenheit, Standort, Klassifizierung und/oder Verlauf von Objekten und Merkmalen der Umgebung des Fahrzeugs 10. In verschiedenen Ausführungsformen kann das Computer-Vision-System 74 Informationen von mehreren Sensoren (z. B. dem Sensorsystem 28) beinhalten, einschließlich, aber nicht beschränkt auf Kameras, Lidars, Radars und/oder eine beliebige Anzahl anderer Arten von Sensoren.
-
Das Positionierungssystem 76 verarbeitet Sensordaten zusammen mit anderen Daten, um eine Position (z. B. eine lokale Position in Bezug auf eine Karte, eine exakte Position in Bezug auf die Fahrspur einer Straße, Fahrzeugrichtung, usw.) des Fahrzeugs 10 in Bezug auf die Umgebung zu bestimmen. Wie zu erkennen ist, können verschiedene Techniken eingesetzt werden, um diese Lokalisierung durchzuführen, beispielsweise simultane Lokalisierung und Kartierung (SLAM), Partikelfilter, Kalman-Filter, Bayes'sche Filter und dergleichen.
-
Das Leitsystem 78 verarbeitet Sensordaten zusammen mit anderen Daten, um eine Strecke zu bestimmen, dem das Fahrzeug 10 folgen soll. Das Fahrzeugsteuerungssystem 80 erzeugt Steuersignale zum Steuern des Fahrzeugs 10 entsprechend der ermittelten Strecke.
-
In verschiedenen Ausführungsformen implementiert die Steuerung 34 maschinelle Lerntechniken, um die Funktionalität der Steuerung 34 zu unterstützen, wie z. B. Merkmalerkennung/Klassifizierung, Hindernisminderung, Routenüberquerung, Kartierung, Sensorintegration, Boden-Wahrheitsbestimmung und dergleichen.
-
In verschiedenen Ausführungsformen kann das Hindernismanagementsystems 100 ganz oder teilweise in das Computer-Sichtsystem 74, das Positioniersystem 76, das Leitsystem 78 und/oder das Fahrzeugsteuerungssystem 80 eingebunden werden. Wie vorstehend kurz erwähnt, ist das System 100 von 1 konfiguriert, um das Vorhandensein eines oder mehrerer Fahrbahnstörobjekte in der Nähe des AV 10 zu bestimmen (z. B. Pylone, Verkehrszeichen, Schutzwände, Landschaftsausrüstung oder andere Objekte, die den Verkehr in der Nähe behindern oder anderweitig beeinflussen können), und um eine zusammengesetzte Karte zu erzeugen, die eine Darstellung der Fahrbahnstörobjekte beinhaltet, die auf einer definierten Karte der Umgebung überlagert sind - z. B. eine in einer Datenspeichervorrichtung 32 aus 1 gespeicherte Karte.
-
In diesem Zusammenhang präsentiert 4 eine Draufsicht auf ein exemplarisches Szenario, das für das Verständnis des vorliegenden Gegenstands nützlich ist. Wie veranschaulicht, ist ein Fahrzeug 10 dargestellt, das entlang einer Fahrbahn 221 fährt und (über seine verschiedenen Abtastvorrichtungen) auf einen Straßenbauabschnitt 200 trifft (z. B. Sperrung des Zugangs zu einer Fahrbahn 213). Gemäß verschiedenen Ausführungsformen erkennt und klassifiziert das Baustellen-Kartierungssystem 100 ein oder mehrere Fahrbahnstörobjekte 270 innerhalb des Baustellenbereichs 200 und erzeugt anschließend eine zusammengesetzte Karte mit einer Darstellung der Fahrbahnstörobjekte 270, die auf einer definierten Karte (z.B. der Fahrbahnen 213 und 221, wie dargestellt) überlagert sind.
-
5 zeigt nur einige Beispiele für mögliche Fahrbahnstörobjekte 270, die vom Baustellen-Kartierungssystem 100 erkannt werden könnten, und zwar ein oder mehrere Pylonen 274, ein oder mehrere Leitschranken 273, ein oder mehrere Straßentonnen 272, bauarttypische Beschilderungen, wie beispielsweise ein temporäres oder tragbares Bauschild 276, Straßenbauausrüstung 275 und/oder ein oder mehrere Anhänger 271 mit Pfeiltafeln. Es versteht sich, dass die in 5 dargestellten Objekte Artefakte, Text, grafischen Merkmale und Ikonografien nicht einschränkend sein sollen. Basierend auf dem Kontext (z. B. dem Land, in dem das Fahrzeug 10 betrieben wird) kann die Art der Fahrbahnstörobjekte 270 variieren.
-
Ferner bestimmt das Baustellen-Kartierungssystem 100 gemäß verschiedenen Ausführungsformen die räumliche Position von Fahrbahnstörobjekten 270 in Bezug auf das AV 10 und/oder in Bezug auf ein absolutes Koordinatensystem. Unter Bezugnahme auf 6 kann das AV 10 beispielsweise eine oben montierte Abtastvorrichtung 301 (z.B. einen Lidarsensor oder eine 360-Grad-Kamera) mit einem Sichtfeld 311 verwenden, wodurch das System 100 den Abstand 331 vom AV 10 zu einer Pylone 274 bestimmen kann. Gleichermaßen kann das AV 10 einen frontseitig montierten Sensor 302 mit einem Sichtfeld 312 verwenden, um den Abstand 331 zu bestimmen. In einigen Ausführungsformen werden Schätzungen des Abstands 331 von verschiedenen Sensoren 301, 302 abgestimmt oder anderweitig kombiniert, um eine genauere Schätzung des Abstands 331 zu erhalten. Das heißt, in Fällen, in denen mehrere Sensoren unterschiedliche Schätzungen des Abstands 331 erzeugen, kann vom System 100 eine Berechnung durchgeführt werden, um einen einzelnen Abstandswert zu erreichen. So kann beispielsweise ein einfacher Mittelwert aus den verschiedenen Entfernungsschätzungen verwendet werden. In anderen Ausführungsformen kann ein gewichteter Mittelwert basierend auf der Genauigkeit der Sensoren verwendet werden - d. h. die von einem Lidarsensor bestimmte Schätzung kann stärker gewichtet werden als die eines Radarsensors mit geringerer Genauigkeit.
-
Obwohl der Abstand 331 so veranschaulicht wird, als ob er sich von einem ungefähren Mittelabschnitt des AV 10 erstreckt, ist der Geltungsbereich der Ausführungsformen nicht als Einschränkung zu verstehen. Jeder beliebige geeignete Referenzpunkt oder alle geeigneten Referenzpunkte können verwendet werden, um die Position des Fahrbahnstörobjekts 274 zu charakterisieren. So wird beispielsweise in einigen Ausführungsformen die Position als Abstand vom vordersten Abschnitt (z. B. einer vorderen Stoßstange) des AV 10 ausgedrückt. Dieser Abstand kann auf vielfältige Weise berechnet werden. So können beispielsweise die Kalibriereinstellungen für die verschiedenen Sensoren (z. B. 301, 302), die in einem Teilsystem des AV 10 gespeichert sind, dreidimensionale Koordinatenwerte (z. B. einen Umwandlungsvektor) beinhalten, die die Positionen und Ausrichtungen der Sensoren 301, 302 sowie geometrische Merkmale des AV 10 (wie Länge, Höhe, Breite, Radstand usw.) festlegen.
-
In einigen Ausführungsformen, wie im Folgenden näher beschrieben wird, wird ein Hot-Spot-Plot erzeugt, der einer räumlichen Wahrscheinlichkeit des Vorhandenseins des Fahrbahnstörobjekts entspricht, um bei der Wegplanung und Erstellung der zusammengesetzten Karte zu unterstützen. Eine derartige Ausführungsform ist in den 7-9 veranschaulicht.
-
Insbesondere veranschaulicht 7 aus der Sicht eines exemplarischen autonomen Fahrzeugs eine „Out-the-Window-Ansicht“ 400 (d. h. die Sicht, die typischerweise durch die Frontscheibe eines Fahrzeugs zu sehen ist) einer Fahrbahn, die von einer Reihe von erkannten Fahrbahnstörobjekten gesäumt ist, die zusammen im allgemeinen Sinne eines „Baustellenbereichs“ definieren können. Insbesondere wurden vier Pylonen 401, 402, 403 und 404 erkannt und in einer Fahrspur auf der rechten Seite klassifiziert, zusammen mit einem Verkehrsschild 405.
-
Jedes der Objekte 401-405 ist auch in 7 mit entsprechenden begrenzenden Rechtecken und Symbolen dargestellt, die sich auf ihre jeweilige Identität beziehen und die Art und Weise angeben, wie Informationen über die Objekte 401-405 durch das AV 10 beim Auftreffen auf diese Objekte 401-405 repräsentiert werden können. Wie in der Technik bekannt ist, ist ein „begrenzendes Rechteck“ eine geometrische Form (entweder dreidimensional oder zweidimensional), die ein erkanntes Objekt umschließt, um eine vereinfachte Darstellung dieses Objekts zu ermöglichen, wodurch die Rechenkomplexität aller vom System durchgeführten Berechnungen in Bezug auf das Objekt reduziert wird. So sind in 7 zweidimensionale rechteckige Bereiche dargestellt, die jeden der erkannten Straßenpylonen (d. h. 401-404) einbeziehen. Ferner werden „Pylonen“-Symbole räumlich nahe an jedem der Objekte veranschaulicht. Es ist zu beachten, dass der Bereich der möglichen Begrenzungsgeometrien und Symbole durch das in 7 dargestellte Beispiel in keiner Weise eingeschränkt ist.
-
8 präsentiert eine Draufsicht 500 der in 7 dargestellten Szene 400 zu einem späteren Zeitpunkt (d. h. nachdem sich das AV 10 bis zu einem gewissen Grad vorwärts bewegt hat) und beinhaltet einen Hot-Spot-Plot, wie nachstehend erläutert, zusammen mit Gruppen von Sensorrückgaben (z. B. Lidarsensorrückgaben), die verschiedenen Objekten in der Umgebung zugeordnet sind. Der Gegenstand AV 10 ist in 8 dargestellt, das vor einem anderen Fahrzeug 411 fährt (veranschaulicht durch seine charakteristischen Lidarrückläufer), neben einer Reihe von geparkten Fahrzeugen 531, 532 usw., die jeweils auch in 7 sichtbar sind.
-
Die Hot-Spot-Komponente von 8 wird als schattierte Bereiche dargestellt, deren relative Dunkelheit (in dieser Darstellung) proportional zur prozentualen Wahrscheinlichkeit ist, dass sich ein Fahrbahnstörobjekt an dieser Stelle befindet. Ein derartiger Hot-Spot-Plot kann beispielsweise erzeugt werden, indem die ermittelte Position und Klassifizierung einzelner Fahrbahnstörobjekte verwendet wird, indem diesen Punkten eine sehr hohe (z. B. 90%ige Wahrscheinlichkeit) zugewiesen wird und dann eine allmählich abnehmende Wahrscheinlichkeit (z. B. über einen Gaußschen Abstand) einem Bereich um jeden dieser Punkte zugeordnet wird.
-
In einer Ausführungsform werden die Hot-Spots unter Verwendung einer Mischung aus einer exponentiellen Verteilungstechnik erzeugt, wobei jede Art der Erkennung eine andere Verteilungsform erzeugen kann. Das heißt, die Form der Verteilung entspricht im Allgemeinen der Form des Objekts - insbesondere in Bezug darauf, wie die „Kanten“ des Objekts festgelegt sind, sowie der Gesamtgröße (Breite, Höhe, Länge) des Objekts im Verhältnis zu den zum Erkennen verwendeten Sensoren. So kann beispielsweise ein großes Verkehrszeichen zu Erkennungen (d. h. Verteilungsformen) führen, bei denen der Hot-Spot aufgrund der klar definierten geometrischen Merkmale derartiger Zeichen schnell um die Kanten abfällt. Ebenso erzeugen Pylonen typischerweise auch sehr scharfe Gaußsche Erkennungen. Im Gegensatz dazu können große Absperrkomponenten mit weichen Kanten und dergleichen verhältnismäßig „weiche“ Verteilungsformen erzeugen.
-
In einigen Ausführungsformen verringert sich die „Unsicherheit“ der Erkennung im Laufe der Zeit, da das erkannte Objekt im Sichtfeld der Sensoren bleibt. Wenn also etwas das erkannte Objekt vorübergehend blockiert, wie beispielsweise ein vorbeifahrender LKW, erkennt das System die Anwesenheit des Fahrzeugs und stoppt das Verblassen der verschlossenen Erkennungen (d. h. die Unsicherheit bleibt unverändert). Wenn das erkannte Objekt zudem die Sicht des Sensors verlässt, kann das Verfallen gestoppt werden, sodass das Auto, sobald es an einer Baustelle vorbeifährt, seine Informationen nicht mehr aktualisiert, sich aber an seine Beobachtungen erinnert, die sich auf die Vorhersage und Planung von Fahrzeugen auswirken, die wahrscheinlich auf dieselben Objekte treffen - z. B. ein anderes Fahrzeug, das sich von hinten dem AV 10 nähert.
-
Wie beispielsweise in den 7 und 8 dargestellt, wird der Pylone 401 ein Hot-Spot-Bereich 501 (mit hoher Wahrscheinlichkeit) zugeordnet, während sich ein elliptischer oder kreisförmiger Bereich 510 mit geringerer Wahrscheinlichkeit innerhalb eines Meters oder so von der Pylone 401 erstreckt. Gleichermaßen korrelieren die Bereiche 502 und 512 räumlich mit der Pylone 402, die Bereiche 503 und 513 räumlich mit der Pylone 403, und die Bereiche 504 und 514 räumlich mit der Pylone 404. Gleichermaßen wird ein Bereich mit hoher Wahrscheinlichkeit durch die Hot-Spot-Bereiche 505 und 515 veranschaulicht, die mit der Verkehrszeichenstruktur 405 korrelieren.
-
9 zeigt eine exemplarische Draufsicht auf die zusammengesetzte Karte 600 mit einer zuvor bestimmten Karte (d. h. einer Fahrbahn 610, wie sie vom Routenleitsystem oder einem anderen Teilsystem des AV 10 erzeugt werden kann) mit überlagerten Fahrbahnstörobjekten, die durch die Symbole 601-605 dargestellt sind. In einigen Ausführungsformen werden die Positionen der Objekte in 9 so gewählt, dass sie den Spitzen der verschiedenen Hotspots (lokale Maxima) entsprechen, die in 8 dargestellt sind.
-
In der veranschaulichten Ausführungsform entsprechen die Symbole 601-604 jeweils den Pylonen 401-404 und das Symbol 605 entspricht der Verkehrszeichenstruktur 405. Es ist zu beachten, dass die zusammengesetzte Karte 600 für einen Fahrgast (z. B. durch ein Mediensystem des Fahrzeugs) oder einen Fernunterstützungsberater angezeigt werden kann oder lediglich intern durch das Baustellen-Kartierungssystem 100 dargestellt wird. In einigen Ausführungsformen, wie in 9 dargestellt, können die Symbole, die zum Darstellen von Fahrbahnstörobjekten in der Karte 600 verwendet werden, ungefähr der Größe und Form dieser Elemente entsprechen, wie sie von oben erscheinen könnten. So sind beispielsweise die Symbole 601-605 kreisförmig (die Draufsicht auf eine Pylone), und das Symbol 605 ist ein dünnes rechteckiges Symbol ähnlich der Draufsicht eines Verkehrszeichens.
-
Unter Bezugnahme auf 10, mit fortgesetzter Bezugnahme auf die 1-3, kann ein exemplarisches Baustellen-Kartierungssystem 100 ein Fahrbahnstörobjekt-Erkennungsmodul (oder einfach „Erkennungsmodul“ 720) und ein baustellenbezogenes Objektkartierungsmodul 730 beinhalten. Das Fahrbahnstörobjekt-Erkennungsmodul 720 empfängt Sensordaten 701, die sich auf die Umgebung des Fahrzeugs beziehen (z. B. Kamerabilder, Lidardaten oder andere Sensordaten, die von den Sensoren 28 empfangen werden (1)), und weist als Ausgabe eine Anzeige in Bezug auf das Vorhandensein von Fahrbahnstörobjekten in der Umgebung auf (dargestellt als ein Satz von Ausgaben 721). Ein grafisches Beispiel für die Ausgabe 721 ist in 8 veranschaulicht, wie vorstehend beschrieben.
-
Das Fahrbahnstörobjekt-Kartierungsmodul 730 empfängt die Ausgaben 721 (z. B. Informationen in Bezug auf die Anzahl und Art der beobachteten baubezogenen Objekte). Das Fahrbahnstörobjekt-Kartierungsmodul 730 verarbeitet die Ausgaben 721, um eine Ausgabe 731 zu erzeugen, die einer zusammengesetzten Karte entspricht, oder ausreichende Daten, um eine derartige zusammengesetzte Karte zu erzeugen, einschließlich einer Darstellung der Fahrbahnstörobjekte, die auf einer definierten Karte der Umgebung überlagert sind. Ein grafisches Beispiel einer derartigen Ausgabe 731 ist in 9 veranschaulicht, wie vorstehend beschrieben.
-
Es ist zu verstehen, dass verschiedene Ausführungsformen des Baustellen-Kartierungssystems 100 gemäß der vorliegenden Offenbarung eine beliebige Anzahl von in die Steuerung 34 eingebetteten Teilmodule beinhalten, die mit den hierin beschriebenen Systemen und Verfahren kombiniert und/oder weiter untergliedert werden können. Weiterhin können Eingaben in das Baustellen-Kartierungssystem 100 vom Sensorsystem 28 empfangen werden, die von anderen Steuermodulen (nicht dargestellt) empfangen werden, die dem autonomen Fahrzeug 10 zugeordnet sind, die vom Kommunikationssystem 36 empfangen werden und/oder von anderen Untermodulen (nicht dargestellt), die innerhalb der Steuerung 34 ermittelt/modelliert werden. Weiterhin können die Eingaben auch einer Vorverarbeitung unterzogen werden, wie beispielsweise Teilabtastung, Rauschunterdrückung, Normalisierung, Merkmalsextraktion, fehlende Datenreduktion und dergleichen.
-
Des Weiteren können die verschiedenen vorstehend beschriebenen Module (z. B. die Module 720 und/oder 730) als ein oder mehrere maschinelle Lernmodelle implementiert werden, die einem überwachten, unbeaufsichtigten, teilüberwachten oder verstärkten Lernen unterzogen werden und Klassifizierungen (z. B. binäre oder mehrstufige Klassifizierungen), Regression, Clustering, Dimensionalitätsreduktion und/oder solche Aufgaben durchführen. Beispiele für diese Modelle sind künstliche neuronale Netze (ANN) (z. B. rekurrierende neuronale Netze (RNN) und faltungsneuronale Netze (CNN)), Entscheidungsbaummodelle (z. B. Klassifikations- und Regressionsbäume (CART)), Ensemble-Lernmodelle (z. B. Boosting, Bootstrapped Aggregation, Gradienten-Boost-Maschinen und Random Forest), Bayes'sche Netzwerkmodelle (z. B. naive Bayes), Hauptkomponentenanalyse (PCA), Unterstützungsvektormaschinen (SVM), Clustering-Modelle (wie K-Neighbor, K-Mittel, Erwartungsmaximierung, hierarchisches Clustering usw.), lineare Diskriminanzanalysemodelle. In einigen Ausführungsformen erfolgt das Lernen innerhalb eines vom Fahrzeug 10 entfernten Systems (z. B. das System 52 in 2) und wird anschließend für den normalen Betrieb des Fahrzeugs 10 auf das Fahrzeug 10 heruntergeladen. In weiteren Ausführungsformen erfolgt das Lernen zumindest teilweise innerhalb der Steuerung 34 des Fahrzeugs 10 selbst, und das Modell wird anschließend mit externen Systemen und/oder anderen Fahrzeugen einer Flotte geteilt (wie in 2 dargestellt). Trainingsdaten können in ähnlicher Weise vom Fahrzeug 10 erzeugt oder extern erfasst und vor dem Anlernen in Trainings-, Validierungs- und Testsätze aufgeteilt werden.
-
Unter jetziger Bezugnahme auf 11 und fortgesetzter Bezugnahme auf die 1-10, veranschaulicht ein Flussdiagramm ein Steuerverfahren 800, das von dem Baustellen-Kartierungssystem 100 gemäß der vorliegenden Offenbarung ausgeführt werden kann. Wie angesichts der Offenbarung zu erkennen ist, ist die Abfolge der Vorgänge innerhalb der Verfahrens nicht auf die sequenzielle Ausführung beschränkt, wie in der Figur dargestellt, sondern kann in einer oder mehreren variierenden anwendbaren Reihenfolgen gemäß der vorliegenden Offenbarung durchgeführt werden. In verschiedenen Ausführungsformen kann das Verfahren basierend auf einem oder mehreren vordefinierten Ereignissen zur Ausführung geplant werden und/oder kontinuierlich während des Betriebs des autonomen Fahrzeugs 10 ausgeführt werden.
-
In verschiedenen Ausführungsformen beginnt das Verfahren 800 bei 801, wobei das Fahrbahnstörobjekt-Erkennungsmodul 720 geeignet ausgebildet ist, um Objekte, wie beispielsweise Fahrbahnstörobjekte, zu erkennen und zu identifizieren. Dieses Training kann über eine Vielzahl von beaufsichtigten oder unbeaufsichtigten maschinellen Lerntechniken durchgeführt werden. In verschiedenen Ausführungsformen implementiert das Modul 720 ein künstliches neuronales Netzwerk (ANN), das über überwachtes Lernen trainiert wird, indem es mit einem Trainingssatz präsentiert wird, der eine Anzahl an Bildern bekannter fahrbahnstörender Objekte beinhaltet. In einer Ausführungsform implementiert das Modul 720 ein konvolutionelles neuronales Netzwerk (CNN), wie es im Folgenden in Verbindung mit 12 ausführlicher beschrieben wird.
-
Unter fortgesetzter Bezugnahme auf 11 empfängt das Fahrzeug 10 im Normalbetrieb (bei 802) Sensordaten, die sich auf die Umgebung des Fahrzeugs beziehen. In Verbindung mit der veranschaulichten Ausführungsform beinhalten die Sensordaten allgemein optische Bilddaten (wie z. B. diejenigen, die von einer Kamera empfangen werden), können jedoch auch Lidar-Daten und dergleichen beinhalten. Das heißt, während optische Bilddaten bei dem Erkennen von baustellenbezogenen Objekten 270 besonders nützlich sein könnten, könnten Lidar-Sensoren auch verwendet werden, um den Bereich solcher Objekte relativ zu dem Fahrzeug 10 zu ermitteln (z. B. basierend auf einer Punkthäufungsabbildung).
-
Anschließend bestimmt das Modul 720 bei 803 das Vorhandensein von Fahrbahnstörobjekten (beispielsweise die Objekte 270) in der Umgebung. In verschiedenen Ausführungsformen werden die Sensordaten beispielsweise an einen zuvor trainierten CNN angewendet, der eine oder mehrere Ausgaben erzeugt, die das Vorhandensein der Objekte 270 anzeigen. So könnten beispielsweise die Ausgaben 303 reelle Zahlenwerten beinhalten, die die Wahrscheinlichkeit anzeigen, dass ein solches Objekt in der Szene erkannt wurde (z. B. Pylon: 0,87, Baustellenausrüstung: 0,2 usw.). Diese Ausgaben werden im Allgemeinen erzeugt, indem die trainierten Gewichtungen jeder der verschiedenen Schichten auf das Eingabebild angewendet werden, wie in 12 veranschaulicht. Es versteht sich, dass die Ausgabe 721 in Abhängigkeit von der speziellen Maschinenlerntechnik, die von dem Modul 720 implementiert wird, eine Vielzahl von Formen annehmen kann.
-
Anschließend bestimmt das Modul 730 bei 804 die Position (z. B. relativ oder absolut) der erkannten Fahrbahnstörobjekte. In einer Ausführungsform wird eine homographische Projektion des Fahrbahnstörobjekts (durch das Modul 730) auf eine Bodenebene (z. B. 399 in 6) „projiziert“ wird, um eine Position des Fahrbahnstörobjekts zu bestimmen. Das System 100 kann die Fahrbahnstörobjekte im 3D-Raum lokalisieren, indem es Entfernungsschätzungen und Strahlprojektionen unter Verwendung der extrinsischen Parameter der kalibrierten Sensoren des Sensorsystems 28 kombiniert.
-
Wie hierin verwendet, bezieht sich eine „Homographie“ oder homographische Projektion auf eine Matrix, in der, wenn das System die Umwandlung vom Sensor zur Bodenebene kennt, es das Bild dann in eine Top-Down-Perspektive der Bodenebene übertragen kann. Das Modul 730 beginnt somit unter Bezugnahme auf 6 mit den dreidimensionalen Koordinaten des Objekts 274 und bestimmt, wo dieses Objekt (oder sein begrenzendes Rechteck, nicht in 6 dargestellt) die Bodenebene 399 schneiden würde, wenn es nach unten in Richtung Boden verschoben (d. h. „projiziert“) werden würde. In einer Ausführungsform geht das System 100 davon aus, dass der Boden des Begrenzungskastens im Wesentlichen koplanar mit dem Boden ist
-
Bei 805 erzeugt das Modul 730 einen Hot-Spot-Plot, welcher der räumlichen Wahrscheinlichkeit der Fahrbahnstörobjekte entspricht. Das heißt, aufgrund der bestimmten Position der erkannten und klassifizierten Fahrbahnstörobjekte (z. B. die Objekte 401-405 in 7) wird ein zweidimensionaler Tensor der realwertigen Wahrscheinlichkeiten erzeugt, sodass verhältnismäßig hohe Wahrscheinlichkeiten (z. B. nahe 1,0) den bestimmten Positionen der Fahrbahnstörobjekte und verhältnismäßig niedrige Wahrscheinlichkeiten (z. B. nahe 0,0) den Positionen zugeordnet werden, die einen wesentlichen Abstand zu den bestimmten Positionen der erkannten Objekte aufweisen (z. B. basierend auf einer Gaußschen Abstandsmetrik). In einigen Ausführungsformen beruht die Art dieser Abstandsmetriken zum Teil auf der Klassifizierung des Fahrbahnstörobjekts.
-
Anschließend erzeugt das Modul 730 bei 806 eine zusammengesetzte Karte, die eine Darstellung von Fahrbahnstörobjekten beinhaltet, die auf einer definierten Umgebungskarte überlagert sind. Wie vorstehend erwähnt, kann die zusammengesetzte Karte (z. B. die Karte 600) für einen Fahrgast (z. B. durch ein Mediensystem des Fahrzeugs) oder einen Fernunterstützungsberater angezeigt werden oder kann intern durch das Baustellen-Kartierungssystem 100 dargestellt werden.
-
Anschließend können bei 807 Informationen in Bezug auf die erkannten Fahrbahnstörobjekte (z. B. die Position und Klassifizierung dieser Objekte) an einen externen Server, wie beispielsweise den Server 52, übertragen werden. Diese Informationen können anschließend von anderen autonomen Fahrzeugen heruntergeladen werden.
-
Gemäß einer Ausführungsform ist das Modul 720 von 10 als ein faltungsneuronales Netzwerk (CNN) implementiert. Unter Bezugnahme auf 12 empfängt ein exemplarisches CNN 900 im Allgemeinen ein Eingabebild 910 (z. B. ein optisches Bild der Umgebung von den Sensoren 28 des AV 10) und erzeugt eine Reihe von Ausgaben 940, die damit verbunden sind, ob und in welchem Ausmaß bestimmte Fahrbahnstörobjekte innerhalb des Bildes 910 erkannt werden. In dieser Hinsicht wird auf die Eingabe 910 ohne Verlust der Allgemeinheit als ein „Bild“ Bezug genommen, obwohl sie eine Vielzahl von Sensordatenarten enthalten könnte.
-
Im Allgemeinen beinhaltet das CNN 900 eine Merkmalsextraktionsphase 920 und eine Klassifizierungsphase 930. Die Klassifizierungsphase 930 beinhaltet eine Faltung 920, die einen Faltungsfilter geeigneter Größe verwendet, um einen Satz von Merkmalskarten 921 zu erzeugen, die kleineren Unterteilungen des Eingabebilds 910 entsprechen. Wie bekannt ist, ist die Faltung als ein Prozess translationsinvariant - d. h. Merkmale von Interesse (Beschilderung, Menschen) können unabhängig von ihrer Position innerhalb des Bildes 910 identifiziert werden.
-
Die Unterabtastung 924 wird dann auf Merkmalskarten 921 durchgeführt, um einen Satz von kleineren Merkmalskarten 923 zu erzeugen, die effektiv „geglättet“ werden, um die Empfindlichkeit der Faltungsfilter gegenüber Rauschen und anderen Variationen zu reduzieren. Unterabtastung kann beinhalten, dass ein Durchschnittswert oder ein Maximalwert über eine Stichprobe der Eingaben 921 genommen wird. Die Merkmalskarten 923 durchlaufen dann eine weitere Faltung 926, um eine große Menge von kleineren Merkmalskarten 925 zu erzeugen. Die Merkmalskarten 925 werden dann unterabgetastet (928), um Merkmalskarten 927 zu erzeugen.
-
Während der Klassifizierungsphase (930) werden die Merkmalskarten 927 verarbeitet, um eine erste Schicht 931 zu erzeugen, gefolgt von einer vollständig verbundenen Schicht 933, von der Ausgaben 940 erzeugt werden. Die Ausgaben 940 beinhalten im Allgemeinen einen Wahrscheinlichkeitsvektor für Objekte, die im Eingabebild 910 erkannt werden. So könnte beispielsweise die Ausgabe 941 der Wahrscheinlichkeit entsprechen, dass eine Pylone (z. B. 274 von 5) erkannt wurde, die Ausgabe 942 der Wahrscheinlichkeit, dass eine Pylone (z. B. 276) erkannt wurde, und so weiter.
-
Im Allgemeinen kann das in 12 veranschaulichte CNN 900 in einem überwachten Modus trainiert werden, indem ihm eine große Anzahl (d. h. einen „Korpus“) von beschrifteten (d. h. vorklassifizierten) Eingabebildern (910) einschließlich einer Reihe von Fahrbahnstörobjekten präsentiert wird. Die Backpropagation (Rückführung) wird dann genutzt, um das Anlernen des CNN 900 zu verfeinern. Das resultierende Modell wird dann in dem Modul 720 von 10 implementiert. Anschließend wird während des normalen Betriebs das trainierte CNN 900 verwendet, um Bilder 701 zu verarbeiten, die empfangen werden, wenn sich das AV 10 durch seine Umgebung bewegt, und beobachtet mögliche Fahrbahnstörobjekte.
-
Während mindestens eine exemplarische Ausführungsform in der vorstehenden ausführlichen Beschreibung dargestellt wurde, ist zu beachten, dass es eine große Anzahl an Varianten gibt. Es versteht sich weiterhin, dass die exemplarische Ausführungsform oder die exemplarischen Ausführungsformen lediglich Beispiele sind und den Umfang, die Anwendbarkeit oder die Konfiguration dieser Offenbarung in keiner Weise einschränken sollen. Die vorstehende ausführliche Beschreibung stellt Fachleuten auf dem Gebiet vielmehr einen zweckmäßigen Plan zur Implementierung der exemplarischen Ausführungsform bzw. der exemplarischen Ausführungsformen zur Verfügung. Es versteht sich, dass verschiedene Veränderungen an der Funktion und der Anordnung von Elementen vorgenommen werden können, ohne vom Umfang der Offenbarung, wie er in den beigefügten Ansprüchen und deren rechtlichen Entsprechungen aufgeführt ist, abzuweichen.