DE102016121864A1 - Unterscheiden von Fahrspurmarkierungen, denen ein Fahrzeug folgen soll - Google Patents

Unterscheiden von Fahrspurmarkierungen, denen ein Fahrzeug folgen soll Download PDF

Info

Publication number
DE102016121864A1
DE102016121864A1 DE102016121864.2A DE102016121864A DE102016121864A1 DE 102016121864 A1 DE102016121864 A1 DE 102016121864A1 DE 102016121864 A DE102016121864 A DE 102016121864A DE 102016121864 A1 DE102016121864 A1 DE 102016121864A1
Authority
DE
Germany
Prior art keywords
vehicle
sensor data
road
lane
markers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016121864.2A
Other languages
English (en)
Inventor
Brielle Reiff
Jinesh J Jain
Sneha Kadetotad
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102016121864A1 publication Critical patent/DE102016121864A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/10Path keeping
    • B60Y2300/12Lane keeping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Navigation (AREA)

Abstract

Die vorliegende Erfindung erstreckt sich auf Verfahren, Systeme und Computerprogrammprodukte für das Unterscheiden von Fahrspurmarkierungen, denen ein Fahrzeug folgen soll. Fahrzeuge mit automatischer Fahrzeugführung oder Fahrassistenzsystem nutzen Sensoren, um das Fahrzeug auf Straßen oder Parkplätzen zu navigieren. Die Sensoren können beispielsweise die aufgemalten Straßenmarkierungen nutzen, um das Fahrzeug auf seinem Weg zu führen. Aspekte der Erfindung verwenden einen ersten Sensortyp und mindestens einen zweiten unterschiedlichen Sensortyp, um Straßenmarkierungen zu identifizieren. Wird eine Mehrdeutigkeit bei Straßenmarkierungen detektiert, identifizieren Entscheidungsalgorithmen den korrekten Satz von Markierungen, die das Fahrzeug einhalten soll. Die Sensoren identifizieren zudem die Position und Trajektorie von Nachbarfahrzeugen, um das Vertrauen bezüglich der identifizierten Straßenmarkierungen zu erhöhen.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Nicht anwendbar.
  • HINTERGRUND
  • 1. Gebiet der Erfindung
  • Diese Erfindung bezieht sich allgemein auf das Gebiet der Straßenlinienerkennungssysteme und insbesondere auf Straßenlinienerkennungssysteme, die Fahrspurmarkierungen, denen ein Fahrzeug folgen soll, unterscheiden können.
  • 2. Verwandte Technik
  • Viele Branchen, darunter die Automobilindustrie, nutzen fortschrittliche Automatisierungsfähigkeiten. Es besteht die Möglichkeit, viele Funktionen eines herkömmlichen Fahrzeugs zu automatisieren. In der Automobilindustrie werden Forschungen betrieben, um ein Fahrzeug völlig autonom zu machen, sodass keine menschliche Eingabe erforderlich ist.
  • Mehrere Vorteile bestehen darin, dass Fahrzeuge mehr automatisiert oder völlig autonom werden. Zu den Vorteilen gehören ein geringeres Aufkommen von Verkehrsunfällen, ein besserer Verkehrsfluss und weniger Kraftstoffverbrauch, um nur einige zu nennen. Beispielsweise nutzen viele Fahrzeuge eine Kollisionsvermeidungstechnologie, bei der das Computersystem des Fahrzeugs eine Bremsung ausführen kann, wenn die Fahrzeugsensoren erkennen, dass das Fahrzeug Gefahr läuft, mit einem anderen Fahrzeug oder Objekt zu kollidieren. Außerdem wurde in vielen Fahrzeugen eine Funktion zum Längsparken eingeführt, mit der das Fahrzeug ohne jegliche Eingabe des Fahrers längs geparkt werden kann.
  • Die Plausibilität von automatisierten oder autonomen Fahrzeugen hängt stark von der Fähigkeit der Fahrzeugsensoren und des Fahrzeugcomputersystems ab, die Umgebung des Fahrzeugs zu identifizieren und zu verarbeiten und auf unterschiedliche Situationen sicher und effizient zu reagieren. Die Fahrzeugumgebung ist jedoch sehr dynamisch. Somit muss das Fahrzeugcomputersystem in der Lage sein, bei unterschiedlichen Wetterbedingungen, wie etwa Regen oder Schnee, seine Leistungen zu erbringen und auf verschiedene Straßenverhältnisse, wie z. B. eisige Straßen oder Straßen mit Baustellen, zu reagieren. Es besteht die Herausforderung, ein sicheres und effizientes Fahrerlebnis unabhängig von der Fahrzeugumgebung zu gewährleisten.
  • Einige Fahrzeugautomatisierungstechniken, die für die Fahrzeugnavigation verwendet werden, berücksichtigten die aufgemalten Fahrspurmarkierungen auf einer Straßendecke. Fahrspurmarkierungen können als Mittel verwendet werden, um das Fahrzeug sicher entlang seiner Route zu führen. Es ergeben sich jedoch mindestens ein paar Schwierigkeiten durch die Nutzung von Fahrspurmarkierungen. Beispielsweise umfassen Straßenmarkierungen nicht nur Fahrspurmarkierungen, sondern schließen auch Navigationsinformationen ein, wie beispielsweise Abbiegespuranzeiger, Geschwindigkeitsbegrenzungsinformationen, Fußgängerübergangsinformationen, Bahnübergangsinformationen und Markierungen für Fahrgemeinschaftsspuren (High-Occupancy Vehicle, HOV). Die Unterscheidung zwischen Fahrspurmarkierungen und sonstigen Straßenmarkierungen kann schwierig sein.
  • Eine weitere Herausforderung ist die Unterscheidung zwischen mehrdeutigen Fahrspurkennzeichnungen, die auftreten können, beispielsweise bei Straßenbau, Straßeninstandhaltung oder Ausbauarbeiten. Die Fahrspuren können während der Bauphasen von einer Seite auf die andere verlegt werden, um die Straßeninstandhaltung zu erleichtern. In der Phase von Straßenbau, Straßeninstandhaltung oder Ausbauarbeiten werden neue Fahrspurmarkierungen auf die Straße gemalt, und alte Fahrspurmarkierungen können entweder weggekratzt oder in der Farbe der Straße übermalt werden, um die alten Fahrspurmarkierungen zu überdecken. Diese Versuche der Überdeckung sind jedoch nicht immer in vollem Umfang erfolgreich, und alte Fahrspurmarkierungen sind manchmal nach dem Wegkratzen oder Übermalen noch sichtbar. Daher können Bedingungen vorhanden sein, wo zwei Sätze von Fahrspurmarkierungen für eine bestimmte Fahrspur auf der Straße zu sehen sind. Die Bestimmung, welchem Satz von Fahrspurmarkierungen in einer automatisierten Weise gefolgt werden soll, ist schwierig.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die besonderen Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden noch besser unter Bezugnahme auf die folgende Beschreibung und die begleitenden Zeichnungen verständlich, die Folgendes darstellen:
  • 1 veranschaulicht ein beispielhaftes Blockdiagramm einer Computervorrichtung.
  • 2 veranschaulicht eine beispielhafte Computerarchitektur, welche das Unterscheiden von Fahrspurmarkierungen erleichtert, denen ein Fahrzeug folgen soll.
  • 3 veranschaulicht ein Flussdiagramm eines beispielhaften Verfahrens für das Unterscheiden von Fahrspurmarkierungen, denen ein Fahrzeug folgen soll.
  • 4 veranschaulicht ein beispielhaftes Fahrbahnszenario.
  • DETAILLIERTE BESCHREIBUNG
  • Die vorliegende Erfindung erstreckt sich auf Verfahren, Systeme und Computerprogrammprodukte für das Unterscheiden von Fahrspurmarkierungen, denen ein Fahrzeug folgen soll.
  • Ausführungsformen der vorliegenden Erfindung können einen Computer für einen speziellen Zweck oder einen Computer für die allgemeine Anwendung umfassen oder nutzen, einschließlich Computer-Hardware, wie etwa beispielsweise einen oder mehrere Prozessoren und Systemspeicher, wie nachstehend ausführlicher erläutert. Ausführungsformen innerhalb des Umfangs der vorliegenden Erfindung schließen auch physische und andere computerlesbare Medien zum Tragen oder Speichern computerausführbarer Anweisungen und/oder Datenstrukturen ein. Solche computerlesbaren Medien können beliebige verfügbare Medien sein, auf die durch ein Computersystem für die allgemeine Anwendung oder für einen speziellen Zweck zugegriffen werden kann. Computerlesbare Medien, die computerausführbare Anweisungen speichern, sind Computerspeichermedien (Vorrichtungen). Computerlesbare Medien, die computerausführbare Anweisungen tragen, sind Übertragungsmedien. Somit können Ausführungsformen der Erfindung exemplarisch und in keiner Weise einschränkend mindestens zwei deutlich unterschiedliche Arten von computerlesbaren Medien umfassen: Computerspeichermedien (Vorrichtungen) und Übertragungsmedien.
  • Computerspeichermedien (Vorrichtungen) schließen RAM, ROM, EEPROM, CD-ROM, Festkörperlaufwerke (Solid-State Drives, „SSD“) (z. B. basierend auf RAM), Flash-Speicher, Phasenwechselspeicher („PCM“), andere Speicherarten, andere optische Plattenspeicher, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder jedes andere Medium ein, das verwendet werden kann, um gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu speichern, auf die durch einen Computer für einen speziellen Zweck oder einen Computer für die allgemeine Anwendung zugegriffen werden kann.
  • Ein „Netzwerk“ ist definiert als eine oder mehrere Datenverbindungen, die den Transport elektronischer Daten zwischen Computersystemen und/oder Modulen und/oder anderen elektronischen Geräten ermöglichen. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder fest verdrahtet, drahtlos oder eine Kombination von fest verdrahtet und drahtlos) an einen Computer übertragen werden, betrachtet der Computer die Verbindung richtigerweise als Übertragungsmedium. Übertragungsmedien können eine Netzwerk- und/oder Datenverbindung umfassen, die verwendet werden kann, um gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu tragen, und auf die von einem Computer für einen speziellen Zweck oder einen Computer für die allgemeine Anwendung zugegriffen werden kann. Kombinationen des Vorstehenden sollten ebenfalls in den Umfang von computerlesbaren Medien eingeschlossen sein.
  • Ferner können nach Erreichen verschiedener Computersystemkomponenten Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen automatisch von Übertragungsmedien auf Computerspeichermedien (Vorrichtungen) übertragen werden (oder umgekehrt). Beispielsweise können computerausführbare Anweisungen oder Datenstrukturen, die über ein Netzwerk oder eine Datenverbindung empfangen werden, im RAM innerhalb eines Netzwerkschnittstellenmoduls (z. B. ein „NIC“) zwischengespeichert werden und dann schließlich zum Computersystem-RAM und/oder weniger flüchtigen Computerspeichermedien (Vorrichtungen) in einem Computersystem übertragen werden. RAM kann auch Festkörperlaufwerke (Solid-State Drives, SSD, oder PCIx-basierte Echtzeit-Mehrstufenspeicher, wie FusionIO) einschließen. Somit ist zu verstehen, dass Computerspeichermedien (Vorrichtungen) in Computersystemkomponenten eingeschlossen sein können, die auch (oder sogar hauptsächlich) Übertragungsmedien nutzen.
  • Computerausführbare Anweisungen umfassen beispielsweise Anweisungen und Daten, die bei Ausführung in einem Prozessor einen Computer für die allgemeine Anwendung, einen Computer für einen speziellen Zweck oder eine Verarbeitungsvorrichtung für einen speziellen Zweck dazu veranlassen, eine bestimmte Funktion oder Funktionsgruppe auszuführen. Die computerausführbaren Anweisungen können beispielsweise Binärdateien, Zwischenformatanweisungen, wie etwa Assemblersprache, oder sogar Quellcode sein. Obwohl der Gegenstand sprachlich spezifisch auf Strukturmerkmale und/oder methodologische Vorgänge beschrieben wurde, ist es selbstverständlich, dass der in den beigefügten Ansprüchen definierte Gegenstand nicht notwendigerweise auf die spezifischen, vorstehend beschriebenen Merkmale oder Vorgänge beschränkt ist. Vielmehr werden die vorstehend beschriebenen spezifischen Merkmale und Vorgänge als beispielhafte Formen zur Implementierung der Ansprüche offenbart.
  • Fachleute auf dem Gebiet werden erkennen, dass die Erfindung in Netzwerkumgebungsumgebungen mit vielen Arten von Computersystemkonfigurationen ausgeübt werden kann, einschließlich Personalcomputern, Desktopcomputern, Laptopcomputern, Nachrichtenprozessoren, handgehaltener Vorrichtungen, Mehrprozessorsystemen, Mikroprozessor-basierter oder programmierbarer Unterhaltungselektronik, Netzwerk-PCs, Minicomputern, Großrechnern, Mobiltelefonen, PDAs, Tablets, Pagern, Routern, Switches, verschiedenen Speichervorrichtungen und dergleichen. Die Erfindung kann auch in verteilten Systemumgebungen ausgeübt werden, in denen lokale und entfernte Computersysteme, die (entweder durch fest verdrahtete Datenverbindungen, drahtlose Datenverbindungen oder durch eine Kombination von festverdrahteten und drahtlosen Datenverbindungen) über ein Netzwerk verbunden sind, beide Aufgaben ausführen. In einer verteilten Systemumgebung können Programmmodule sowohl in lokalen als auch in entfernten Speichervorrichtungen befindlich sein.
  • Ausführungsformen der Erfindung können auch in Cloud-Computing-Umgebungen implementiert werden. In dieser Beschreibung und den nachfolgenden Ansprüchen ist „Cloud-Computing“ als ein Modell zum Ermöglichen eines vollumfänglichen, praktischen, auf Abruf verfügbaren Netzwerkzugriffs auf einen gemeinsam genutzten Pool konfigurierbarer Rechenressourcen (z. B. Netzwerke, Server, Speicher, Anwendungen und Dienste) definiert, die durch Virtualisierung rasch bereitgestellt und mit minimalem Verwaltungsaufwand oder Eingriffe des Dienstanbieters freigegeben und dann entsprechend skaliert werden können. Ein Cloud-Modell kann sich aus verschiedenen Merkmalen (z. B. On-Demand-Selfservice, umfangreicher Netzwerkzugang, Ressourcenpooling, schnelle Elastizität, messbare Dienstleistung etc.), Servicemodellen (z. B. Software-as-a-Service (SaaS), Platform-as-a-Service (PaaS), Infrastructure-as-a-Service (IaaS) und Bereitstellungsmodellen (z. B. Private Cloud, Community Cloud, Public Cloud, Hybrid Cloud etc.) zusammensetzen. Datenbanken und Server, die mit Bezug auf die vorliegende Erfindung beschrieben wurden, können in einem Cloud-Modell eingeschlossen sein.
  • Ferner können die hierin beschriebenen Funktionen gegebenenfalls in einem oder mehreren der Folgenden durchgeführt werden: Hardware, Software, Firmware, digitale Komponenten oder analoge Komponenten. Beispielsweise können eine oder mehrere anwendungsspezifische integrierte Schaltungen (ASICs) programmiert werden, um eines oder mehrere der hierin beschriebenen Systeme und Prozeduren auszuführen. Bestimmte Begriffe werden in der folgenden Beschreibung und in den Ansprüchen verwendet, um auf bestimmte Systemkomponenten Bezug zu nehmen. Fachleute auf dem Gebiet werden erkennen, dass Komponenten mit unterschiedlichen Namen bezeichnet werden können. Dieses Dokument hat nicht die Absicht, Komponenten zu unterscheiden, welche hinsichtlich ihres Namens, aber nicht der Funktion unterschiedlich sind.
  • Im Allgemeinen sind Aspekte der Erfindung auf das Unterscheiden von Fahrspurmarkierungen, denen ein Fahrzeug folgen soll, gerichtet. Mindestens zwei verschiedene Arten von sensorischen Vorrichtungen sammeln Daten im Zusammenhang mit der Fahrzeugumgebung. Die Daten werden verarbeitet, um Straßenmarkierungen und Nachbarfahrzeuge zu identifizieren. Wichtige Regionen von Interesse werden aus den verarbeiteten Daten extrahiert. Fahrspurmarkierungsdaten und Nachbarfahrzeugdaten werden genutzt, um den korrekten Satz von Fahrspurmarkierungen zu identifizieren, denen ein Fahrzeug folgen soll. Die korrekten Fahrspurmarkierungen werden von dem Computersystem des Fahrzeugs und dem Steuerungssystem genutzt, um das Fahrzeug auf der korrekten Fahrspur der Straße zu navigieren.
  • 1 veranschaulicht ein beispielhaftes Blockdiagramm einer Computervorrichtung 100. Die Computervorrichtung 100 kann verwendet werden, um verschiedene Prozeduren durchzuführen, wie diejenigen, die hierin erörtert werden. Die Computervorrichtung 100 kann als ein Server, ein Client oder eine beliebige andere Computereinheit funktionieren. Die Computervorrichtung 100 kann verschiedene Kommunikations- und Datenübertragungsfunktionen ausführen, wie hierin beschrieben, und kann ein oder mehrere Anwendungsprogramme, wie die hierin beschriebenen Anwendungsprogramme, ausführen. Die Computervorrichtung 100 kann eine beliebige einer Vielzahl von Computervorrichtungen sein, wie ein Mobiltelefon oder ein anderes mobiles Gerät, ein Desktopcomputer, ein Notebookcomputer, ein Servercomputer, ein Handheld-Computer, ein Tabletcomputer und dergleichen.
  • Die Computervorrichtung 100 schließt einen oder mehrere Prozessoren 102, eine oder mehrere Speichervorrichtungen 104, eine oder mehrere Schnittstellen 106, eine oder mehrere Massenspeichervorrichtungen 108, eine oder mehrere Eingabe/Ausgabe(E/A)-Vorrichtungen 110 und eine Anzeigevorrichtung 130 ein, die alle mit einem Bus 112 gekoppelt sind. Die Prozessoren 102 schließen eine(n) oder mehrere Prozessoren oder Steuereinrichtingen ein, die Anweisungen ausführen, die in Speichervorrichtunge(n) 104 und/oder Massenspeichervorrichtung(en) 108 gespeichert sind. Der/die Prozessor(en) 102 kann/können auch verschiedene Arten von Computerspeichermedien einschließen, wie etwa Cachespeicher.
  • Die Speichervorrichtung(en) 104 schließt/schließen verschiedene Computerspeichermedien ein, wie beispielsweise flüchtigen Speicher (z. B. Direktzugriffsspeicher (RAM) 114) und/oder nichtflüchtigen Speicher (z. B. Nur-Lese-Speicher (ROM) 116). Die Speichervorrichtung(en) 104 kann/können auch einen wiederbeschreibbaren ROM einschließen, wie etwa Flash-Speicher.
  • Die Massenspeichervorrichtung(en) 108 schließt/schließen verschiedene Computerspeichermedien ein, wie etwa Magnetbänder, magnetische Laufwerke, optische Laufwerke, Festkörperspeicher (z. B. Flash-Speicher) und so weiter. Wie in 1 dargestellt ist eine bestimmte Massenspeichervorrichtung ein Festplattenlaufwerk 124. Verschiedene Laufwerke können auch in der/den Massenspeichervorrichtung(en) 108 eingeschlossen sein, um das Lesen von und/oder das Schreiben auf die verschiedenen computerlesbaren Medien zu ermöglichen. Die Massenspeichervorrichtung(en) 108 schließt/schließen entfernbare Medien 126 und/oder nicht entfernbare Medien ein.
  • Die E/A-Vorrichtung(en) 110 umfasst/umfassen verschiedene Vorrichtungen, die die Eingabe oder den Abruf von Daten und/oder anderen Informationen aus der Computervorrichtung 100 erlauben. Die beispielhafte(n) E/A-Vorrichtung(en) 110 schließt/schließen Cursor-Steuervorrichtungen, Tastaturen, Ziffernblöcke, Barcodescanner, Mikrofone, Monitore oder andere Anzeigevorrichtungen, Lautsprecher, Drucker, Netzwerkschnittstellenkarten, Modems, Kameras, Objektive, CCD oder andere Bilderfassungsvorrichtungen und dergleichen ein.
  • Die Anzeigevorrichtung 130 schließt jegliche Art von Vorrichtungen ein, die Informationen für einen oder mehrere Benutzer der Computervorrichtung 100 anzeigen können. Beispiele für eine Anzeigevorrichtung 130 schließen einen Monitor, ein Anzeigeterminal, eine Videoprojektionsvorrichtung und dergleichen ein.
  • Die Schnittstelle(n) 106 schließt/schließen verschiedene Schnittstellen ein, die es der Computervorrichtung 100 erlauben, mit anderen Systemen, Vorrichtungen oder Computerumgebungen sowie mit Menschen zu interagieren. Die beispielhafte(n) Schnittstelle(n) 106 kann/können beliebig viele verschiedene Netzwerkschnittstellen 120 einschließen, wie etwa Schnittstellen zu Personal Area Networks (PANs), Local Area Networks (LANs), Wide Area Networks (WANs), drahtlosen Netzwerken (z. B. Netzwerke mit Nahfeldkommunikation (Near-Field Communication, NFC), Bluetooth, WiFi etc.) sowie das Internet. Andere Schnittstellen schließen die Benutzeroberfläche 118 und die Peripheriegeräte-Schnittstelle 122 ein.
  • Der Bus 112 erlaubt dem/der/den Prozessor(en) 102, Speichervorrichtung(en) 104, Schnittstelle(n) 106, Massenspeichervorrichtung(en) 108 und E/A-Vorrichtung(en) 110 das Kommunizieren untereinander sowie das Koppeln anderer Vorrichtungen oder Komponenten mit dem Bus 112. Der Bus 112 stellt eine oder mehrere verschiedene Arten von Busstrukturen dar, wie etwa einen Systembus, PCI-Bus, IEEE-1394-Bus, USB-Bus und so weiter.
  • Aspekte der Erfindung können verwendet werden, um Straßenmarkierungen zu identifizieren und zu vergleichen, um relevante (z. B. neuere) Anweisungen für die Straße korrekt einzuhalten. Die Kamera, LiDAR (Light Detection and Ranging) und andere Entfernungssensoren können verwendet werden, um Informationen über die Straße und Fahrzeuge in der Umgebung zu erfassen. Computersicht- und Sensorfusions-Algorithmen, die neuronale Netze verwenden, können darauf trainiert werden, um Fahrzeuge in der Umgebung und widersprüchliche Regionen von Interesse bei den Straßenmarkierungen auf Straßen und Parkplätzen zu erkennen. Wenn mehrere Sätze von Markierungen detektiert werden, können Faktoren, einschließlich Farbintensität, Reflexionsgrade, Vorhandensein von Fahrspurreflektoren, Farbrissbildung und Abblättern des Straßenmarkierungsbands, verwendet werden, um Straßenmarkierungssätze zu vergleichen und relevante (z. B. neuere) Markierungen zu bestimmen, denen gefolgt werden soll. Andere Fahrbahnmarkierungsinformationen können ebenfalls verwendet werden. Das Verhalten anderer Fahrzeuge kann auch verwendet werden, um eine höhere Sicherheit bei der Bestimmung eines Satzes von zu folgenden Markierungen zu erreichen.
  • Das Identifizieren und Vergleichen der Straßenmarkierungen kann Folgendes umfassen: (1) Verwenden neuronaler Netze zur Identifizierung von Straßenmarkierungen auf der Straße und anderen Fahrzeugen innerhalb der Sichtbereiche der Sensoren, (2) Bestimmen von Begrenzungskästen für identifizierte Regionen von Interesse, (3) Senden von Bilddaten innerhalb der Begrenzungskästen an Algorithmen, die konfiguriert sind, um zu bestimmen, ob mehrere Sätze von Straßenmarkierungen vorhanden sind, und falls ja, Vergleichen der Sätze, um den relevanten Satz von Markierungen zu bestimmen, dem gefolgt werden soll, und (4) Senden der relevanten Straßenmarkierungen an die Entscheidungsalgorithmen des Fahrzeugs.
  • 2 veranschaulicht eine beispielhafte Computerarchitektur 200, welche das Unterscheiden von Fahrspurmarkierungen erleichtert, denen ein Fahrzeug folgen soll. Die Computerarchitektur 200 kann in einem Fahrzeug enthalten sein, wie beispielsweise einem Auto, einem Lastkraftwagen, einem Bus oder einem Motorrad. Unter Bezugnahme auf 2 schließt die Computerarchitektur 200 das Computersystem 201, die Bilderfassungsvorrichtung 210 und das LiDAR-System 220 ein. In einigen Ausführungsformen ist das Radarsystem 230 ebenfalls eingeschlossen. Jedes von dem Computersystem 201, der Bilderfassungsvorrichtung 210, dem LiDAR-System 220 und dem Radarsystem 230 sowie deren jeweilige Komponenten können miteinander über ein Netzwerk verbunden (oder ein Teil davon) sein, wie beispielsweise ein PAN, ein LAN, ein WAN und sogar das Internet. Dementsprechend kann jedes von dem Computersystem 201, der Bilderfassungsvorrichtung 210, dem LiDAR-System 220 und dem Radarsystem 230 sowie alle anderen verbundenen Computersysteme und deren Komponenten über das Netzwerk nachrichtenbezogene Daten erzeugen und nachrichtenbezogene Daten austauschen (z. B. Nahfeldkommunikations(NFC)-Nutzlasten, Bluetooth-Pakete, Internet Protocol(IP)-Datagramme und andere Protokolle einer höheren Schicht, die IP-Datagramme verwenden, wie etwa Transmission Control Protocol (TCP), Hypertext Transfer Protocol (HTTP), Simple Mail Transfer Protocol (SMTP) etc.).
  • In einem Aspekt ist jedes von der Bilderfassungsvorrichtung 210, dem LiDAR-System 220 und möglicherweise dem Radarsystem 230 in einem Fahrzeug eingeschlossen. Jede der Erkennungsvorrichtungen ist konfiguriert, um Daten in der Nähe des Fahrzeugs zu erkennen. Beispielsweise ist die Bilderfassungsvorrichtung 210 konfiguriert, um Bilddaten 212 zu erfassen, das LiDAR-System 220 ist konfiguriert, um LiDAR-Daten 222 zu erfassen, und das Radarsystem 230 ist konfiguriert, um Radardaten 232 zu erfassen.
  • Wie dargestellt schließt das Computersystem 201 das Datenverarbeitungsmodul 240 und das Steuerungssystem-Modul 250 ein. Das Datenverarbeitungsmodul 240 ist konfiguriert, um Daten von den Erkennungsvorrichtungen zu empfangen. Beispielsweise kann das Datenverarbeitungsmodul 240 Bilddaten 212 von der Bilderfassungsvorrichtung 210, LiDAR-Daten 222 von dem LiDAR-System 220 und in einigen Aspekten Radardaten 232 von dem Radarsystem 230 empfangen.
  • Das Datenverarbeitungsmodul 240 schließt ferner das Fahrbahnmarkierungs-Identifizierungsmodul 242, das Nachbarfahrzeug-Identifizierungsmodul 244, das Interessensregions-Modul 246 und das Fahrspur-Identifizierungsmodul 248 ein.
  • Das Fahrbahnmarkierungs-Identifizierungsmodul 242 ist konfiguriert, um Straßenmarkierungen in der Nähe eines Fahrzeugs aus den Informationen zu identifizieren, die in empfangenen Sensordaten enthalten sind. Die Informationen können Attribute beinhalten, wie etwa Farbintensität, Reflexionsgrade, Vorhandensein von Fahrspurreflektoren, Farbrissbildung und Abblättern des Straßenmarkierungsbands. Andere Fahrbahnmarkierungsinformationen können ebenfalls verwendet werden.
  • Das Nachbarfahrzeug-Identifizierungsmodul 244 ist konfiguriert, um Nachbarfahrzeuge aus den Informationen zu identifizieren, die in den empfangenen Sensordaten enthalten sind. Beispielsweise kann das Nachbarfahrzeug-Identifizierungsmodul 244 die Position und Trajektorie von Nachbarfahrzeugen detektieren. Die detektierten Fahrzeuge können in dieselbe Richtung fahren wie ein Fahrzeug, das eine Bilderfassungsvorrichtung 210, ein LiDAR-System 220 und möglicherweise ein Radarsystem 230 einschließt (z. B. in derselben Fahrspur wie das Fahrzeug oder in einer benachbarten Fahrspur zum Fahrzeug). Die detektierten Fahrzeuge können dem automatisierten Fahrzeug auch entgegenkommen (z. B. im Gegenverkehr).
  • Das Interessensregions-Modul 246 ist konfiguriert, um Fahrspurmarkierungsdaten zu identifizieren, um die korrekten Fahrspurmarkierungen zu bestimmen, denen gefolgt werden soll. Beispielsweise kann das Interessensregions-Modul 246 die Fahrspurmarkierungsdaten 260 relativ zu einem Fahrzeug identifizieren und andere Straßenmarkierungen ausschließen, wie etwa Geschwindigkeitsbegrenzungsinformationen, Markierungen für Fahrgemeinschaftsspuren und dergleichen. Das Interessensregions-Modul 246 kann auch Nachbarfahrzeugdaten 262 in Bezug auf die Position und Trajektorie von Nachbarfahrzeugen identifizieren, die sich in relevanter Nähe zu einem Fahrzeug befinden.
  • Das Interessensregions-Modul 246 ist konfiguriert, um Fahrspurmarkierungsdaten 260 und Nachbarfahrzeugdaten 262 an ein Fahrspur-Identifizierungsmodul 248 zu übergeben. Das Fahrspur-Identifizierungsmodul 248 ist konfiguriert, um die Attribute der Fahrspurmarkierungsdaten 260 zu nutzen, um den relevanten Satz von Fahrspurmarkierungen zu bestimmen, denen gefolgt werden soll. Beispielsweise können die Attribute der Fahrspurmarkierungen Farbintensität, Reflexionsgrade, Vorhandensein von Fahrspurreflektoren, Farbrissbildung und Abblättern des Straßenmarkierungsbands einschließen. Attribute anderer Fahrbahnmarkierungen können ebenfalls verwendet werden. Das Fahrspur-Identifizierungsmodul 248 kann die Nachbarfahrzeugdaten 262 nutzen, um die Position und Trajektorie von Nachbarfahrzeugen zu bestimmen. Sobald das Fahrspur-Identifizierungsmodul 248 die relevanten Fahrspurmarkierungen identifiziert hat, denen gefolgt werden soll, kann das Fahrspur-Identifizierungsmodul die Position und Trajektorie von Nachbarfahrzeugen verwenden, um das Vertrauensniveau zu erhöhen, dass die relevanten Fahrspurmarkierungen tatsächlich die Fahrspurmarkierungen sind, denen gefolgt werden soll.
  • Das Steuerungssystem-Modul 250 ist konfiguriert, um die relevanten Fahrspurmarkierungen zu nutzen, um die Position und Trajektorie des Fahrzeugs zu steuern.
  • 3 veranschaulicht ein Flussdiagramm eines beispielhaften Verfahrens 300 für das Unterscheiden von Fahrspurmarkierungen, denen ein Fahrzeug folgen soll. Das Verfahren 300 wird mit Bezug auf die Komponenten und Daten der Computerarchitektur 200 beschrieben.
  • Das Verfahren 300 schließt den Zugriff auf die von einer Vielzahl von Sensoren gesammelten Sensordaten ein, wobei die Vielzahl von Sensoren einen ersten Sensortyp und mindestens einen zweiten unterschiedlichen Sensortyp einschließt, wobei die Sensordaten Straßenmarkierungen anzeigen, wobei die Straßenmarkierungen Farbintensität und Reflexionsgrade einschließen, wobei die Sensordaten auch die Position und Trajektorie von Nachbarfahrzeugen (301) anzeigen. Beispielsweise kann ein Fahrzeug ein Computersystem 201, eine Bilderfassungsvorrichtung 210, ein LiDAR-System 220 und möglicherweise ein Radarsystem 230 einschließen. Andere Sensoren sind ebenfalls möglich. Die Bilderfassungsvorrichtung 210 kann Bilddaten 212 erfassen, das LiDAR-System 220 kann LiDAR-Daten 222 erfassen und, wenn eingeschlossen, kann das Radarsystem 230 Radardaten 232 erfassen. Das Datenverarbeitungsmodul 240 kann auf Bilddaten 212, auf LiDAR-Daten 222 und gegebenenfalls auf Radardaten 232 zugreifen. Gemeinsam können die Bilddaten 212, die LiDAR-Daten 222 und gegebenenfalls die Radardaten 232 (nachfolgend auch als „Sensordaten, auf die zugegriffen wurde“ bezeichnet) Straßenmarkierungen und Nachbarfahrzeuge in der Nähe des Fahrzeugs anzeigen. Die Anzeige von Straßenmarkierungen kann Daten zur Bestimmung der Farbintensität und Reflexionsgrade für die Straßenmarkierungen einschließen. Die Anzeige von Nachbarfahrzeugen kann Daten zur Bestimmung der Position und Trajektorie einschließen.
  • Das Fahrbahnmarkierungs-Identifizierungsmodul 242 kann die Sensordaten, nutzen, um die Straßenmarkierungen auf der Fahrbahn zu identifizieren. Beispielsweise kann das Fahrbahnmarkierungs-Identifizierungsmodul 242 aufgemalte Fahrspurmarkierungen, Abbiegespurmarkierungen, Stoppschildmarkierungen, Geschwindigkeitsbegrenzungsmarkierungen und Bahnübergangsmarkierungen identifizieren, um nur einige zu nennen.
  • Das Nachbarfahrzeug-Identifizierungsmodul 244 kann die Sensordaten, nutzen, um Nachbarfahrzeuge zu identifizieren. Beispielsweise kann das Nachbarfahrzeug-Identifizierungsmodul 244 die Position und Trajektorie von Nachbarfahrzeugen identifizieren, die sich mit dem Fahrzeug auf der Straße befinden.
  • Das Verfahren 300 schließt das Bestimmen von Begrenzungskästen aus den Sensordaten, ein, wobei die Begrenzungskästen Regionen von Interesse für das Unterscheiden von Straßenmarkierungen und Nachbarfahrzeugen (302) darstellen. Beispielsweise kann das Interessensregions-Modul 246 Begrenzungskästen aus den Bilddaten 212, den LiDAR-Daten 222 und gegebenenfalls den Radardaten 232 bestimmen. In einem Aspekt zeigen die Bilddaten 212 ein Bild der Straße und der zugehörigen Fahrspurmarkierungen sowie die Fahrzeuge auf der Straße zum Zeitpunkt der Bilderfassung. Das Interessensregions-Modul 246 kann die Fahrspurmarkierungsdaten und die Nachbarfahrzeugdaten isolieren, die zum Identifizieren der Fahrspur, der das Fahrzeug folgen soll, erforderlich sind.
  • Beispielsweise können die Straßenmarkierungen in den Bilddaten 212 zwei farbintensive gelbe Linien, zwei verblasste gelbe Linien, eine farbintensive gestrichelte weiße Linie, eine verblasste gestrichelte weiße Linie, eine farbintensive weiße Linie und eine verblasste weiße Linie einschließen. Die verblassten Linien sind nicht so hell oder auffällig wie die anderen hier beschriebenen Linien. Das Interessensregions-Modul 246 kann Begrenzungskasten-Algorithmen nutzen, um den Begrenzungskasten der farbintensiven gelben Linien, den Begrenzungskasten der verblassten gelben Linien, den Begrenzungskasten der farbintensiven gestrichelten weißen Linie, den Begrenzungskasten der verblassten gestrichelten weißen Linie, den Begrenzungskasten der farbintensiven weißen Linie und den Begrenzungskasten der verblassten weißen Linie zu bestimmen.
  • Das Interessensregions-Modul 246 kann auch Nachbarfahrzeugdaten aus den Sensordaten, unter Nutzung von Begrenzungskästen isolieren. Die Sensordaten, können andere Fahrzeuge auf der Straße anzeigen. Beispielsweise können die Sensordaten, ein Fahrzeug auf derselben Fahrspur, ein Fahrzeug auf der benachbarten Fahrspur, ein entgegenkommendes Fahrzeug auf der benachbarten Fahrspur und ein entgegenkommendes Fahrzeug auf der äußersten Fahrspur zeigen. Das Interessensregions-Modul 246 kann Begrenzungskasten-Algorithmen nutzen, um Folgendes zu bestimmen: einen Begrenzungskasten eines Fahrzeugs auf derselben Fahrspur, einen Begrenzungskasten eines Fahrzeugs auf der benachbarten Fahrspur, einen Begrenzungskasten des entgegenkommenden Fahrzeugs auf einer benachbarten Fahrspur und einen Begrenzungskasten eines Fahrzeugs auf einer äußersten Fahrspur in Gegenrichtung.
  • Verfahren 300 schließt das Verarbeiten der Sensordaten, auf die zugegriffen wurde, innerhalb der Begrenzungskästen zur Bestimmung ein, dass mehrere Straßenmarkierungen vorhanden sind (303). Beispielsweise kann das Datenverarbeitungsmodul 240 die Sensordaten, auf die zugegriffen wurde und die innerhalb der Begrenzungskästen enthalten sind, verarbeiten, um zu bestimmen, dass mehrere Fahrspurmarkierungen auf der Fahrspur der Straße vorhanden sind, auf der das Fahrzeug fährt. Die mehreren Fahrspurmarkierungen können zwei farbintensive gelbe Linien und zwei verblasste gelbe Linien einschließen. Das Datenverarbeitungsmodul 240 kann die zwei Sätze von Straßenmarkierungen als mehrdeutig und/oder widersprüchlich einordnen und bestimmen, dass mehrere Straßenmarkierungen vorhanden sind. Das Datenverarbeitungsmodul 240 kann die zwei Sätze von Straßenmarkierungen in den Fahrspurmarkierungsdaten 260 darstellen.
  • Das Datenverarbeitungsmodul 240 kann auch Nachbarfahrzeuge darstellen, die in den Nachbarfahrzeugdaten 262 identifiziert wurden. Beispielsweise können die Nachbarfahrzeugdaten 262 die Position und Trajektorie von Nachbarfahrzeugen identifizieren.
  • In Reaktion auf das Bestimmen, dass mehrere Straßenmarkierungen vorhanden sind, schließt das Verfahren 300 das Nutzen der Sensordaten ein, um die Straßenmarkierungen unter den mehreren Straßenmarkierungen zu identifizieren, denen das Fahrzeug folgen soll (304). Beispielsweise kann das Fahrspur-Identifizierungsmodul 248 die Fahrspurmarkierungsdaten 260 nutzen, um die Straßenmarkierungen unter den mehreren Straßenmarkierungen zu identifizieren, denen das Fahrzeug folgen soll. Das Fahrspur-Identifizierungsmodul 248 kann die abgerufenen Sensordaten nutzen, um die Farbintensität, die Reflexionsgrade, das Vorhandensein von Fahrspurreflektoren, die Farbrissbildung und das Abblättern des Straßenmarkierungsbands sowohl der beiden farbintensiven gelben Linien und der beiden verblassten farbintensiven gelben Linien als der auch gestrichelten weißen Linie und der verblassten farbintensiven weißen Linie zu vergleichen. Andere Attribute können ebenfalls verglichen werden. Aufgrund der Sensordaten, auf die zugegriffen wurde, kann das Fahrspur-Identifizierungsmodul 248 die zwei farbintensiven gelben Linien und die farbintensive gestrichelte weiße Linie als die relevanten Fahrspurmarkierungen für die Fahrspur identifizieren, der das Fahrzeug folgen soll.
  • In Reaktion auf das Bestimmen, dass mehrere Straßenmarkierungen vorhanden sind, schließt das Verfahren 300 das Verwenden der Position und Trajektorie von Nachbarfahrzeugen ein, um das Vertrauen bezüglich der identifizierten Straßenmarkierungen zu erhöhen (305). Beispielsweise kann das Fahrspur-Identifizierungsmodul 248 die Nachbarfahrzeugdaten 262 verwenden, um die Position und die Trajektorie von Nachbarfahrzeugen zu identifizieren, um das Vertrauen in Bezug auf die Identifikation der zwei farbintensiven gelben Linien und der farbintensiven gestrichelten weißen Linie als relevante Fahrspurmarkierungen zu erhöhen. Das Fahrspur-Identifizierungsmodul 248 kann bestimmen, dass sich ein Fahrzeug in dieselbe Richtung und auf derselben Spur wie das Fahrzeug bewegt. Das Fahrspur-Identifizierungsmodul 248 kann bestimmen, dass sich ein Nachbarfahrzeug in dieselbe Richtung wie das Fahrzeug in einer benachbarten Spur bewegt. Des Weiteren kann das Fahrspur-Identifizierungsmodul 248 andere Nachbarfahrzeuge als Fahrzeuge identifizieren, die in die entgegengesetzte Richtung und auf den benachbarten Fahrspuren des Fahrzeugs fahren. Aufgrund der Positions- und Trajektorieninformationen der Nachbarfahrzeuge hat das Fahrspur-Identifizierungsmodul 248 ein erhöhtes Vertrauen, dass die zwei farbintensiven gelben Linien und die farbintensive gestrichelte weiße Linie relevant sind.
  • In Reaktion auf das Bestimmen, dass mehrere Straßenmarkierungen vorhanden sind, schließt das Verfahren 300 das Senden der identifizierten Straßenmarkierungen an die Entscheidungsalgorithmen des Fahrzeugs zur Verwendung für die Steuerung von Position und Trajektorie des Fahrzeugs (306) ein. Beispielsweise kann das Datenverarbeitungsmodul 240 die zwei farbintensiven gelben Linien und die farbintensive gestrichelte weiße Linie an das Steuerungssystem-Modul 250 zur Verwendung für die Steuerung von Position und Trajektorie des Fahrzeugs senden.
  • 4 veranschaulicht ein beispielhaftes Fahrbahnszenario 400. Wie dargestellt schließt die Straße 402 die Fahrspuren 403, 404, 405 und 406 ein. Das Fahrzeug 450 fährt auf der Fahrspur 403 auf der Straße 402. Das Fahrzeug 450 schließt ein Computersystem (nicht gezeigt) ein, das konfiguriert ist, um das Fahrzeug 450 in einem autonomen Modus zu steuern. In einem Aspekt ist das Computersystem dem Computersystem 201 ähnlich. Zu diesem Zweck kann das Computersystem die Fahrspurinformationen verwenden, wie etwa Fahrspurmarkierungen, um die Begrenzungen der Fahrspur 403 abzuschätzen.
  • Das Fahrzeug 450 schließt eine Bilderfassungsvorrichtung 452, eine LiDAR-Einheit 454 und/oder eine Radareinheit 456 ein. Andere Sensoren sind ebenfalls möglich. Das Fahrzeug 450 kann die Vielzahl von Sensoren verwenden, um Informationen über die Fahrspur 403 zu erhalten. Beispielsweise kann das Computersystem die Bilderfassungsvorrichtung 452 und die LiDAR-Einheit 454 verwenden, um die Fahrspurmarkierungen der Fahrspur 403 zu erkennen. In einigen Aspekten kann die Radareinheit 456 auch verwendet werden, um Informationen über die Umgebung des Fahrzeugs 450 zu sammeln.
  • Das Computersystem kann konfiguriert werden, um Regionen von Interesse aus den Sensordaten, auf die zugegriffen wurde, unter Verwendung von Begrenzungskästen zu identifizieren. Beispielsweise können die Daten, auf die zugegriffen wurde, aus der Bilderfassungsvorrichtung 452 ein Bild der Straße 402 zeigen. Das Bild kann zugehörige Fahrspurmarkierungen und Fahrzeuge, die zum Zeitpunkt der Bilderfassung auf der Straße 402 fahren, einschließen. Das Computersystem kann die Fahrspurmarkierungsdaten und Nachbarfahrzeugdaten isolieren, die erforderlich sind, um die Begrenzungen der Fahrspur 403 zu identifizieren, der das Fahrzeug 450 folgen soll.
  • Das Computersystem kann Straßenmarkierungsdaten aus den Sensordaten, auf die zugegriffen wurde, unter Verwendung von Begrenzungskästen isolieren. Beispielsweise können die Straßenmarkierungen in den Sensordaten, auf die zugegriffen wurde, zwei farbintensive gelbe Linien 410, zwei verblasste gelbe Linien 412, eine farbintensive gestrichelte weiße Linie 420, eine verblasste gestrichelte weiße Linie 422, eine farbintensive weiße Linie 430 und eine verblasste weiße Linie 432 umfassen. Das Computersystem kann Begrenzungskasten-Algorithmen verwenden, um Folgendes zu bestimmen: einen Begrenzungskasten 411 der farbintensiven gelben Linien 410, einen Begrenzungskasten 413 der verblassten gelben Linien 412, einen Begrenzungskasten 421 der farbintensiven gestrichelten weißen Linie 420, einen Begrenzungskasten 423 der verblassten gestrichelten weißen Linie 422, einen Begrenzungskasten 431 der farbintensiven weißen Linie 430 und einen Begrenzungskasten 433 der verblassten weißen Linie 432.
  • Das Computersystem kann auch Nachbarfahrzeugdaten aus den Sensordaten, auf die zugegriffen wurde, unter Verwendung von Begrenzungskästen isolieren. Die Sensordaten, auf die zugegriffen wurde, können andere Fahrzeuge auf der Straße zeigen. Beispielsweise können die Sensordaten, auf die zugegriffen wurde, das Fahrzeug 460 auf der Fahrspur 403, das Fahrzeug 462 auf der Fahrspur 404, ein entgegenkommendes Fahrzeug 464 auf der Fahrspur 405 und ein entgegenkommendes Fahrzeug 466 auf der Spur 406 anzeigen. Das Computersystem kann Begrenzungskasten-Algorithmen nutzen, um Folgendes zu bestimmen: einen Begrenzungskasten 461 für das Fahrzeug 460, einen Begrenzungskasten 463 für das Fahrzeug 462, einen Begrenzungskasten 465 für das entgegenkommende Fahrzeug 464 und einen Begrenzungskasten 467 für das Fahrzeug 466.
  • Das Computersystem kann die abgerufenen Sensordaten verarbeiten, die in den Begrenzungskästen enthalten sind, um zu bestimmen, dass mehrere Fahrspurmarkierungen auf der Fahrspur 403 vorhanden sind. Beispielsweise können die Straßenmarkierungen in den abgerufenen Sensordaten innerhalb der Begrenzungskästen sowohl zwei farbintensive gelbe Linien 410 als auch zwei verblasste gelbe Linien 412 zeigen. Das Computersystem kann die zwei Sätze von Straßenmarkierungen als mehrdeutige und/oder widersprüchliche Sätze von Fahrspurmarkierungen einordnen. Daher bestimmt das Computersystem, dass mehrere Straßenmarkierungen vorhanden sind.
  • In Reaktion auf das Bestimmen, dass mehrere Straßenmarkierungen vorhanden sind, kann das Computersystem die abgerufenen Sensordaten, nutzen, um relevante Straßenmarkierungen zu identifizieren, denen das Fahrzeug 450 folgen soll. Beispielsweise kann das Computersystem die abgerufenen Sensordaten, nutzen, um die Farbintensität, die Reflexionsgrade, das Vorhandensein von Fahrspurreflektoren, die Farbrissbildung und das Abblättern des Straßenmarkierungsbands der zwei gelben farbintensiven Linien 410 und der zwei verblassten gelben Linien 412 zu vergleichen. Ebenso kann das Computersystem die abgerufenen Sensordaten, nutzen, um die Farbintensität, die Reflexionsgrade, das Vorhandensein von Fahrspurreflektoren, die Farbrissbildung und das Abblättern des Straßenmarkierungsbands der farbintensiven gestrichelten weißen Linie 420 und der verblassten gestrichelten weißen Linie 422 zu vergleichen. Andere Faktoren können ebenfalls verwendet werden. Basierend auf den abgerufenen Sensordaten, kann das Computersystem die zwei farbintensiven gelben Linien 410 und die farbintensive gestrichelte weiße Linie 420 als die relevanten (und korrekten) Fahrbahnmarkierungen identifizieren, die die Fahrspur 403 begrenzen.
  • Zusätzlich ist das Computersystem in der Lage, die Position und die Trajektorie von Nachbarfahrzeugen zu verwenden, um das Vertrauen in Bezug auf die Identifizierung der zwei farbintensiven gelben Linien 410 und der farbintensiven gestrichelten weißen Linie 420 zu erhöhen. Beispielsweise können die abgerufenen Sensordaten, die Position und Trajektorie des Fahrzeugs 460 anzeigen. Das Computersystem kann bestimmen, dass sich das Fahrzeug 460 auf der Fahrspur 403 in dieselbe Richtung wie das Fahrzeug 450 bewegt. Die abgerufenen Sensordaten, können die Position und Trajektorie des Fahrzeugs 462 anzeigen. Das Computersystem 401 kann bestimmen, dass sich das Fahrzeug 462 auf der Fahrspur 404 in dieselbe Richtung wie das Fahrzeug 450 bewegt. Des Weiteren kann das Computersystem 401 das Fahrzeug 464 und das Fahrzeug 466 identifizieren, die in entgegengesetzter Richtung zum Fahrzeug 450 jeweils auf den Fahrspuren 405 und 406 fahren. Aufgrund der Positions- und Trajektorieninformationen der Nachbarfahrzeuge hat das Computersystem ein erhöhtes Vertrauen, dass die zwei farbintensiven gelben Linien 410 und die farbintensive gestrichelte weiße Linie 420 ordnungsgemäß identifiziert worden sind.
  • Nachdem die korrekten Fahrspurmarkierungen identifiziert worden sind, kann das Computersystem die identifizierten korrekten Fahrspurmarkierungen an die Entscheidungsalgorithmen des Fahrzeugs 450 zur Verwendung für die Steuerung von Position und Trajektorie des Fahrzeugs übergeben.
  • Wenngleich die hier dargestellten Komponenten und Module in einer bestimmten Anordnung gezeigt und beschrieben sind, kann die Anordnung von Komponenten und Modulen verändert werden, um Daten in einer anderen Weise zu verarbeiten. In anderen Ausführungsformen können ein(e) oder mehrere zusätzliche Komponenten oder Module zu den beschriebenen Systemen hinzugefügt werden, und ein(e) oder mehrere Komponenten oder Module können von den beschriebenen Systemen entfernt werden. Alternative Ausführungsformen können zwei oder mehr der beschriebenen Komponenten oder Module zu einer einzigen Komponente oder einem einzigen Modul kombinieren.
  • Die vorstehende Beschreibung wurde zu Zwecken der Veranschaulichung und Beschreibung bereitgestellt. Sie beabsichtigt nicht, erschöpfend zu sein oder die Erfindung auf die exakt offengelegte Form zu beschränken. Viele Abwandlungen und Änderungen sind angesichts der voranstehend geschilderten Lehre möglich. Ferner wird darauf hingewiesen, dass irgendwelche oder alle der vorgenannten alternativen Ausführungsformen in jeder beliebigen Kombination verwendet werden können, um zusätzliche hybride Ausführungsformen der Erfindung zu bilden.
  • Ferner ist, obwohl spezifische Ausführungsformen der Erfindung beschrieben und dargestellt wurden, die Erfindung nicht auf die spezifischen Formen oder Anordnungen der derart beschriebenen und dargestellten Teile beschränkt. Der Bereich der Erfindung soll durch die hier beigefügten Ansprüche, jegliche künftigen hier und in unterschiedlichen Anmeldungen eingereichten Ansprüche und ihre Äquivalente definiert sein.

Claims (20)

  1. Verfahren zum Bestimmen von Fahrspurmarkierungen, denen ein Fahrzeug folgen soll, wobei das Verfahren Folgendes umfasst: Zugreifen auf Sensordaten von einer Vielzahl von Sensoren an dem Fahrzeug; Verarbeiten der abgerufenen Sensordaten zum Identifizieren der mehreren Straßenmarkierungen; Nutzen der Sensordaten zur Identifizierung der Straßenmarkierungen aus den mehreren Straßenmarkierungen, denen das Fahrzeug folgen soll; und Senden der identifizierten Straßenmarkierungen an den Entscheidungsalgorithmus des Fahrzeugs zur Verwendung bei der Steuerung des Fahrzeugs.
  2. Verfahren nach Anspruch 1, ferner umfassend: Verarbeiten der abgerufenen Sensordaten, um die Position und Trajektorie von Nachbarfahrzeugen zu identifizieren; und Verwenden der Position und Trajektorie von Nachbarfahrzeugen, um das Vertrauen bezüglich der identifizierten Straßenmarkierungen zu erhöhen.
  3. Verfahren nach Anspruch 1, wobei das Identifizieren mehrerer Straßenmarkierungen das Detektieren von mindestens zwei möglichen Fahrspurmarkierungen mit unterschiedlichem visuellem Erscheinungsbild umfasst.
  4. Verfahren nach Anspruch 3, wobei das Detektieren von mindestens zwei möglichen Fahrspurmarkierungen mit unterschiedlichem Erscheinungsbild das Detektieren von mindestens zwei möglichen Fahrspurmarkierungen umfasst, die sich in einem oder mehreren der Folgenden unterscheiden: Farbintensität, Reflexionsgrade, Vorhandensein von Fahrspurreflektoren, Farbrissbildung und Abblättern des Straßenmarkierungsbands.
  5. Verfahren nach Anspruch 1, wobei das Zugreifen auf Sensordaten von einer Vielzahl von Sensoren das Zugreifen auf Daten von zwei oder mehreren der Folgenden umfasst: eine Bilderfassungsvorrichtung, ein LiDAR-System und ein Radarsystem.
  6. Verfahren zum Unterscheiden von Fahrspurmarkierungen, denen ein Fahrzeug folgen soll, wobei das Verfahren Folgendes umfasst: Zugreifen auf die von einer Vielzahl von Sensoren gesammelten Sensordaten, wobei die Vielzahl von Sensoren einen ersten Sensortyp und mindestens einen zweiten unterschiedlichen Sensortyp einschließen, wobei die Sensordaten Straßenmarkierungen anzeigen, wobei die Straßenmarkierungen Farbintensität und Reflexionsgrade einschließen, und die Sensordaten auch die Position und Trajektorie von Nachbarfahrzeugen anzeigen; Bestimmen von Begrenzungskästen aus den Sensordaten, auf die zugegriffen wurde, wobei die Begrenzungskästen Regionen von Interesse zur Unterscheidung von Straßenmarkierungen und Nachbarfahrzeuge darstellen; Verarbeiten der Sensordaten, auf die zugegriffen wurde, innerhalb der Begrenzungskästen zur Bestimmung, dass mehrere Straßenmarkierungen vorhanden sind; in Reaktion auf das Bestimmen, dass mehrere Straßenmarkierungen vorhanden sind: Nutzen der Sensordaten zur Identifizierung der Straßenmarkierungen aus den mehreren Straßenmarkierungen, denen das Fahrzeug folgen soll; und Verwenden der Position und Trajektorie von Nachbarfahrzeugen, um das Vertrauen bezüglich der identifizierten Straßenmarkierungen zu erhöhen; und Senden der identifizierten Straßenmarkierungen an den Entscheidungsalgorithmus des Fahrzeugs zur Verwendung bei der Steuerung der Position und Trajektorie des Fahrzeugs.
  7. Verfahren nach Anspruch 6, wobei das Bestimmen, dass mehrere Straßenmarkierungen vorhanden sind, das Detektieren von mindestens zwei möglichen Fahrspurmarkierungen mit unterschiedlichem visuellem Erscheinungsbild umfasst.
  8. Verfahren nach Anspruch 7, ferner umfassend das Bestimmen eines visuellen Erscheinungsbilds jeder der mehreren Straßenmarkierungen nach einem oder mehreren der Folgenden: Farbintensität, Reflexionsgrade, Vorhandensein von Fahrspurreflektoren, Farbrissbildung und Abblättern des Straßenmarkierungsbands.
  9. Verfahren nach Anspruch 6, wobei die Sensordaten aus einer Vielzahl von Sensoren stammen, wobei die Vielzahl von Sensoren aus Folgendem ausgewählt wird: LiDAR-Systeme, Bilderfassungsvorrichtungen und Radarsysteme.
  10. Verfahren nach Anspruch 9, ferner umfassend das Verwenden der Position und Trajektorie von Nachbarfahrzeugen, um das Vertrauen in die identifizierten Straßenmarkierungen, denen gefolgt werden sollen, zu erhöhen.
  11. Verfahren nach Anspruch 6, wobei das Zugreifen auf die Sensordaten das Zugreifen auf Sensordaten umfasst, die eine oder mehrere Geschwindigkeitsbegrenzungsinformationen oder Stoppschildinformationen anzeigen, die auf die Fahrbahn aufgemalt sind.
  12. Verfahren nach Anspruch 6, wobei das Identifizieren der Position und Trajektorien, die mit den Nachbarfahrzeugen auf oder in der Nähe von der Straße verknüpft sind, das Identifizieren von Fahrzeugen umfasst, die sich auf derselben Fahrspur befinden wie das Fahrzeug.
  13. Verfahren nach Anspruch 6, wobei das Identifizieren der Position und Trajektorien, die mit den Nachbarfahrzeugen auf oder in der Nähe von der Straße verknüpft sind, das Identifizieren von Fahrzeugen umfasst, die sich auf einer anderen Fahrspur befinden als das Fahrzeug.
  14. Verfahren nach Anspruch 6, wobei das Identifizieren der Position und Trajektorien, die mit den Nachbarfahrzeugen verknüpft sind, das Identifizieren von Fahrzeugen umfasst, die in dieselbe Richtung fahren wie das Fahrzeug.
  15. Verfahren nach Anspruch 6, wobei das Identifizieren der Position und Trajektorien, die mit den Nachbarfahrzeugen verknüpft sind, das Identifizieren von Fahrzeugen umfasst, die in die entgegengesetzte Richtung des Fahrzeugs fahren.
  16. System für das Unterscheiden von Fahrspurmarkierungen, denen ein Fahrzeug folgen soll, wobei das System Folgendes umfasst: einen oder mehrere Prozessoren; Systemspeicher; eine Vielzahl von Sensoren, wobei die Vielzahl von Sensoren einen ersten Sensortyp und mindestens einen zweiten unterschiedlichen Sensortyp einschließt; eine oder mehrere Computerspeichervorrichtungen, auf denen computerausführbare Anweisungen gespeichert sind, die, wenn sie ausgeführt werden, das Fahrzeugcomputersystem zu Folgendem veranlassen: auf Sensordaten zuzugreifen, die von einer Vielzahl von Sensoren gesammelt wurden, wobei die Sensordaten die Straßenmarkierungen anzeigen, wobei die Straßenmarkierungen Farbintensität und Reflexionsgrade einschließen, und die Sensordaten auch die Position und Trajektorie von Nachbarfahrzeugen anzeigen; Begrenzungskästen aus den Sensordaten, auf die zugegriffen wurde, zu bestimmen, wobei die Begrenzungskästen Regionen von Interesse zur Unterscheidung von Straßenmarkierungen und Nachbarfahrzeuge darstellen; die Sensordaten, auf die zugegriffen wurde, innerhalb der Begrenzungskästen zur Bestimmung zu verarbeiten, dass mehrere Straßenmarkierungen vorhanden sind; in Reaktion auf das Bestimmen, dass mehrere Straßenmarkierungen vorhanden sind: die Sensordaten zur Identifizierung der Straßenmarkierungen aus den mehreren Straßenmarkierungen zu nutzen, denen das Fahrzeug folgen soll; die Position und Trajektorie von Nachbarfahrzeugen zu verwenden, um das Vertrauen bezüglich der identifizierten Straßenmarkierungen zu erhöhen; und die identifizierten Straßenmarkierungen an den Entscheidungsalgorithmus des Fahrzeugs zur Verwendung bei der Steuerung der Position und Trajektorie des Fahrzeugs zu senden.
  17. System nach Anspruch 16, wobei die computerausführbaren Anweisungen, die, wenn sie ausgeführt werden, das Fahrzeugcomputersystem dazu veranlassen, auf die Sensordaten zuzugreifen, computerausführbare Anweisungen umfassen, die, wenn sie ausgeführt werden, das Fahrzeugcomputersystem dazu veranlassen, mindestens eine Art von Daten von einem der Sensoren des Fahrzeugs und mindestens eine zweite unterschiedliche Art von Daten von einem unterschiedlichen Sensortyp des Fahrzeugs zu empfangen.
  18. System nach Anspruch 16, ferner umfassend computerausführbare Anweisungen in dem Fahrzeugcomputersystem, die, wenn sie ausgeführt werden, das Computersystem dazu veranlassen, die verschiedenen Arten von Sensordaten nach Straßenmarkierungen abzufragen.
  19. System nach Anspruch 16, ferner umfassend computerausführbare Anweisungen in dem Fahrzeugcomputersystem, die, wenn sie ausgeführt werden, das Computersystem dazu veranlassen, die verschiedenen Arten von Sensordaten nach Nachbarfahrzeugen abzufragen.
  20. System nach Anspruch 16, ferner umfassend computerausführbare Anweisungen in dem Fahrzeugcomputersystem, die, wenn sie ausgeführt werden, das Computersystem dazu veranlassen, die Sensordaten hinsichtlich Regionen von Interesse zu analysieren, wobei die Regionen von Interesse durch Begrenzungskästen begrenzt werden.
DE102016121864.2A 2015-11-17 2016-11-15 Unterscheiden von Fahrspurmarkierungen, denen ein Fahrzeug folgen soll Pending DE102016121864A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/943,573 2015-11-17
US14/943,573 US9829888B2 (en) 2015-11-17 2015-11-17 Distinguishing lane markings for a vehicle to follow

Publications (1)

Publication Number Publication Date
DE102016121864A1 true DE102016121864A1 (de) 2017-05-18

Family

ID=57993822

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016121864.2A Pending DE102016121864A1 (de) 2015-11-17 2016-11-15 Unterscheiden von Fahrspurmarkierungen, denen ein Fahrzeug folgen soll

Country Status (5)

Country Link
US (2) US9829888B2 (de)
CN (1) CN107103272B (de)
DE (1) DE102016121864A1 (de)
GB (1) GB2546372A (de)
MX (1) MX2016015049A (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017116016A1 (de) * 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh Kraftfahrzeug-Sensorvorrichtung mit mehreren Sensoreinheiten und einem neuronalen Netz zum Erzeugen einer integrierten Repräsentation einer Umgebung
DE102017223206A1 (de) * 2017-12-19 2019-06-19 Robert Bosch Gmbh Niederdimensionale Ermittlung von abgegrenzten Bereichen und Bewegungspfaden
DE102018121595B4 (de) 2017-09-06 2023-05-11 GM Global Technology Operations LLC Unbeaufsichtigtes anlernen von agenten für autonome fahranwendungen

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11348066B2 (en) 2013-07-25 2022-05-31 IAM Robotics, LLC System and method for piece picking or put-away with a mobile manipulation robot
US10229363B2 (en) * 2015-10-19 2019-03-12 Ford Global Technologies, Llc Probabilistic inference using weighted-integrals-and-sums-by-hashing for object tracking
JP6919428B2 (ja) * 2016-12-21 2021-08-18 トヨタ自動車株式会社 車両データ記録装置
JP7005943B2 (ja) * 2017-06-06 2022-01-24 愛知製鋼株式会社 マーカシステム及び運用方法
US10549762B2 (en) * 2017-07-31 2020-02-04 GM Global Technology Operations LLC Distinguish between vehicle turn and lane change
JP7027738B2 (ja) * 2017-09-06 2022-03-02 株式会社デンソー 運転支援装置
DE102018112513A1 (de) * 2018-05-24 2019-11-28 Daimler Ag Verfahren und System zur Ableitung einer Trajektorie an einer Systemgrenze eines autonomen Fahrzeugs durch einen Teleoperator
CN108820042B (zh) * 2018-05-25 2020-04-10 东软集团股份有限公司 一种自动驾驶方法及装置
DE102018120049A1 (de) * 2018-08-17 2020-02-20 Valeo Schalter Und Sensoren Gmbh Method for recognizing driving lanes for a motor vehicle with selection of a temporary driving lane by a user on a display unit, as well as vehicle guidance system and computer program product
US10800409B2 (en) * 2018-09-04 2020-10-13 Caterpillar Paving Products Inc. Systems and methods for operating a mobile machine using detected sounds
JP7202112B2 (ja) * 2018-09-11 2023-01-11 本田技研工業株式会社 車両用制御システムおよび車両の制御方法
JP7035945B2 (ja) * 2018-10-04 2022-03-15 トヨタ自動車株式会社 地図情報システム
CN111257866B (zh) * 2018-11-30 2022-02-11 杭州海康威视数字技术股份有限公司 车载摄像头和车载雷达联动的目标检测方法、装置及系统
CN113168771A (zh) 2018-12-07 2021-07-23 美光科技公司 车道偏离设备、系统和方法
CN109816626A (zh) * 2018-12-13 2019-05-28 深圳高速工程检测有限公司 路面裂缝检测方法、装置、计算机设备和存储介质
CN112020722B (zh) * 2018-12-29 2024-01-09 北京嘀嘀无限科技发展有限公司 基于三维传感器数据识别路肩
US11468690B2 (en) * 2019-01-30 2022-10-11 Baidu Usa Llc Map partition system for autonomous vehicles
US11142196B2 (en) * 2019-02-03 2021-10-12 Denso International America, Inc. Lane detection method and system for a vehicle
WO2020206457A1 (en) 2019-04-05 2020-10-08 IAM Robotics, LLC Autonomous mobile robotic systems and methods for picking and put-away
US10937178B1 (en) * 2019-05-09 2021-03-02 Zoox, Inc. Image-based depth data and bounding boxes
US11087494B1 (en) 2019-05-09 2021-08-10 Zoox, Inc. Image-based depth data and localization
US10984543B1 (en) 2019-05-09 2021-04-20 Zoox, Inc. Image-based depth data and relative depth data
US11823016B2 (en) * 2019-05-29 2023-11-21 Bank Of America Corporation Optimized IoT data processing for real-time decision support systems
US11887381B2 (en) * 2021-04-30 2024-01-30 New Eagle, Llc Use of HCNN to predict lane lines types
CN114537443B (zh) * 2022-03-22 2024-05-03 重庆长安汽车股份有限公司 一种用于行车和泊车的纵向控制系统及方法
US11403860B1 (en) * 2022-04-06 2022-08-02 Ecotron Corporation Multi-sensor object detection fusion system and method using point cloud projection
FR3140051A1 (fr) * 2022-09-22 2024-03-29 Psa Automobiles Sa Méthodes et systèmes de détection des lignes de délimitation temporaires des voies de circulation

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3658519B2 (ja) * 1999-06-28 2005-06-08 株式会社日立製作所 自動車の制御システムおよび自動車の制御装置
DE10311240B4 (de) * 2003-03-14 2017-03-02 Robert Bosch Gmbh Verfahren und Einrichtung für die Spurführung eines Fahrzeugs
JP3898709B2 (ja) 2004-05-19 2007-03-28 本田技研工業株式会社 車両用走行区分線認識装置
JP4659631B2 (ja) 2005-04-26 2011-03-30 富士重工業株式会社 車線認識装置
JP4616068B2 (ja) 2005-04-28 2011-01-19 本田技研工業株式会社 車両、画像処理システム、画像処理方法及び画像処理プログラム
US9373149B2 (en) * 2006-03-17 2016-06-21 Fatdoor, Inc. Autonomous neighborhood vehicle commerce network and community
US20100292895A1 (en) * 2007-04-27 2010-11-18 Aisin Aw Co. Ltd Driving support device
US8194927B2 (en) * 2008-07-18 2012-06-05 GM Global Technology Operations LLC Road-lane marker detection using light-based sensing technology
JP5066123B2 (ja) * 2009-03-24 2012-11-07 日立オートモティブシステムズ株式会社 車両運転支援装置
US8296030B2 (en) * 2010-07-07 2012-10-23 Robert Bosch Gmbh System and method for controlling the engine of a vehicle
MX2013008808A (es) * 2011-04-13 2013-10-03 Nissan Motor Dispositivo de asistencia de conduccion y metodo de deteccion de vehiculo adyacente al mismo.
FR2977957B1 (fr) * 2011-07-12 2016-07-01 Inst Francais Des Sciences Et Tech Des Transp De L'amenagement Et Des Reseaux (Ifsttar) Dispositif et procede d'imagerie pour produire une image de marquages routiers
EP2574958B1 (de) * 2011-09-28 2017-02-22 Honda Research Institute Europe GmbH Straßenterrain-Erkennungsverfahren und System für Fahrerhilfssysteme
DE102012224125B4 (de) * 2012-01-02 2024-03-07 Ford Global Technologies, Llc Verfahren zur Spurhalteunterstützung eines Fahrers eines Kraftfahrzeugs und Spurhalteassistenzsystem
DE102012004791A1 (de) * 2012-03-07 2013-09-12 Audi Ag Verfahren zum Warnen des Fahrers eines Kraftfahrzeugs vor einer sich anbahnenden Gefahrensituation infolge eines unbeabsichtigten Driftens auf eine Gegenverkehrsfahrspur
JP5926080B2 (ja) * 2012-03-19 2016-05-25 株式会社日本自動車部品総合研究所 走行区画線認識装置およびプログラム
US8504233B1 (en) 2012-04-27 2013-08-06 Google Inc. Safely navigating on roads through maintaining safe distance from other vehicles
GB201209972D0 (en) 2012-06-06 2012-07-18 Univ Warwick Organic electron acceptor compounds
US9053372B2 (en) 2012-06-28 2015-06-09 Honda Motor Co., Ltd. Road marking detection and recognition
WO2014034187A1 (ja) * 2012-08-30 2014-03-06 本田技研工業株式会社 レーンマーク認識装置
US9026300B2 (en) * 2012-11-06 2015-05-05 Google Inc. Methods and systems to aid autonomous vehicles driving through a lane merge
EP2746137B1 (de) * 2012-12-19 2019-02-20 Volvo Car Corporation Verfahren und System zur Unterstützung eines Fahrers
EP2959266A4 (de) * 2013-02-25 2017-05-03 Continental Automotive GmbH Intelligente videonavigation für kraftfahrzeuge
US20140267415A1 (en) * 2013-03-12 2014-09-18 Xueming Tang Road marking illuminattion system and method
KR101491256B1 (ko) * 2013-05-28 2015-02-06 현대자동차주식회사 무선통신을 이용한 차선인식 장치 및 방법
JP5977275B2 (ja) * 2014-02-14 2016-08-24 株式会社日本自動車部品総合研究所 分岐路認識装置
JP6193819B2 (ja) * 2014-07-11 2017-09-06 株式会社Soken 走行区画線認識装置
US9959624B2 (en) * 2014-12-22 2018-05-01 Volkswagen Ag Early detection of turning condition identification using perception technology
JP6269566B2 (ja) * 2015-05-08 2018-01-31 トヨタ自動車株式会社 誤認識判定装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017116016A1 (de) * 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh Kraftfahrzeug-Sensorvorrichtung mit mehreren Sensoreinheiten und einem neuronalen Netz zum Erzeugen einer integrierten Repräsentation einer Umgebung
DE102018121595B4 (de) 2017-09-06 2023-05-11 GM Global Technology Operations LLC Unbeaufsichtigtes anlernen von agenten für autonome fahranwendungen
DE102017223206A1 (de) * 2017-12-19 2019-06-19 Robert Bosch Gmbh Niederdimensionale Ermittlung von abgegrenzten Bereichen und Bewegungspfaden
US11263465B2 (en) 2017-12-19 2022-03-01 Robert Bosch Gmbh Low-dimensional ascertaining of delimited regions and motion paths

Also Published As

Publication number Publication date
GB2546372A (en) 2017-07-19
US20180024560A1 (en) 2018-01-25
MX2016015049A (es) 2017-08-10
US9829888B2 (en) 2017-11-28
CN107103272A (zh) 2017-08-29
CN107103272B (zh) 2022-06-28
US10048691B2 (en) 2018-08-14
GB201619452D0 (en) 2017-01-04
US20170139417A1 (en) 2017-05-18

Similar Documents

Publication Publication Date Title
DE102016121864A1 (de) Unterscheiden von Fahrspurmarkierungen, denen ein Fahrzeug folgen soll
DE102018101220A1 (de) Zeichenerkennung für autonome fahrzeuge
DE102017100199A1 (de) FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN
DE112019001832T5 (de) Strassenmarkierungsdetektionsverfahren
DE112020004931T5 (de) Systeme und verfahren zur bestimmung der verkehrssicherheit
DE102017105903A1 (de) Fussgängerdetektion und Bewegungsvorhersage mit nach hinten gerichteter Kamera
DE102020127043A1 (de) Sicherheitssystem für ein fahrzeug
WO2014127777A2 (de) Verfahren und vorrichtung zur bestimmung eines fahrbahnzustands
DE112016000421T5 (de) Fahrzeuggeschwindigkeitsregelvorrichtung und geschwindigkeitsregelverfahren
DE102017123180A1 (de) Rückwertige Hinderniserkennung und Abstandsschätzung
DE102018203807A1 (de) Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen
DE102017129075A1 (de) Parkplatznavigationssystem und -verfahren
DE102014117751A1 (de) System und Verfahren zum dynamischen Fokussieren von Fahrzeugsensoren
DE102018101366A1 (de) Fahrzeuge in schlechten lichtverhältnissen
DE112014000896T5 (de) Vorrichtung zum Unterdrücken einer Abweichung von einer Spurgrenzlinie
WO2019121035A1 (de) Verfahren zur klassifizierung von parklücken in einem umgebungsbereich eines fahrzeugs mit einem neuronalen netzwerk
DE102016210534A1 (de) Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs
DE112021005104T5 (de) Systeme und verfahren zum evaluieren von domänenspezifischen fähigkeiten eines navigationssystems
DE112014002959T5 (de) Bestimmung der Fahrspurposition
EP3818466B1 (de) Schnelle erkennung gefährlicher oder gefährdeter objekte im umfeld eines fahrzeugs
DE102019122536A1 (de) Exzentrizitätskarten
DE102018211368A1 (de) Verfahren zur Beschreibung einer Umgebung eines Fahrzeugs durch die Topologie der befahrenen Straße
DE102019117136A1 (de) Kommunikation und steuerung für verkehrsinfrastruktur
DE112021000482T5 (de) Erkennung von fremdkörpern in einem fahrzeugweg
DE102023000561A1 (de) Verfahren und Vorrichtung zur Steuerung des Abbiegevorgangs eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed