DE102019114622A1 - Erfassung und planare darstellung dreidimensionaler fahrspuren in einer strassenszene - Google Patents

Erfassung und planare darstellung dreidimensionaler fahrspuren in einer strassenszene Download PDF

Info

Publication number
DE102019114622A1
DE102019114622A1 DE102019114622.4A DE102019114622A DE102019114622A1 DE 102019114622 A1 DE102019114622 A1 DE 102019114622A1 DE 102019114622 A DE102019114622 A DE 102019114622A DE 102019114622 A1 DE102019114622 A1 DE 102019114622A1
Authority
DE
Germany
Prior art keywords
feature
feature map
cards
projected
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019114622.4A
Other languages
English (en)
Inventor
Dan Levi
Noa Garnett
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102019114622A1 publication Critical patent/DE102019114622A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3822Road feature data, e.g. slope data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein Fahrzeugsystem zum Navigieren des Fahrzeugs und ein Verfahren zum Betreiben des Fahrzeugs. Das System umfasst einen Sensor und ein mehrschichtiges neuronales Faltungsnetzwerk. Der Sensor erzeugt ein Bild, das eine Straßenszene des Fahrzeugs anzeigt. Das mehrschichtige konvolutionelle Neuralnetzwerk erzeugt aus dem Bild über einen ersten Verarbeitungspfad mehrere Merkmalskarten, mindestens eine der Merkmalskarten auf eine definierte Ebene relativ zu einem definierten Koordinatensystem der Straßenszene zu projizieren, um mindestens eine projizierte Merkmalskarte zu erhalten, eine Faltung auf mindestens eine projizierte Merkmalskarte in einem zweiten Verarbeitungspfad anzuwenden, um eine endgültige Merkmalskarte zu erhalten, und um Fahrspurinformationen aus der endgültigen Merkmalskarte zu bestimmen. Ein Steuersystem passt den Betrieb des Fahrzeugs unter Verwendung der Fahrspurinformationen an.

Description

  • EINLEITUNG
  • Der Gegenstand der Offenbarung betrifft das Erkennen von Fahrspuren in einer Straßenszene. Commonplace-Technologien basieren auf oder maschinengestützten Systemen und Techniken zum Erkennen einer Fahrspur in Straßenszenen. Solche Systeme und Techniken können Frameworks mit Maschinenlernen verwenden, um Straßenelemente getrennt in einer Bilddomäne abzuleiten. Dann werden Heuristiken oder andere Arten empirischer Modellierungen angewendet, um diese Straßenelemente in eine Fahrspur oder eine Gruppe von Fahrspuren in der Straßenszene zu kombinieren. Des Weiteren übernehmen derartige Systeme und Techniken typischerweise einen unabhängigen Sensoransatz, in dem eine Gruppe von Fahrspuren unter Verwendung einer definierten Art von Erfassungsmodalität (Kameraerfassung, LIDAR-Erfassung oder dergleichen) erfasst wird. Verschiedene Gruppen von Fahrspuren, die in jeweiligen Erfassungsmodalitäten erfasst werden, werden üblicherweise nach der Fahrspurerkennung für jede Sensormodalität zusammengeführt. Die Erkennung und / oder Darstellung einer Fahrspur kann nicht nur in hohem Maße von den Arten der Heuristik abhängen, die auf eine Gruppe von erkannten Straßenelementen angewendet werden, sondern das Verschmelzen von Sensordaten kann a posteriori die Erkennungs- und / oder Darstellungsgenauigkeit verringern. Schlechte Genauigkeit bei der Fahrspurerkennung und/oder Darstellung kann automatisierte oder autonome Vorgänge eines auf einer Straße fahrenden Fahrzeugs erschweren oder behindern. Dementsprechend ist es wünschenswert, Technologien zur Erfassung von Fahrspuren in einer Straßenszene anzubieten.
  • KURZDARSTELLUNG
  • In einer beispielhafte Ausführungsform wird ein Verfahren zum Navigieren eines Fahrzeugs offenbart. Es wird ein Bild erhalten, das eine Straßenszene an einem Sensor des Fahrzeugs anzeigt. Eine Vielzahl von Merkmalskarten wird aus dem Bild über einen ersten Verarbeitungsweg eines mehrschichtigen neuronalen Faltungsnetzwerks erzeugt. Mindestens eine der Merkmalskarten wird relativ zu einem definierten Koordinatensystem der Straßenszene auf eine definierte Ebene projiziert, um mindestens eine projizierte Merkmalskarte zu erhalten. Eine Faltung wird auf mindestens eine projizierte Merkmalskarte in einem zweiten Verarbeitungspfad des mehrschichtigen neuronalen konvolutionellen Netzwerks angewendet, um eine endgültige Merkmalskarte zu erhalten. Die Fahrspurinformationen werden aus der endgültigen Mekrmalskarte ermittelt.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale kann das Bild Eingabedaten mit mehreren Sensormodalitäten enthalten. In einer Ausführungsform, in der das Bild ferner eine Vielzahl weiterer Bilder umfasst, der erste Verarbeitungsweg besteht in der Verarbeitung dieser Bilder, um die Vielzahl an Merkmalskarten für jedes der Bilder zu erhalten, was zum Projizieren mehrerer Merkmalskarten auf die definierte Ebene führt, die projizierten Merkmalskarten kombiniert und schließlich die Faltung auf die kombinierten projizierten Merkmalskarten anwendet. Das mehrschichtige konvolutionelle Neuralnetzwerk beinhaltet ein Codier-Decodier-Netzwerk. Die endgültige Merkmalskarte ist horizontal invariant und das Bestimmen von Fahrspurinformationen umfasst ferner das Bestimmen einer dreidimensionalen Darstellung der Fahrspuren. Das Projizieren mindestens einen der Merkmalskarten umfasst das Anwenden einer homografischen Transformation auf mindestens eine der Merkmalskarten. Die Fahrspurinformationen werden an ein Steuersystem weitergeleitet, das konfiguriert ist, um den Betrieb des Fahrzeugs unter Verwendung der Fahrspurinformationen anzupassen.
  • In einer anderen beispielhaften Ausführungsform wird ein System zum Betreiben eines Fahrzeugs offenbart. Das System umfasst einen Sensor und ein mehrschichtiges neuronales Faltungsnetzwerk. Der Sensor ist so eingestellt, um ein Bild zu erzeugen, das eine Straßenszene des Fahrzeugs anzeigt. Das mehrschichtige konvolutionelle Neuralnetzwerk wurde konfiguriert, um aus dem Bild über einen ersten Verarbeitungspfad mehrere Merkmalskarten zu erzeugen, mindestens eine der Merkmalskarten auf eine definierte Ebene relativ zu einem definierten Koordinatensystem der Straßenszene zu projizieren, um mindestens eine projizierte Merkmalskarte zu erhalten, eine Faltung auf mindestens eine projizierte Merkmalskarte in einem zweiten Verarbeitungspfad anzuwenden, um eine endgültige Merkmalskarte zu erhalten, und um Fahrspurinformationen aus der endgültigen Merkmalskarte zu bestimmen.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale enthält das Bild Eingabedaten von Sensoren mit unterschiedlichen Sensormodalitäten. In einer Ausführungsform enthält das Bild mehrere Bilder, und das neuronale Netzwerk ist ferner konfiguriert, um den ersten Verarbeitungspfad auf jedes der Bilder anzuwenden, um Merkmalskarten für jedes der Bilder zu erhalten, mehrere Merkmalskarten zu auf eine definierte Ebene zu projizieren, die projizierten Merkmalskarten zu kombinieren und die Faltung auf die kombinierten und projizierten Merkmalskarten anzuwenden. Das mehrschichtige konvolutionelle Neuralnetzwerk beinhaltet ein Codier-Decodier-Netzwerk. Die endgültige Merkmalskarte ist horizontal invariant, wobei das System ferner ein Fahrspurdarstellungsmodul umfasst, das konfiguriert ist, um eine dreidimensionale Darstellung der Fahrspuren aus der endgültigen Merkmalskarte zu bestimmen. Das System umfasst ferner ein Projektionsmodul, das konfiguriert ist, um mindestens eine der Merkmalskarten durch Anwenden einer homografischen Transformation auf die mindestens eine der Merkmalskarten zu projizieren. Das System umfasst außerdem ein Steuersystem, das eingestellt ist, um den Betrieb des Fahrzeugs unter Verwendung der Fahrspurinformationen anzupassen.
  • In noch einer weiteren beispielhaften Ausführungsform wird durch die Offenbarung ein Fahrzeug offenbart. Das Fahrzeug umfasst einen Sensor, ein mehrschichtiges konvolutionelles Neuralnetzwerk und ein Steuersystem. Der Sensor ist so eingestellt, um ein Bild zu erzeugen, das eine Straßenszene des Fahrzeugs anzeigt. Das mehrschichtige konvolutionelle Neuralnetzwerk wurde konfiguriert, um aus dem Bild über einen ersten Verarbeitungspfad mehrere Merkmalskarten zu erzeugen, mindestens eine der Merkmalskarten auf eine definierte Ebene relativ zu einem definierten Koordinatensystem der Straßenszene zu projizieren, um mindestens eine projizierte Merkmalskarte zu erhalten, eine Faltung auf mindestens eine projizierte Merkmalskarte in einem zweiten Verarbeitungspfad anzuwenden, um eine endgültige Merkmalskarte zu erhalten, und um Fahrspurinformationen aus der endgültigen Merkmalskarte zu bestimmen. Das Steuersystem ist konfiguriert, um den Betrieb des Fahrzeugs unter Verwendung der Fahrspurinformationen anzupassen.
  • Zusätzlich zu einem oder mehreren der hierin beschriebenen Merkmale enthält das Bild Eingabedaten von Sensoren mit unterschiedlichen Sensormodalitäten. In einer Ausführungsform enthält das Bild mehrere Bilder, das neuronale Netzwerk ist ferner konfiguriert, um den ersten Verarbeitungspfad auf jedes der Bilder anzuwenden, um Merkmalskarten für jedes der Bilder zu erhalten, mehrere Merkmalskarten zu auf eine definierte Ebene zu projizieren, die projizierten Merkmalskarten zu kombinieren und die Faltung auf die kombinierten und projizierten Merkmalskarten anzuwenden. Das mehrschichtige konvolutionelle Neuralnetzwerk beinhaltet ein Codier-Decodier-Netzwerk. Die endgültige Merkmalskarte ist horizontal invariant, wobei das System ferner ein Fahrspurdarstellungsmodul umfasst, das konfiguriert ist, um eine dreidimensionale Darstellung der Fahrspuren aus der endgültigen Merkmalskarte zu bestimmen. Das Fahrzeugsystem umfasst ferner ein Projektionsmodul, das konfiguriert ist, um mindestens eine der Merkmalskarten durch Anwenden einer homografischen Transformation auf die mindestens eine der Merkmalskarten zu projizieren.
  • Die oben genannten Eigenschaften und Vorteile sowie anderen Eigenschaften und Funktionen der vorliegenden Offenbarung gehen aus der folgenden ausführlichen Beschreibung in Verbindung mit den beigefügten Zeichnungen ohne weiteres hervor.
  • Figurenliste
  • Andere Merkmale, Vorteile und Einzelheiten erscheinen, nur exemplarisch, in der folgenden ausführlichen Beschreibung der Ausführungsformen, wobei sich die ausführliche Beschreibung auf die Zeichnungen bezieht, wobei gilt:
    • 1 zeigt eine Betriebsumgebung zum Erfassen einer Fahrspur innerhalb einer Straßenszene gemäß einer Ausführungsform der Erfindung;
    • 2 veranschaulicht eine Betriebsarchitektur eines dualen Neuralnetzwerks und Projektionsmoduls des Fahrspurdetektionssystems aus 1;
    • 3 zeigt schematisch ein Fahrspurdetektionssystem zur Erkennung und planaren Darstellung einer Fahrspur in Straßenszenen unter Verwendung von Bildgebungsdaten von Sensoren mit unterschiedlichen Erfassungsmodalitäten;
    • 4 veranschaulicht ein Ergebnis der Implementierung des mit Bezug auf 3 erörterten Fahrspurinformationssystems;
    • 5 stellt ein System zum Ermitteln von Fahrspurinformationen an einem Fahrspurinformationssystem unter Verwendung eines Codier-Decodier-Netzwerks schematisch dar;
    • 6 zeigt ein Verfahren zum Lokalisieren von Fahrspurmarkierungen in einer Vogelperspektive, wie durch die definierte Ebene angezeigt und durch ein Fahrspurrepräsentationsmodul ausgeführt;
    • 7A zeigt eine Draufsicht auf mehrere Fahrspuren, die durch ein Spurdarstellungsmodul bestimmt werden können;
    • 7B veranschaulicht eine Projektion der Fahrspuren von 7B auf Bodenwahrhei tsdaten;
    • 8A zeigt ein Bild einer Straßenszene, die verwendet wird, um dreidimensionale Fahrspurdarstellungen zu erzeugen;
    • 8B zeigt ein dreidimensionales Diagramm des Bildes von 8A;
    • 9 zeigt ein Blockdiagramm eines Beispiels eines Computersystems zum Erfassen und Darstellen einer Fahrspur innerhalb einer Straßenszene, gemäß Aspekten dieser Offenbarung; und
    • 10 zeigt ein Flussdiagramm, das ein Verfahren zum Erkennen einer Fahrspur in einer Straßenszene in einer Ausführungsform veranschaulicht.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende Beschreibung ist lediglich exemplarischer Natur und nicht dazu gedacht, die vorliegende Offenbarung in ihren An- oder Verwendungen zu beschränken. Es sollte verstanden werden, dass in den Zeichnungen entsprechende Bezugszeichen gleiche oder entsprechende Teile und Merkmale bezeichnen.
  • Die Offenbarung erkennt und behandelt in zumindest einigen Ausführungsformen das Problem des Erfassens einer Fahrspur in einer Straßenszene. Ausführungsformen dieser Offenbarung beinhalten Systeme, Fahrzeuge und Verfahren, die einzeln oder in Kombination das Erkennen einer Gruppe von Fahrspuren in einer Straßenszene erlauben oder anderweitig ermöglichen. Genauer gesagt, aber nicht ausschließlich, kann ein neurales Dual-Weg-Netzwerk (DNN) auf ersten Merkmalskarten betrieben werden, die von mindestens einer Weltsichtebene der Straßenszene und zweiten Merkmalskarten abgeleitet werden, die zumindest auf einer definierten Ebene (z. B. Draufsichtprojektion) innerhalb eines Weltbildes/globalen Koordinatensystems basieren. Das DNN kann gemeinsam die ersten und zweiten Merkmalskarten verarbeiten, um eine planare Darstellung einer Gruppe von Fahrspuren in der Straßenszene zu erzeugen. Während einige Ausführungsformen der Offenbarung mit Bezug auf eine Straßenszene dargestellt sind, ist die Offenbarung nicht derart begrenzt. Tatsächlich können die hierin offenbarten Prinzipien und praktischen Elemente auf andere Arten von Fahrbahnszenen, wie eine Straßenszene, eine Autobahnszene oder dergleichen angewendet werden.
  • Unter Bezugnahme auf die Zeichnungen zeigt 1 eine Betriebsumgebung 100 zum Erkennen einer Fahrspur innerhalb einer Straßenszene 105 gemäß einer Ausführungsform. Die Straßenszene 105 beinhaltet ein Volumen, das durch ein globales Koordinatensystem G definiert ist, das definierende Vektoren (û1, û2, û3) besitzt, wobei û1 ein Vektor ist, der die Sichtlinie eines Fahrzeugs 152 überquert, û2 ein Vektor ist, der sich entlang der Fahrtrichtung des Fahrzeugs 115 erstreckt und û3 ein Vektor ist, der sich vertikal erstreckt.
  • Die Straßenszene 105 kann eine Straße 102 mit einer Gruppe von Fahrspuren 104 (einschließlich, in einigen Fällen, eine oder mehrere Kantenspuren) beinhalten. Die Straße 102 kann auch einen Seitengehabschnitt oder einen Schulterabschnitt beinhalten, wobei entweder einer dieser Abschnitte an die Straße angrenzt. Die Straße 102 kann beispielsweise auch mehrere auf der Straße und/oder in deren Nähe befindliche Objekte beinhalten. So kann beispielsweise ein erstes Objekt ein Fahrzeug 106 (stationär oder in Bewegung) sein, das relativ zum Fahrzeug 115 auf der Straße 102 positioniert ist; ein zweites Objekt kann eine stationäre Struktur 108, wie ein Baum, ein Stützpfosten, ein Gebäude oder dergleichen sein; und ein drittes Objekt kann eine Person 110, entweder einen Fußgänger oder einen Fahrzeugführer (motorisiert oder anderweitig) darstellen.
  • Das Fahrzeug 115 kann eine Fahrspur 104 auf der Straße 102 erfassen. Das Fahrzeug 115 kann die Fahrspur 104 beim Durchfahren der Straße 102 oder während des Manövrierens (z. B. Parken) auf der Straße 102 erfassen. Das Fahrzeug 115 kann auch in einigen Fällen die Fahrspur 104 erfassen, während es stationär ist. Das Fahrzeug 115 beinhaltet eine Sensorplattform 120, die Abbildungsdaten erzeugen kann, die für die Umgebung des Fahrzeugs 115 repräsentativ sind. Die Bildgebungsdaten können aus Signalen erzeugt werden, die von der Sensorplattform 120 erfasst werden. Die Signale können eine oder mehrere Arten von elektromagnetischen (EM) Signalen (z. B. sichtbares Licht, Infrarotlicht oder Funkwellen) beinhalten. Genauer gesagt kann die Sensorplattform 120 ein Sensorsystem 130 beinhalten, das EM-Signale mit einer definierten Rate f erfassen kann (eine reelle Zahl, angegeben in Frequenzeinheiten). Somit können die in Reaktion auf erfasste EM-Signale erzeugten Bildgebungsdaten (analog oder digital) in Rahmen organisiert werden. Ein Rahmen ist eine Datenstruktur, die einen oder mehrere Datensätze enthält, die als Reaktion auf Signale, die zu einem bestimmten Zeitpunkt oder während einer definierten Periode erfasst wurden, erzeugt werden. Als solches entspricht ein Rahmen einem definierten Zeitpunkt während eines Erfassungsintervalls.
  • Das Sensorsystem 130 kann mehrere Sensorvorrichtungen beinhalten, die Sensorsignale bereitstellen (z. B. erzeugen und/oder ausgeben). Die Sensorvorrichtungen können um das Fahrzeug 115 herum angeordnet oder anderweitig konfiguriert sein. In einigen Ausführungsformen können mehrere Sensorvorrichtungen homogen sein und ein Ausgangssensorsignal eines definierten Typs erzeugen. Somit kann das Sensorsystem 130 Daten eines definierten Typs erzeugen. So kann beispielsweise eine von mehreren Sensorvorrichtungen eine Kameravorrichtung beinhalten, die Photonen im sichtbaren Teil des elektromagnetischen (EM) Strahlungsspektrums erfasst, und das Sensorsystem 130 kann ein Kamerasystem verkörpern, das Bildgebungsdaten erzeugt, die repräsentativ oder andweitig indikativ für einen Bereich in Bezug auf das Fahrzeug 115 sind. Als ein weiteres Beispiel kann eine jede dieser Sensorvorrichtungen Lichtquellenvorrichtungen (z. B. Infrarot-Laservorrichtungen) und Photoerfassungsvorrichtungen beinhalten, und das Sensorsystem 130 kann ein Sensorsystem (LIDAR) verkörpern, das andere Bildgebungsdaten erzeugt, die repräsentativ sind oder anderweitig die Straßenszene 105 anzeigen.
  • In anderen Ausführungsformen können die Sensorvorrichtungen heterogenen sein und Sensorsignale verschiedener Arten erzeugen und ausgeben. So können beispielsweise die Sensorvorrichtungen eine erste Art von Sensorvorrichtungen und eine zweite Art von Sensorvorrichtungen beinhalten. Somit wird in einem Aspekt das Sensorsystem 130 durch Sensorsysteme mit jeweiligen Arten von Sensorvorrichtungen gebildet. Jedes Sensorsystem verkörpert oder stellt ein Erfassungssystem eines definierten Typs dar-z. B. ein Kamerasystem, ein Radarsystem, ein LIDAR-System, ein Sonarsystem, ein thermisches Kartierungssystem oder dergleichen-das in einer definierten Bildgebungsmodalität betrieben wird. Dementsprechend kann jedes Sensorsystem eine definierte Art von Bilddaten bereitstellen, die für die Straßenszene 105 repräsentativ sind. Unabhängig von der spezifischen Erfassungsarchitektur / -modalität kann das Sensorsystem 130 Bildgebungsdaten 135 bereitstellen (z. B. senden und / oder verfügbar machen), die die Straßenszene 105 in definierten Rahmen anzeigen oder auf andere Weise darstellen.
  • Wie in 1 dargestellt, umfasst die Erfassungsplattform 120 ein Fahrspurdetektionssystem 140, das zumindest einen Teil der Bilddaten 135 verwenden kann, um eine Fahrspur 104 innerhalb der Straßenszene 105 auf einer definierten Ebene innerhalb des globalen Koordinatensystems zu identifizieren G. In einigen Ausführungsformen entspricht die definierte Ebene Π einer Draufsichtprojektion der Straßenszene 105. Mit anderen Worten ist die definierte Ebene Π eine durch die Vektoren û1 und û2 definierte Ebene (d. h., orthogonal zum Vektor û3). Insbesondere umfasst das Fahrspurerkennungssystem 140 ein Dual-Weg-Neurolnetzwerk- (DNN-) Modul 144 und ein Projektionsmodul 148 zur Transformation von Bildern zwischen Blickwinkeln. Das DNN-Modul 144 und das Projektionsmodul 148 können Fahrspurinformationen ausgeben, die für eine Gruppe von Fahrspuren repräsentativ sind, die auf der definierten Ebene Π identifiziert wurden. Diese Ausgabe kann verwendet werden, um durch das Sensorsystem 130 erhaltene Bildgebungsdaten 135 zu verarbeiten, um ebene Fahrspurdarstellungen 150 zu erhalten, die zum Bestimmen von Fahrspurinformationen 160 verwendet werden können. Die Fahrspurinformationen 160 können als eine oder mehrere Datenstrukturen beibehalten werden, die die ebenen Fahrspurdarstellungen 150 enthalten.
  • Das Fahrzeug 115 umfasst ein Steuersystem 117, das kommunikativ mit dem Fahrspurerfassungssystem 140 gekoppelt ist. Das Steuersystem 117 kann auf Daten des Fahrspurerkennungssystems 140 zugreifen oder diese empfangen, wie beispielsweise Spurinformationen 160 und kann das Fahrzeug 115 verbessern, automatisieren oder anderweitig steuern, um die Straße 102 auf der Grundlage der Spurinformation 160, beispielsweise zu navigieren, innerhalb einer bleiben Spur 104 zu bleiben usw.
  • 2 zeigt eine Betriebsarchitektur des DNN 200 und des Projektionsmoduls 148 des Fahrspurdetektionssystems 140. Der DNN 200 umfasst einen ersten Verarbeitungspfad 230 und einen zweiten Verarbeitungspfad 240. Der erste Pfad 230 wird verwendet, um Merkmalskarten in einer ersten Domäne (z. B. der Weltbilddomäne) auf der Grundlage von Bildern zu bestimmen, die von Sensoren des Sensorsystems 130 mit dem Blickpunkt innerhalb des Weltbildkoordinatensystems erhalten wurden. Das NN-Modul 240 für den zweiten Pfad arbeitet mit Merkmalskarten innerhalb einer zweiten Domäne oder einer Domäne mit Draufsicht, gesehen von einem Aussichtspunkt aus der Draufsicht oder aus der Vogelperspektive des Straßenbildes 105, wie bei wie Ebene Π aus 1. Eine Merkmalskarte kann ein dreidimensionaler Tensor sein, der den Kanal und die x, y-Koordinaten in einem Bild angibt. Eine homografische Transformation wird verwendet, um Merkmalskarten in der Draufsicht aus Merkmalskarten zu erhalten, die in der Weltansicht erstellt wurden.
  • Der erste Verarbeitungspfad 230 beinhaltet ein konvolutionelles Neuralnetzwerk (CNN), das während des ersten Pfades entsprechende Merkmalskarten erzeugt. Der erste Verarbeitungspfad 230 zeigt ein veranschaulichendes Bild 202, das vom Sensorsystem 130 1 erhalten wurde und eine erste Merkmalskarte 204, die aus dem Bild 202 erhalten wurde. Die erste Merkmalskarte wird dem CNN des ersten Verarbeitungspfads 230 bereitgestellt, der eine Faltung an der ersten Merkmalskarte 204 anwendet, um eine zweite Merkmalskarte 206 zu erhalten. Unter Fortführung dieses Prozesses erzeugt die Zusammenführung der zweiten Merkmalskarte 206 eine dritte Merkmalskarte 208 und die Faltung der dritten Merkmalskarte 208 erzeugt eine weitere vierte Merkmalskarte 210.
  • Das Projektionsmodul 148, 1 transformiert einen ersten Punkt innerhalb einer Ebene, die einer Weltansicht der Straßenszene 105 entspricht, zu einem zweiten Punkt innerhalb der definierten Ebene Π. Konkret wandelt das Projektionsmodul 148 einen Punkt p in einer Merkmalskarte, die durch den ersten Verarbeitungspfad 230 erzeugt wird, in einen Punkt p' innerhalb der definierten Ebene Π. Das Projektionsmodul 148 kann p in p' durch Anwenden einer definierten homographischen Transformation transformieren, die die Weltansicht der Straßenszene 105 auf die definierte Ebene Π abbildet. Daher kann das Projektionsmodul 148 eine Merkmalskarte vom ersten Verarbeitungspfad 230 empfangen und die Merkmalskarte auf die definierte Ebene Π projizieren, wodurch eine projizierte Merkmalskarte im zweiten Verarbeitungsweg 240 erzeugt wird.
  • Die homographische Transformation wird auf jede der Merkmalskarten 204, 206, 208, 210 in der Weltansicht angewendet, um projizierte Merkmalskarten in der Vogelperspektive zu erzeugen. (Die homographischen Transformationen werden durch vertikale Pfeile dargestellt, die sich von den Merkmalskarten 204, 206, 208 und 210 erstrecken). Die homographische Transformation der ersten Merkmalskarte 204 erzeugt eine erste projizierte Merkmalskarte 204p, die homographische Transformation der zweiten Merkmalskarte 206 erzeugt eine zweite projizierte Merkmalskarte 206p, die homografische Umwandlung der dritten Merkmalskarte 208 erzeugt eine dritte projizierte Merkmalskarte 208p und eine homographische Transformation der vierten Merkmalskarte 210 erzeugt eine weitere projizierte Merkmalskarte 210p. Während in 2 vier Merkmalskarten zu Veranschaulichungszwecken dargestellt sind, kann eine beliebige Anzahl von Merkmalskarten unter Verwendung des CNN entlang des ersten Pfads 230 erzeugt werden.
  • Im zweiten Verarbeitungspfad 240 erzeugt die Faltung der ersten projizierten Merkmalskarte 204p eine zweite Draufsichtmerkmalskarte 216 innerhalb der Draufsichtdomäne 240. Die zweite Draufsichtmerkmalskarte 216 stellt eine Faltung einer homographischen Transformation der ersten Merkmalskarte 204 dar. Inzwischen stellt die zweite projizierte Merkmalskarte 206p eine homografische Transformation einer Faltung der ersten Merkmalskarte 204 dar. Die zweite Merkmalskarte 216 in Draufsicht wird mit der zweiten projizierten Merkmalskarte 206p kombiniert oder verknüpft, um eine kombinierte Merkmalskarte 206 c zu erhalten. Eine Faltung wird dann auf der kombinierten Merkmalskarte 206 c durchgeführt, um eine dritte Merkmalskarte 218 in Draufsicht zu erzeugen. Die dritte Merkmalskarte 218 in Draufsicht wird mit der dritten projizierten Merkmalskarte 208 kombiniert oder verknüpft, um eine kombinierte Merkmalskarte 208 c zu bilden. Eine Faltung wird auf der kombinierten Merkmalskarte 208 c durchgeführt, um eine vierte Merkmalskarte 220 in Draufsicht zu erhalten.
  • Die vierteMerkmalskarte 220 in Draufsicht wird mit der vierten projizierten Merkmalskarte 210p kombiniert oder verknüpft, um eine kombinierte Merkmalskarte 210c zu bilden. In der Draufsichtdomäne können die Faltungen der kombinierten Merkmalskarte 210 c im zweiten Verarbeitungspfad 240 ohne weitere Verkettungsschritte fortgesetzt werden, wobei die Anzahl der Merkmalskarten in der Draufsichtdomäne über die der Weltansichtsdomäne hinaus erweitert wird. Diese zusätzlichen Faltungen reduzieren die y-Dimension des dreidimensionalen Tensors, wodurch ein zweidimensionaler Tensor entsteht, der durch einen Ansteuerkanal und eine x-Koordinate definiert ist. Im veranschaulichenden DNN von 2 erzeugen nachfolgende Faltungen im zweiten Verarbeitungsweg 240 eine fünfte Merkmalskarte 222 in Draufsicht, eine sechste Merkmalskarte 224 in Draufsicht und eine siebte Merkmalskarte 226 in Draufsicht. Eine Fahrspur innerhalb der Straßenszene 105 kann aus der Merkmalskarte 226 bestimmt werden.
  • 3 zeigt schematisch ein System 300 für ein Fahrspurdetektionssystem 140 1 zur Erfassung und planaren Darstellung einer Fahrspur in Straßenszenen unter Verwendung von Bilddaten von Sensoren mit unterschiedlichen Erfassungsmodalitäten. Die Daten eines jeden Sensors werden zu einem gemeinsamen zweidimensionalen (2D) Koordinatensystem fusioniert (ê1, ê2). Das 2D-Koordinatensystem ist orthogonal und ermöglicht einen Positionsvektor innerhalb einer Draufsichtebene (z. B. der definierten Ebene □).
  • Das System 300 beinhaltet mehrere Sensorsysteme, die im Allgemeinen unterschiedliche Erfassungsmodalitäten aufweisen, einschließlich eines Sensorsystems 3101 , eines Sensorsystem 3102 , ... und eines Sensorsystem 310N . Jedes der Sensorsysteme kann eine definierte Art von Eingangsdaten oder -bildern (z. B. die Straßenszene 105 in 1) an einem definierten Rahmen bereitstellen (z. B. senden und/oder verfügbar machen). In einer Ausführungsform kann das Sensorsystem 3101 ein Bild 3151bereitstellen; das Sensorsystem 3102 stellt ein Bild 3152bereit, ... und das Sensorsystem 310N stellt ein Bild 315N bereit. In einer Ausführungsform kann das Sensorsystem 3101 , Sensorsystem 3102 , und Sensorsystem 310N ein Kamerasystem, ein LIDAR-System bzw. ein Radarsystem verkörpern oder bilden. In einigen Ausführungsformen kann die Sensorplattform 120, 1, nur zwei Sensorsysteme aufweisen, z. B. das Sensorsystem 3101 (z. B. ein Kamerasystem) und Sensorsystem 3102 (z. B. ein LIDAR-System).
  • Das Fahrspurerkennungssystem 140 kann Bilder 3151-315N von den Sensoren 3101-310N empfangen. Das DNN des Fahrspurerkennungssystems 140 beinhaltet separate erste Verarbeitungswege, die jedem Bild zugeordnet sind und einen einzelnen zweiten Verarbeitungsweg, das basierend auf der Fusion der Datendes ersten Verarbeitungspfadens funktioniert. In dem veranschaulichten System 300 beinhaltet das Fahrspurerkennungssystem 140 das erste Weg-NN-Modul 3201 , erster Weg-NN-Modul 3202 , ... und erste Weg-NN-Modul 320N . Jedes der Weg-NN-Module 3201-320N empfängt entsprechende Eingabedaten oder Bilder 3151-315N und funktioniert basierend auf den empfangenen Bildern 3151-315N . Der Betrieb auf einem empfangenen Bild kann in einigen Ausführungsformen eine semantische Segmentierung einer Straßenszene (z. B. Straßenszene 105) ermöglichen oder anderweitig erleichtern. Somit kann jedes der ersten Weg-NN-Module 3201-320N beispielsweise ein CNN mit mehreren Schichten beinhalten, die jeweilige Merkmalskarten 3251-325N als Reaktion auf das Verarbeiten eines empfangenen Bildes erzeugen. Dementsprechend kann jedes der ersten Weg-NN-Module 3201-320N entsprechende Merkmalskarten 3251-325N erzeugen. Jede Merkmalskarte 3251-325N resultiert aus dem Betrieb an einer Schicht des CNN entsprechend dem jeweiligen ersten Weg-NN-Modul 3201-320N . Da die Sensorsysteme 3101 , ..., 310N verschiedene Eingabevorrichtungen (z. B. Kamerasystem, LIDAR-System, ein Radarsystem usw.) beinhalten können, können erste Weg-NN-Module 3201 , ..., 320N , das mit diesen Sensorsystemen 3101 , ..., 310N verknüpft ist, erste Weg-NN-Module beinhalten, die zur semantischen Segmentierung der jeweiligen Eingangsdaten oder des Bildes (z. B. Kamerasystem, LIDAR-System, Radarsystem usw.) geeignet sind.
  • Um das zweite Weg-NN-Modul 340 zu implementieren, empfängt das Projektionsmodul 330 Merkmalskarten 3251-325N , und transformiert jede Merkmalskarte 3251-325N in der Gruppe zu einer projizierten Merkmalskarte auf einer definierten Ebene im 2D-Koordinatensystem (ê1, ê2) unter Verwendung der hierin beschriebenen homographischen Transformation. Das Projektionsmodul 148 fügt das projizierte Merkmal in eine konsolidierte projizierte Merkmalskarte 335 relativ zur definierten Ebene zusammen und stellt die konsolidierte projizierte Merkmalskarte 335 dem zweiten Weg-NN-Modul 340 bereit. In einigen Ausführungsformen beinhaltet das zweite Weg-NN-Modul 340 ein CNN, das konfiguriert (z. B. definiert und/oder trainiert) ist, um eine Fahrspur auf einer definierten Ebene Π im 2D-Koordinatensystem (ê1, ê2) mindestens basierend auf der konsolidierten projizierten Merkmalskarte 335 zu identifizieren. Die Ausgabe des zweiten Weg-NN-Moduls 340 kann Fahrspurinformationen 345 (z. B. Daten und/oder Metadaten) beinhalten, die repräsentativ für eine Gruppe von Fahrspuren sind, die auf der definierten Ebene Π identifizierten wurden.
  • 4 veranschaulicht ein Ergebnis der Implementierung des Fahrspurinformationssystems 140, das mit Bezug auf 3 erörtert wurde. Die Bilder 402, 404 und 406 von Sensoren mit unterschiedlichen Erfassungsmodalitäten werden kombiniert, um eine Vogelperspektive 410 zu bestimmen, die Informationen von allen drei der Bilder 402, 404 und 406 kombiniert.
  • 5 stellt ein System 500 zum Ermitteln von Fahrspurinformationen an einem Fahrspurinformationssystem 140 1 unter Verwendung eines Codier-Decodier-Netzwerks schematisch dar. Das Codier-Decodier-System 500 empfängt das Bild 502, das für eine Straßenszene in einem Weltansichtskoordinatensystem repräsentativ ist. Das Codier-Decodier-System 500 beinhaltet einen konvolutionellen Encoder-Decoder mit einem Encodier-Netzwerk 532 und einem Decodier-Netzwerk 534. Ein homografisches Transformationsmodul 550 transformiert mindestens eine Merkmalskarte, die im Codier-Netzwerk 532 gebildet wird, um eine entsprechende Merkmalskarte in Vogelperspektive im Decodier-Netzwerk 534 zu bilden, indem die Merkmalskarten auf die definierte Ebene Π projiziert wird.
  • Das Codier-Netzwerk 532 erzeugt eine Sequenz von Merkmalskarten basierend auf Bild 502. Das Codier-Netzwerk 532 erzeugt eine Merkmalskarte 504a aus dem Bild 502. Zusätzliche Merkmalskarten werden durch Anwenden einer Faltung erzeugt, gefolgt von einer Batch-Renormalisierung und Anwendung einer gleichgerichteten linearen Nichtlinearität (RelU). Insbesondere werden Faltung, Batch-Renormalisierung und RelU auf Merkmalskarte 504a angewendet, um Merkmalskarte 504b zu erhalten. Das Codier-Netzwerk 532 zeigt Merkmalskarten 506, die aus der Teilabtastung von Merkmalskarten 504 erhalten werden, Merkmalskarten 508, die aus der Teilabtastung von Merkmalskarten 506 erhalten werden, Merkmalskarten 510, die aus der Teilabtastung von Merkmalskarten 508 erhalten werden, und Merkmalskarten 512, die aus der Teilabtastung der Merkmalskarten 510 erhalten werden.
  • In jedem Stadium werden Max-Pooling-Indizes erfasst und gespeichert. Max-Pooling wird durchgeführt, um die Translationsinvarianz über kleine räumliche Vorgänge im Eingabebild zu erreichen. Max-Pooling erfasst und speichert Grenzinformationen in der Codier-Merkmalskarte, bevor die Merkmalskarte unterabgetastet wird. Max-Pooling-Indizes zeigen die Positionen der maximalen Merkmalswerte in einem Fenster einer Codierer-Merkmalskarte an.
  • Das Decodier-Netzwerk 534 regeneriert die Bilder, um eine Merkmalskarte 522 c zu bestimmen, die für die semantische Segmentierung geeignet ist. Merkmalskarten 516 werden von Merkmalskarten 514 regeneriert, Merkmalskarten 518 werden von Merkmalskarten 516 regeneriert, Merkmalskarten 520 werden von Merkmalskarten 518 regeneriert und Merkmalskarten 522a, 522b und 522 c werden von Merkmalskarten 520 regeneriert. Die in jeder Stufe des Codier-Netzwerks 532 erhaltenen Zusammenfassungsindizes werden in der vergleichbaren Stufe des Decodier-Netzwerks 534 verwendet, um Merkmalskarten 522a, 522b und 522 c zu erhalten, die einer Klassifizierungsschicht 524 zur semantischen Segmentierung bereitgestellt werden können. Als Beispiel werden die Zusammenfassungsindizes 504 c von der Anfangsphase des Codier-Netzwerks 532 der Endstufe des Decodier-Netzwerks 534 bereitgestellt.
  • Die Klassifizierungsschicht 524 bestimmt den Konfidenzwert (c; eine reelle Zahl), der anzeigt, ob eine Fahrspur die endgültigen Merkmalskarten 522a, 522b und 522 c aufweist. Das System 500 kann auch ein Fahrspurdarstellungsmodul 536 enthalten, das eine jeweilige Gruppe von Referenzpunkten entlang einer Richtung orthogonal zu der Richtung bestimmt, in der die definierten Abschnitte ausgerichtet sind. Das Fahrspurdarstellungsmodul 536 gibt ein Vogelansichtsbild 538 eines Bereichs aus, der auf die definierte Ebene Θ; das Bild des Vogelansicht 538 einschließlich Fahrspurmarkierungen oder Fahrspurmarkierungen projiziert wird. Der Betrieb des Fahrspurdarstellungsmoduls 536 wird mit Bezug auf 6 beschrieben.
  • 6 veranschaulicht das Bild aus der Vogelansicht 538 von Fahrspurmarkierungen, wie durch die definierte Ebene Π dargestellt. Das Fahrspurdarstellungsmodul 536 von 5 bestimmt oder lokalisiert die Fahrspurmarkierungen unter Verwendung des Bild aus der Vogelansicht 538. Das Bild aus der Vogelansicht 538 beinhaltet eine erste Achse e1 entlang der horizontalen Richtung und einer zweiten Achse e2 entlang der vertikalen Richtung. Das Fahrspurdarstellungsmodul 536 teilt die erste Achse e1 in einen Satz von N Ankern {X1 , X2 , .., XN }, mit dem Anker entlang der ersten Achse e1 und entsprechend einer Spalte, die sich entlang der zweiten Achse e2erstreckt. Ein Satz von K Standorten {y1 , y2 , ..., yK } sind entlang der zweiten Achse e2definiert. Innerhalb jeder Spalte {X1 , X2 , ..., XN }, bestimmt das Fahrspurdarstellungsmodul 536, ob es Fahrspurmarkierungen (z. B., Trennzeichen 602, Mittellinien 604) innerhalb der Spalte gibt, die den Positionen {y1 , y2 , ..., yK } entsprechen. Das Fahrspurdarstellungsmodul 536 ermittelt die Horizontale und Elevation für Fahrspurmarkierungen {(x1 ,z1 ), (x2 ,z2 ), ..., (xK ,zK )}, die den Positionen {y1 , y2 , ..., yK } entsprechen, um einen Satz von dreidimensionalen Punkten zu definieren, durch die die Fahrspurmarkierung verläuft. Die Werte von {x1 , x2 , ..., xK } sind horizontale Offsets relativ zur Ankerposition. Daher können die Koordinaten der dreidimensionalen Punkte als {(Xn+x1, y1, z1), (Xn+x2, y2, z2), ..., (Xn+xK, yK, zK)} geschrieben werden. Zusätzlich kann für jeden Anker oder jede entsprechende Spalte ein Konfidenzwert c für die Markierungen bestimmt werden. Das Spurdarstellungsmodul 536 vergleicht den Konfidenzwert c auf einen definierten Schwellenwert cth . Für Bins, in denen der Konfidenzwert c größer oder gleich dem definierten Schwellenwert c.ist, akzeptiert das Fahrspurdarstellungsmodul 536 die Markierungen als innerhalb der Spalte befindlich und bestimmt eine parametrische Polynomdarstellung der Fahrspur innerhalb definierten Ebene □ unter Verwendung mindestens der Gruppe von Referenzpunkten innerhalb des Bins. Obwohl in 6 nur drei Positionen und entsprechende Straßenkoordinaten dargestellt sind, können in alternativen Ausführungsformen beliebig viele Positionen und Straßenkoordinaten ausgewählt werden. Die Verwendung von drei oder mehr Positionen und Straßenkoordinaten ermöglicht das Anpassen von Polynomen durch die Straßenkoordinaten, um Fahrspuren in drei Dimensionen zu ermitteln. Der Prozess des Bestimmens der Fahrspurmarkierungen ist horizontal invariant.
  • 7A stellt eine Darstellung in Draufsicht 700 dar, die mehrere Fahrspuren veranschaulicht, die durch das Spurdarstellungsmodul 536 von 5 bestimmt werden können. Das Fahrspurerfassungssystem 140 projiziert die Gruppe von Fahrspuren in 7A auf eine Weltsicht der Straßenszene einschließlich der erfassten Gruppe von Fahrspuren. 7B veranschaulicht die Ergebnisse einer derartigen Projektion, überlappende Boden-Wahrheitsdaten für die Fahrspuren in der Straßenszene (offene Kreise 702) und projizierte erfasste Fahrspuren (dicke Linien 704).
  • 8 veranschaulicht ein Ergebnis einer dreidimensionalen Fahrspurbestimmung unter Verwendung der hierin offenbarten Verfahren. 8A zeigt ein Bild 802 einer Straßenszene, die verwendet wird, um dreidimensionale Fahrspurdarstellungen zu erzeugen. 8B zeigt ein dreidimensionales Diagramm 804 des Bildes 802 von 8A. Die Markierungen der Bodenwahrheitsfahrspur 806 werden im dreidimensionalen Diagramm 804 dargestellt. Ebenfalls im dreidimensionalen Diagramm 804 dargestellt werden die dreidimensionalen Fahrspurdarstellungen 808, die unter Verwendung der hierin offenbarten Verfahren erhalten werden.
  • 9 zeigt ein Blockdiagramm eines Beispiels eines Computersystems 910 zum Erfassen und Darstellen einer Fahrspur innerhalb einer Straßenszene, gemäß Aspekten dieser Offenbarung. Das Computersystem 910 kann einen oder mehrere Prozessoren 920 und eine oder mehrere Speichervorrichtungen 940 (allgemein als Speicher 940 bezeichnet) beinhalten, die maschinen-zugängliche Anweisungen (z. B. computerlesbare und/oder computerausführbare Anweisungen) beinhalten, auf die mindestens einer der Prozessor(en) 920 zugreift und ausführt. In einem Beispiel kann/können der/die Prozessor(en) 920 in einer Grafikverarbeitungseinheit (GPU), einer Vielzahl von GPus, einer zentralen Verarbeitungseinheit (CPU), einer Vielzahl von CPUs, einer anwendungsspezifischen integrierten Schaltung (ASIC), einem Mikrocontroller, einer programmierbaren Logiksteuerung (PLC), einem vor Ort programmierbaren Gate-Array (FPGA), einer Kombination davon oder dergleichen verkörpert sein. In einigen Ausführungsformen kann/können der/die Prozessor(en) 920 in einer einzigen Rechenvorrichtung (z. B. ein elektronisches Steuergerät (ECU) und einem Fahrzeug-Infotainment-System (ICI) oder dergleichen angeordnet sein). In anderen Ausführungsformen kann/können der/die Prozessor(en) 920 über zwei oder mehr Rechenvorrichtungen verteilt werden (z. B. mehrere ECUs; eine Kombination aus einem ICI-System und einer oder mehreren ECUs; oder dergleichen).
  • Der/die Prozessor(en) 920 kann/können über eine Kommunikationsstruktur 930 funktionell mit dem Speicher 940 verknüpft sein. Die Kommunikationsstruktur 930 ist für die jeweilige Anordnung (lokalisiert oder verteilt) des/der Prozessor(en) 920 geeignet. In einigen Ausführungsformen kann die Kommunikationsstruktur 930 eines oder mehrere der Folgenden beinhalten: Busarchitekturen, einen Ethernet-basierten Industriebus, einen CAN (Controller Area Network), einen Modbus, andere Arten von Feldbus-Architekturen oder dergleichen.
  • Der Speicher 940 beinhaltet das Fahrspurerkennungssystem 140. Als solches verkörpern die maschinenzugängliche Anweisungen (z. B. computerlesbare und/oder computerausführbare Anweisungen) das Fahrspurerkennungssystem 140 oder bilden es anderweitig. Die maschinenzugänglichen Anweisungen werden im Speicher 940 codiert und können in Komponenten angeordnet sein, die in computerausführbarer Form im Speicher 940 (wie dargestellt) oder in einem oder mehreren anderen maschinenzugänglichen nichtflüchtigen Speichermedien eingebaut (z. B. verknüpft und kompiliert) und aufbewahrt werden können. Mindestens einer der Prozessor(en) 920 kann das Fahrspurerkennungssystem 140 ausführen, um das Computersystem 910 zu veranlassen, eine Gruppe von Fahrspuren innerhalb einer Straßenszene gemäß Aspekten dieser Offenbarung zu erkennen und/oder darzustellen.
  • Ebenso kann der Speicher 940 auch das Steuersystem 950 beibehalten oder anderweitig speichern. Maschinenzugängliche Anweisungen (z. B. computerlesbare und / oder computerausführbare Anweisungen) verkörpern oder bilden als solches auf andere Weise das Steuersystem 950. Die maschinenzugänglichen Anweisungen werden wiederum im Speicher 940 codiert und können in Komponenten angeordnet sein, die in computerausführbarer Form im Speicher 940 (wie dargestellt) oder in einem oder mehreren anderen maschinenzugänglichen nichtflüchtigen Speichermedien eingebaut (z. B. verknüpft und kompiliert) und aufbewahrt werden können. Mindestens einer oder mehrere der Prozessoren 920 kann/können das Steuersystem 950 ausführen, um das Computersystem 910 zu veranlassen, einen Steuerungsprozess zu implementieren, um den Betrieb des Fahrzeugs 115, 1, beispielsweise oder andere Fahrzeugtypen einzustellen oder anderweitig zu steuern. Zu diesem Zweck kann der Steuerprozess in einem Aspekt eine Darstellung einer oder mehrerer Fahrspuren, die durch das Fahrspurerkennungssystem 140 erzeugt werden, verwenden oder anderweitig darauf aufbauen.
  • Obwohl in 9 nicht dargestellt, kann das Computersystem 910 auch andere Arten von Rechenressourcen (z. B. Schnittstelle(n) (wie E/A-Schnittstellen; Steuerungsvorrichtung(en); Stromversorgungen; und dergleichen) beinhalten, die die Ausführung der Softwarekomponenten ermöglichen oder anderweitig erleichtern können. Zu diesem Zeitpunkt kann der Speicher 940 beispielsweise auch Programmierschnittstelle(n) (wie Anwendungsprogrammierschnittstellen (APIs)), ein Betriebssystem, Firmware und dergleichen beinhalten.
  • 10 zeigt ein Flussdiagramm, das ein Verfahren 1000 zum Erkennen einer Fahrspur in einer Straßenszene in einer Ausführungsform der Erfindung veranschaulicht. Bei Block 1002 wird ein Bild, das eine Straßenszene des Fahrzeugs anzeigt, an einem Sensor des Fahrzeugs erhalten. Das Bild kann ein einzelnes Bild oder eine Vielzahl von Bildern sein. Die Vielzahl der Bilder kann von Sensoren mit unterschiedlichen Sensormodalitäten erhalten werden. Bei Block 1004 wird ein mehrschichtiges konvolutionelles Neuralnetzwerk auf das Bild angewendet, worin ein erster Verarbeitungspfad des Neuralnetzwerks eine Vielzahl von Merkmalskarten aus dem Bild erzeugt. Bei Block 1006 werden mehrere Merkmalskarten auf eine definierte Ebene relativ zu einem definierten Koordinatensystem der Straßenszene projiziert, um projizierte Merkmalskarten zu erhalten. Bei Block 1008 wendet ein zweiter Verarbeitungspfad des Neuralnetzwerks Faltungen auf die projizierten Merkmalskarten an, um eine endgültige Merkmalskarte zu erhalten. Bei Block 1010 werden die Fahrspurinformationen aus der endgültigen Merkmalskarte ermittelt.
  • Während die vorstehende Offenbarung mit Bezug auf exemplarische Ausführungsformen beschrieben wurde, werden Fachleute verstehen, dass unterschiedliche Änderungen vorgenommen und die einzelnen Teile durch entsprechende andere Teile ausgetauscht werden können, ohne vom Umfang der Offenbarung abzuweichen. Darüber hinaus können viele Modifikationen vorgenommen werden, um eine bestimmte Materialsituation an die Lehren der Offenbarung anzupassen, ohne von deren wesentlichem Umfang abzuweichen. Es ist daher vorgesehen, dass die vorliegende Offenbarung nicht auf die bestimmten offenbarten Ausführungsformen beschränkt ist, sondern alle Ausführungsformen umfasst, die in dessen Geltungsbereich fallen.

Claims (10)

  1. Verfahren zum Navigieren eines Fahrzeugs, umfassend: Erhalten eines Bildes, das eine Straßenszene anhand eines Sensors des Fahrzeugs anzeigt; Erzeugen einer Vielzahl von Merkmalskarten aus dem Bild über einen ersten Verarbeitungsweg eines mehrschichtigen konvolutionellen Neuralnetzwerks; Projizieren mindestens einer der Merkmalskarten auf eine definierte Ebene relativ zu einem definierten Koordinatensystem der Straßenszene, um mindestens eine projizierte Merkmalskarte zu erhalten; Anwenden einer Faltung auf mindestens eine projizierte Merkmalskarte in einem zweiten Verarbeitungsweg des mehrschichtigen konvolutionellen Neuralnetzwerks, um eine endgültige Merkmalskarte zu erhalten; und Ermitteln von Fahrspurinformationen aus der endgültigen Merkmalskarte.
  2. Verfahren nach Anspruch 1, wobei das Bild ferner mehrere Bilder umfasst und erste Verarbeitungsweg auf jedes der Bilder angewendet wird, um die Merkmalskarten für jedes der Bilder zu erhalten, wobei die Merkmalskarten auf die definierte Ebene projiziert werden, und dabei projizierten Merkmalskarten kombiniert und die Faltung auf die kombinierten projizierten Merkmalskarten anwendet.
  3. Verfahren nach Anspruch 1, wobei das mehrschichtige neuronale Faltungsnetz ein Codierer-Decodierer-Netzwerk enthält.
  4. Verfahren nach Anspruch 1, wobei die endgültige Merkmalskarte horizontal invariant ist und das Bestimmen von Fahrspurinformationen ferner das Bestimmen einer dreidimensionalen Darstellung der Fahrspuren umfasst.
  5. Verfahren nach Anspruch 1, worin das Projizieren mindestens einer der Merkmalskarten das Anwenden einer homographischen Umwandlung auf die mindestens eine der Merkmalskarten umfasst.
  6. System zum Betreiben eines Fahrzeugs, umfassend: einen Sensor des Fahrzeugs, der konfiguriert wurde, um ein Bild zu erzeugen, das eine Straßenszene des Fahrzeugs anzeigt; ein mehrschichtiges konvolutionelles Neuralnetzwerk, das konfiguriert wurde zum: Erzeugen mehrerer Merkmalskarten aus dem Bild über einen ersten Verarbeitungsweg; Projizieren mindestens einer der vielen Merkmalskarten auf eine definierte Ebene relativ zu einem definierten Koordinatensystem der Straßenszene, um mindestens eine projizierte Merkmalskarte zu erhalten; eine Faltung auf mindestens eine projizierte Merkmalskarte in einem zweiten Verarbeitungspfad anwenden, um eine endgültige Merkmalskarte zu erhalten; und Ermitteln der Fahrspurinformationen aus der endgültigen Merkmalskarte.
  7. System nach Anspruch 6, wobei das Bild ferner mehrere Bilder umfasst und das Neuralnetzwerk ferner konfiguriert ist, um: den ersten Verarbeitungspfads auf jedes der Bilder anzuwenden, um die Merkmalskarten für jedes der Bilder zu erhalten; die Vielzahl von Merkmalskarten auf die definierte Ebene zu projizieren; Kombinieren der projizierten Merkmalskarten; und Anwenden der Faltung auf die kombinierten projizierten Merkmalskarten.
  8. System nach Anspruch 6, worin das mehrschichtige konvolutionelle Neuralnetzwerk ein Codier-Decodier-Netzwerk beinhaltet.
  9. System nach Anspruch 6, worin die endgültige Merkmalskarte horizontal invariant ist, wobei das System ferner ein Fahrspurdarstellungsmodul umfasst, das eingestellt wurde, um eine dreidimensionale Darstellung der Fahrspuren aus der endgültigen Merkmalskarte zu bestimmen.
  10. Das System nach Anspruch 6, das ferner ein Projektionsmodul beinhaltet, das eingestellt wurde, um mindestens eine der Merkmalskarten durch Anwenden einer homographischen Umwandlung auf mindestens eine der Merkmalskarten zu projizieren.
DE102019114622.4A 2018-11-13 2019-05-30 Erfassung und planare darstellung dreidimensionaler fahrspuren in einer strassenszene Pending DE102019114622A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/189,078 US11003920B2 (en) 2018-11-13 2018-11-13 Detection and planar representation of three dimensional lanes in a road scene
US16/189078 2018-11-13

Publications (1)

Publication Number Publication Date
DE102019114622A1 true DE102019114622A1 (de) 2020-05-14

Family

ID=70469001

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019114622.4A Pending DE102019114622A1 (de) 2018-11-13 2019-05-30 Erfassung und planare darstellung dreidimensionaler fahrspuren in einer strassenszene

Country Status (3)

Country Link
US (1) US11003920B2 (de)
CN (1) CN111178122B (de)
DE (1) DE102019114622A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021117945A1 (de) 2021-07-12 2023-01-12 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen kombinierter Karteninformationen
DE102022110232A1 (de) 2022-04-27 2023-11-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zur ermittlung eines von einem kraftfahrzeug befahrbaren pfades oder einer semantischen segmentierungskarte mit blick aus einer vogelperspektive auf das kraftfahrzeug

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11699064B2 (en) * 2019-04-23 2023-07-11 Arm Limited Data processing using a neural network system
US11182652B2 (en) * 2019-08-16 2021-11-23 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and system for inferring perception based on augmented feature maps of a perception network
US11455813B2 (en) * 2019-11-14 2022-09-27 Nec Corporation Parametric top-view representation of complex road scenes
US11100344B2 (en) 2019-11-21 2021-08-24 GM Global Technology Operations LLC Image-based three-dimensional lane detection
US20220144256A1 (en) * 2020-11-10 2022-05-12 Nec Laboratories America, Inc. Divide-and-conquer for lane-aware diverse trajectory prediction
JP7423500B2 (ja) 2020-12-09 2024-01-29 株式会社東芝 情報処理装置、情報処理方法、プログラムおよび車両制御システム
CN114782915B (zh) * 2022-04-11 2023-04-07 哈尔滨工业大学 基于辅助监督和知识蒸馏的智能汽车端到端车道线检测系统及设备

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI246665B (en) * 2001-07-12 2006-01-01 Ding-Jang Tzeng Method for aiding the driving safety of road vehicle by monocular computer vision
EP2541498B1 (de) * 2011-06-30 2017-09-06 Harman Becker Automotive Systems GmbH Verfahren zur Bestimmung der extrinsischen Parameter eines Farzeugsichtsystems und Fahrzeugsichtsystem
US20130063575A1 (en) * 2011-09-14 2013-03-14 Broadcom Corporation System and method for viewing angle compensation for polarized three dimensional display
US9538144B2 (en) * 2012-05-02 2017-01-03 GM Global Technology Operations LLC Full speed lane sensing using multiple cameras
US9225942B2 (en) * 2012-10-11 2015-12-29 GM Global Technology Operations LLC Imaging surface modeling for camera modeling and virtual view synthesis
EP3164859B1 (de) * 2014-07-03 2022-08-31 GM Global Technology Operations LLC Fahrzeugradarverfahren und systeme
US10318824B2 (en) * 2014-07-23 2019-06-11 GM Global Technology Operations LLC Algorithm to extend detecting range for AVM stop line detection
US20170300763A1 (en) * 2016-04-19 2017-10-19 GM Global Technology Operations LLC Road feature detection using a vehicle camera system
US10336326B2 (en) * 2016-06-24 2019-07-02 Ford Global Technologies, Llc Lane detection systems and methods
JP7213809B2 (ja) * 2016-12-09 2023-01-27 トムトム グローバル コンテント ベスローテン フエンノートシャップ ビデオベースの位置決め及びマッピングの方法及びシステム
US10421459B2 (en) * 2016-12-20 2019-09-24 GM Global Technology Operations LLC Contextual-assessment vehicle systems
CN108334802B (zh) * 2017-01-20 2022-10-28 腾讯科技(深圳)有限公司 道路特征物的定位方法及装置
CN107092862A (zh) * 2017-03-16 2017-08-25 浙江零跑科技有限公司 一种基于卷积神经网络的车道边缘检测方法
US10410322B2 (en) * 2017-04-05 2019-09-10 Here Global B.V. Deep convolutional image up-sampling
US10402995B2 (en) * 2017-07-27 2019-09-03 Here Global B.V. Method, apparatus, and system for real-time object detection using a cursor recurrent neural network
CN107577996A (zh) * 2017-08-16 2018-01-12 中国地质大学(武汉) 一种车辆驾驶路径偏移的识别方法及系统
KR102421855B1 (ko) * 2017-09-28 2022-07-18 삼성전자주식회사 주행 차로를 식별하는 방법 및 장치
US11244174B2 (en) * 2017-10-06 2022-02-08 NetraDyne, Inc. System and method of determining a curve
US20190147255A1 (en) * 2017-11-15 2019-05-16 Uber Technologies, Inc. Systems and Methods for Generating Sparse Geographic Data for Autonomous Vehicles
US11080537B2 (en) * 2017-11-15 2021-08-03 Uatc, Llc Autonomous vehicle lane boundary detection systems and methods
US20180074506A1 (en) * 2017-11-21 2018-03-15 GM Global Technology Operations LLC Systems and methods for mapping roadway-interfering objects in autonomous vehicles
US10657390B2 (en) * 2017-11-27 2020-05-19 Tusimple, Inc. System and method for large-scale lane marking detection using multimodal sensor data
US11080590B2 (en) * 2018-03-21 2021-08-03 Nvidia Corporation Stereo depth estimation using deep neural networks
US10442444B1 (en) * 2018-08-06 2019-10-15 Denso International America, Inc. Vehicle behavior and driver assistance modules for a mobile network device implementing pseudo-vehicle behavior signal generation based on mobile sensor signals
KR20200030305A (ko) * 2018-09-12 2020-03-20 삼성전자주식회사 영상 처리를 위한 학습 데이터 생성 방법, 영상 처리 방법, 및 그 장치들
US10984659B2 (en) * 2018-09-13 2021-04-20 Volvo Car Corporation Vehicle parking availability map systems and methods
US10957317B2 (en) * 2018-10-18 2021-03-23 Ford Global Technologies, Llc Vehicle language processing
US10311324B1 (en) * 2018-10-26 2019-06-04 StradVision, Inc. Learning method, learning device for detecting objectness by detecting bottom lines and top lines of nearest obstacles and testing method, testing device using the same
US10551846B1 (en) * 2019-01-25 2020-02-04 StradVision, Inc. Learning method and learning device for improving segmentation performance to be used for detecting road user events using double embedding configuration in multi-camera system and testing method and testing device using the same
US10410352B1 (en) * 2019-01-25 2019-09-10 StradVision, Inc. Learning method and learning device for improving segmentation performance to be used for detecting events including pedestrian event, vehicle event, falling event and fallen event using edge loss and test method and test device using the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021117945A1 (de) 2021-07-12 2023-01-12 Bayerische Motoren Werke Aktiengesellschaft Bereitstellen kombinierter Karteninformationen
DE102022110232A1 (de) 2022-04-27 2023-11-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zur ermittlung eines von einem kraftfahrzeug befahrbaren pfades oder einer semantischen segmentierungskarte mit blick aus einer vogelperspektive auf das kraftfahrzeug

Also Published As

Publication number Publication date
CN111178122B (zh) 2024-05-03
US20200151465A1 (en) 2020-05-14
CN111178122A (zh) 2020-05-19
US11003920B2 (en) 2021-05-11

Similar Documents

Publication Publication Date Title
DE102019114622A1 (de) Erfassung und planare darstellung dreidimensionaler fahrspuren in einer strassenszene
DE102009012435B4 (de) Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen
DE112018000899T5 (de) Gemeinsame 3D-Objekterfassung und Ausrichtungsabschätzung über multimodale Fusion
DE112018007287T5 (de) Fahrzeugsystem und -verfahren zum erfassen von objekten und einer objektentfernung
DE112020001103T5 (de) Multitasking-Wahrnehmungsnetzwerk mit Anwendungen für ein Szenenverständnis und ein fortschrittliches Fahrerassistenzsystem
DE102012216593A1 (de) Draufsichtbasiertes avm-einparkhilfesystem
DE102020113848A1 (de) Ekzentrizitätsbildfusion
DE102018100909A1 (de) Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
EP3520023A1 (de) Detektion und validierung von objekten aus sequentiellen bildern einer kamera
DE102016104730A1 (de) Verfahren zum Detektieren eines Objekts entlang einer Straße eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018114963A1 (de) Neulokalisierungsverfahren eines Fahrzeugs unter Verwendung von verschiedenen 3D-Wolken
DE112022002652T5 (de) Automatische erzeugung einer vektorkarte für die fahrzeugnavigation
DE102008036219A1 (de) Verfahren zur Erkennung von Objekten im Umfeld eines Fahrzeugs
DE102021111977A1 (de) Dreidimensionale verkehrszeichenerkennung
WO2018059632A1 (de) Detektion und validierung von objekten aus sequentiellen bildern einer kamera mittels homographien
EP3809316A1 (de) Vorhersage eines strassenverlaufs auf basis von radardaten
WO2022079162A1 (de) System und verfahren zum annotieren von automobilradardaten
WO2022053505A1 (de) Computerimplementiertes verfahren zur umfelderkennung für ein automatisiertes fahrsystem, maschinenlernverfahren, steuergerät für ein automatisiertes fahrsystem und computerprogramm für ein derartiges steuergerät
DE102018210712A1 (de) System und Verfahren zur gleichzeitigen Lokalisierung und Kartierung
DE102021213756B3 (de) Verfahren zum Fusionieren von Sensordaten im Kontext eines künstlichen neuronalen Netzwerks
DE102021213757B3 (de) Verfahren zum Fusionieren von Bilddaten im Kontext eines künstlichen neuronalen Netzwerks
DE102022213414A1 (de) Fahrzeug, elektronische vorrichtung und steuerungsverfahren dafür
DE102022105267A1 (de) Kombination von Kamerainformationen, die durch wenigstens ein Kamerabild gegeben sind, und weiteren Informationen, die durch Umfeldsensordaten gegeben sind
DE102022112317A1 (de) Verfahren zur Ermittlung einer dreidimensionalen Ausdehnungsinformation eines Zielobjekts, Kraftfahrzeug, Computerprogramm und elektronisch lesbarer Datenträger
DE102022124384A1 (de) Automatische Umfeldwahrnehmung auf der Basis von multimodalen Sensordaten eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: LK GLOBAL PATENTANWAELTE PARTGMBB, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01C0021260000

Ipc: B60W0040020000