DE102020211636A1 - Verfahren und Vorrichtung zum Bereitstellen von Daten zum Erstellen einer digitalen Karte - Google Patents

Verfahren und Vorrichtung zum Bereitstellen von Daten zum Erstellen einer digitalen Karte Download PDF

Info

Publication number
DE102020211636A1
DE102020211636A1 DE102020211636.9A DE102020211636A DE102020211636A1 DE 102020211636 A1 DE102020211636 A1 DE 102020211636A1 DE 102020211636 A DE102020211636 A DE 102020211636A DE 102020211636 A1 DE102020211636 A1 DE 102020211636A1
Authority
DE
Germany
Prior art keywords
data
sensor data
neural network
extracted
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020211636.9A
Other languages
English (en)
Inventor
Tayyab Naseer
Piyapat Saranrittichai
Carsten Hasberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020211636.9A priority Critical patent/DE102020211636A1/de
Priority to US17/447,334 priority patent/US11941892B2/en
Priority to CN202111094075.7A priority patent/CN114199223A/zh
Publication of DE102020211636A1 publication Critical patent/DE102020211636A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Electromagnetism (AREA)
  • Geometry (AREA)
  • Automation & Control Theory (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren zum Bereitstellen von Daten zum Erstellen einer digitalen Karte, aufweisend die Schritte:- Erfassen von Umfeldsensordaten (D1, D2) eines Umfelds während einer Messfahrt eines physikalischen Systems, vorzugsweise Fahrzeugs, wobei die Umfeldsensordaten (D1, D2) das Umfeld wenigstens teilweise überlappend erfassen, wobei erste Umfeldsensordaten (D1) dreidimensionale Informationen und wobei zweite Umfeldsensordaten (D2) zweidimensionale Informationen aufweisen;- Extrahieren von wenigstens einem definierten Objekt mittels eines im physikalischen System angeordneten ersten neuronalen Netzes (10) aus den ersten und zweiten Umfeldsensordaten (D1, D2) in erste extrahierte Daten (OD1a...OD1n); und- Extrahieren von charakteristischen Merkmalen mit Deskriptoren aus den ersten extrahierten Daten (OD1a...OD1n) mittels eines im physikalischen System angeordneten zweiten neuronales Netzes (20) in zweite extrahierte Daten (OD2a...OD2n), wobei die Deskriptoren zu einem definierten Ausrichten der zweiten extrahierten Daten (OD2a... OD2n) in einem Kartenerstellungsprozess vorgesehen sind.

Description

  • Die Erfindung betrifft ein Verfahren zum Bereitstellen von Daten zum Erstellen einer digitalen Karte. Die Erfindung betrifft eine Vorrichtung zum Bereitstellen von Daten zum Erstellen einer digitalen Karte. Die Erfindung betrifft ferner ein Computerprogrammprodukt.
  • Stand der Technik
  • Für automatisiertes Verfahren ist ein zuverlässiges Erstellen von digitalen Karten (digitales Mapping) von großer Wichtigkeit. Bekannt sind rechnende Architekturen, die unstrukturierte dreidimensionale Daten verarbeiten, wobei diese Architekturen Merkmale aus Punktwolkendaten extrahieren, die für eine Objektklassifikationsaufgaben genutzt werden. Bekannt sind derartige Architekturen zum Beispiel aus der folgenden Schrift:
  • Qi CR, Su H, Mo K, Guibas LJ. PointNet: Deep learning on point sets for 3d classification and segmentation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 2017, pp. 652-660.
  • Offenbarung der Erfindung
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren zum Bereitstellen von Daten zum Erstellen einer digitalen Karte bereitzustellen.
  • Die Aufgabe wird gemäß einem ersten Aspekt gelöst mit einem Verfahren zum Bereitstellen von Daten zum Erstellen einer digitalen Karte mit den Schritten:
    • - Erfassen von Umfeldsensordaten eines Umfelds während einer Messfahrt eines physikalischen Systems, vorzugsweise Fahrzeugs, wobei die Umfeldsensordaten das Umfeld wenigstens teilweise überlappend erfassen, wobei erste Umfeldsensordaten dreidimensionale Informationen und wobei zweite Umfeldsensordaten zweidimensionale Informationen aufweisen;
    • - Extrahieren von wenigstens einem definierten Objekt mittels eines im physikalischen System angeordneten ersten neuronalen Netzes aus den ersten und zweiten Umfeldsensordaten in erste extrahierte Daten; und
    • - Extrahieren von charakteristischen Merkmalen mit Deskriptoren aus den ersten extrahierten Daten mittels eines im physikalischen System angeordneten zweiten neuronales Netzes in zweite extrahierte Daten, wobei die Deskriptoren zu einem definierten Ausrichten der zweiten extrahierten Daten in einem Kartenerstellungsprozess vorgesehen sind.
  • Vorteilhaft werden auf diese Weise zum Erstellen der digitalen Karte definiert komprimierte, d.h. umfangsmäßig reduzierte Daten bereitgestellt. Im Ergebnis sind dadurch nur kleinere Datenmengen an eine Kartenerstellungseinheit zu übertragen, was vorteilhaft Übertragungsaufwand und Rechenaufwand zum Erstellen der digitalen Karte sparen kann. Auf diese Art und Weise wird ein Teil einer Prozesskette zum Erstellen einer digitalen Karte vorgeschlagen, die vorzugsweise auf einem Messfahrzeug während einer oder mehrerer Messfahrten durchgeführt wird.
  • Deskriptoren sind im Sinne der Anmeldung semantische Informationen, die die jeweiligen charakteristischen Merkmale beziehungsweise das jeweilige Objekt beschreiben.
  • Die Aufgabe wird gemäß einem zweiten Aspekt gelöst mit einer Vorrichtung zum Bereitstellen von Daten zum Erstellen einer digitalen Karte, aufweisend:
    • - ein erstes neuronales Netz, das eingerichtet ist, wenigstens ein definiertes Objekt aus ersten und zweiten Umfeldsensordaten in erste extrahierte Daten zu extrahieren, wobei die Umfeldsensordaten das Umfeld wenigstens teilweise überlappend erfassen wobei erste Umfeldsensordaten dreidimensionale Informationen und wobei zweite Umfeldsensordaten zweidimensionale Informationen aufweisen; und
    • - ein zweites neuronales Netz, das eingerichtet ist, charakteristischen Merkmalen mit Deskriptoren aus den ersten extrahierten Daten in zweite extrahierte Daten zu extrahieren, wobei die Deskriptoren zu einem definierten Ausrichten der zweiten extrahierten Daten in einem Kartenerstellungsprozess vorgesehen sind.
  • Gemäß einem dritten Aspekt wird die Aufgabe gelöst mit einem Computerprogrammprodukt mit Programmcodemitteln zur Durchführung des vorgeschlagenen Verfahrens, wenn es auf einer vorgeschlagenen elektronischen Vorrichtung abläuft oder auf einem computerlesbaren Datenträger gespeichert ist.
  • Vorteilhafte Weiterbildungen des Verfahrens sind Gegenstand von jeweils abhängigen Ansprüchen.
  • Eine vorteilhafte Weiterbildung des Verfahrens sieht vor, dass als erste Umfeldsensordaten wenigstens eines aus Folgendem verwendet wird: Radardaten, Lidardaten, Stereokameradaten und wobei als zweite Umfeldsensordaten Kameradaten verwendet werden. Vorteilhaft können auf diese Art und Weise für das vorgeschlagene Verfahren unterschiedliche Arten von Sensordaten genutzt werden, wobei als dreidimensionale Daten auch diskretisierte Daten verwendet werden können.
  • Eine weitere vorteilhafte Weiterbildung des Verfahrens sieht vor, dass als Eingangsdaten für die neuronalen Netze definierte Ungenauigkeitsbereiche der zugeführten Daten verwendet werden. Vorteilhaft können auf diese Art weitere Parameter als Eingangsdaten für das erste neuronale Netz bereitgestellt werden, beispielsweise mittels eines Gauss'schen Mischmodells. Nützlich ist dieser zusätzlicher Parameter insbesondere bei Radardaten, weil bei dieser Art von Daten die Punktwolkendaten in der Regel weniger genau sind als bei entsprechenden Lidardaten.
  • Eine weitere vorteilhafte Weiterbildung des Verfahrens sieht vor, dass die charakteristischen Merkmale und der Deskriptor das ermittelte Objekt näher definieren. Dadurch ist vorteilhaft unterstützt, dass im nachfolgenden Kartenerstellungsprozess die zweiten extrahierten Daten noch einfacher aneinander ausgerichtet werden können.
  • Eine weitere vorteilhafte Weiterbildung des Verfahrens sieht vor, dass der Deskriptor eine Dimensionsangabe des charakteristischen Merkmals definiert. Vorteilhaft kann dadurch eine nähere Spezifizierung der charakteristischen Merkmale durchgeführt werden, was eine für die Kartenerstellung zu übertragende Datenmenge effizient reduzieren kann.
  • Eine weitere vorteilhafte Weiterbildung des Verfahrens sieht vor, dass die Umfeldsensordaten von unterschiedlichen Fahrten des physikalischen Systems und/oder einem physikalischen Systemen zu unterschiedlichen Zeitpunkten bereitgestellt werden. Vorteilhaft wird dadurch berücksichtigt, dass charakteristische Merkmale zu unterschiedlichen Zeiten und von unterschiedlichen Erfassungsfahrzeugen jeweils unterschiedlich aussehen können. Auf vorteilhafte Weise ist dadurch das Ausrichten bzw. Anpassen der charakteristischen Merkmale im Prozess der Kartenerstellung aus einer großen Datenmenge auf effiziente Weise möglich.
  • Eine weitere vorteilhafte Weiterbildung des Verfahrens sehen vor, dass das wenigstens eine extrahierte Objekt eines aus Folgendem ist:
    • Fahrbahnmarkierung, Verkehrszeichen, Fahrspur, Zebrastreifen, Verkehrsschild, Gebäude. Vorteilhaft können dadurch unterschiedliche spezifische Merkmale des Umfelds für die Erstellung der digitalen Karte berücksichtigt werden.
  • Eine weitere vorteilhafte Weiterbildung des Verfahrens sieht vor, dass die zweiten extrahierten Umfeldsensordaten an eine Kartenerstellungseinheit übermittelt werden. Vorteilhaft kann dadurch an die Kartenerstellungseinheit eine gegenüber dem Stand der Technik verringerte Datenmenge zur Erstellung der digitalen Karte übermittelt werden.
  • Eine weitere vorteilhafte Weiterbildung des Verfahrens sieht vor, dass das erste neuronale Netz ein deep convolutional neural network und das zweite neuronale Netz ein punktwolkenbasiertes neuronales Netz ist. Vorteilhaft werden dadurch für die spezifischen Aufgaben der Merkmalsextraktion jeweils gut geeignete Typen von neuronalen Netzen verwendet. Zur Extraktion der charakteristischen Merkmale mittels des zweiten neuronalen Netzes kann zum Beispiel das oben genannte Verfahren gemäß Qi CR, Yi L, Su H, Guibas LJ. PointNet++: Deep hierarchical feature learning on point sets in a metric space in Advances, Neural Information Processing Systems 2017, pp. 5099-5108 oder gemäß Yew ZJ, Lee GH. 3DFeat-Net: Weakly supervised local 3d features for point cloud registration, European Conference on Computer Vision 2018 Sep 8, pp. 630-646, genutzt werden. Mit den genannten Typen von neuronalen Netzen ist eine generische Merkmalsextraktion auf vorteilhafte Weise gut unterstützt.
  • Die Erfindung wird im Folgenden mit weiteren Merkmalen und Vorteilen anhand von drei Figuren näher beschrieben. Dabei bilden alle beschriebenen oder dargestellten Merkmale für sich oder in beliebiger Kombination den Gegenstand der Erfindung, unabhängig von ihrer Zusammenfassung in den Patentansprüchen oder deren Rückbeziehung, sowie unabhängig von ihrer Formulierung bzw. Darstellung in der Beschreibung bzw. in den Figuren.
  • Offenbarte Merkmale und Vorteile des Verfahrens ergeben sich in analoger Weise aus offenbaren Merkmalen und Vorteilen der Vorrichtung und umgekehrt.
  • In den Figuren zeigt:
    • 1 eine prinzipielle Darstellung einer Funktionsweise des ersten neuronalen Netzes zum Extrahieren von Objektmerkmalen aus Sensordaten;
    • 2 ein prinzipielles Blockschaltbild einer vorgeschlagenen elektronischen Vorrichtung zur Durchführung des vorgeschlagenen Verfahrens; und
    • 3 einen prinzipiellen Ablauf einer Ausführungsform des vorgeschlagenen Verfahrens.
  • Beschreibung von Ausführungsformen
  • Ein Kerngedanke der vorliegenden Erfindung liegt insbesondere in einem verbesserten Verfahren zum Bereitstellen von Daten zum Erstellen einer hochauflösenden digitalen Karte, insbesondere zum Zwecke des automatisierten Fahrens für wenigstens teilweise automatisierte Fahrzeuge.
  • Nachfolgend wird der Begriff „automatisiertes Fahrzeug“ synonym mit den Begriffen „vollautomatisiertes Fahrzeug“, „autonomes Fahrzeug“ und „teilautonomes Fahrzeug“ verwendet.
  • Mit einem oder mehreren Messfahrzeugen wird im Rahmen einer oder mehrerer Messfahrten ein sensorisches Erfassen von Umgebungsdaten mittels einer Umfeldsensoreinrichtung durchgeführt, wobei als Umfeldsensoreinrichtungen z.B. ein Lidarsensor und/oder ein Radarsensor zum Erfassen von dreidimensionalen Umfeldsensordaten D1 und eine Kamera zum Erfassen von zweidimensionalen Umfeldsensordaten D2 verwendet werden können.
  • Die erfassten Umfeldsensordaten stellen Beschreibungen unterschiedlicher Abschnitte einer Umgebung des Fahrzeugs dar und dienen zum Erstellen einer Kartendarstellung der Umgebung. Eine Kartendarstellung der Umgebung des Fahrzeugs kann dadurch erreicht werden, dass mehrere Sätze von Umfeldsensordaten, die verschiedene Abschnitte der Umgebung beschreiben, zusammengefasst werden, sodass eine durchgehende zusammenhängende Kartendarstellung der Umgebung bestehend aus einer Mehrzahl zusammengefasster Sätze von Umfeldsensordaten aneinander anschließender Abschnitte der Umgebung des Fahrzeugs erzielt werden kann.
  • Zum Zusammenfassen von Umfeldsensordaten, die jeweils eine Beschreibung aneinander angrenzender Abschnitte der Umgebung darstellen, können die jeweiligen Sätze von Umfeldsensordaten derart miteinander verbunden werden, dass Überschneidungsbereiche jeweils zwei aneinander angrenzender Sätze von Umfeldsensordaten, in denen identische Abschnitte der Umgebung dargestellt sind, in Deckung gebracht werden. Überscheidungsbereiche können hierbei aus einzelnen Messpunkten bestehen.
  • Eine Kartendarstellung und insbesondere ein Zusammenfassen verschiedener Sätze von Umfeldsensordaten setzt hierbei voraus, dass zusammenzufassende beziehungsweise miteinander zu verbindende Sätze von Umfeldsensordaten, zueinander ausgerichtet sind, sodass durch ein Verbinden der Sätze von Umfeldsensordaten eine zusammenhängende Kartendarstellung der Umgebung erreicht werden kann. Eine Ausrichtung verschiedener Sätze von Umfeldsensordaten kompensiert hierbei, dass bei verschiedenen Sätzen von Umfeldsensordaten, die beispielsweise zu unterschiedlichen Zeiten von einem Fahrzeug und/oder von verschiedenen Fahrzeugen aufgenommen wurden, die jeweiligen Umfeldsensoren unterschiedliche Ausrichtungen zur Umgebung aufweisen können.
  • Vorgeschlagen wird ein Verfahren zum Bereitstellen von Daten für die Kartenerstellung, die ein Ausrichten von dreidimensionalen Punktwolken unter Verwendung von Merkmalen vorsieht, die mittels zweier neuronaler Netze 10, 20 aus spezifischen Umgebungsmerkmalen (z.B. Fahrbahnmarkierungen, Verkehrsschilder, Gebäuden, usw.) extrahiert werden. Die zu Grunde liegenden Rohdaten werden in Form der zweidimensionalen Umfeldsensordaten D2 (z.B. Kameradaten) und in Form der dreidimensionalen Umfeldsensordaten D1 (z.B. Lidardaten, Radardaten) bereitgestellt und an das erste neuronale Netz 10 zugeführt.
  • Mit dem vorgeschlagenen Datenbereitstellungsprozess ergeben sich insbesondere folgende Vorteile:
    • - Vorteilhaft kann durch das erfindungsgemäße Verfahren eine Datentransferrate wesentlich reduziert werden, indem zur Ausrichtung zweier Punktwolken zueinander, lediglich eine Ausrichtung zweier Untermengen der beiden Punktwolken durchgeführt wird, auf deren Basis eine Ausrichtung der zwei vollständigen Punktwolken ermöglicht ist. Durch die Betrachtung der zwei Untermengen der beiden Punktwolken, die jeweils ein wesentlich geringeres Datenvolumen aufweisen als die jeweiligen Punktwolken, kann das zu bearbeitenden und damit verbunden das zu übertragende Datenvolumen substantiell verringert werden. Im Ergebnis ist dadurch eine Bandbreite, die zur Übertragung der für die Kartenerstellung notwendigen Daten erforderlich ist, wesentlich verringert und damit kostengünstiger.
    • - Reduzierung von nachfolgenden Berechnungskosten: Das Verarbeiten von kleineren Datenmengen kann die Kosten der Erstellung der digitalen Karte mittels einer nachgeordneten Kartenerstellungseinheit deutlich reduzieren.
    • - Verbesserte Objektmerkmale: Die durch neuronale Netze ermittelten charakteristischen Merkmale eines detektierten Objekts und die danach ermittelten charakteristischen Punkte der Punktwolke, die den jeweiligen Merkmalen des Objekts entsprechen, können exakter bestimmt sein, als charakteristische Punkte einer Punktwolke, die händisch ermittelt wurden. Hierdurch kann eine exaktere Ausrichtung zweier Punktwolken auf Basis einer Ausrichtung der charakteristischen Punkte der beiden Punktwolken zueinander erreicht werden. Eine händische Ermittlung von charakteristischen Punkten kann hierbei mittels entsprechender Software-Tools erreicht werden, die dem Nutzer ermöglichen einzelnen Punkte einer Punktwolke als charakteristische Punkte zu markieren, auf deren Basis dann eine ausrichtung mehrerer Punktwolken, in denen jeweils charakteristische Punkte markiert sind, erreicht werden kann.
    • - Steigerung von Robustheit: die Kombination von dreidimensionalen mit zweidimensionalen Umfeldsensordaten (z.B. Lidar- und Bilddaten) für semantische Zwecke im Sinne von maschinellem Lernen ergibt vorteilhaft eine Kombination von günstigen Effekten. Der Reflexionsgrad der Lidardaten ist z.B. robust gegenüber wechselnden Lichtbedingungen und die texturreiche Information von RGB-Kameradaten unterstützt Laserdaten z.B. bei gutausgeleuchteten Umgebungsbedingungen. 1 zeigt eine prinzipielle Funktionsweise eines Schritts des vorgeschlagenen Verfahrens. Man erkennt, dass dreidimensionale Umfeldsensordaten D1 (z.B. Lidardaten, Radardaten, Stereokameradaten, usw.) und zweidimensionale Umfeldsensordaten D2 (z.B. Kameradaten), die einander definiert zugeordnet sind (z.B. dadurch, dass die entsprechenden Umfeldsensoren einen Umfeldabschnitt des Fahrzeugs wenigstens teilweise überlappend erfassen oder durch eine Projektion der Lidarmessungen auf eine Bildebene der Kamera realisieren), einem im Messfahrzeug angeordneten ersten neuronalen Netz 10 zugeführt werden.
  • Die dreidimensionalen Umfeldsensordaten D1 können als Messwerte von Lidar-Sensoren in dreidimensionalen Punktwolken zusammengefasst sein, die jeweils eine Beschreibung einer Umgebung des Fahrzeugs darstellen. Die zweidimensionalen Umfeldsensordaten D2 können beispielsweise zweidimensionale Bildaufnahmen der Umgebung des Fahrzeugs sein, die mittels eines entsprechenden Kamerasystems aufgenommen werden. Die zweidimensionalen Umfelddate D2 können insbesondere RGB-Daten (Rot-Grün-Blau-Daten) umfassen.
  • Die Kombination von Lidardaten und Bilddaten beziehungsweise RGB-Kameradaten ermöglicht eine präzise Kartendarstellung der Umgebung. RGB-Kameradaten ermöglichen hierbei eine möglichst detaillierte Beschreibung der Umgebung und das Ermitteln einzelner Objekte der Umgebung. Lidardaten stellen darüber hinaus präzise Entfernungsinformationen der Objekte der Umgebung bereit.
  • Im Folgenden wird das erfindungsgemäße Verfahren anhand eines Ausführungsbeispiels beschrieben. Das Verfahren soll nicht auf das im Folgenden beschriebene Beispiel beschränkt sein.
  • In einem ersten Schritt des Verfahrens werden Lidardaten in Form einer dreidimensionalen Punktwolke von dreidimensionalen Umfeldsensordaten D1 und Bilddaten in Form von einer zweidimensionalen Bildaufnahme von zweidimensionalen Umfeldsensordaten D2 von einer zu kartografierenden Umgebung eines Fahrzeugs aufgenommen. Das Fahrzeug ist hierzu mit entsprechenden Umfeldsensoren ausgestattet und kann sich auf einer entsprechenden Messfahrt befinden, während der in einem vorbestimmten zeitlichen Zeitraum eine Mehrzahl von Sätzen von dreidimensionalen Umfeldsensordaten D1 und zweidimensionalen Umfeldsensordaten D2 aufgenommen werden.
  • In einem weiteren Schritt des Verfahrens wird eine Projektion einer dreidimensionalen Punktwolke der dreidimensionalen Umfeldsensordaten D1 auf eine zweidimensionale Bildaufnahme der zweidimensionalen Umfeldsensordaten D2 durchgeführt. Die dreidimensionale Punktwolke der dreidimensionalen Umfeldsensordaten D1 und die zweidimensionale Bildaufnahme der zweidimensionalen Umfeldsensordaten D2 sind hierzu zu gleichen Zeiten aufgenommen beziehungsweise beschreiben einen identischen Ausschnitt der Umgebung des Fahrzeugs.
  • Durch die Projektion der dreidimensionalen Punktwolke der dreidimensionalen Umfeldsensordaten D1 auf die zweidimensionale Bildaufnahme der zweidimensionalen Umfeldsensordaten D2 kann jedem Punkt der dreidimensionalen Punktwolke ein Pixel der zweidimensionalen Bildaufnahme zugeordnet werden.
  • Die genannte Zuordnung beziehungsweis die Projektion der dreidimensionalen Umfeldsensordaten D1 auf die Bildaufnahme der zweidimensionalen Umfeldsensordaten D2 kann beispielsweise mittels eines gut kalibrierten Lidar- und Kamerasystems erreicht werden. Die Daten beider Sensoren werden somit zum Zwecke einer weiteren Objektsegmentierung basierend auf dem ersten neuronalen Netz 10 in einem einzelnen Tensor kombiniert. 1 zeigt eine Struktur zur Durchführung eines weiteren Schritts des Verfahrens vorgesehenen ersten neuronalen Netzes 10 lediglich schematisch, wobei Ziffern Schichttiefen bzw. Schichtstrukturen des ersten neuronalen Netzes 10 qualitativ definieren. Im Ergebnis soll dadurch nur angedeutet werden, dass das trainierte erste neuronalen Netz 10 aus den zugeführten Umfeldsensordaten D1, D2 erste extrahierte Daten OD1a...OD1n erzeugt, die ein aus den Umfeldsensordaten D1, D2 gewonnenes definiertes Merkmal (z.B. in Form einer Fahrbahnmarkierung) spezifizieren. Auf diese Art und Weise ist von jedem Punkt der dreidimensionalen Lidarpunktwolke bekannt, ob er einem Objekt (z.B. einer Fahrbahnspur) zugeordnet ist oder nicht.
  • Hierzu wird in einem weiteren Schritt des Verfahrens durch das erste neuronale Netz 10 auf Basis der zweidimensionalen Bildaufnahme der zweidimensionalen Umfeldsensordaten D2 ein Objekt der Umgebung erkannt. Im vorliegenden Beispiel ist das erkannte Objekte eine Fahrbahn beziehungsweise eine Fahrbahnoberfläche, auf der sich das Fahrzeug bewegt. Alternativ kann ein anderes Objekt ausgewählt werden. Vorzugsweise wird ein Objekt ausgewählt, das in allen aufgenommenen Bildaufnahmen enthalten ist. Alternativ zur Fahrbahnoberfläche bieten sich Fahrbahnbegrenzungen oder ähnliche Objekte an, die in allen Aufnahmen durchgehend ermittelbar sind.
  • Auf Basis der zuvor durchgeführten Projektion der dreidimensionalen Punktwolke der dreidimensionalen Umfeldsensordaten D1 auf die zweidimensionale Bildaufnahme der zweidimensionalen Umfeldsensordaten D2 können indem durch das erste neuronale Netz 10 die Pixel der zweidimensionalen Bilddarstellung der zweidimensionalen Umfeldsensordaten D2 ausgewählt werden, die das erkannte Objekt, sprich die Fahrbahnoberfläche, darstellen, die Punkte der dreidimensionalen Punktwolke der dreidimensionalen Umfeldsensordaten D1 bestimmt werden, die in der dreidimensionalen Punktwolke der dreidimensionalen Umfeldsensordaten D1 das erkannte Objekt darstellen. Die Punkte, die in der dreidimensionalen Punktwolke der dreidimensionalen Umfeldsensordaten D1 das erkannte Objekt darstellen, entsprechen den Punkten der dreidimensionalen Punktwolke der dreidimensionalen Umfeldsensordaten D1, die durch die Projektion in die Pixel der zweidimensionale Bildaufnahme der zweidimensionalen Umfeldsensordaten D2 projiziert sind, die das erkannte Objekt beschreiben. Durch Auswahl der jeweiligen Pixel der zweidimensionale Bildaufnahme der zweidimensionalen Umfeldsensordaten D2 ist somit eine Auswahl der Punkte erreicht, die in der dreidimensionalen Punktwolke der dreidimensionalen Umfeldsensordaten D1 das erkannte Objekt darstellen.
  • Hierzu werden die Punkte der dreidimensionalen Punktwolke der dreidimensionalen Umfeldsensordaten D1, die das erkannte Objekt beschreiben mit dem Wert 1 versehen, während den restlichen Punkten dreidimensionalen Punktwolke der dreidimensionalen Umfeldsensordaten D1 der Zahlenwert 0 zugeordnet wird.
  • Somit kann eine Untermenge der dreidimensionalen Punktwolke der dreidimensionalen Umfeldsensordaten D1 ermittelt werden, die die Punkte enthält, die das erkannte Objekt beschreiben. Die Ermittlung der Untermenge der Punkte der dreidimensionalen Punktwolke der dreidimensionalen Umfeldsensordaten D1 kann durch das erste neuronale Netz durchgeführt werden. Alternativ kann eine geeigneter Auswahlalgorithmus verwendet werden Die ermittelte Untermenge an Punkten der dreidimensionalen Punktwolke der dreidimensionalen Umfeldsensordaten D1, die das erkannte Objekt beschreiben, umfasst erste extrahierte Daten OD1a...OD1n, die den Punkten der dreidimensionalen Punktwolke der dreidimensionalen Umfeldsensordaten D1 der ermittelten Untermenge entsprechen.
  • Das erste neuronale Netz 10 kann als ein Deep Convolutional Network ausgebildet sein und darauf trainiert sein, in Bildaufnahmen entsprechende Objekte, im vorliegenden Beispiel Fahrbahnoberflächen, zu erkennen und gegebenenfalls, die jeweiligen Pixel der Bildaufnahme, durch die das erkannte Objekt dargestellt ist, zu ermitteln.
  • In einem weiteren Verfahrensschritt wird auf die ersten extrahierten Daten OD1a...OD1n, sprich auf die Punkte der ermittelten Untermenge der dreidimensionalen Punktwolke der dreidimensionalen Umfeldsensordaten D1, die das erkannte Objekt, sprich die erkannte Fahrbahnoberfläche, beschreiben, ein zweites neuronales Netz 20 angewendet. Das zweite neuronale Netz 20 ist hierbei darauf trainiert, charakteristische Punkte des durch das erste neuronale Netz 10 erkannten Objekts zu bestimmen. Charakteristische Punkte des erkannten Objekts können hierbei Punkte einer Umrandung des Objekts, wie beispielsweise Eckpunkte sein. In der vorliegenden Ausführungsform, in der als erkanntes Objekt eine Fahrbahnoberfläche erkannt wird, können die charakteristischen Punkte Punkte einer Fahrbahnbegrenzung und/oder Punkte entsprechender Fahrbahnmarkierungen sein.
  • Neben der Ermittlung der charakteristischen Punkte liefert das zweite neuronale Netz ferner zu jedem der ermittelten charakteristischen Punkte des ermittelten Objekts, sprich der Fahrbahnoberfläche, einen Deskriptor, der semantische Information bezügliche des ermittelten charakteristischen Punkts umfasst. Der Deskriptor kann beispielsweise Information bezüglich der Orientierung des Punktes innerhalb des erkannten Objekts beziehungsweise Information umfassen, zu welchem Teil des erkannten Objekts ein jeweiliger Punkt gehört. Im vorliegenden Beispiel kann der Deskriptor beispielsweise angeben, zu welcher Fahrbahnmarkierung der jeweilige Punkt gehört. Darüber hinaus können weitere Informationen, beispielsweise welche zusätzlichen Punkte zur selben Fahrbahnmarkierung gehören, im jeweiligen Deskriptor enthalten sein. Alternativ können in jedem Deskriptor zusätzliche und von dem hier angeführten abweichende Information umfassen.
  • Das zweite neuronale Netz kann als ein neuronales Netz ausgebildet sein, dass eingerichtet ist, Punktwolken, insbesondere dreidimensionale Punktwolken, als Eingabedaten zu verarbeiten. Aus dem Stand der Technik sind verschiedene Lösungen bekannt:
    • Qi CR, Yi L, Su H, Guibas LJ. PointNet++: Deep hierarchical feature learning on point sets in a metric space, Advances in Neural Information Processing Systems 2017, pp. 5099-5108.
  • Ferner ist das zweite neuronale Netz 20 in einem entsprechenden Trainingsprozess darauf trainitert, in dreidimensionalen Punktwolken von Objekten charakteristische Punkte zu erkennen, die ein charakteristisches Merkmal des jeweiligen Objekts beschreiben, und diese mit entsprechenden semantischen Informationen zu versehen. Hierzu kann das zweite neuronale Netz 20 im Trainingsprozess auf Trainingsdaten in Form von dreidimensionalen Punktwolken von Objekten trainiert sein, wobei in den Trainingsdaten entsprechende charakteristische Punkte markiert und mit entsprechenden Deskriptoren in Form von semantischer Information die jeweiligen Punkte, beziehungsweise die durch die charakteristischen Punkte dargestellten Merkmale des Objekts, betreffend versehen sein. Im beschriebenen Beispiel kann des zweite neuronale Netz 20 mit Traningsdaten in Form von dreidimensionalen Punktwolken von Fahrbahnoberflächen mit Markierungen und Begrenzungen und entsprechenden charakteristischen Punkten trainiert sein.
  • Die im Verfahren durch das zweite neuronale Netz 20 ermittelten charakteristischen Punkte des erkannten Objekts können als eine Untermenge der ersten extrahierten Daten OD1a,...,OD1n als zweite extrahierte Daten OD2a,...,OD2n zusammengefasst werden.
  • Für verschiedene zweidimensionale Bildaufnahmen der zweidimensionalen Umfeldsensordaten D2 und die entsprechende dreidimensionalen Punktwolken der dreidimensionalen Umfeldsensordaten D1, die jeweils für angrenzende Abschnitte der zu kartografierenden Umgebung des Fahrzeugs aufgenommen werden, können jeweils ein identisches Objekt, beispielsweise die Fahrbahnoberfläche, auf der das Fahrzeug fährt, und die somit in jeder der jeweiligen Bildaufnahmen abgebildet ist, erkannt und entsprechende erste extrahierte Daten OD1a,...,OD1n bestimmt werden, die jeweils die Untermenge von Punkten der dreidimensionalen Punktwolken der dreidimensionalen Umfeldsensordaten D1 darstellen, die in den dreidimensionalen Punktwolken der dreidimensionalen Umfeldsensordaten D1 dem erkannten Objekt entsprechen.
  • Aus den ersten extrahierten Daten OD1a,...,OD1n können zweite extrahierte Daten OD2a,...,OD2n in Form von charakteristischen Punkten des ermittelten Objekts ermitteln. Indem für die verschiedenen Sätze von ersten extrahierten Daten OD1a,...,OD1n der verschiedenen dreidimensionalen Punktwolken der dreidimensionalen Umfeldsensordaten identische charakteristische Punkte des erkannten Objekts in Form von zweiten extrahierten Daten OD2a,...,OD2n aufgenommen werden, besteht für jede der mehreren dreidimensionalen Punktwolken der dreidimensionalen Umfeldsensordaten D1 eine Menge von Datenpunkten, die als Referenzpunkte für eine Ausrichtung der mehreren dreidimensionalen Punktwolken der dreidimensionalen Umfeldsensordaten D1 zueinander verwendet werden können, da zu jedem dieser Datenpunkte in den weiteren dreidimensionalen Punktwolken entsprechende Punkte enthalten sind.
  • Zur Ausrichtung der verschiedenen dreidimensionalen Punktwolken der dreidimensionalen Umfeldsensordaten D1 zueinander ist es somit ausreichend, eine Ausrichtung der verschiedenen Sätze von zweiten extrahierten Daten OD2a,...,OD2n zu erzielen. Indem die einander entsprechenden charakteristischen Punkte der verschiedenen Sätze von zweiten extrahierten Daten OD2a,...,OD2n in Deckung gebracht werden, sprich eine Ausrichtung dieser Punkte verschiedener dreidimensionaler Punktwolken erzielt wird, ist gleichzeitig eine Ausrichtung der jeweiligen dreidimensionalen Punktwolken der dreidimensionalen Umfeldsensordaten D1 zueinander erreicht. Zur Ausrichtung verschiedener dreidimensionaler Punktwolken müssen somit lediglich die vom Datenvolumen substantiell kleineren Sätze von zweiten extrahierten Daten OD2a,...,OD2n berücksichtigt werden.
  • Eine Ausrichtung der mehreren Sätze von zweiten extrahierten Daten OD2a,...,OD2n kann durch einen geeigneten Ausrichtungsalgorithmus, beispielsweise durch den RANSAC Algorithmus durchgeführt werden.
  • 2 zeigt ein prinzipielles Blockschaltbild einer vorgeschlagenen elektronischen Vorrichtung 100 zum Bereitstellen von Daten zum Erstellen einer hochauflösenden digitalen Karte (nicht dargestellt).
  • In 2 ist angedeutet, dass die ersten extrahierten Daten OD1a...OD1n in Form von Objektpunktwolkendaten dem zweiten neuronalen Netz 20 zugeführt werden, welche aus jeder Objektpunktwolke der ersten extrahierten OD1a... OD1n die zweiten extrahierten Daten OD2a...OD2n mit Eckpunkten beziehungsweise charakteristischen Punkten und zugeordneten Deskriptoren extrahiert.
  • Die Eckpunkte beziehungsweise charakteristischen Punkte definieren dabei das extrahierte Objekt näher (z.B. Koordinaten des Objekts, beispielsweise Mitte, Zentrum, Rand einer Fahrspur, usw.). Mittels des Deskriptors kann das extrahierte Objekt noch näher beschrieben werden (zum Beispiel in Form einer Dimensionsangabe des Objekts), wobei davon ausgegangen wird, dass Deskriptoren desselben Objekts zumindest ähnlich, idealerweise identisch sind. Dabei kann der Deskriptor zum Beispiel eine Dimensionsangabe eines charakteristischen Merkmals, beispielsweise in Form eines Vektors spezifizieren. Die extrahierten zweiten Daten OD2a...OD2n werden nunmehr an eine Kartenerstellungseinheit (nicht dargestellt), die beispielsweise in der Cloud angeordnet sein kann, vorzugsweise drahtlos bzw. funkbasiert übermittelt.
  • In einem nachgeordneten Kartenerstellungsprozess ist es mithilfe der charakteristischen Merkmale und der Deskriptoren der zweiten extrahierten Daten OD2a...OD2n auf einfache Weise möglich, die zweiten extrahierten Daten OD2 aneinander auszurichten und damit die hochauflösende digitale Karte mit geringem Datenaufwand zu erstellen.
  • Mittels der Kartenerstellungseinheit wird auf diese Weise mit den jeweiligen Deskriptoren somit eine Ausrichtung der genannten zweiten extrahierten Daten OD2a...OD2n durchgeführt. Das genannte Ausrichten der genannten zweiten extrahierten Daten OD2a...OD2n kann zum Beispiel mittels einer RANSACbasierten (engl. random sample consensus) Transformation durchgeführt werden, die eine robuste 6 DOF-Transformation mit den zweiten extrahierten Daten OD2a...OD2n durchführt. Eine 6 DOF Transformation umfasst hierbei 3 DOF (Freiheitsgrade) der Translation und 3 DOF (Freiheitsgrade) der Rotation. Dabei werden Rahmen der Daten mittels einer 6-DOF-Transformation ineinander überführt. Das RANSAC-Verfahren schafft einen Ausgleich zwischen den einzelnen Datensätzen der zweiten extrahierten Daten OD2a... OD2n, die somit effizient zum Erstellen der digitalen Karte genutzt werden können.
  • Das vorgeschlagene Verfahren kann von einem einzelnen Messfahrzeug zu unterschiedlichen Zeitpunkten oder auch von mehreren Messfahrzeugen durchgeführt werden, wodurch dadurch eine Vielfalt an extrahierten Daten OD1a...OD1n, OD2a...OD2n bereitgestellt werden kann.
  • In Szenarien, in denen aus den Umfeldsensordaten keine geeigneten Objekte extrahiert werden können, kann eine Rückgriffstrategie z.B. darin bestehen, dass vollständige Umfeldsensordaten genutzt werden. Um in diesem Fall die Umfeldsensordaten effizient zu handhaben, kann vorab ein Downsampling der genannten Daten vorgesehen sein.
  • Denkbar ist das vorgeschlagene Verfahren auch bei dreidimensionalen Umfeldsensordaten in Form von komprimierten Radardatenwolken. Dabei können z.B. Rohradardaten komprimiert und geclustert werden, die als ein Gauss'sches Mischmodell repräsentiert sind. In diesem Fall werden örtliche Positionen des Clusters als 3D-Positionen benutzt, wobei der Mittelwert und die Kovarianz als Merkmale dieser Punkte genutzt werden, die eine gewisse Unsicherheit darstellen und dem ersten neuronalen Netz 10 als weitere Parameter zum Extrahieren der ersten extrahierten Daten OD1a...OD1n zugeführt werden.
  • Trainingsprozesse der genannten neuronalen Netze 10, 20 erfolgen vorzugsweise offline mittels geeigneter Trainingsdaten, bei denen jeweils für jedes neuronale Netz 10, 20 ein individuelles Lernziel definiert wird, das es im Training zu erreichen gilt. Dabei ist das erste neuronale Netz 10 vorzugsweise als ein deep convolutional network ausgebildet und das zweite neuronale Netz 20 als ein punktwolkenbasiertes neuronales Netzwerk, z.B. ein PointNet++ ausgebildet. Entsprechende Lernziele werden definiert, wobei das Training der neuronalen Netze 10, 20 bis zum Erreichen des jeweiligen Lernziels durchgeführt wird.
  • Vorzugsweise wird das vorgeschlagene Verfahren mit den beiden neuronalen Netzen 10, 20 vollständig im Fahrzeug durchgeführt.
  • Obwohl vorgehend das Verfahren mit Objekten in Form von Fahrbahnspuren beziehungsweise Fahrbahnoberflächen offenbart wurde ist es selbstverständlich auch denkbar, dass andere bzw. zusätzliche Objekte aus den Umfeldsensordaten D1, D2 extrahiert werden, beispielsweise in Form von Fahrbahnbegrenzungen, Verkehrszeichen, Gebäude, usw.
  • Vorzugsweise ist somit das vorgeschlagene Verfahren unabhängig von spezifischen Merkmalstypen und von einer Dimensionalität der zugeführten Umfeldsensordaten.
  • Vorteilhaft lässt sich das erfindungsgemäße Verfahren als eine Software realisieren, die beispielsweise auf der Vorrichtung 100 im Fahrzeug abläuft. Eine einfache Adaptierbarkeit des Verfahrens ist auf diese Weise unterstützt.
  • 3 zeigt stark schematisch einen prinzipiellen Ablauf eines vorgeschlagenen Verfahrens.
  • In einem Schritt 200 erfolgt ein Erfassen von Umfeldsensordaten D1, D2 eines Umfelds während einer Messfahrt eines physikalischen Systems, vorzugsweise Fahrzeugs, wobei die Umfeldsensordaten D1, D2 das Umfeld wenigstens teilweise überlappend erfassen, wobei erste Umfeldsensordaten D1 dreidimensionale Informationen und wobei zweite Umfeldsensordaten D2 zweidimensionale Informationen aufweisen.
  • In einem Schritt 210 wird ein Extrahieren von wenigstens einem definierten Objekt mittels eines im physikalischen System angeordneten ersten neuronalen Netzes 10 aus den ersten und zweiten Umfeldsensordaten D1, D2 in erste extrahierte Daten OD1 durchgeführt.
  • In einem Schritt 220 erfolgt schließlich ein Extrahieren von charakteristischen Merkmalen mit Deskriptoren aus den ersten extrahierten Daten OD1 mittels eines im physikalischen System angeordneten zweiten neuronales Netzes 20 in zweite extrahierte Daten OD2, wobei die Deskriptoren zu einem definierten Ausrichten der zweiten extrahierten Daten OD2 in einem Kartenerstellungsprozess vorgesehen sind.
  • Der Fachmann wird die Merkmale der Erfindung in geeigneter Weise abändern und/oder miteinander kombinieren, ohne vom Kern der Erfindung abzuweichen.

Claims (11)

  1. Verfahren zum Bereitstellen von Daten zum Erstellen einer digitalen Karte, aufweisend die Schritte: - Erfassen von Umfeldsensordaten (D1, D2) eines Umfelds während einer Messfahrt eines physikalischen Systems, vorzugsweise Fahrzeugs, wobei die Umfeldsensordaten (D1, D2) das Umfeld wenigstens teilweise überlappend erfassen, wobei erste Umfeldsensordaten (D1) dreidimensionale Informationen und wobei zweite Umfeldsensordaten (D2) zweidimensionale Informationen aufweisen; - Extrahieren von wenigstens einem definierten Objekt mittels eines im physikalischen System angeordneten ersten neuronalen Netzes (10) aus den ersten und zweiten Umfeldsensordaten (D1, D2) in erste extrahierte Daten (OD1a...OD1n); und - Extrahieren von charakteristischen Merkmalen mit Deskriptoren aus den ersten extrahierten Daten (OD1a...OD1n) mittels eines im physikalischen System angeordneten zweiten neuronales Netzes (20) in zweite extrahierte Daten (OD2a...OD2n), wobei die Deskriptoren zu einem definierten Ausrichten der zweiten extrahierten Daten (OD2a... OD2n) in einem Kartenerstellungsprozess vorgesehen sind.
  2. Verfahren nach Anspruch 1, wobei als erste Umfeldsensordaten (D1) wenigstens eines aus Folgendem verwendet wird: Radardaten, Lidardaten, Stereokameradaten und wobei als zweite Umfeldsensordaten (D2) Kameradaten verwendet werden.
  3. Verfahren nach Anspruch 1 oder 2, wobei als Eingangsdaten für die neuronalen Netze (10, 20) definierte Ungenauigkeitsbereiche der zugeführten Daten verwendet werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei die charakteristischen Merkmale und der Deskriptor das ermittelte Objekt näher definieren.
  5. Verfahren nach Anspruch 4, wobei der Deskriptor eine Dimensionsangabe des charakteristischen Merkmals definiert.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Umfeldsensordaten von unterschiedlichen Fahrten des physikalischen Systems und/oder einem physikalischen Systemen zu unterschiedlichen Zeitpunkten bereitgestellt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei das wenigstens eine identifizierte Objekt eines aus Folgendem ist: Fahrbahnmarkierung, Verkehrszeichen, Fahrspur, Zebrastreifen, Verkehrsschild, Gebäude.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei die zweiten extrahierten Umfeldsensordaten (OD2a...OD2n) an eine Kartenerstellungseinheit übermittelt werden.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei das erste neuronale Netz (10) ein deep convolutional neural network und das zweite neuronale Netz (20) ein punktwolkenbasiertes neuronales Netz ist.
  10. Vorrichtung (100) zum Bereitstellen von Daten zum Erstellen einer digitalen Karte, aufweisend: - ein erstes neuronales Netz (10), das eingerichtet ist, wenigstens ein definiertes Objekt aus ersten und zweiten Umfeldsensordaten (D1, D2) in erste extrahierte Daten (OD1a...OD1n) zu extrahieren, wobei die Umfeldsensordaten (D1, D2) das Umfeld wenigstens teilweise überlappend erfassen wobei erste Umfeldsensordaten (D1) dreidimensionale Informationen und wobei zweite Umfeldsensordaten (D2) zweidimensionale Informationen enthalten; und - ein zweites neuronales Netz (20) das eingerichtet ist, charakteristische Merkmalen mit Deskriptoren aus den ersten extrahierten Daten (OD1a...OD1n) in zweite extrahierte Daten (OD2a...OD2n) zu extrahieren, wobei die Deskriptoren zu einem definierten Ausrichten von zweiten extrahierten Daten (OD2a...OD2n) vorgesehen sind.
  11. Computerprogrammprodukt mit Programmcodemitteln zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 9, wenn es auf einer elektronischen Vorrichtung (100) zum Bereitstellen von Daten zum Erstellen einer digitalen Karte abläuft oder auf einem computerlesbaren Datenträger gespeichert ist.
DE102020211636.9A 2020-09-17 2020-09-17 Verfahren und Vorrichtung zum Bereitstellen von Daten zum Erstellen einer digitalen Karte Pending DE102020211636A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102020211636.9A DE102020211636A1 (de) 2020-09-17 2020-09-17 Verfahren und Vorrichtung zum Bereitstellen von Daten zum Erstellen einer digitalen Karte
US17/447,334 US11941892B2 (en) 2020-09-17 2021-09-10 Method and device for providing data for creating a digital map
CN202111094075.7A CN114199223A (zh) 2020-09-17 2021-09-17 提供用于创建数字地图的数据的方法和设备及程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020211636.9A DE102020211636A1 (de) 2020-09-17 2020-09-17 Verfahren und Vorrichtung zum Bereitstellen von Daten zum Erstellen einer digitalen Karte

Publications (1)

Publication Number Publication Date
DE102020211636A1 true DE102020211636A1 (de) 2022-03-17

Family

ID=80351319

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020211636.9A Pending DE102020211636A1 (de) 2020-09-17 2020-09-17 Verfahren und Vorrichtung zum Bereitstellen von Daten zum Erstellen einer digitalen Karte

Country Status (3)

Country Link
US (1) US11941892B2 (de)
CN (1) CN114199223A (de)
DE (1) DE102020211636A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022207771A1 (de) 2022-07-28 2024-02-08 Continental Autonomous Mobility Germany GmbH Verfahren und System zur dynamischen Reduzierung der Komplexität einer 3D-Karte
DE102022213486A1 (de) 2022-12-12 2024-06-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Erkennung einer Fahrbahnmarkierung oder eines Objekts mit einem LiDAR Sensor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102651012B1 (ko) * 2021-11-24 2024-03-25 (주)스마트레이더시스템 4차원 레이더 신호처리 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017108248A1 (de) 2016-04-19 2017-10-19 GM Global Technology Operations LLC Strassenmerkmalserkennung mit einem fahrzeugkamerasystem
US20190147255A1 (en) 2017-11-15 2019-05-16 Uber Technologies, Inc. Systems and Methods for Generating Sparse Geographic Data for Autonomous Vehicles
US20190187718A1 (en) 2017-12-18 2019-06-20 GM Global Technology Operations LLC Detecting features from multi-modal images
DE102018109680A1 (de) 2018-04-23 2019-10-24 Connaught Electronics Ltd. Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen durch parallele zweidimensionale und dreidimensionale Auswertung; Steuereinrichtung; Fahrassistenzsystem; sowie Computerprogrammprodukt
DE102018216172A1 (de) 2018-09-21 2020-03-26 Audi Ag Verfahren zum automatischen Erzeugen eines Labels zum Trainieren eines selbstlernenden Systems sowie Kraftfahrzeug

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105260699B (zh) * 2015-09-10 2018-06-26 百度在线网络技术(北京)有限公司 一种车道线数据的处理方法及装置
US10445928B2 (en) * 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
US10657390B2 (en) * 2017-11-27 2020-05-19 Tusimple, Inc. System and method for large-scale lane marking detection using multimodal sensor data
CN111771141B (zh) * 2019-01-30 2024-04-09 百度时代网络技术(北京)有限公司 自动驾驶车辆中使用3d cnn网络进行解决方案推断的lidar定位

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017108248A1 (de) 2016-04-19 2017-10-19 GM Global Technology Operations LLC Strassenmerkmalserkennung mit einem fahrzeugkamerasystem
US20190147255A1 (en) 2017-11-15 2019-05-16 Uber Technologies, Inc. Systems and Methods for Generating Sparse Geographic Data for Autonomous Vehicles
US20190187718A1 (en) 2017-12-18 2019-06-20 GM Global Technology Operations LLC Detecting features from multi-modal images
DE102018109680A1 (de) 2018-04-23 2019-10-24 Connaught Electronics Ltd. Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen durch parallele zweidimensionale und dreidimensionale Auswertung; Steuereinrichtung; Fahrassistenzsystem; sowie Computerprogrammprodukt
DE102018216172A1 (de) 2018-09-21 2020-03-26 Audi Ag Verfahren zum automatischen Erzeugen eines Labels zum Trainieren eines selbstlernenden Systems sowie Kraftfahrzeug

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022207771A1 (de) 2022-07-28 2024-02-08 Continental Autonomous Mobility Germany GmbH Verfahren und System zur dynamischen Reduzierung der Komplexität einer 3D-Karte
DE102022213486A1 (de) 2022-12-12 2024-06-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Erkennung einer Fahrbahnmarkierung oder eines Objekts mit einem LiDAR Sensor

Also Published As

Publication number Publication date
US20220083792A1 (en) 2022-03-17
US11941892B2 (en) 2024-03-26
CN114199223A (zh) 2022-03-18

Similar Documents

Publication Publication Date Title
DE102016223422B4 (de) Verfahren zur automatischen Ermittlung extrinsischer Parameter einer Kamera eines Fahrzeugs
DE102020211636A1 (de) Verfahren und Vorrichtung zum Bereitstellen von Daten zum Erstellen einer digitalen Karte
DE112019007451T5 (de) Hochpräzises Verfahren sowie Gerät zur Fahrzeugpositionierung in mehreren Szenen, und fahrzeugmontiertes Terminal
DE102016118502A1 (de) Verfahren, Einrichtung und Vorrichtung zum Ermitteln einer Fahrbahngrenze
DE102015214338A1 (de) Bestimmung einer Anordnungsinformation für ein Fahrzeug
DE102019102866A1 (de) Identifizierung eines Herstellungsteils unter Verwendung von Computervision und Maschinenlernen
EP3529561B1 (de) System und verfahren zur erzeugung von digitalen strassenmodellen aus luft- oder satellitenbildern und von fahrzeugen erfassten daten
DE102015209186A1 (de) Verfahren zur Ermittlung einer Beschreibung eines Fahrstreifens
DE69829091T2 (de) Messungsgerät
WO2020048669A1 (de) Verfahren zum bestimmen einer spurwechselangabe eines fahrzeugs, ein computerlesbares speichermedium und ein fahrzeug
DE102018123393A1 (de) Erkennung von Parkflächen
EP3645969A1 (de) Verfahren und einrichtung zur erzeugung von digitalen kartenmodellen
DE102020200169B3 (de) Verfahren zur Zusammenführung mehrerer Datensätze für die Erzeugung eines aktuellen Spurmodells einer Fahrbahn und Vorrichtung zur Datenverarbeitung
DE102018220892A1 (de) Vorrichtung und Verfahren zur Generierung von Labelobjekten für die Umgebung eines Fahrzeugs
DE102022134876A1 (de) STRAßENKARTENERSTELLSYSTEM UND VERFAHREN ZUR NUTZUNG
DE102020206705A1 (de) Simulationen mit realistischen sensorfusionsdetektionsschätzungen von objekten
EP3983936A1 (de) Verfahren und generator zum erzeugen von gestörten eingangsdaten für ein neuronales netz
DE102018206806A1 (de) Verfahren und Vorrichtung zur Umsetzung eines Eingangsbildes einer ersten Domäne in ein Ausgangsbild einer zweiten Domäne
WO2020126167A1 (de) Verfahren zur erkennung von mindestens einem muster in einer umgebung eines fahrzeugs, steuergerät zum ausführen eines solchen verfahrens, sowie fahrzeug mit einem solchen steuergerät
WO2020051618A1 (de) Analyse dynamisscher räumlicher szenarien
DE102019208735A1 (de) Verfahren zum Betreiben eines Fahrassistenzsystems eines Fahrzeugs und Fahrerassistenzsystem für ein Fahrzeug
DE112018006782T5 (de) Verfahren und vorrichtung zum abgleichen von bildern anhand semantischer merkmale
DE102020105070A1 (de) Verfahren zum Erkennen eines befahrbaren Bereichs in einer Umgebung eines Fahrzeugs mithilfe eines binären künstlichen neuronalen Netzes, Recheneinrichtung sowie Fahrerassistenzsystem
DE102019126631A1 (de) Verbesserte Trajektorienschätzung basierend auf Ground Truth
EP3576013A1 (de) Abschätzen eines verlaufs eines schienenpfads

Legal Events

Date Code Title Description
R163 Identified publications notified