DE102023002030B3 - Procedure for creating a digital map - Google Patents
Procedure for creating a digital map Download PDFInfo
- Publication number
- DE102023002030B3 DE102023002030B3 DE102023002030.3A DE102023002030A DE102023002030B3 DE 102023002030 B3 DE102023002030 B3 DE 102023002030B3 DE 102023002030 A DE102023002030 A DE 102023002030A DE 102023002030 B3 DE102023002030 B3 DE 102023002030B3
- Authority
- DE
- Germany
- Prior art keywords
- tgy
- trajectories
- digital map
- trajectory groups
- geographical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 16
- 230000011218 segmentation Effects 0.000 claims description 13
- 230000004807 localization Effects 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 3
- 238000013178 mathematical model Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 10
- 238000005457 optimization Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3815—Road data
- G01C21/3819—Road shape data, e.g. outline of a route
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3852—Data derived from aerial or satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/182—Network patterns, e.g. roads or rivers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Automation & Control Theory (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Erstellung einer digitalen Karte (K), wobei Luftbilder (L) eines vorgegebenen geografischen Raums erfasst werden. Erfindungsgemäß werden mittels einer Mehrzahl von Fahrzeugen (F1 bis Fn) bei Befahrungen in dem geografischen Raum Trajektorien (T1 bis Tm) mit Verläufen von geografischen Positionen des jeweiligen Fahrzeugs (F1 bis Fn) aufgezeichnet. Aus den aufgezeichneten Trajektorien (T1 bis Tm) werden segmentierte Trajektoriengruppen (TG1 bis TGy) gebildet, wobei die segmentierten Trajektoriengruppen (TG1 bis TGy) und die Luftbilder (L) zueinander ausgerichtet werden und aus den Luftbildern (L) und zu diesen ausgerichteten segmentierten Trajektoriengruppen (TG1 bis TGy) mittels eines trainierten Convolutional Neural Networks (CNN) Fahrspursegmente von Fahrbahnen ermittelt und in die digitale Karte (K) aufgenommen werden.Die Erfindung betrifft weiterhin eine Verwendung einer in einem solchen Verfahren erstellten digitalen Karte (K) in einem Fahrzeug (F1 bis Fn) zu einer Ausführung einer Navigationsfunktion und/oder zu einer Ausführung eines automatisierten Fahrbetriebs.The invention relates to a method for creating a digital map (K), whereby aerial photographs (L) of a given geographical area are captured. According to the invention, trajectories (T1 to Tm) with courses of geographical positions of the respective vehicle (F1 to Fn) are recorded by means of a plurality of vehicles (F1 to Fn) when driving in the geographical area. Segmented trajectory groups (TG1 to TGy) are formed from the recorded trajectories (T1 to Tm), wherein the segmented trajectory groups (TG1 to TGy) and the aerial photographs (L) are aligned with one another and lane segments of roadways are determined from the aerial photographs (L) and the segmented trajectory groups (TG1 to TGy) aligned with them by means of a trained convolutional neural network (CNN) and are included in the digital map (K).The invention further relates to the use of a digital map (K) created in such a method in a vehicle (F1 to Fn) for executing a navigation function and/or for executing an automated driving operation.
Description
Die Erfindung betrifft ein Verfahren zur Erstellung einer digitalen Karte gemäß dem Oberbegriff des Anspruchs 1.The invention relates to a method for creating a digital map according to the preamble of claim 1.
Die Erfindung betrifft weiterhin eine Verwendung einer solchen digitalen Karte.The invention further relates to a use of such a digital map.
Hochaufgelöste digitale Karten, auch als High-Definition-Karten bezeichnet, und darin enthaltene Informationen zu einer Fahrspurgeometrie und -topologie sind für einen automatisierten, beispielsweise hochautomatisierten oder autonomen Fahrbetrieb von Fahrzeugen von großer Bedeutung, da diese notwendigen Informationen über relevante Straßen sowie einer über Erfassungsgrenzen einer fahrzeugseitigen Sensorik hinausgehenden Umgebung des Fahrzeugs bereitstellen. Damit tragen solche digitalen Karten entscheidend zu einer Sicherheit und Zuverlässigkeit des automatisierten Fahrzeugs bei.High-resolution digital maps, also known as high-definition maps, and the information they contain on lane geometry and topology are of great importance for automated, for example highly automated or autonomous, vehicle operation, as they provide the necessary information about relevant roads and the vehicle's surroundings that go beyond the detection limits of on-board sensors. Such digital maps therefore make a decisive contribution to the safety and reliability of the automated vehicle.
In den digitalen Karten hinterlegte Fahrspurgeometrien liefern dem Fahrzeug dabei einen physischen Verlauf einer Straße sowie eine Anzahl und tatsächliche globale Positionen konkreter Fahrspuren der Straße. Auf Basis dieser Informationen kann ein zum automatisierten Fahrbetrieb des Fahrzeugs vorgesehenes System Entscheidungen über zukünftige Manöver, eine Fahrtrichtung und notwendige Fahrspurwechsel treffen und eine konkrete zukünftige Trajektorie planen.Lane geometries stored in the digital maps provide the vehicle with a physical route of a road as well as a number and actual global positions of specific lanes on the road. Based on this information, a system designed for automated driving of the vehicle can make decisions about future maneuvers, a direction of travel and necessary lane changes and plan a specific future trajectory.
In den digitalen Karten hinterlegte Fahrspurtopologien beschreibt dabei, wie die Fahrspuren in Beziehung zueinanderstehen und wie sie sich in Bezug auf Straßenkreuzungen, Abzweigungen und andere Straßenmerkmale verändern. Diese Informationen sind ebenfalls wichtig, da sie Algorithmen des zum automatisierten Fahrbetrieb des Fahrzeugs vorgesehenen Systems helfen, sicher und effizient durch Straßenkreuzungen und andere komplexe Verkehrssituationen zu navigieren.Lane topologies stored in the digital maps describe how the lanes relate to each other and how they change in relation to intersections, junctions and other road features. This information is also important because it helps algorithms of the system intended for the automated driving of the vehicle to navigate safely and efficiently through intersections and other complex traffic situations.
Die
- - Eingeben eines zu erkennenden Satellitenbilds in ein trainiertes LaneNet-Netzwerkmodell, um ein Satellitenbild markiert mit Koordinatenpunkten von Fahrspurlinien auszugeben,
- - Gruppieren der Koordinatenpunkte ausgegebener Fahrspurlinien, um einen Koordinatenpunkt zu erhalten, der zu jeder Fahrspurlinie gehört,
- - Anpassen gemäß dem Koordinatenpunkt, der zu jeder Fahrspurlinie gehört, um jede Fahrspurlinie zu erhalten, wobei das LaneNet-Netzwerkmodell in einem Training mit einem Trainingssatz gebildet wird, der eine Vielzahl von Satellitenbildern und in jedem Satellitenbild markierte Koordinatenpunkten für Fahrspurlinie umfasst, und
- - Verwendung des LaneNet-Netzwerkmodells, um die Fahrspurlinien in einem erfassten Satellitenbild zu identifizieren und eine Navigationskarte zu erstellen.
- - Inputting a satellite image to be recognized into a trained LaneNet network model to output a satellite image marked with coordinate points of lane lines,
- - Grouping the coordinate points of output lane lines to obtain a coordinate point belonging to each lane line,
- - adjusting according to the coordinate point corresponding to each lane line to obtain each lane line, wherein the LaneNet network model is formed in training with a training set comprising a plurality of satellite images and lane line coordinate points marked in each satellite image, and
- - Using the LaneNet network model to identify lane lines in an acquired satellite image and create a navigation map.
Aus der
Aus der
Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Erstellung einer digitalen Karte und eine Verwendung einer solchen digitalen Karte anzugeben.The invention is based on the object of specifying a novel method for creating a digital map and a use of such a digital map.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist, und durch eine Verwendung, welche die im Anspruch 10 angegebenen Merkmale aufweist.The object is achieved according to the invention by a method which has the features specified in claim 1 and by a use which has the features specified in claim 10.
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the subclaims.
In einem Verfahren zur Erstellung einer digitalen Karte werden Luftbilder eines vorgegebenen geografischen Raums erfasst.In a process for creating a digital map, aerial photographs of a given geographical area are captured.
Erfindungsgemäß werden mittels einer Mehrzahl von Fahrzeugen bei Befahrungen in dem geografischen Raum Trajektorien mit Verläufen von geografischen Positionen des jeweiligen Fahrzeugs aufgezeichnet, wobei aus den aufgezeichneten Trajektorien segmentierte Trajektoriengruppen gebildet werden. Die segmentierten Trajektoriengruppen und die Luftbilder werden zueinander ausgerichtet, wobei aus den Luftbildern und zu diesen ausgerichteten segmentierten Trajektoriengruppen mittels eines trainierten Convolutional Neural Networks Fahrspursegmente von Fahrbahnen ermittelt und in die digitale Karte aufgenommen werden.According to the invention, trajectories with courses of geographical positions of the respective vehicle are recorded by means of a plurality of vehicles when driving in the geographical area, with segmented trajectory groups being formed from the recorded trajectories. The segmented trajectory groups and the aerial photographs are aligned with one another, with lane segments being formed from the aerial photographs and the segmented trajectory groups aligned with them by means of a trained convolutional neural network. elements of roadways are determined and included in the digital map.
Aus Luftbildern, beispielsweise Satellitenbildern oder Flugaufnahmen, können Fahrspurmarkierungen extrahiert werden. Allerdings besteht die Gefahr, dass bei fehlenden, undeutlichen oder nicht eindeutigen Straßenmarkierungen mittels Luftbildern unklare Darstellungen von der Straßenführung geliefert werden. Dies kann zu Fehleinschätzungen bei einer Bestimmung von Fahrspurgeometrien und Fahrspurtopologien führen. Beispielsweise können bei Verdeckungen durch Brücken, Tunnel, Gebäude, Randbebauungen oder Randbewüchsen Unvollständigkeiten in der Ableitung von Fahrspuren auftreten. In einer Ableitung einer Fahrspurtopologie basierend allein auf tatsächlich gefahrenen Fahrzeugtrajektorien wird ausschließlich ein Fahrverhalten der Fahrzeuge berücksichtigt. Eine Berücksichtigung physischer Fahrspurmarkierungen erfolgt dagegen nicht. Dies wiederrum führt zu Limitationen in der Erkennung der tatsächlichen Fahrspurgeometrie und der vollständigen Fahrspurtopologie.Lane markings can be extracted from aerial photographs, such as satellite images or aerial photographs. However, there is a risk that if road markings are missing, unclear or ambiguous, aerial photographs will provide unclear representations of the road layout. This can lead to misjudgments when determining lane geometries and lane topologies. For example, if the lanes are obscured by bridges, tunnels, buildings, peripheral buildings or vegetation, incompleteness can occur in the derivation of lanes. When deriving a lane topology based solely on actual vehicle trajectories, only the driving behavior of the vehicles is taken into account. Physical lane markings are not taken into account. This in turn leads to limitations in the recognition of the actual lane geometry and the complete lane topology.
Aufgrund der Kombination der Luftbilder mit den korrelierenden segmentierten Trajektoriengruppen kann mittels des vorliegenden Verfahrens eine besonders hohe Genauigkeit und Korrektheit der digitalen Karte erzielt werden. Dies ist insbesondere auch bei fehlenden oder nicht eindeutigen Straßenmarkierungen möglich. Diese Kombination kann dabei durch einen Einsatz von Algorithmen aus dem Bereich des maschinellen Lernens und weiteren Verarbeitungsschritten, das heißt insbesondere durch die Verwendung des trainierten Convolutional Neural Networks, vollständig automatisiert werden.Due to the combination of the aerial photographs with the correlating segmented trajectory groups, a particularly high level of accuracy and correctness of the digital map can be achieved using this method. This is particularly possible even when road markings are missing or ambiguous. This combination can be fully automated by using algorithms from the field of machine learning and further processing steps, i.e. in particular by using the trained convolutional neural network.
Insbesondere bei fehlenden oder nicht eindeutigen Straßenmarkierungen, wie beispielsweise in Straßenkreuzungsbereichen oder bei schlechten Straßenbedingungen, ermöglicht die Kombination der Luftbilder mit den korrelierenden segmentierten Trajektoriengruppen bei einer Fahrspurerkennung, Informationen über die Fahrspurgeometrie und -topologie aus den Trajektorienverläufen zu extrahieren und mit den Luftbildern zu kombinieren, so dass trotz fehlender Informationen in den Luftbildern eine vollständige Darstellung von Straßen mit Fahrspuren erzeugt wird.In particular, when road markings are missing or ambiguous, such as in road crossing areas or in poor road conditions, the combination of the aerial images with the correlating segmented trajectory groups in lane detection enables information about the lane geometry and topology to be extracted from the trajectory courses and combined with the aerial images, so that a complete representation of roads with lanes is generated despite the missing information in the aerial images.
Auch kann durch die Kombination der Luftbilder mit den korrelierenden segmentierten Trajektoriengruppen eine Überbrückung von Schatten und Verdeckungen in den Luftbildern erreicht werden. Die durch Verschattungen, baulich bedingte Verdeckungen oder andere verdeckende Objekte, wie beispielsweise Fahrzeuge, in den Luftbildern hervorgerufenen Beeinträchtigungen, welche zu fehlerhaften und unvollständigen Erkennungen von Fahrspurmarkierungen und Straßenrändern führen können, können durch die Erweiterung mit den aufgezeichneten Trajektorienverläufen behoben werden, da die geografischen Positionen der Fahrzeuge unabhängig von Lichtbedingungen oder anderen Einflüssen erfasst werden und so in das entsprechende Luftbild projiziert werden können.By combining the aerial photographs with the correlating segmented trajectory groups, it is also possible to bridge shadows and occlusions in the aerial photographs. The impairments caused by shadows, structural occlusions or other obscuring objects, such as vehicles, in the aerial photographs, which can lead to incorrect and incomplete detection of lane markings and road edges, can be remedied by adding the recorded trajectory courses, since the geographical positions of the vehicles are recorded independently of lighting conditions or other influences and can thus be projected into the corresponding aerial photograph.
Auch wird aufgrund der zusätzlichen Verwendung der Trajektorienverläufe ermöglicht, die Fahrspurtopologien, das heißt regelkonforme Fahrspurverknüpfungen, Abbiege-Vorgänge an Straßenkreuzungen und Fahrspurwechsel, fehlerfrei abzuleiten. Dies ist bei einer alleinigen Verwendung von Luftbildern nicht möglich, da Einschränkungen, beispielsweise aufgrund von Verkehrsschildern, in Aufnahmen aus einer Vogelperspektive nicht erkannt werden können. Hierdurch ermöglicht die Kombination mit den Trajektorienverläufen und damit den von den Fahrzeugen tatsächlich befahrenen Kombinationen eine robuste Erkennung der Fahrspurtopologien.The additional use of the trajectories also makes it possible to derive lane topologies, i.e. lane connections that comply with regulations, turning processes at road junctions and lane changes, without errors. This is not possible when using aerial photographs alone, as restrictions, for example due to traffic signs, cannot be recognized in images from a bird's eye view. The combination with the trajectories and thus the combinations actually driven by the vehicles enables a robust recognition of the lane topologies.
Weiterhin ermöglicht die Verwendung des lernbasierten Convolutional Neural Networks und dessen Generalisierungsfähigkeit, dass auch Sonderfälle robust erkannt und entsprechend klassifiziert bzw. abgeleitet werden können. Somit müssen im Vergleich zu heuristischen oder klassischen Bild-Erkennungs-Verfahren nicht alle Sonderfälle a priori bekannt sein, sondern können durch das Verfahren aufgrund zuvor erlernter Regeln selbst gelöst werden.Furthermore, the use of the learning-based convolutional neural network and its generalization ability enables special cases to be robustly recognized and classified or derived accordingly. In comparison to heuristic or classical image recognition methods, not all special cases have to be known a priori, but can be solved by the method itself based on previously learned rules.
Des Weiteren führt das vorliegende Verfahren zu einer hohen Skalierbarkeit. Neben der vollständig automatisierten Ausführung nach erfolgreichem Training ermöglicht ein Prozessieren von Daten in durch die segmentierten Trajektoriengruppen segmentierten Bereichen eine Zerlegung des Teilproblems, wodurch der Kartenerstellungsprozess parallelisiert werden kann. Dies reduziert den Zeitaufwand gegenüber herkömmlichen Kartierungsprozessen enorm.Furthermore, the present method leads to a high level of scalability. In addition to the fully automated execution after successful training, processing data in areas segmented by the segmented trajectory groups enables the subproblem to be broken down, which means that the map creation process can be parallelized. This reduces the time required enormously compared to conventional mapping processes.
Gemäß einer möglichen Ausgestaltung des Verfahrens werden für benachbarte geografische Räume ermittelte Fahrspursegmente zu Fahrspurverläufen von Fahrbahnen der digitalen Karte zusammengesetzt. Somit kann eine globale digitale Karte erzeugt werden.According to a possible embodiment of the method, lane segments determined for neighboring geographical areas are combined to form lane paths of roadways on the digital map. This allows a global digital map to be created.
Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens wird die Erstellung der digitalen Karte auf einem Backendserver durchgeführt. Dies ermöglicht eine zentralisierte Erstellung der digitalen Karte, wodurch eine Rechenleistung zur Datenverarbeitung in den einzelnen Fahrzeugen minimiert werden kann. Weiterhin kann die erstellte digitale Karte zentral für eine Vielzahl von Fahrzeugen zur Verfügung gestellt werden.According to another possible embodiment of the method, the digital map is created on a backend server. This enables centralized creation of the digital map, which minimizes the computing power required for data processing in the individual vehicles. Furthermore, the created digital map can be made available centrally for a large number of vehicles.
Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens werden geografische Positionen der Trajektorien mittels eines Clustering-Verfahrens optimiert. Dies ermöglicht, dass beispielsweise aus so genannten Multi-Path-Effekten resultierende Ungenauigkeiten in einer die Trajektorien bildenden zeitlichen Abfolge der geografischen Positionen behoben werden können. Hieraus resultiert eine erhöhte Genauigkeit der erzeugten digitalen Karte.According to another possible embodiment of the method, geographical positions of the trajectories are optimized using a clustering method. This makes it possible to correct inaccuracies in a temporal sequence of geographical positions that form the trajectories, for example due to so-called multi-path effects. This results in increased accuracy of the digital map generated.
Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens werden geografische Positionen der Trajektorien in lateraler und longitudinaler Richtung zueinander ausgerichtet, wobei die Ausrichtung in Abhängigkeit von Fahrzeugbeobachtungen von Lokalisierungsobjekten durchgeführt wird, indem eine Fehlerkorrektur aufgrund gleicher, von mehreren Fahrzeugen beobachteter geografischer Lokalisierungsmerkmale durchgeführt wird. Durch eine so durchgeführte Optimierung von Trajektorienverläufen können tatsächliche Fahrspurverläufe deutlich besser dargestellt werden.According to another possible embodiment of the method, geographical positions of the trajectories are aligned with each other in the lateral and longitudinal directions, whereby the alignment is carried out depending on vehicle observations of localization objects by carrying out an error correction based on the same geographical localization features observed by several vehicles. By optimizing trajectory courses in this way, actual lane courses can be represented much better.
Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens wird die Segmentierung der Trajektoriengruppen basierend auf einer Fahrtrichtung und/oder Geschwindigkeit der Fahrzeuge durchgeführt. Die Segmentierung steigert dabei eine Leistungsfähigkeit des mittels des Convolutional Neural Networks durchgeführten lernbasierten Verfahrens. Die Segmentierung kann dabei durch eine Hervorhebung von Mustern in den Eingangsdaten erfolgen und eine Komplexität dieser Eingangsdaten für das lernbasierte Verfahren reduzieren. Die Segmentierung kann beispielsweise durch ein Clusteringverfahren, beispielsweise ein so genanntes DBSCAN-Verfahren (DBSCAN = Density-Based Spatial Clustering of Applications with Noise = Dichtebasierte räumliche Clusteranalyse mit Rauschen) sehr genau und effizient durchgeführt werden.According to another possible embodiment of the method, the segmentation of the trajectory groups is carried out based on the direction of travel and/or speed of the vehicles. The segmentation increases the performance of the learning-based method carried out using the convolutional neural network. The segmentation can be carried out by highlighting patterns in the input data and reducing the complexity of this input data for the learning-based method. The segmentation can be carried out very precisely and efficiently using a clustering method, for example a so-called DBSCAN method (DBSCAN = Density-Based Spatial Clustering of Applications with Noise).
Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens wird die Segmentierung der Trajektoriengruppen basierend auf einem mathematischen Modell in einem Regressionsverfahren durchgeführt. Mittels eines solchen Regressionsverfahrens kann die Komplexität der Eingangsdaten weiter verringert werden und eine große Datenreduktion erreicht werden.According to another possible embodiment of the method, the segmentation of the trajectory groups is carried out based on a mathematical model in a regression method. Using such a regression method, the complexity of the input data can be further reduced and a large data reduction can be achieved.
Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens werden die Luftbilder in einer radiometrischen Kalibrierung vorprozessiert, wobei in der Vorprozessierung in den Luftbildern bestimmte Merkmale hervorgehoben werden. Hierdurch wird eine verbesserte Verarbeitung der Luftbilder in dem lernbasierten Verfahren ermöglicht.According to another possible embodiment of the method, the aerial photographs are pre-processed in a radiometric calibration, whereby certain features in the aerial photographs are highlighted during the pre-processing. This enables improved processing of the aerial photographs in the learning-based method.
Gemäß einer weiteren möglichen Ausgestaltung des Verfahrens wird die Ausrichtung der Trajektoriengruppen und der Luftbilder zueinander anhand von einer jeweiligen geografischen Lage und/oder jeweiligen Höheninformationen in den Trajektorien der Trajektoriengruppen und/oder in den Luftbildern detektierten Lokalisierungsmerkmalen der Trajektorien der Trajektoriengruppen durchgeführt. Durch diese Ausrichtung kann eine Kombination beider Datenquellen in eine Datenrepräsentation verbessert werden. Durch eine Verwendung von Höheninformationen in den Trajektorien können beispielsweise optische Verzerrungen in den Luftbildern ausgeglichen werden. Weiter können erkannte Lokalisierungsmerkmale der Trajektorien, welche auch innerhalb der Luftbilder gefunden werden können, wie beispielsweise Fahrspurmarkierungen, genutzt werden, um die Trajektoriengruppen anhand der Luftbilder auszurichten. Somit können unter anderem auch Orientierungsabweichungen vermieden werden.According to another possible embodiment of the method, the alignment of the trajectory groups and the aerial photographs to each other is carried out based on a respective geographical location and/or respective height information in the trajectories of the trajectory groups and/or localization features of the trajectories of the trajectory groups detected in the aerial photographs. This alignment can improve a combination of both data sources in a data representation. By using height information in the trajectories, for example, optical distortions in the aerial photographs can be compensated. Furthermore, recognized localization features of the trajectories, which can also be found within the aerial photographs, such as lane markings, can be used to align the trajectory groups based on the aerial photographs. This can also avoid orientation deviations, among other things.
In einer Verwendung einer in einem vorgenannten Verfahren erstellten digitalen Karte ist vorgesehen, diese in einem Fahrzeug zu einer Ausführung einer Navigationsfunktion und/oder zu einer Ausführung eines automatisierten Fahrbetriebs einzusetzen. Durch die Verwendung einer somit sehr genau und korrekt ausgeführten digitalen Karte können eine Verfügbarkeit und Zuverlässigkeit einer Navigation des Fahrzeugs und eines automatisierten, insbesondere hochautomatisierten oder autonomen Fahrbetriebs des Fahrzeugs signifikant verbessert werden.When using a digital map created in an aforementioned method, it is intended to be used in a vehicle to carry out a navigation function and/or to carry out automated driving. By using a digital map that is thus very accurate and correctly executed, the availability and reliability of navigation of the vehicle and of automated, in particular highly automated or autonomous, driving of the vehicle can be significantly improved.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Embodiments of the invention are explained in more detail below with reference to drawings.
Dabei zeigen:
-
1 schematisch ein Luftbild einer Straßenkreuzung mit einer Mehrzahl von Fahrzeugen und Trajektorien, -
2 schematisch ein Luftbild der Straßenkreuzung gemäß1 mit Trajektoriengruppen vor einer Optimierung und das Luftbild der Straßenkreuzung gemäß1 mit Trajektoriengruppen nach einer Optimierung, -
3 schematisch ein Luftbild der Straßenkreuzung gemäß1 mit Trajektorien nach einer Segmentierung von Trajektoriengruppen und -
4 schematisch einen Ablauf eines Verfahrens zur Erstellung einer digitalen Karte.
-
1 schematically an aerial photograph of a road junction with a plurality of vehicles and trajectories, -
2 schematically an aerial photograph of the road junction according to1 with trajectory groups before optimization and the aerial image of the road junction according to1 with trajectory groups after optimization, -
3 schematically an aerial photograph of the road junction according to1 with trajectories after a segmentation of trajectory groups and -
4 schematically shows a process for creating a digital map.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference numerals in all figures.
In
In einem möglichen Ausführungsbeispiel eines erfindungsgemäßen Verfahrens zur Erstellung einer in
Hierzu wird eine Erfassung von Luftbilder L des vorgegebenen geografischen Raums durchgeführt. Diese Erfassung erfolgt beispielsweise anhand von Satelliten als Satellitenbilder und/oder anhand zumindest einer Kamera als Luftaufnahme. Dabei wird der geografische Raum mittels eines Luftbilds L aus einer Vogelperspektive dargestellt. For this purpose, aerial photographs L of the given geographical area are recorded. This recording is carried out, for example, using satellites as satellite images and/or using at least one camera as an aerial photograph. The geographical area is represented by means of an aerial photograph L from a bird's eye view.
Das Luftbild L kann dabei beispielsweise in einem RGB-Format oder einem anderen geeigneten Format vorliegen.The aerial photograph L can, for example, be in an RGB format or another suitable format.
Weiterhin werden mittels einer Mehrzahl von Fahrzeugen F1 bis Fn bei Befahrungen in dem geografischen Raum Trajektorien T1, T2 mit Verläufen von geografischen Positionen des jeweiligen Fahrzeugs F1 bis Fn aufgezeichnet.Furthermore, trajectories T1, T2 with courses of geographical positions of the respective vehicle F1 to Fn are recorded by means of a plurality of vehicles F1 to Fn when traveling in the geographical area.
Anschließend wird eine Datenaufbereitung für beide Datenquellen, das heißt für die erfassten Luftbilder L und die aufgezeichneten Trajektorien T1, T2 durchgeführt. Die Datenaufbereitung wird insbesondere getrennt für beide Datenquellen durchgeführt.Subsequently, data processing is carried out for both data sources, i.e. for the captured aerial photographs L and the recorded trajectories T1, T2. In particular, data processing is carried out separately for both data sources.
Die Datenaufbereitung wird anhand der
Die Trajektorien T1 bis Tm der Fahrzeuge F1 bis Fn bestehen zumindest im Wesentlichen aus einer zeitlichen Abfolge von geografischen Positionen, beispielsweise GPS-Positionen, der Fahrzeuge F1 bis Fn, die zusammengefasst eine Trajektoriengruppen TG1 bis TGy, auch als Trajektorienspur oder Trace bezeichnet, ergeben.The trajectories T1 to Tm of the vehicles F1 to Fn consist at least essentially of a temporal sequence of geographical positions, for example GPS positions, of the vehicles F1 to Fn, which together form a trajectory group TG1 to TGy, also referred to as a trajectory track or trace.
Solche Trajektoriengruppen TG1 bis TGy können aus verschiedenen Gründen, wie beispielsweise so genannten Multi-Path-Effekten, ungenau sein. Um diese Ungenauigkeit zu verbessern, wird in einer Optimierung der Trajektoriengruppen TG1 bis TGy eine Optimierung der geografischen Positionen der Trajektorien T1 bis Tm der Trajektoriengruppen TG1 bis TGy durchgeführt. Dies kann beispielsweise mit einer Methode aus der Klasse der so genannten Clustering-Verfahren durchgeführt werden. Weiterhin wird eine Ausrichtung der geografischen Positionen in longitudinaler und lateraler Richtung zueinander durchgeführt. Dabei werden vorliegende Fahrzeugbeobachtungen von Lokalisierungsobjekten genutzt und es wird eine Fehlerkorrektur aufgrund gleicher beobachteter geographischer Lokalisierungsmerkmale durchgeführt. Durch diese Optimierung der Trajektoriengruppen TG1 bis TGy können - wie in der rechten Darstellung verdeutlicht - tatsächliche Fahrspurverläufe deutlich besser dargestellt werden.Such trajectory groups TG1 to TGy can be inaccurate for various reasons, such as so-called multi-path effects. In order to improve this inaccuracy, an optimization of the geographical positions of the trajectories T1 to Tm of the trajectory groups TG1 to TGy is carried out in an optimization of the trajectory groups TG1 to TGy. This can be done, for example, using a method from the class of so-called clustering methods. Furthermore, an alignment of the geographical positions in the longitudinal and lateral direction to each other is carried out. Existing vehicle observations of localization objects are used and an error correction is carried out based on the same observed geographical localization features. Through this optimization of the trajectory groups TG1 to TGy, actual lane courses can be represented much better - as shown in the illustration on the right.
Um eine Leistungsfähigkeit des lernbasierten Verfahrens zu steigern, werden in einer Vorverarbeitung Muster in den Eingangsdaten hervorgehoben, so dass eine Komplexität der Eingangsdaten reduziert werden kann. Dies erfolgt durch eine Segmentierung der Trajektoriengruppen TG1 bis TGy, was durch die Darstellung in
Diese Segmentierung wird basierend auf definierten Merkmalen, wie beispielsweise einer Fahrtrichtung und/oder Geschwindigkeit der Fahrzeuge F1 bis Fn, welche jeweils die Trajektorien T1 bis Tm zur Erstellung der Trajektoriengruppen TG1 bis TGy aufzeichnen, durchgeführt. Die Segmentierung kann beispielsweise durch den Einsatz weiterer Clusteringverfahren, wie beispielsweise des so genannten DBSCAN-Verfahrens, durchgeführt werden. Eine durch Anwendung solcher Clusteringverfahren realisierte Datenreduktion kann durch eine Anwendung von Regressionstechniken ergänzt werden, bei denen ein mathematisches Modell verwendet wird, um die Trajektoriengruppen TG1 bis TGy zu segmentieren.This segmentation is carried out based on defined features, such as a direction of travel and/or speed of the vehicles F1 to Fn, which each record the trajectories T1 to Tm to create the trajectory groups TG1 to TGy. The segmentation can be carried out, for example, by using additional clustering methods, such as the so-called DBSCAN method. A data reduction realized by applying such clustering methods can be supplemented by applying regression techniques in which a mathematical model is used to segment the trajectory groups TG1 to TGy.
Mittels der Segmentierung können einem in dem lernbasierten Verfahren verwendeten prädiktiven Modell weitere Merkmale bereitgestellt werden, so dass dessen Leistungsfähigkeit gesteigert werden kann. In möglichen Ausführungsbeispielen werden mittels des lernbasierten Verfahrens solche Cluster selbst in den Daten gefunden.By means of segmentation, further features can be provided to a predictive model used in the learning-based method, so that its performance can be increased. In possible embodiments, such clusters are found in the data itself using the learning-based method.
Weiterhin werden auch die Luftbilder L für den Einsatz des lernbasierten Verfahrens aufbereitet. Um bestimmte Merkmale in den Luftbildern L hervorzuheben, können diese in einem gesonderten Vorverarbeitungsschritt durch Methoden, wie beispielsweise eine radiometrische Kalibrierung, vorprozessiert werden, um eine spätere Verarbeitung durch das lernbasierte Verfahren zu optimieren.Furthermore, the aerial photographs L are also prepared for use with the learning-based method. In order to highlight certain features in the aerial photographs L, these can be pre-processed in a separate pre-processing step using methods such as radiometric calibration in order to optimize subsequent processing using the learning-based method.
Im Anschluss an die Vorverarbeitung der Eingangsdaten der beiden Datenquellen, das heißt im Anschluss an die Segmentierung der Trajektoriengruppen TG1 bis TGy und der gegebenenfalls durchgeführten Aufbereitung der Luftbilder L, erfolgt eine Kombination beider Datenquellen in eine Datenrepräsentation.Following the preprocessing of the input data from both data sources, i.e. following the segmentation of the trajectories groups TG1 to TGy and the possible processing of the aerial photographs L, both data sources are combined into one data representation.
Dazu werden die Trajektoriengruppen TG1 bis TGy und die Luftbilder L zunächst zueinander ausgerichtet. Hierzu können neben einer einfachen Ausrichtung anhand einer jeweiligen geografischen Lage weitere Schritte zur Ausrichtung verwendet werden. So können zum einen Höheninformationen der Trajektoriengruppen TG1 bis TGy verwendet werden, um optische Verzerrungen im Luftbild L auszugleichen. Weiter können, ähnlich wie bei der beschriebenen Vorverarbeitung der Trajektoriengruppen TG1 bis TGy, erkannte Lokalisierungsmerkmale der Trajektoriengruppen TG1 bis TGy, welche auch innerhalb der Luftbilder L gefunden werden können, wie beispielsweise Fahrspurmarkierungen, genutzt werden, um die Trajektoriengruppen TG1 bis TGy anhand der Luftbilder L auszurichten. Somit können unter anderem auch Orientierungsabweichungen vermieden werden.To do this, the trajectory groups TG1 to TGy and the aerial photographs L are first aligned with each other. In addition to a simple alignment based on a respective geographical location, further alignment steps can be used. For example, height information from the trajectory groups TG1 to TGy can be used to compensate for optical distortions in the aerial photograph L. Furthermore, similar to the described preprocessing of the trajectory groups TG1 to TGy, recognized localization features of the trajectory groups TG1 to TGy, which can also be found within the aerial photographs L, such as lane markings, can be used to align the trajectory groups TG1 to TGy based on the aerial photographs L. This can also avoid orientation deviations, among other things.
Die somit erzeugte gemeinsame Darstellung dient im späteren Verlauf als Datengrundlage für das lernbasierte Verfahren, welches in
Durch die Kombination beider Datenquellen entsteht ein umfassender Datensatz aus Bildern, welche sowohl eine Luftaufnahme L der Straßen als auch die projizierten Trajektoriengruppen TG1 bis TGy enthalten. Eine Datenaufbereitung und Datenvorbereitung werden durch eine Einteilung des Datensatzes in kleinere, homogene Datenpunkte abgeschlossen, welche jeweils einzelne Straßenbereiche enthalten.The combination of both data sources creates a comprehensive dataset of images that contain both an aerial photograph L of the streets and the projected trajectory groups TG1 to TGy. Data processing and data preparation are completed by dividing the dataset into smaller, homogeneous data points, each of which contains individual street areas.
Zur tatsächlichen Ableitung von Fahrspurgeometrien FG und Fahrspurtopologien FT innerhalb der aufbereiteten Daten kommt ein lernbasiertes Modell aus dem Bereich des KI-basierten Bildverstehens zum Einsatz, wie beispielsweise ein Convolutional Neural Network CNN. Dies zeigt
Hierbei wird eine Inferenz der gewünschten Daten als ein so genanntes Instance Segmentation-Problem formuliert, bei dem eine neuronales Netz des Convolutional Neural Networks CNN jede Instanz einer Trajektoriengruppe TG1 bis TGy in den Luftbildern L erkennen und entsprechend ausgeben soll. Die Wahl des neuronalen Netzes motiviert die zuvor beschriebene Aufbereitung der Daten in Form von prozessierten Luftbildern L und projizierten Trajektoriengruppe TG1 bis TGy als Eingangsdaten. Diese werden genutzt, um als Ausgangsinformationen die Fahrspurgeometrien FG und Fahrspurtopologien FT in der digitalen Karte K zu prädizieren.Here, an inference of the desired data is formulated as a so-called instance segmentation problem, in which a neural network of the convolutional neural network CNN is to recognize each instance of a trajectory group TG1 to TGy in the aerial images L and output it accordingly. The choice of the neural network motivates the previously described preparation of the data in the form of processed aerial images L and projected trajectory groups TG1 to TGy as input data. These are used to predict the lane geometries FG and lane topologies FT in the digital map K as output information.
Der Einsatz lernbasierter Verfahren erfordert immer ein Training des verwendeten Modells mit geeigneten, vorausgewählten Daten. Bildverstehen fällt dabei in den Bereich des so genannten Supervised Learnings, was zum erfolgreichen Training des Modells so genannte Ground-Truth-Daten benötigt. Diese Daten sind zuvor von einem Menschen attributiert worden und werden dazu genutzt, Parameter des neuronalen Netzes zu adaptieren.The use of learning-based methods always requires training the model used with suitable, preselected data. Image understanding falls into the area of so-called supervised learning, which requires so-called ground truth data to successfully train the model. This data has previously been attributed by a human and is used to adapt parameters of the neural network.
Durch das Convolutional Neural Network CNN wird zunächst das Problem der Erkennung der Fahrspursegmente im Eingangsbild, das heißt im Luftbild L, sowie deren tatsächliche geografische Ausdehnung gelöst. Zur vollständigen Erzeugung eines Fahrspur-Layers muss weiter die Fahrspurtopologie FT, also eine Relation der gefundenen Fahrspursegmente zueinander bestimmt werden. Hierfür eignen sich zwei Ansätze. Zum einen kann das lernbasierte Modell dahingehend ergänzt werden, dass die Relation bereits innerhalb des Modells gelöst wird. Alternativ kann durch eine Berücksichtigung der Fahrtrichtungen der entsprechenden Trajektoriengruppe TG1 bis TGy in einem anschließenden heuristischen Post-Processing-Schritt eine Topologie der erkannten Fahrspursegmente im Luftbild L abgeleitet werden. Beide Varianten lassen sich vollständig automatisiert in das Verfahren integrieren.The convolutional neural network CNN first solves the problem of detecting the lane segments in the input image, i.e. in the aerial image L, and their actual geographical extent. To fully generate a lane layer, the lane topology FT, i.e. a relationship between the lane segments found, must also be determined. Two approaches are suitable for this. Firstly, the learning-based model can be supplemented so that the relationship is already solved within the model. Alternatively, a topology of the detected lane segments in the aerial image L can be derived by taking into account the directions of travel of the corresponding trajectory group TG1 to TGy in a subsequent heuristic post-processing step. Both variants can be integrated into the process in a fully automated manner.
Ein abschließender Verarbeitungsschritt zur Erzeugung der digitalen Karte K beinhaltet die Rücktransformation der Bilddaten in eine globale geografische Repräsentation und die Zusammenführung der jeweiligen Bildsegmente in eine globale digitale Karte K. Dabei werden die Ergebnisse der aufgeteilten Luftbilder L an Bildergrenzen wieder zusammengeführt. Das heißt, für benachbarte geografische Räume ermittelte Fahrspursegmente werden zu Fahrspurverläufen von Fahrbahnen der digitalen Karte K zusammengesetzt.A final processing step for generating the digital map K includes the re-transformation of the image data into a global geographical representation and the merging of the respective image segments into a global digital map K. The results of the divided aerial photographs L are merged again at image boundaries. This means that lane segments determined for neighboring geographical areas are combined to form lane courses of roadways in the digital map K.
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102023002030.3A DE102023002030B3 (en) | 2023-05-19 | 2023-05-19 | Procedure for creating a digital map |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102023002030.3A DE102023002030B3 (en) | 2023-05-19 | 2023-05-19 | Procedure for creating a digital map |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102023002030B3 true DE102023002030B3 (en) | 2024-06-06 |
Family
ID=90825689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102023002030.3A Active DE102023002030B3 (en) | 2023-05-19 | 2023-05-19 | Procedure for creating a digital map |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102023002030B3 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112418037A (en) | 2020-11-12 | 2021-02-26 | 武汉光庭信息技术股份有限公司 | Method and system for identifying lane lines in satellite picture, electronic device and storage medium |
DE102019215522A1 (en) | 2019-10-10 | 2021-04-15 | Robert Bosch Gmbh | Method for updating attributes in a digital map |
DE102022001030B3 (en) | 2022-03-25 | 2023-03-30 | Mercedes-Benz Group AG | Method for determining a navigation route for automated driving of a vehicle |
-
2023
- 2023-05-19 DE DE102023002030.3A patent/DE102023002030B3/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019215522A1 (en) | 2019-10-10 | 2021-04-15 | Robert Bosch Gmbh | Method for updating attributes in a digital map |
CN112418037A (en) | 2020-11-12 | 2021-02-26 | 武汉光庭信息技术股份有限公司 | Method and system for identifying lane lines in satellite picture, electronic device and storage medium |
DE102022001030B3 (en) | 2022-03-25 | 2023-03-30 | Mercedes-Benz Group AG | Method for determining a navigation route for automated driving of a vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3491339B1 (en) | Method, device and computer-readable storage medium with instructions for determining the lateral position of a vehicle relative to the lanes of a road | |
DE102013208521B4 (en) | Collective learning of a highly accurate road model | |
DE112016004370T5 (en) | Vehicle control and vehicle control device | |
DE102017221407A1 (en) | FAHRASSISTENZSYSTEM USING NAVIGATION INFORMATION AND ITS OPERATING PROCESS | |
WO2018197122A1 (en) | Method for automatically producing and updating a dataset for an autonomous vehicle | |
WO2020016385A1 (en) | Method and system for determining a position of a vehicle | |
WO2018019465A1 (en) | Method, device and computer-readable storage medium with instructions for determining the lateral position of a vehicle relative to the lanes of a road | |
EP3465088A1 (en) | Method, device and computer readable storage medium with instructions for determining the lateral position of a vehicle relative to the lanes of a carriageway | |
DE102020127855A1 (en) | SAFETY SYSTEM, AUTOMATED DRIVING SYSTEM AND PROCEDURE FOR IT | |
DE102020200169B3 (en) | Method for merging several data sets for the generation of a current lane model of a roadway and device for data processing | |
DE102020110269B4 (en) | Method for determining an information gap in a lane marking model for a motor vehicle and system for carrying out such a method | |
WO2019052867A1 (en) | Method for determining a course of driving lanes of a road network, and server device for carrying out the method | |
DE102019217144B4 (en) | Traffic light lane assignment from swarm data | |
DE102023002030B3 (en) | Procedure for creating a digital map | |
DE102020105250A1 (en) | Determining the course of a lane delimitation | |
DE102014204933A1 (en) | Method and device for generating a segmentation layer | |
DE102015211150B4 (en) | Method, driver assistance system and vehicle for learning a trajectory of a road section | |
DE102017011982A1 (en) | Method for route forecasting | |
EP3963287B1 (en) | Method and apparatus for creating a first map | |
DE102013217060A1 (en) | Accurate positioning of a vehicle | |
WO2022002564A1 (en) | Determining a starting position of a vehicle for locating | |
DE102013217061A1 (en) | Accurate positioning of a vehicle | |
DE102016212786A1 (en) | Driver assistance system for an ego vehicle on a path of a road network and method for operating the driver assistance system | |
DE102021211463A1 (en) | Method, controller and system for controlling an automated vehicle | |
DE112021006809T5 (en) | ASSISTANCE DEVICE FOR AUTOMATED DRIVING AND METHOD FOR ASSISTING DURING AUTOMATED DRIVING |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division |