-
Die Erfindung betrifft ein Verfahren zur Validierung abstrakter Kartenobjektbeziehungen für eine digitale Karte gemäß dem Oberbegriff des Anspruchs 1.
-
Für autonome Fahrzeuge werden sehr detaillierte Kartendaten benötigt, um die Umfelderfassung der Fahrzeuge zu ergänzen und zu plausibilisieren. Die Bestimmung der geometrischen Ausprägung von Kartenobjekten, beispielsweise über SLAM-Verfahren ist gut beherrschbar. Weiterhin ungelöst ist jedoch die robuste Bestimmung abstrakter Kartenobjektbeziehungen (beispielsweise Vorfahrtsregelung von Spursegmenten) und Attributierung (beispielsweise Art der Ampelanlage).
-
Es ist bekannt, diese Informationen über komplizierte, meist manuell entwickelte Entscheidungskriterien (Empiriken und Heuristiken) abzuleiten und gegebenenfalls manuell zu prüfen. Diese Entscheidungskriterien müssen jeweils an die länderspezifischen Gegebenheiten angepasst werden, beispielweise an Links- oder Rechtsverkehr oder ob Ampelanlagen vor oder hinter einer Kreuzung stehen.
-
Die Entwicklung solcher Kriterien ist enorm aufwändig und in komplexen Kreuzungen für einen Menschen kaum zu überblicken. Stark vereinfachte Kriterien, die für einen Menschen noch nachvollziehbar sind, können die Komplexität nur grob abbilden und haben folglich einen hohen Einfluss auf die erreichbare Güte des Kriteriums. Ein weiterer Nachteil der manuellen Entwicklung solcher Entscheidungskriterien sind die enormen Kosten, die Skalierbarkeit und die Fehlerrate, die auch über die Menge der Kartendaten konstant bleibt. Ein manuell entwickeltes Kriterium ist beispielsweise die Bestimmung der Vorfahrt (Traffic Flow Priority) zweier sich überschneidender Spursegmente, wobei ein Geradeausfahrer einem von rechts kommenden Verkehrsteilnehmer Vorfahrt gewähren muss, falls keine Schilder oder Ampeln im Widerspruch dazu stehen. Ein solches Kriterium algorithmisch umzusetzen ist enorm schwierig, da beispielsweise. „von rechts kommend“ kein eindeutiger Begriff ist.
-
Aus der
DE 10 2017 200 072 A1 ist ein Verfahren zum Validieren einer digitalen Karte für ein Fahrzeug bekannt. Das Verfahren umfasst folgende Schritte:
- - Radarbasiertes Ermitteln von Umfelddaten mittels einer Ermittlungseinrichtung des Fahrzeugs;
- - Vergleichen der ermittelten Umfelddaten mit entsprechenden Daten der digitalen Karte; und
- - Verifizieren einer Gültigkeit der digitalen Karte für den Fall, dass die radarbasiert ermittelten Umfelddaten mit den Daten der digitalen Karte in einem definierten Ausmaß übereinstimmen.
-
Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Validierung abstrakter Kartenobjektbeziehungen für eine digitale Karte anzugeben.
-
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist.
-
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
-
Ein erfindungsgemäßes Verfahren zur Validierung von Kartenobjektbeziehungen und Attributierungen für eine digitale Karte weist die folgenden Schritte auf:
- - Erfassen von Umfelddaten mittels einer Erfassungseinrichtung eines Fahrzeugs,
- - Vergleichen der ermittelten Umfelddaten mit entsprechenden Daten der digitalen Karte,
- - Verifizieren einer Gültigkeit der digitalen Karte für den Fall, dass die ermittelten Umfelddaten mit den Daten der digitalen Karte in einem definierten Ausmaß übereinstimmen.
-
Erfindungsgemäß wird eine Referenzkarte auf der Grundlage von Fahrzeugdaten und erfassten Umfelddaten erstellt, wobei eine initiale Ermittlung von Attributen und Objektbeziehungen der Kartenelemente durchgeführt wird, beispielsweise über Heuristiken/Empiriken sowie manuelle Prüfung. Ferner wird ein Machine-Learning-Verfahren auf der Referenzkarte trainiert, wobei das Machine-Learning-Verfahren mit Daten der Referenzkarte, beispielsweise Abstand der Kartenobjekte zueinander, Orientierung der Objekte zueinander, Überlappung der Objektgeometrien, Anzahl von Objekten in der Nähe, trainiert wird, um die Attribute und Beziehungen der Referenzkarte zu schätzen (beispielsweise Vorfahrtsregelung). Ferner wird das Machine-Learning-Verfahren auf eine neue oder veränderte Karte angewandt, um mit den Daten der neuen oder veränderten Karte die Attribute und Objektbeziehungen zu schätzen.
-
Der große Vorteil besteht darin, dass sich die Daten, die als Eingangsdaten im Machine-Learning-Verfahren verwendet werden (beispielsweise der Abstand), gut automatisiert berechnen lassen. Die Geometrie von Kartenobjekten kann beispielsweise über einen Filter wie das SLAM-Verfahren aus Fahrzeugdaten ermittelt werden. Die komplexen Attribute und Beziehungen werden dann durch das Machine-Learning-Verfahren automatisiert auf diesen Daten ermittelt.
-
Typische Machine-Learning-Verfahren, die sich zum Training auf Referenzkarten zur automatisierten Ermittlung der Attribute und Beziehungen eignen, sind die Support Vector Machine (SVM), der Random Forest, der Bayes-Klassifikator, neuronale Netze oder Faltungsnetze.
-
Das erfindungsgemäße Verfahren weist folgende Vorteile auf:
- • Skalierbarkeit - Der Ansatz lässt sich problemlos automatisiert auf viele Kartendaten anwenden.
- • Iterative Verbesserung - Mit neuen, manuell gelabelten Daten, beispielsweise aus weiteren Erstbefahrungen können die Kl-Algorithmen weiter trainiert werden. Dadurch wird deren Performance gesteigert und der Fehler konvergiert schlussendlich gegen 0.
- • Transfer Learning - Über transfer learning kann, basierend auf einem bereits trainierten Algorithmus, ein anderer Algorithmus weiter optimiert werden und die Gewichte/Parameter müssen nicht neu gelernt werden. Dies ist insbesondere sinnvoll, wenn neue Länder mit kleinerer Kartenabdeckung bei abweichender Verkehrsregelung validiert werden sollen.
- • Höhere Komplexität der Entscheidungskriterien - Für einen Menschen ist bei der Entwicklung von Entscheidungskriterien über Heuristiken und Empiriken ein hochdimensionaler Raum nur schwer überschaubar. Infolgedessen werden oft nur wenige Parameter berücksichtigt, wodurch die erreichbare Performance sich verschlechtert.
- • Geringere Kosten - Der Ansatz benötigt mit zunehmender Zeit und Menge der Daten immer weniger manuellen Aufwand.
- • Interpretierbarkeit und Sicherheit des Ergebnisses - Ein Kl-Algorithmus kann auch bezüglich weiterer Kriterien, wie Performance, optimiert werden. Beispielsweise lassen sich die Parameter eines Decision Tree oder Random Forrest besser interpretieren. Eine SVM gibt eine Wahrscheinlichkeit/Sicherheit an, die beschreibt, wie sicher/eindeutig das Ergebnis ist.
- • Vorselektion von Attributen und Beziehungen bei den sich das ML Verfahren „unsicher“ ist für die manuelle Validierung. Bspw. kann bei SVM der Abstand zum Kernel verwendet werden.
-
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
-
Dabei zeigen:
- 1 schematisch ein Luftbild mit Verkehrswegen,
- 2 ein Diagramm von Orientierungsunterschieden verschiedener Ampelanlagen und Stopplinien in Abhängigkeit einer euklidischen Distanz,
- 3 Objekte aus 2, die in der Karte eine Beziehung zueinander haben,
- 4 schematisch ein Luftbild mit Verkehrswegen sowie eine Beziehung zwischen einer Ampelanlage und Stopplinien, und
- 5 ein Diagramm von Orientierungsunterschieden der Ampelanlage und Stopplinien gemäß 4 in Abhängigkeit einer euklidischen Distanz.
-
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
-
1 zeigt schematisch ein Luftbild mit Verkehrswegen umfassend Spursegmente S, denen Verkehrsschilder V als komplexe Kartenobjektbeziehung zugeordnet sind.
-
Es ist bekannt, Kartenobjektbeziehung über komplizierte, meist manuell entwickelte Entscheidungskriterien (Empiriken und Heuristiken) abzuleiten und gegebenenfalls manuell zu prüfen. Diese Entscheidungskriterien müssen jeweils an die länderspezifischen Gegebenheiten angepasst werden, beispielweise an Links- oder Rechtsverkehr oder ob Ampelanlagen vor oder hinter einer Kreuzung stehen.
-
Die Entwicklung solcher Kriterien ist enorm aufwändig und in komplexen Kreuzungen für einen Menschen kaum zu überblicken. Stark vereinfachte Kriterien, die für einen Menschen noch nachvollziehbar sind, können die Komplexität nur grob abbilden und haben folglich einen hohen Einfluss auf die erreichbare Güte des Kriteriums. Ein weiterer Nachteil der manuellen Entwicklung solcher Entscheidungskriterien sind die enormen Kosten, die Skalierbarkeit und die Fehlerrate, die auch über die Menge der Kartendaten konstant bleibt.
-
Gemäß der vorliegenden Erfindung soll die manuelle Entwicklung von Entscheidungskriterien durch einen lernenden Ansatz, dem nur grobe algorithmische Strukturen vorgegeben werden, ersetzt werden. Ein Beispiel aus dem Themengebiet der Künstlichen Intelligenz (Kl) ist das Klassifizierungsproblem.
-
Hier werden Funktionsparameter eines Klassifikators, beispielsweise eine Support Vector Machine (SVM) oder ein Random Forest, über vorher gelabelte Daten trainiert, das heißt die Parameter der groben algorithmischen Struktur werden so optimiert, dass eine Performance, gemessen als Fläche (AUC - Area under the Curve) unter einer Grenzwertoptimierungskurve (ROC - Receiver Operating Characteristic), erreicht wird. Die algorithmische Struktur wird in der Regel auf einem Trainingsdatensatz trainiert und auf einem separaten Validierungsdatensatz validiert.
-
2 zeigt ein stark vereinfachtes Klassifizierungsproblem in Form eines Diagramms von Orientierungsunterschieden SH verschiedener Ampelanlagen und Stopplinien in Abhängigkeit von einer euklidischen Distanz D. In 2 wurden in einer Voruntersuchung die euklidische Distanz D und der Orientierungsunterschied SH mehrerer Ampelanlagen und Stopplinien gegeneinander aufgetragen. 3 zeigt nur die Objekte aus 2, die in der Karte eine Beziehung zueinander haben. Ampelanlagen bestimmen, ob über eine Stopplinie gefahren werden darf oder nicht, und haben eine „CONTROLLED BY“-Beziehung.
-
Anhand der Daten des in den 2 und 3 dargestellten Klassifizierungsproblems kann eine Support Vector Machine trainiert werden. Während der Optimierung werden die Funktionsparameter iterativ so angepasst, dass sich die Klassen möglichst gut trennen lassen. Dies wird in 5 verdeutlicht.
Punkte die sehr nahe an der Klassifizierungsgrenze liegen könnten in einem manuellen Schritt geprüft und gelabelt werden. Damit erhöht man beim Validieren neuer Kartendaten die Trainingsdaten mit moderatem manuellem Aufwand. Der vergrößerte Datensatz kann dann verwendet werden um detailliertere ML Verfahren zu trainieren um eine bessere Schätzung zu bekommen.
-
4 zeigt schematisch ein Luftbild mit Verkehrswegen sowie eine Beziehung zwischen einer Ampelanlage A und Stopplinie SL. 5 zeigt ein Diagramm von Orientierungsunterschieden SH der Ampelanlage A und Stopplinien SL gemäß 4 in Abhängigkeit von einer euklidischen Distanz D, wobei zwei voneinander durch eine trainierte Support Vector Machine getrennte Klassen K1 (Beziehung), K2 (keine Beziehung) dargestellt sind.
-
Das dargestellte Klassifizierungsproblem und die Support Vector Machine, die die grobe algorithmische Struktur vorgibt, soll die Idee der automatisierten Validierung komplexer Kartenattribute und Objektbeziehungen beispielhaft skizzieren.
-
Andere Klassifikatoren wie Naive Bayes, Neuronale Netze, Convolutional Neural Networks (CNN), Random Forest könnten statt der Support Vector Machine ebenso verwendet werden. Um eine möglichst gute Performance (AUC ROC) zu bekommen könnte außerdem die Dimension des Input-Vektors vergrößert werden. Man könnte mehr Daten zur Verfügung stellen als nur den in 2 gezeigten zweidimensionalen Raum. Neben der absoluten Distanz D könnte beispielsweise ein lateraler und longitudinaler Versatz und binäre Verknüpfungen der Objekte (beispielsweise ein nachfolgendes Spursegment) mit angegeben werden. Um den Rechenaufwand vor der Optimierung moderat zu halten, kann eine vorherige Hauptkomponentenanalyse (principal component analysis), die den Raum entlang von Vektoren mit höchster Streuung aufbaut, sinnvoll sein, insbesondere wenn hochdimensionale oder unverarbeitete Eingangsvektoren gewählt werden.
-
Bei end-to-end learning würde ein kompletter Kartenausschnitt (tile) als Eingang und der Beziehungs-/Attributvektor als Ausgang des Klassifikators gewählt werden. Ein solcher Ansatz stellt jedoch Herausforderungen an die Datenmengen.
-
In einer weiteren vorteilhaften Ausführung werden weitere Informationen im Lernprozess herangezogen, so dass der Lösungsraum hochdimensional wird. Neben geometrischen Abhängigkeiten wie Abstand und Ausrichtung, Spurzuordnungen, Verkehrszeichen und Spurmarkierungen können auch allgemeine Verkehrsregeln integriert werden, beispielsweise Höchstgeschwindigkeiten in Ortschaften oder Durchschnittsgeschwindigkeiten auf Streckenabschnitten.
-
Weiter kann ein Zeitabstand bestimmt werden, der eine Distanz in eine Fahrzeit umrechnet, da Schilder bei höheren Geschwindigkeiten mit mehr Vorlauf platziert werden.
-
Außerdem können zeitliche Abhängigkeiten bestimmt werden, indem beispielsweise ein Fahrzeug in einer Simulation eine Strecke abfährt und dabei der Verlauf von Streckenevents über der Zeit beobachtet wird (beispielsweise Abstand zum Schild 60m, 50m, Folge von Verkehrsschildern 120, 100, 80 aber nicht 120 - 50). Methodisch kann dann ein rekursiver Ansatz wie ein LSTM (long short-term memory) eingesetzt werden, der eine Klassifikation auf Basis der aktuellen Daten in den vergangenen Daten umsetzt.
-
Weiter ist es möglich, mit Hilfe der Methode eine Karte zu erstellen, die Kartenfehler gemäß einer Auftretenswahrscheinlichkeit sortiert und auf einer Karte einzeichnet. Ein Routenplaner kann dann eine Route bestimmen, die ein Validierungsfahrzeug fahren muss, um mit möglichst wenig Fahrzeit möglichst viele potenzielle Kartenfehler zu validieren.
-
Bezugszeichenliste
-
- A
- Ampelanlage
- D
- Distanz
- K1
- Klasse
- K2
- Klasse
- S
- Spursegment
- SH
- Orientierungsunterschied
- SL
- Stopplinie
- V
- Verkehrsschild
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- DE 102017200072 A1 [0005]