DE102016206761A1 - Verfahren zur Verbesserung und Absicherung von Landmarkendetektionen - Google Patents

Verfahren zur Verbesserung und Absicherung von Landmarkendetektionen Download PDF

Info

Publication number
DE102016206761A1
DE102016206761A1 DE102016206761.3A DE102016206761A DE102016206761A1 DE 102016206761 A1 DE102016206761 A1 DE 102016206761A1 DE 102016206761 A DE102016206761 A DE 102016206761A DE 102016206761 A1 DE102016206761 A1 DE 102016206761A1
Authority
DE
Germany
Prior art keywords
detected
vehicle
location
user
detected object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102016206761.3A
Other languages
English (en)
Inventor
Jan Rohde
Holger Mielenz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102016206761.3A priority Critical patent/DE102016206761A1/de
Publication of DE102016206761A1 publication Critical patent/DE102016206761A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Abstract

Die Erfindung betrifft ein Verfahren und ein Fahrerassistenzsystem zur Lokalisierung eines Fahrzeugs in einem Verkehrsszenario.

Description

  • Stand der Technik
  • Die Erfindung betrifft ein Verfahren und ein System zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs.
  • Aus der noch nicht veröffentlichen Patentschrift DE 10 2015 215 105 ist ein Verfahren bekannt, welches ein Verfahren zum Betreiben eines Fahrerassistenzsystems beschreibt. Hierbei kann das Fahrerassistenzsystem mit einer Umfeldeinleseeinrichtung zum Erfassen oder Einlesen eines Umfelds des Fahrzeugs mittels verschiedener Sensoren gekoppelt sein. So kann die Umfeldeinleseeinrichtung etwa zur Erkennung eines Verkehrsszenariums, in dem sich das Fahrzeug befindet, dienen bzw. dieses von Sensoren erkannte Verkehrsszenario einlesen. Unter einem Verkehrsszenario kann u.a. eine durch bestimmte Landmarken, d. h. statische, zuverlässig detektierbare Entitäten, wie z.B. Infrastrukturelemente (z.B. Straßenlaternen) oder abstrakte Umgebungsmerkmale wie z.B. Straßenmarkierungen, charakterisierte Fahrsituation verstanden werden. Die Information über das aktuelle Verkehrsszenario kann auch aus der Fahrzeugpose und Karteninformationen gewonnen werden und bedarf daher nicht unbedingt einer Umfelderfassung im eigentlichen Sinne. Unter einem Detektionsalgorithmus, auch Detektor genannt, kann eine Vorschrift zum Detektieren von Objekten eines bestimmten, einem jeweils erkannten Verkehrsszenario zugeordneten Objekttyps verstanden werden. Beispielsweise kann der Detektionsalgorithmus dazu dienen, Fahrspurmarkierungen zu erfassen, wenn das Fahrzeug eine entsprechend markierte Fahrbahn befährt. Mittels des Erkennungssignals kann ein dem erkannten Verkehrsszenario entsprechender Detektionsalgorithmus aktiviert werden. Bei dem Detektionsalgorithmus handelt es sich somit um einen Algorithmus dessen Ausführung eine szenarioabhängige Priorisierung aufweist. Unter Verwendung des Detektionsalgorithmus können im Schritt des Detektierens beispielsweise nur diejenigen Objekte detektiert werden, die für das jeweilige Verkehrsszenario relevant sind. Ein solches Verfahren erfordert jedoch eine dementsprechend leistungsfähige Hardware und außerdem gegebenenfalls eine Vielzahl von Sensoren zur Erfassung oder Einlesens eines Umfelds des Fahrzeugs.
  • Offenbarung der Erfindung
  • Um diesem Problem zu begegnen, wird erfindungsgemäß ein Verfahren, zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs sowie ein entsprechend ausgebildetes Fahrerassistenzsystem vorgeschlagen. Das Verfahren weist hierbei die folgenden Verfahrensschritte auf:
    • a. Im ersten Verfahrensschritt wird ein Erkennungssignal eingelesen. Dieses Erkennungssignal repräsentiert ein mittels einer Umfeldeinleseeinrichtung des Fahrzeugs eingelesenes oder erkanntes Verkehrsszenario.
    • b. Als nächstes wird mittels des eingelesenen Erkennungssignals zumindest ein Detektionsalgorithmus des Fahrerassistenzsystems aktiviert.
    • c. Darauf folgt mittels des Detektionsalgorithmus die Detektion zumindest eines Objekts eines dem eingelesenen oder erkannten Verkehrsszenario zugeordneten Objekttyps, woraufhin das Fahrzeugs mittels des zumindest einen detektierten Objekts in dem eingelesenen oder erkannten Verkehrsszenario lokalisiert wird. Falls das zumindest eine detektierte Objekt zur Lokalisierung des Fahrzeugs in dem Verkehrsszenario eine Messgenauigkeit unterhalb eines dem zumindest einen detektierten Objekt zugeordneten Schwellenwertes aufweist, erfolgen zusätzlich die folgenden Verfahrensschritte: C1. Das detektierte Objekt, sowie ein Standort des detektierten Objekts und/oder ein dem zumindest einen Objekt zugeordneter Objekttyp wird einem Benutzer des Fahrzeugs, beispielsweise auf einem Bildschirm, angezeigt. C2. Durch Eingabe des Benutzers kann der angezeigte Objektstandort und/oder der zugeordnete Objekttyp akzeptiert oder verworfen werden. C3. Falls der Benutzer durch seine Eingabe den angezeigten Objektstandort und/oder den zugeordneten Objekttyp akzeptiert, wird das Fahrzeug in dem erkannten Verkehrsszenario mittels des zumindest einen detektierten Objekts lokalisiert.
  • Der hier beschriebene Ansatz beruht auf der Erkenntnis, dass ein Fahrerassistenzsystem derart konfiguriert werden kann, dass in Abhängigkeit von einer erkannten Verkehrssituation ein oder mehrere Detektoren zum Detektieren von Objekten eines bestimmten, der jeweiligen Verkehrssituation zugeordneten Typs aktiviert werden. Dies hat den Vorteil, dass je nach Verkehrssituation nur diejenigen Objekte detektiert und analysiert werden können, die für die zuverlässige Ermittlung einer Fahrzeugposition oder -trajektorie innerhalb der jeweiligen Verkehrssituation tatsächlich relevant sind. Die Ermittlung einer Fahrzeugposition und damit die Lokalisierung des Fahrzeugs kann beispielsweise auf einem Abgleich von Sensormessungen mit einer bereits bekannten Karte des Fahrzeugumfelds basieren. Aus den Sensormessungen können mithilfe von Detektoren Objekthypothesen gebildet werden. Über die Art und Anordnung der Objekte kann wiederum auf eine Pose, d. h. eine Position und Orientierung des Fahrzeugs in der Karte geschlossen werden. Der zur Detektion der Objekte benötigte Rechen- und Sensoraufwand kann nun reduziert werden, wenn ein Benutzer wie in dem dargestellten Verfahren beschrieben, mit einbezogen wird. Dies geschieht hierbei dadurch, dass die endgültige Entscheidung über den zur Lokalisierung verwendeten, angezeigten Objektstandort und/oder den zugeordneten Objekttyp beim Benutzer liegt. Der Benutzer hat hierbei nicht über alle detektierten Objekte zu entscheiden, sondern nur über Objekte, welche eine Messgenauigkeit unterhalb eines jedem detektierten Objekt zugeordneten Schwellenwertes aufweist. Diese Schwellenwerte können für jedes detektierte Objekt, abhängig von der Relevanz des jeweiligen detektierten Objekts zur Lokalisierung des Fahrzeugs in dem Verkehrsszenario, einen unterschiedlichen Wert aufweisen. Zur Beurteilung des Beitrags eines detektierten Objekts zu dem Lokalisierungsergebnis kann ein stochastisches Modell, wie beispielsweise in „J. Rohde, J. E. Stellet, H. Mielenz and J. M. Zollner, "Model-Based Derivation of Perception Accuracy Requirements for Vehicle Localization in Urban Environments," Intelligent Transportation Systems (ITSC), 2015 IEEE 18th International Conference on, Las Palmas, 2015, pp. 712–718“ gezeigt, verwendet werden. Damit wird sichergestellt, dass die Aufmerksamkeit des Fahrers nicht zu sehr von dem Fahrerassistenzsystem beansprucht wird, sondern dass ihm beispielsweise nur Objekte angezeigt werden, deren Messgenauigkeit einen großen Einfluss auf die genaue Lokalisierung des Fahrzeugs haben.
  • Vorzugsweise wird dem Benutzer zumindest ein weiteres, sich gegenüber dem zumindest einen detektierten Objekt im Objektstandort und/oder im zugeordneten Objekttyp unterscheidendes, Objekt zur Lokalisierung des Fahrzeugs in dem erkannten Verkehrsszenario angezeigt, falls der Benutzer den angezeigten Objektstandort und/oder den zugeordneten Objekttyp des zumindest einen detektierten Objekts verwirft. Der Benutzer kann den angezeigten Objektstandort und/oder des zugeordneten Objekttyp des zumindest einen weiteren detektierten Objekts durch Eingabe akzeptieren oder verwerfen und falls der Benutzer durch seine Eingabe den angezeigten Objektstandort und/oder den zugeordneten Objekttyp des zumindest einen weiteren detektierten Objekts akzeptiert, wird das Fahrzeug mittels des zumindest einen, weiteren detektierten Objekts in dem eingelesenen oder erkannten Szenario lokalisiert. Dies bietet den Vorteil, dass beim Verwerfen von Objekten des Benutzers nicht beispielsweise das Verfahren abgebrochen werden muss bzw. das Fahrerassistenzsystem abgeschaltet wird, sondern, dass stattdessen dem Benutzer ein weiteres Objekt zur Auswahl angezeigt wird um trotzdem eine Lokalisierung des Fahrzeugs zu ermöglichen.
  • Vorzugsweise kann der Benutzer den angezeigten Standort des zumindest einen Objekts und/oder den zumindest einen, dem Objekt zugeordneten, Objekttyp ändern, falls er den angezeigten Objektstandort und/oder den zugeordneten Objekttyp des zumindest einen detektierten Objekts verwirft. Das Fahrzeug wird dann mittels des zumindest einen detektierten Objekts, bei dem der Objektstandort und/oder der zugeordneten Objekttyp vom Benutzer geändert wurde, in dem eingelesenen oder erkannten Szenario lokalisiert. Der zur Detektion der Objekte benötigte Rechen- und Sensoraufwand kann so reduziert werden, da der Benutzer wie in dem dargestellten Verfahren beschrieben, mit einbezogen wird.
  • Vorzugsweise wird der dem zumindest einen detektierten Objekt zugeordnete Schwellenwert bei dem Auftreten eines sich wiederholenden Verkehrsszenariums automatisch so eingestellt, dass dem Benutzer fortlaufend, also beim wiederholten Befahren desselben oder eines ähnlichen Verkehrsszenario, bei jedem Mal weniger detektierte Objekte angezeigt, für die eine Eingabe nötig ist. Der Benutzer hat also zur Lokalisierung des Fahrzeugs in dem bekannten Verkehrsszenario immer weniger detektierte Objekte zu akzeptieren oder zu verwerfen. Der Benutzer wird also schrittweise immer mehr aus dem Verfahren genommen und seine benötigte Aufmerksamkeit zum sicheren Betreiben des Fahrerassistenzsystems somit reduziert. Mit anderen Worten wird das System durch die Eingaben des Fahrers trainiert.
  • Nach einem weiteren Aspekt der Erfindung wird ein Fahrerassistenzsystem vorgestellt, das zur Ausführung des erfindungsgemäßen Verfahrens eingerichtet ist. Dieses System umfasst wenigstens eine Steuereinheit, die ein Erkennungssignal, das ein mittels einer Umfeldeinleseeinrichtung des Fahrzeugs eingelesenes oder erkanntes Verkehrsszenario repräsentiert, einliest und mittels des Erkennungssignals zumindest ein Detektionsalgorithmus aktiviert. Zudem umfasst es eine Recheneinheit, die mittels des Detektionsalgorithmus zumindest ein Objekt eines dem erkannten Verkehrsszenario zugeordneten Objekttyps detektiert und einen Standort des Objekts und/oder einen dem detektierten Objekt zugeordneten Objekttyp berechnet. Die Recheneinheit vergleicht zudem die Messgenauigkeit des zumindest einen detektierten Objekts mit einem dem zumindest einen detektierten Objekt zugeordneten Schwellenwert. Des Weiteren ist eine Anzeigeeinheit vorgesehen, die das von der Recheneinheit zumindest eine detektierte Objekt und/oder einen Standort des zumindest einen Objekts anzeigt, falls das zumindest eine detektierte Objekt zur Lokalisierung des Fahrzeugs in dem Verkehrsszenario eine Messgenauigkeit unterhalb eines dem zumindest einen detektierten Objekt zugeordneten Schwellenwertes aufweist. Das System umfasst zusätzlich eine Eingabeeinheit, in die ein Benutzer des Fahrzeugs eine Eingabe zum Akzeptierten oder Verwerfen des Objektstandorts und/oder des zugeordneten Objekttyps tätigen kann. Die Steuereinheit lokalisiert das Fahrzeug in dem erkannten Verkehrsszenario mittels des zumindest einen detektierten Objekts.
  • Kurze Beschreibung der Zeichnungen
  • 1 zeigt einen Verfahrensablauf gemäß einer ersten Ausführungsform der Erfindung zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs
  • 2 zeigt eine Ausführungsform des erfindungsgemäßen Fahrerassistenzsystems.
  • 3 zeigt schematisch eine Draufsicht auf eine Situation bei der ein Fahrzeug in verschiedenen Verkehrsszenarien und die dem Benutzer zur Lokalisierung des Fahrzeugs in dem zugeordneten Verkehrsszenario detektierten, angezeigten Objekte dargestellt sind.
  • Ausführungsbeispiele
  • 1 zeigt ein Beispiel für einen erfindungsgemäßen Verfahrensablauf zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs. Dabei wird im ersten Schritt 10 des Verfahrens ein Erkennungssignal eingelesen. Dieses Erkennungssignal repräsentiert ein mittels einer Umfeldeinleseeinrichtung des Fahrzeugs eingelesenes oder erkanntes Verkehrsszenario. Unter einem Verkehrsszenario kann beispielsweise eine durch bestimmte Landmarken, wie z.B. Straßenlaternen, Ampeln oder Bodenwellen charakterisierte Fahrsituation verstanden werden. Die Umfeldeinleseeinrichtung kann beispielsweise als Umfelderfassungssystems oder auch als einfaches Navigationssystem ausgebildet sein. Anschließend wird in einem zweiten Schritt 20 des Verfahrens mittels des Erkennungssignals zumindest ein Detektionsalgorithmus des Fahrerassistenzsystems aktiviert. Im dritten Schritt 30 des Verfahrens wird dann zumindest ein Objekt eines dem eingelesenen oder erkannten Verkehrsszenario zugeordneten Objekttyps mittels des aktivierten Detektionsalgorithmus detektiert. Unter einem Detektionsalgorithmus, auch Detektor genannt, kann eine Vorschrift zum Detektieren von Objekten eines bestimmten, einem jeweils erkannten Verkehrsszenario zugeordneten Objekttyps verstanden werden. Beispielsweise kann der Detektionsalgorithmus dazu dienen, eine Ampel zu erfassen, wenn das Fahrzeug eine Kreuzung erreicht. Daraufhin folgt der Vergleich 40 der Messgenauigkeit des detektierten Objekts mit einem dem detektierten Objekt zugeordneten Schwellenwert. Ed folgt die Lokalisierung 60 des Fahrzeugs mittels des zumindest einen detektierten Objekts, falls das zumindest eine detektierte Objekt zur Lokalisierung in dem Verkehrsszenario eine Messgenauigkeit oberhalb eines dem zumindest einen detektierten Objekt zugeordneten Schwellenwertes 43 aufweist. Falls das zumindest eine detektierte Objekt zur Lokalisierung des Fahrzeugs in dem Verkehrsszenario eine Messgenauigkeit unterhalb eines dem zumindest einen detektierten Objekt zugeordneten Schwellenwertes 44 aufweist, wird im Schritt 45 zumindest ein Standort des zumindest einen Objekts und/oder ein dem zumindest einen Objekt zugeordneter Objekttyp für einen Benutzer angezeigt. Der Schwellenwert kann sich in einem weiteren Ausführungsbeispiel bei dem Auftreten eines sich wiederholenden Verkehrsszenarios automatisch so einstellen, dass dem Benutzer fortlaufend weniger detektierte Objekte angezeigt werden. In dem nächsten erfindungsgemäßen Verfahrensschritt 50 kann der Benutzer den angezeigten Objektstandort und/oder den zugeordneten Objekttyp durch Eingabe akzeptieren 52 oder verwerfen 51. Falls der Benutzer durch seine Eingabe den angezeigten Objektstandort und/oder den zugeordneten Objekttyp akzeptiert 51, wird im nächsten Schritt 60 das Fahrzeug mittels des zumindest einen detektierten Objekts in dem eingelesenen oder erkannten Verkehrsszenario lokalisiert.
  • Optional kann der Benutzer, falls er den angezeigten Objektstandort und/oder den zugeordneten Objekttyp verwirft 51 in einem weiteren Verfahrensschritt 70 die Entscheidung treffen, ob er sich ein weiteres, sich gegenüber dem zumindest einen detektierten Objekt im Objektstandort und/oder im zugeordneten Objekttyp unterscheidendes Objekt zur Lokalisierung des Fahrzeugs anzeigen lassen möchte 71 oder ob er den angezeigten Standort des zumindest einen Objekts und/oder den zumindest einen dem Objekt zugeordneten Objekttyp ändern möchte 72. Im Falle der Entscheidung zur Änderung des angezeigten Standorts des zumindest einen Objekts und/oder des zumindest einen dem Objekt zugeordneten Objekttyps, wird im Verfahrensschritt 80 zunächst der Objektstandort und/oder der angezeigte Objekttyp vom Benutzer geändert. Dies kann beispielsweise mittels der Eingabe des Benutzers in ein Touchpad geschehen. In dem darauf folgenden Verfahrensschritt 85 wird das Fahrzeug optional mittels des zumindest einen detektierten Objekts, bei dem der Objektstandort und/oder der zugeordneten Objekttyp vom Benutzer geändert wurde, in dem eingelesenen oder erkannten Szenario lokalisiert. Falls der Benutzer die Entscheidung trifft, sich ein weiteres, sich gegenüber dem zumindest einen detektierten Objekt im Objektstandort und/oder im zugeordneten Objekttyp unterscheidendes Objekt zur Lokalisierung des Fahrzeugs anzeigen zu lassen, kann diese Anzeige im nächsten Verfahrensschritt 75 geschehen. Der Benutzer kann nun im Verfahrensschritt 100 entscheiden, ob er den Objektstandort und/oder den zugeordneten Objekttyp des zumindest einen weiteren Objekts akzeptiert 102 oder verwirft 101. Falls der Benutzer durch seine Eingabe den angezeigten Objektstandort und/oder den zugeordneten Objekttyp des zumindest einen weiteren detektierten Objekts akzeptiert 102, wird das Fahrzeug im nächsten Verfahrensschritt 90 mittels des zumindest einen weiteren Objekts in dem eingelesenen oder erkannten Szenario lokalisiert. Falls der Benutzer durch seine Eingabe den angezeigten Objektstandort und/oder den zugeordneten Objekttyp des zumindest einen weiteren detektierten Objekts verwirft 101, kann die Entscheidungsfindung wieder von vorne neu beginnen und der Benutzer im Verfahrensschritt 105 entscheiden, ob er sich ein weiteres, sich gegenüber dem zumindest einen detektierten Objekt im Objektstandort und/oder im zugeordneten Objekttyp unterscheidendes Objekt zur Lokalisierung des Fahrzeugs anzeigen lassen möchte 106 oder ob er den angezeigten Standort des zumindest einen Objekts und/oder den zumindest einen dem Objekt zugeordneten Objekttyp ändern möchte 107. Dieser Verfahrensablauf kann analog zu den zuvor beschriebenen Schritten fortgeführt werden, bis ein neues Erkennungssignal eingelesen wird.
  • 2 zeigt eine Ausführungsform des erfindungsgemäßen Fahrerassistenzsystems.
  • Hierbei besteht das Fahrerassistenzsystem 130 aus einer Steuereinheit 105, einer Recheneinheit 115, einer Anzeigeeinheit 110, sowie einer Eingabeeinheit 120. In diesem Ausführungsbeispiel ist die Recheneinheit 115 in die Steuereinheit 105 integriert, diese kann jedoch auch außerhalb der Steuereinheit 105 angeordnet sein. Die Steuereinheit 105 des Fahrerassistenzsystems 130 liest ein Erkennungssignal ein, welches mittels einer Umfeldeinleseeinrichtung 140 erfasst wurde und ein eingelesenes oder erkanntes Verkehrsszenario repräsentiert. Als Grundlage für die Wahrnehmung des Fahrzeugumfelds werden in der Regel Sensormessdaten verwendet. Es können jedoch auch beispielsweise Navigationsdaten sein. Mittels des Erkennungssignals wird von der Steuereinheit 105 zumindest ein Detektionsalgorithmus aktiviert. Die Recheneinheit 115 des Fahrerassistenzsystems 130 detektiert mittels des aktivierten Detektionsalgorithmus zumindest ein Objekt eines dem eingelesenen oder erkannten Verkehrsszenario zugeordneten Objekttyps. Zusätzlich berechnet die Recheneinheit 115 einen Standort und/oder einen dem detektierten Objekt zugeordneten Objekttyp und vergleicht eine Messgenauigkeit des detektierten Objekts mit einem dem zumindest einen detektierten Objekt zugeordneten Schwellenwert. Die Anzeigeeinheit 110, welche in diesem Ausführungsbeispiel außerhalb der Steuereinheit 105 angeordnet ist, zeigt das zumindest eine von der Recheneinheit 115 detektierte Objekt und/oder einen Standort des zumindest einen detektierten Objekts an, falls das detektierte Objekt zur Lokalisierung des Fahrzeugs in dem Verkehrsszenario eine Messgenauigkeit unterhalb eines dem zumindest einen detektierten Objekt zugeordneten Schwellenwertes aufweist. Zusätzlich umfasst das Fahrerassistenzsystem 130 eine Eingabeeinheit 120, die eine Eingabe des eines Benutzers des Fahrzeugs erfasst, wobei durch die Eingabe der Objektstandort und/oder der zugeordnete Objekttyp eines von der Anzeigeeinheit 110 angezeigtes Objekt akzeptiert oder verworfen wird. Falls der Benutzer den angezeigten Objektstandort und/oder der zugeordnete Objekttyp akzeptiert, kann die Steuereinheit 105 das Fahrzeug in dem eingelesenen oder erkannten Verkehrsszenario mittels des zumindest einen detektierten Objekts lokalisieren.
  • 3 zeigt schematisch eine Draufsicht auf eine Situation, bei der sich ein Fahrzeug 150a, 150b, 150c in verschiedenen Verkehrsszenarien befindet. In den verschiedenen Verkehrsszenarien sind als Beispiele Landmarken dargestellt, welche detektiert werden können und dann zur Lokalisierung des Fahrzeugs in dem entsprechenden Verkehrsszenario dienen können.
  • Das Fahrzeug 150a befindet sich auf einer zweispurigen, Fahrbahn und hat auf seiner Fahrt keinen Hindernissen auszuweichen. Das Fahrerassistenzsystem 130 kann hierbei ein Erkennungssignal, das ein mittels einer Umfeldeinleseeinrichtung 140 des Fahrzeugs eingelesenes oder erkanntes Verkehrsszenario repräsentiert, erfassen. Als Grundlage für die Wahrnehmung des Fahrzeugumfelds werden in der Regel Sensormessdaten verwendet. Es können jedoch auch beispielsweise Navigationsdaten sein. Das Fahrerassistenzsystem 130 kann in dieser Situation anhand beispielsweise eines stochastischen Modells zur Bewertung des Beitrags einer Landmarke zur Lokalisierung erkennen, dass dies ein Verkehrsszenario darstellt, welches für die zuverlässige Ermittlung einer Fahrzeugposition oder -trajektorie innerhalb der jeweiligen Verkehrssituation die Einbeziehung des Benutzers nicht erfordert. Daher werden die Schwellenwerte, welche dem zumindest einen detektierten Objekt zugeordnet werden, automatisch so niedrig gesetzt, dass kein detektiertes Objekt eine Messgenauigkeit unterhalb des zugeordneten Schwellenwertes aufweist. In solch einer nicht besonders sicherheitskritischen Verkehrssituation kann dem Benutzer also entweder gar kein Objekt oder beispielsweise nur die Fahrbahnmarkierungen 180 als zumindest ein Objekt eines dem eingelesenen oder erkannten Verkehrsszenario zugeordneten Objekttyps zur Entscheidung angezeigt werden.
  • Das Fahrzeug 150b befindet sich in der Einfahrt zu einem Parkplatzbereich 210. In diesem Verkehrsszenario kann das Fahrerassistenzsystem 130 erkennen, dass es sich hier um ein Verkehrsszenario handelt, wobei der Benutzer mehr einbezogen werden muss, um die zuverlässige Ermittlung einer Fahrzeugposition oder -trajektorie innerhalb des Verkehrsszenario zu garantieren. Daher werden die Schwellenwerte, welche dem zumindest einen detektierten Objekt zugeordnet werden, automatisch so hoch gesetzt, dass mehrere detektierte Objekte eine Messgenauigkeit unterhalb des ihnen jeweils zugeordneten Schwellenwertes aufweisen. Verschiedene Objekte eines dem eingelesenen oder erkannten Verkehrsszenario zugeordnete Objekttypen erfordern in diesem Szenario also eine hohe Messgenauigkeit, um das Fahrzeug in dem Verkehrsszenario eindeutig zu lokalisieren. Im Schritt des Detektierens kann unter Verwendung des Detektionsalgorithmus zumindest ein Objekt eines dem Verkehrsszenario zugeordneten ersten Objekttyps zum lateralen Lokalisieren des Fahrzeugs detektiert werden. Unter einer lateralen Lokalisierung kann die Ermittlung einer Position des Fahrzeugs quer zur Fahrtrichtung, etwa zwischen zwei Fahrbahnmarkierungen oder -begrenzungen, verstanden werden. In diesem Fall könnte hierzu beispielsweise die erste Bodenwelle 180 dienen. Entsprechend kann unter einer longitudinalen Lokalisierung die Ermittlung der Position des Fahrzeugs in Fahrtrichtung verstanden werden. Auf dieser Abbildung könnte hierzu beispielsweise die zweite Bodenwelle 200 dienen. Dem Benutzer können diese detektieren Objekte und deren Standort und/oder der zugeordnete Objekttyp, wie beispielsweise „Bodenwelle“ angezeigt werden, woraufhin dieser den anzeigten Objektstandort und/oder den zugeordneten Objekttyp durch Eingabe akzeptieren oder verwerfen kann. Falls der Benutzer durch seine Eingabe den angezeigten Objektstandort der Bodenwellen 180, 200 und/oder den zugeordneten Objekttyp „Bodenwelle“ akzeptiert, kann das detektierte Objekt dem Fahrerassistenzsystem 130 dazu dienen, das Fahrzeug in dem eingelesenen oder erkannten Verkehrsszenario zu lokalisieren.
  • Das Fahrzeug 150c befindet sich in einem Einparkvorgang in den Parkplatz 180. Da es sich hier um ein Verkehrsszenario handelt, in der die zuverlässige Ermittlung einer Fahrzeugposition oder -trajektorie innerhalb des Verkehrsszenarios sehr wichtig ist, wird der Benutzer durch das Fahrerassistenzsystem 130 maximal mit einbezogen. Das Fahrerassistenzsystem 130 kann in dieser Situation anhand beispielsweise eines stochastischen Modells zur Bewertung des Beitrags einer Landmarke zur Lokalisierung erkennen, dass dies ein Verkehrsszenario darstellt, welches für die zuverlässige Ermittlung einer Fahrzeugposition oder -trajektorie innerhalb der jeweiligen Verkehrssituation eine maximale Messgenauigkeit des zumindest einen detektierten Objekts benötigt. Daher werden die Schwellenwerte, welche dem zumindest einen detektierten Objekt zugeordnet werden, automatisch so hoch gesetzt, dass alle detektierten Objekte eine Messgenauigkeit unterhalb des ihnen jeweils zugeordneten Schwellenwertes aufweisen. Zur zuverlässigen Lokalisierung des Fahrzeugs in longitudinale, sowie laterale Richtung können dem Benutzer die erste Bodenwelle 180, die Straßenlaterne 220, sowie die Parkplatzmarkierung 180, sowie deren Standort und Objekttyp angezeigt werden und der Benutzer durch seine Eingabe den angezeigten Objektstandort und/oder den zugeordneten Objekttyp akzeptieren oder verwerfen. Optional wäre es auch vorstellbar, dass Fahrerassistenzsystem 130 trainiert wird. Damit wäre es beispielsweise möglich, dass sich der Schwellenwert bei dem Auftreten eines sich wiederholenden Verkehrsszenarios automatisch so einstellt, dass dem Benutzer fortlaufend weniger detektierte Objekte angezeigt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102015215105 [0002]
  • Zitierte Nicht-Patentliteratur
    • J. Rohde, J. E. Stellet, H. Mielenz and J. M. Zollner, "Model-Based Derivation of Perception Accuracy Requirements for Vehicle Localization in Urban Environments," Intelligent Transportation Systems (ITSC), 2015 IEEE 18th International Conference on, Las Palmas, 2015, pp. 712–718 [0004]

Claims (5)

  1. Verfahren zur Lokalisierung eines Fahrzeugs (150a, 150b, 150c) in einem Verkehrsszenario, wobei das Verfahren zumindest die folgenden Schritte umfasst: a. Einlesen (10) eines Erkennungssignals, das ein mittels einer Umfeldeinleseeinrichtung (140) des Fahrzeugs (150a, 150b, 150c) eingelesenes oder erkanntes Verkehrsszenario repräsentiert, und b. Aktivieren (20) zumindest eines Detektionsalgorithmus des Fahrerassistenzsystems (130) mittels des Erkennungssignals, und c. Detektieren (30) zumindest eines Objekts eines dem eingelesenen oder erkannten Verkehrsszenario zugeordneten Objekttyps mittels des Detektionsalgorithmus, und Lokalisieren (60) des Fahrzeugs (150a, 150b, 150c) mittels des zumindest einen detektierten Objekts oder falls das zumindest eine detektierte Objekt zur Lokalisierung des Fahrzeugs (150a, 150b, 150c) in dem Verkehrsszenario eine Messgenauigkeit unterhalb eines dem zumindest einen detektierten Objekt zugeordneten Schwellenwertes aufweist, c1. Anzeigen (45) eines Standorts des zumindest einen detektierten Objekts und/oder eines dem zumindest einen detektierten Objekt zugeordneten Objekttyps für einen Benutzer, und c2. Akzeptieren (52) oder Verwerfen (51) des angezeigten Objektstandorts und/oder des zugeordneten Objekttyps durch Eingabe des Benutzers, und c3. Lokalisierung (60) des Fahrzeugs (150a, 150b, 150c) mittels des zumindest einen detektierten Objekts in dem eingelesenen oder erkannten Verkehrsszenario, falls der Benutzer durch seine Eingabe den angezeigten Objektstandort und/oder den zugeordneten Objekttyp akzeptiert.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass dem Benutzer zumindest ein weiteres, sich gegenüber dem zumindest einen detektierten Objekt im Objektstandort und/oder im zugeordneten Objekttyp unterscheidendes Objekt zur Lokalisierung des Fahrzeugs (150a, 150b, 150c) in dem erkannten Verkehrsszenario angezeigt wird, falls der Benutzer den angezeigten Objektstandort und/oder den zugeordneten Objekttyp des zumindest einen detektierten Objekts verwirft, wobei der Benutzer den angezeigten Objektstandort und/oder des zugeordneten Objekttyp des zumindest einen weiteren detektierten Objekts durch Eingabe akzeptieren oder verwerfen kann und falls der Benutzer durch seine Eingabe den angezeigten Objektstandort und/oder den zugeordneten Objekttyp des zumindest einen weiteren detektierten Objekts akzeptiert, das Fahrzeug (150a, 150b, 150c) mittels des zumindest einen weiteren detektierten Objekts in dem eingelesenen oder erkannten Szenario lokalisiert wird.
  3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass der Benutzer den angezeigten Standort des zumindest einen Objekts und/oder den zumindest einen dem Objekt zugeordneten Objekttyp ändern kann, falls der Benutzer den angezeigten Objektstandort und/oder den zugeordneten Objekttyp des zumindest einen detektierten Objekts verwirft, wobei das Fahrzeug (150a, 150b, 150c) mittels des zumindest einen detektierten Objekts in dem eingelesenen oder erkannten Szenario lokalisiert wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass sich der dem zumindest einen detektierten Objekts zugeordnete Schwellenwert bei dem Auftreten eines sich wiederholenden Verkehrsszenarios automatisch so einstellt, dass dem Benutzer fortlaufend weniger detektierte Objekte angezeigt werden.
  5. Fahrerassistenzsystem (130) eingerichtet zur Ausführung eines Verfahrens nach einem der Ansprüche 1 bis 4, wenigstens umfassend: – eine Steuereinheit (105), die eingerichtet ist ein Erkennungssignal einzulesen und mittels des Erkennungssignals zumindest ein Detektionsalgorithmus zu aktivieren, – eine Recheneinheit (115), die eingerichtet ist mittels des Detektionsalgorithmus zumindest ein Objekt eines dem eingelesenen oder erkannten Verkehrsszenario zugeordneten Objekttyps zu detektieren und einen Standort des Objekts und/oder einen dem detektierten Objekt zugeordneten Objekttyp zu berechnen und eine Messgenauigkeit des detektierten Objekts mit einem dem zumindest einen detektierten Objekt zugeordneten Schwellenwert zu vergleichen, – eine Anzeigeeinheit (110), die eingerichtet ist das zumindest eine von der Recheneinheit (115) detektierte Objekt und/oder einen Standort des zumindest einen detektierten Objekts anzuzeigen, falls das zumindest eine detektierte Objekt zur Lokalisierung des Fahrzeugs (150a, 150b, 150c) in dem Verkehrsszenario eine Messgenauigkeit unterhalb eines dem zumindest einen detektierten Objekt zugeordneten Schwellenwertes aufweist, – eine Eingabeeinheit (120), die eingerichtet ist eine Eingabe eines Benutzers des Fahrzeugs (150a, 150b, 150c) zu erfassen, wobei durch die Eingabe der Objektstandort und/oder der zugeordneten Objekttyp eines von der Anzeigeeinheit (110) angezeigtes Objekt akzeptiert oder verworfen wird, wobei die Steuereinheit (105) eingerichtet ist das Fahrzeug (150a, 150b, 150c) in dem erkannten Verkehrsszenario mittels des zumindest einen detektierten Objekts zu lokalisieren.
DE102016206761.3A 2016-04-21 2016-04-21 Verfahren zur Verbesserung und Absicherung von Landmarkendetektionen Ceased DE102016206761A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016206761.3A DE102016206761A1 (de) 2016-04-21 2016-04-21 Verfahren zur Verbesserung und Absicherung von Landmarkendetektionen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016206761.3A DE102016206761A1 (de) 2016-04-21 2016-04-21 Verfahren zur Verbesserung und Absicherung von Landmarkendetektionen

Publications (1)

Publication Number Publication Date
DE102016206761A1 true DE102016206761A1 (de) 2017-10-26

Family

ID=60021263

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016206761.3A Ceased DE102016206761A1 (de) 2016-04-21 2016-04-21 Verfahren zur Verbesserung und Absicherung von Landmarkendetektionen

Country Status (1)

Country Link
DE (1) DE102016206761A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110942671A (zh) * 2019-12-04 2020-03-31 北京京东乾石科技有限公司 车辆危险驾驶检测方法、装置以及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10311241A1 (de) * 2003-03-14 2004-09-23 Robert Bosch Gmbh Verfahren und Einrichtung für die Spurführung eines Fahrzeugs
DE102013102087A1 (de) * 2013-03-04 2014-09-04 Conti Temic Microelectronic Gmbh Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs
DE102014214507A1 (de) * 2014-07-24 2016-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10311241A1 (de) * 2003-03-14 2004-09-23 Robert Bosch Gmbh Verfahren und Einrichtung für die Spurführung eines Fahrzeugs
DE102013102087A1 (de) * 2013-03-04 2014-09-04 Conti Temic Microelectronic Gmbh Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs
DE102014214507A1 (de) * 2014-07-24 2016-01-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
J. Rohde, J. E. Stellet, H. Mielenz and J. M. Zollner, "Model-Based Derivation of Perception Accuracy Requirements for Vehicle Localization in Urban Environments," Intelligent Transportation Systems (ITSC), 2015 IEEE 18th International Conference on, Las Palmas, 2015, pp. 712–718

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110942671A (zh) * 2019-12-04 2020-03-31 北京京东乾石科技有限公司 车辆危险驾驶检测方法、装置以及存储介质

Similar Documents

Publication Publication Date Title
DE102017206847B4 (de) Verfahren zum automatischen Erstellen und Aktualisieren eines Datensatzes für ein autonomes Fahrzeug
EP2394234B1 (de) Verfahren und vorrichtung zum ermitteln einer geltenden fahrspurmarkierung
EP3380811B1 (de) Verfahren und system zum erstellen einer digitalen karte
DE102016211182A1 (de) Verfahren, Vorrichtung und System zum Durchführen einer automatisierten Fahrt eines Fahrzeugs entlang einer aus einer Karte bereitgestellten Trajektorie
DE102017129075A1 (de) Parkplatznavigationssystem und -verfahren
DE102016208777A1 (de) Fahrassistenzvorrichtung und Fahrassistenzverfahren
DE102010033729A1 (de) Verfahren und Vorrichtung zum Bestimmen der Position eines Fahrzeugs auf einer Fahrbahn sowie Kraftwagen mit einer solchen Vorrichtung
DE102016203723A1 (de) Verfahren und System zum Bestimmen der Pose eines Fahrzeugs
DE112013004890B4 (de) Fahrzeugnavigationssystem
EP3380810B1 (de) Verfahren, vorrichtung, kartenverwaltungseinrichtung und system zum punktgenauen lokalisieren eines kraftfahrzeugs in einem umfeld
DE102015203016A1 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102015115012A1 (de) Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102015220252A1 (de) Spurhalte-Unterstützungssystem und Verfahren für dieses
WO2016150590A1 (de) Verfahren und vorrichtung zum überwachen einer von einem fahrzeug abzufahrenden soll-trajektorie auf kollisionsfreiheit
EP3465090A1 (de) Verfahren zum bereitstellen einer fahrzeugtrajektorieninformation und verfahren zum orten eines schlaglochs
DE102008041679A1 (de) Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung
DE102016210534A1 (de) Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs
DE102018221054A1 (de) Verfahren zum Bereitstellen von Kartendaten in einem Kraftfahrzeug, Kraftfahrzeug und zentrale Datenverarbeitungseinrichtung
DE102016215840A1 (de) Verfahren zur Erfassung von im Fahrzeugumfeld befindlichen Bordsteinen
DE102018115317A1 (de) Verfahren und Fahrunterstützungssystem zum Betreiben eines Fahrzeugs oder zum Unterstützen eines Fahrers des Fahrzeugs unter Verwendung von Fahrspurinformation
DE102018211368A1 (de) Verfahren zur Beschreibung einer Umgebung eines Fahrzeugs durch die Topologie der befahrenen Straße
DE102014202503A1 (de) Verfahren und Vorrichtung zum Bestimmen eines Abstands eines Fahrzeugs zu einem verkehrsregelnden Objekt
DE102017004721A1 (de) Verfahren zur Lokalisierung eines Fahrzeugs
DE102007024641A1 (de) Verfahren und Vorrichtung zur Darstellung einer Fahrzeugumgebung
DE102015006569A1 (de) Verfahren zur bildbasierten Erkennung des Straßentyps

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final