DE102016216205B4 - Navigationsverfahren für selbstfahrende Fahrzeuge - Google Patents

Navigationsverfahren für selbstfahrende Fahrzeuge Download PDF

Info

Publication number
DE102016216205B4
DE102016216205B4 DE102016216205.5A DE102016216205A DE102016216205B4 DE 102016216205 B4 DE102016216205 B4 DE 102016216205B4 DE 102016216205 A DE102016216205 A DE 102016216205A DE 102016216205 B4 DE102016216205 B4 DE 102016216205B4
Authority
DE
Germany
Prior art keywords
light sources
vehicle
self
stationary
parking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016216205.5A
Other languages
English (en)
Other versions
DE102016216205A1 (de
Inventor
Stephan Max
Kristian Weiß
Sascha Bauer
Mehmet Eylem Kirlangic
Andreas Wege
Robert KONNOPKA
Lars Krüger
Jesko Klandt
Christian TENDYCK
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102016216205.5A priority Critical patent/DE102016216205B4/de
Publication of DE102016216205A1 publication Critical patent/DE102016216205A1/de
Application granted granted Critical
Publication of DE102016216205B4 publication Critical patent/DE102016216205B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Navigationsverfahren für zumindest teilweise selbstfahrende Kraftfahrzeuge (1) mit einer automatischen Einparkhilfe, dadurch gekennzeichnet, dassa) mittels einer Aufnahmevorrichtung aktive und passive Lichtquellen (4a-f) in der Fahrzeugumgebung detektiert und von einer Auswerteeinheit nach stationären und mobilen Lichtquellen (4a-f) sortiert werden undb) aus den Bildpositionen der stationären Lichtquellen (4a-e) innerhalb einer Bilderfolge und der Eigenbewegung des Fahrzeugs (1) ein dreidimensionales Koordinatensystem erstellt wird, in dem die Lichtquellen (4a-e) kartiert werden und in dem das Fahrzeug (1) lokalisierbar ist, so dass bereits einmal absolvierte Einparkmanöver selbstfahrend wiederholbar sind.

Description

  • Die vorliegende Erfindung betrifft ein Navigationsverfahren für zumindest teilweise selbstfahrende Fahrzeugemit einer automatischen Einparkhilfe.
  • Mit der zunehmenden Automatisierung von Park- und Fahrfunktionen von selbstfahrenden oder zumindest teilweise selbstfahrenden Fahrzeugen werden leistungsfähige Systeme benötigt, die ressourcenschonend eine exakte Ordnung des Fahrzeugs und eine exakte Lokalisierung von Objekten in der näheren Fahrzeugumgebung sowie des vorausliegenden Wegverlaufs ermöglichen. Beispielsweise wird beim sogenannten „trainierten Parken“ ein vorgegebenes Parkmanöver gespeichert und kann bei zukünftigen Parkmanövern an gleicher Stelle automatisch und selbständig von Fahrzeugen wiederholt werden. Das trainierte Parken findet häufig auf dem eigenen Grundstück und beim Abstellen des Fahrzeugs in Garagen und/oder Carports statt, wo im Wesentlichen stets eine gleiche oder zumindest eine ähnliche Einparkroutine erfolgt. Damit sich das Fahrzeug beim automatischen Einparken orientieren kann, wird die Umgebung während des vorgebenden Parkmanövers gescannt und die Bilder werden von einer Auswerteeinheit nach Merkmalspunkten mit einer hohen Signifikanz durchsucht. Bei den nachfolgenden automatischen Einparkmanövern kann sich das System an den identifizierten Merkmalspunkten orientieren und das Einparkmanöver exakt ausführen.
  • Problematisch sind bei der hier dargestellten visuellen Lokalisierung mittels einer Kamera unterschiedliche Lichtverhältnisse, die tageszeitabhängig schwanken. Insbesondere bei Nacht sind Helligkeits- und Farbkontraste nur unzureichend aufzulösen, so dass die identifizierten Merkmalspunkte nicht für eine exakte Orientierung wiederzufinden sind. Infolgedessen kann das automatische Einparken nicht angewendet werden und das Parkmanöver muss manuell durchgeführt werden.
  • Hiervon ausgehend ist die Aufgabe der vorliegenden Erfindung, ein Navigationsverfahren anzugeben, dass auch eine Orientierung und mithin ein automatisches Fahren/Einparken bei Dunkelheit ermöglicht.
  • Aus dem Stand der Technik sind verschiedene Fahrassistent- und Orientierungssysteme bekannt. Beispielsweise wird in US 2012/0253596 A1 vorgeschlagen, die Positionierung von Straßenlaternen zu registrieren um hieran festzustellen, ob die vorausliegende Straße eine Kurve enthält, so dass ein eventuelles Kurvenlicht entsprechend eingestellt werden kann.
  • DE 10 2014 216 577 A1 beschreibt demgegenüber ein Verfahren und eine Vorrichtung zur Unterstützung eines Fahrers eines Kraftfahrzeugs und insbesondere ein Verfahren zum automatischen Einparken, wozu Umfeldsensorik vorgesehen ist, die in Form von Ultraschall und Kameras sowie einem GPS-Empfänger ausgestaltet ist.
  • Ein weiteres Verfahren zur Einstellung eines Kurvenlichtes wird in US 2006/0106518 A1 beschrieben.
  • Diese Aufgabe wird durch das Navigationsverfahren nach Anspruch 1 gelöst, wonach erfindungsgemäß mittels einer Aufnahmevorrichtung aktive und passive Lichtquellen in der Fahrzeugumgebung detektiert und von einer Auswerteeinheit nach stationären und mobilen Lichtquellen sortiert werden. Aktive Lichtquellen sind dabei selbststrahlende Lichtquellen, wie beispielsweise Straßenlaternen oder Hofleuchten. Passive Lichtquellen sind Reflektoren, die von selbst nicht leuchten und nur als Lichtquelle identifiziert werden, wenn sie von einer anderen Lichtquelle ausgestrahlt werden. Aus den Bildpositionen der stationären Lichtquellen wird innerhalb einer Bilderfolge und der Eigenbewegung des Fahrzeugs ein dreidimensionales Koordinatensystem erstellt, in dem die Lichtquellen kartiert werden und in dem das Fahrzeug lokalisierbar ist, so dass bereits einmal absolvierte Einparkmanöver selbstfahrend wiederholbar sind. Mit anderen Worten werden mit der Aufnahmevorrichtung, beispielsweise einer Kamera, Lichtquellen detektiert und dahingehend klassifiziert, ob die Lichtquellen stationäre Leuchten, wie beispielsweise Straßenlaternen oder Hoflampen darstellen oder mobile Lichtquellen, wie beispielsweise Scheinwerfer von vorbeifahrenden Fahrzeugen. Aus den Bildpositionen der stationären Lichtquellen und der Eigenbewegung des Fahrzeugs wird ein lokales Koordinatensystem mit dreidimensionalen Positionen dieser Lichtquellen erstellt, was eine Ortung und Lokalisierung des Fahrzeugs erlaubt, so dass sich das Fahrzeug bei der Durchführung eines automatischen Parkmanövers mittels geeigneter Algorithmen orientieren kann.
  • Bevorzugte Ausführungsformen der vorliegenden Erfindung werden nachfolgend und in den Unteransprüchen angegeben.
  • Nach einer ersten bevorzugten Ausgestaltung der Erfindung ist vorgesehen, dass neben der Position der Lichtquellen auch deren Helligkeit und/oder Farbe registriert und gespeichert wird. Die Kenntnis über die frühere Helligkeit und Farbe von registrierten Lichtquellen ermöglicht eine schnellere und exaktere Kontrolle, ob eine später identifizierte Lichtquelle tatsächlich derjenigen entspricht, die bei vorherigen Einparkmanövern registriert wurde.
  • Um etwaige Veränderungen der Positionen stationärer Lichtquellen Rechnung zu tragen, ist vorzugsweise vorgesehen, dass die den Lichtquellen zugeordneten gespeicherten Daten bei nachfolgenden Fahrten, insbesondere bei nachfolgenden Einparkmanövern, aktualisiert werden. Damit die Nichtdetektion von normalerweise vorhandenen Lichtquellen nicht als Fehler gewertet werden, wenn beispielsweise die Lichtquellen tagsüber nicht angeschaltet sind und mithin nicht leuchten, ist vorzugsweise vorgesehen, dass die Umgebungshelligkeit bestimmt wird, so dass das System automatisch erkennt, ob die Lichtquellen angeschaltet sein können oder abgeschaltet sein müssten. Zur Bestimmung der Umgebungshelligkeiten wird vorzugsweise der fahrzeugeigene Regenlichtsensor verwendet oder die Umgebungshelligkeit wird über die Helligkeit der Aufnahme der Aufnahmevorrichtung bestimmt.
  • Es können auch passive Lichtquellen (z.B. Reflektoren, Spiegelungen) in der digitalen Karte gespeichert werden und bei der späteren Ortung berücksichtigt werden. Passive Lichtquellen sind insbesondere vom eigenen Fahrlicht abhängig, weshalb für eine sichere Zuordnung Informationen über das eigene Fahrlicht (z.B., Abblendlicht, Fernlicht, Lichtwerteregulierung) gespeichert werden.
  • Ein konkretes Ausführungsbeispiel der vorliegenden Erfindung wird im nachfolgenden anhand der Figuren erläutert. Es zeigen:
    • 1 eine schematische Darstellung einer häufigen Einparksituation und
    • 2 ein Flussdiagramm.
  • 1 zeigt eine typische Situation beim Einparken eines Fahrzeugs 1 in eine Garage 2. Um in die dargestellte Parkposition 3 zu gelangen und ein späteres automatisches Einparken zu ermöglichen, wird eine Trainingsfahrt entlang des Pfads 6 absolviert, bei der in der Fahrzeugumgebung vorhandene Lichtquellen 4a-f detektiert werden. Hierbei wird zunächst untersucht, ob es sich um stationäre oder mobile Lichtquellen handelt. Im Fall der Lichtquelle 4f handelt es sich im dargestellten Ausführungsbeispiel um eine Fahrradleuchte, die sich in Pfeilrichtung 5 an der Situation vorbeibewegt und die vom System als mobile Lichtquelle erkannt und verworfen wird. Aus den Bildpositionen der übrigen (stationären) Lichtquellen 4a-e wird eine 3D-Karte erstellt, die eine spätere Orientierung erlaubt. Die Bewegung des Fahrzeugs 1 beim Einparkmanöver im Verhältnis zu den Bildpositionen der Lichtquellen 4a-e wird ebenfalls abgespeichert. Anhand der aufgenommenen und ermittelten Daten lassen sich derart gespeicherte Fahrmanöver automatisch wiederholen. Auch das automatische Ausparken eines Fahrzeugs ist mittels des erfindungsgemäßen Navigationsverfahrens möglich, was mit dem Vorteil verbunden ist, dass sich der Benutzer sein Auto direkt vor die Tür fahren lassen kann, ohne bei beengten Platzverhältnissen in einer Garage in sein Auto einsteigen zu müssen.
  • Ein konkreter Verfahrensablauf ist anhand des Flussdiagramms in 2 nochmals dargestellt.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    2
    Garage
    3
    Parkposition
    4a-f
    Lichtquellen
    5
    Pfeilrichtung
    6
    Pfad

Claims (5)

  1. Navigationsverfahren für zumindest teilweise selbstfahrende Kraftfahrzeuge (1) mit einer automatischen Einparkhilfe, dadurch gekennzeichnet, dass a) mittels einer Aufnahmevorrichtung aktive und passive Lichtquellen (4a-f) in der Fahrzeugumgebung detektiert und von einer Auswerteeinheit nach stationären und mobilen Lichtquellen (4a-f) sortiert werden und b) aus den Bildpositionen der stationären Lichtquellen (4a-e) innerhalb einer Bilderfolge und der Eigenbewegung des Fahrzeugs (1) ein dreidimensionales Koordinatensystem erstellt wird, in dem die Lichtquellen (4a-e) kartiert werden und in dem das Fahrzeug (1) lokalisierbar ist, so dass bereits einmal absolvierte Einparkmanöver selbstfahrend wiederholbar sind.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass neben der Position der Lichtquellen (4a-e) auch deren Helligkeit und/oder Farbe registriert und gespeichert wird.
  3. Navigationsverfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die den Lichtquellen (4a-e) zugeordneten und gespeicherten Daten bei nachfolgenden Fahrten aktualisiert werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Umgebungshelligkeit bestimmt wird, so dass die Nichtdetektion von vorhandenen Lichtquellen (4a-e) bei einer grenzwertüberschreitenden Umgebungshelligkeit nicht als Fehler gewertet wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Umgebungshelligkeiten mittels des fahrzeugeigenen Regenlichtsensors oder über die Helligkeit der Aufnahme der Aufnahmevorrichtung bestimmt wird.
DE102016216205.5A 2016-08-29 2016-08-29 Navigationsverfahren für selbstfahrende Fahrzeuge Active DE102016216205B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016216205.5A DE102016216205B4 (de) 2016-08-29 2016-08-29 Navigationsverfahren für selbstfahrende Fahrzeuge

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016216205.5A DE102016216205B4 (de) 2016-08-29 2016-08-29 Navigationsverfahren für selbstfahrende Fahrzeuge

Publications (2)

Publication Number Publication Date
DE102016216205A1 DE102016216205A1 (de) 2018-03-01
DE102016216205B4 true DE102016216205B4 (de) 2022-08-25

Family

ID=61167090

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016216205.5A Active DE102016216205B4 (de) 2016-08-29 2016-08-29 Navigationsverfahren für selbstfahrende Fahrzeuge

Country Status (1)

Country Link
DE (1) DE102016216205B4 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111016918B (zh) * 2018-10-10 2021-08-17 上海汽车集团股份有限公司 一种库位检测方法、装置和模型训练装置
CN109291920A (zh) * 2018-11-07 2019-02-01 江铃汽车股份有限公司 自动泊车辅助系统的报警方法
DE102019108052A1 (de) * 2019-03-28 2020-10-01 Connaught Electronics Ltd. Verfahren zum Betreiben eines Parksystems durch Erfassen einer Farbtemperatur einer Beleuchtungseinrichtung, Computerprogrammprodukt, elektronische Recheneinrichtung sowie Parksystem
DE102020132433A1 (de) 2020-12-07 2022-06-09 Valeo Schalter Und Sensoren Gmbh Verfahren zum betreiben eines parkassistenzsystems, computerprogrammprodukt, parkassistenzsystem und fahrzeug
DE102021110779A1 (de) 2021-04-27 2022-10-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Assistenzsystems eines Fahrzeugs in einer Trainingsphase und einer Betriebsphase mit Steuerung einer Beleuchtungseinrichtung sowie Recheneinrichtung für ein Fahrzeug

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060106518A1 (en) 2004-11-18 2006-05-18 Gentex Corporation Image acquisition and processing systems for vehicle equipment control
US20120253596A1 (en) 2011-03-28 2012-10-04 Tk Holdings Inc. Driver assistance system and method
DE102014216577A1 (de) 2014-08-21 2016-02-25 Robert Bosch Gmbh Verfahren und Vorrichtung zur Unterstützung eines Fahrers eines Kraftfahrzeugs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060106518A1 (en) 2004-11-18 2006-05-18 Gentex Corporation Image acquisition and processing systems for vehicle equipment control
US20120253596A1 (en) 2011-03-28 2012-10-04 Tk Holdings Inc. Driver assistance system and method
DE102014216577A1 (de) 2014-08-21 2016-02-25 Robert Bosch Gmbh Verfahren und Vorrichtung zur Unterstützung eines Fahrers eines Kraftfahrzeugs

Also Published As

Publication number Publication date
DE102016216205A1 (de) 2018-03-01

Similar Documents

Publication Publication Date Title
DE102016216205B4 (de) Navigationsverfahren für selbstfahrende Fahrzeuge
DE102017206847B4 (de) Verfahren zum automatischen Erstellen und Aktualisieren eines Datensatzes für ein autonomes Fahrzeug
EP3380810B1 (de) Verfahren, vorrichtung, kartenverwaltungseinrichtung und system zum punktgenauen lokalisieren eines kraftfahrzeugs in einem umfeld
EP2767070B1 (de) Kommunikationssystem eines kraftfahrzeuges
DE102016215249B4 (de) Verfahren und Vorrichtung zum Unterstützen eines Fahrerassistenzsystems in einem Kraftfahrzeug
WO2016177727A1 (de) Diagnoseverfahren für einen sichtsensor eines fahrzeugs und fahrzeug mit einem sichtsensor
EP3649519A1 (de) Verfahren zur verifizierung einer digitalen karte eines höher automatisierten fahrzeugs, entsprechende vorrichtung und computerprogramm
DE102017223431A1 (de) Verfahren zum Assistieren eines Fahrers eines Kraftfahrzeugs bei einem Überholvorgang; Kraftfahrzeug; sowie System
DE102010049215A1 (de) Verfahren zur Bestimmung einer Fahrzeugumgebung
DE102013019622A1 (de) Verfahren zur Ampelerkennung für ein Fahrzeug
DE102016014712A1 (de) Fahrzeug und Verfahren zur Ausgabe von Informationen an eine Fahrzeugumgebung
DE102014019420A1 (de) Kraftfahrzeugscheinwerfersystem, Kraftfahrzeug, Verfahren zum Betrieb eines Kraftfahrzeugscheinwerfersystems sowie Computerprogrammprodukt
DE102015214367B4 (de) Verfahren und Vorrichtung zur Fahrerassistenz
DE102010049214A1 (de) Verfahren zur Bestimmung eines Fahrspurverlaufs für ein Fahrzeug
DE102017207932B4 (de) Verfahren zum Betreiben einer Beleuchtungseinrichtung eines Kraftfahrzeugs sowie Kraftfahrzeug
DE102021111325A1 (de) Verfahren und Assistenzeinrichtung zum Unterstützen eines Fahrbetriebs eines Kraftfahrzeugs und Kraftfahrzeug
DE102015216979A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs, Steuergerät und Fahrzeug
WO2019007606A1 (de) Verfahren zur verifizierung einer digitalen karte eines höher automatisierten fahrzeugs (haf), insbesondere eines hochautomatisierten fahrzeugs
DE102009036196A1 (de) Verfahren und Vorrichtung zur Verkehrszeichenerkennung für ein Fahrzeug
DE102020004790A1 (de) Vorrichtung zur Erkennung von Verkehrszeichen von einem Fahrzeug
DE102015216927B4 (de) Verfahren und Vorrichtung zur automatischen Dokumentation von Verkehrsverstößen
DE102019118106B4 (de) Verfahren zur Ermittlung einer Sichtweite
DE102011081391A1 (de) Verfahren und Vorrichtung zum Erkennen von Störobjekten in der Umgebungsluft eines Fahrzeugs
DE102016208488A1 (de) Verfahren und Vorrichtung zur Lokalisierung eines Fahrzeugs
DE102019008722A1 (de) Verfahren zum Betreiben einer optischen Erfassungsvorrichtung in Abhängigkeit einer Lichtschwertwahrscheinlichkeit sowie optische Erfassungsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final