DE102020000538A1 - Verfahren zum Betrieb eines Fahrzeugs - Google Patents

Verfahren zum Betrieb eines Fahrzeugs Download PDF

Info

Publication number
DE102020000538A1
DE102020000538A1 DE102020000538.1A DE102020000538A DE102020000538A1 DE 102020000538 A1 DE102020000538 A1 DE 102020000538A1 DE 102020000538 A DE102020000538 A DE 102020000538A DE 102020000538 A1 DE102020000538 A1 DE 102020000538A1
Authority
DE
Germany
Prior art keywords
vehicle
camera
assistance system
glare factor
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102020000538.1A
Other languages
English (en)
Inventor
Alexander Lotz
Benedikt Rank
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102020000538.1A priority Critical patent/DE102020000538A1/de
Publication of DE102020000538A1 publication Critical patent/DE102020000538A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0013Planning or execution of driving tasks specially adapted for occupant comfort
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Betrieb eines Fahrzeugs (1), wobei Bilddaten einer Umgebung des Fahrzeugs (1) mittels einer Kamera (K) erfasst werden, wobei mittels einer Auswertung der Bilddaten Fahrspuren erkannt werden, wobei anhand der erkannten Fahrspuren mittels eines Assistenzsystems eine autonome oder teilautonome Querregelung des Fahrzeugs (1) erfolgt, wobei die Kamera (K) anhand eines Schattenwurfs mindestens eines Objekts (2) ermittelt, ob in den Bilddaten ein Schatten vorhanden ist, wobei auf Basis der Uhrzeit, des Datums, einer Position des Fahrzeugs (1) und einer aus Navigationsdaten (N) bekannten Topographie ein Sonnenlichtvektor berechnet wird, wobei aus einer Überlappung einer Ausrichtung (O) des Fahrzeugs (1) mit dem Sonnenlichtvektor ein Blendungsfaktor berechnet wird, wobei anhand der Navigationsdaten (N) eine Abschätzung einer Fahrtroute (R) des Fahrzeugs (1) durchgeführt wird, wobei die Uhrzeit, das Datum, die Position des Fahrzeugs (1) und die bekannte Topographie, sowie ein Öffnungswinkel der Kamera (K) bei der Berechnung des Blendungsfaktors für jeden Streckenabschnitt der gefahrenen und geplanten Fahrtroute (R) berücksichtigt werden, wobei der Blendungsfaktor an das Assistenzsystem weitergegeben wird, wobei, sobald das Assistenzsystem infolge Erfassung von Daten durch die Kamera (K) ein Verhalten generiert, unter Berücksichtigung des Blendungsfaktors eine Unsicherheit berechnet und das Verhalten des Assistenzsystems anhand des Blendungsfaktors angepasst wird.

Description

  • Die Erfindung betrifft ein Verfahren zum Betrieb eines Fahrzeugs gemäß Anspruch 1.
  • Fahrerassistenzsysteme, die eine teilweise oder vollständige Automatisierung der Fahraufgabe darstellen, beruhen unter anderem auf kamerabasierten Sensoren. Diese Sensoren erkennen typischerweise eine Fahrspur und Objekte in der Umgebung. Ein Teilproblem dieser Sensoren ist, dass sie lichtempfindlich sind und somit Sonneneinstrahlung einen Einfluss auf die Qualität der erfassten Daten haben kann. Da durch Abnahme der Datenqualität auch eine Reduktion der Automatisierungsqualität vorliegt (beispielsweise Lenkverhalten auf Basis der Spurerkennung), können in Abhängigkeit von der Sonneneinstrahlung die Fahrerassistenzsysteme teilweise nicht genutzt werden. Da ein Fahrzeug sich dynamisch in der Umgebung bewegt, kann sich die Sonneneinstrahlung verändern und kurzfristig beispielsweise das Lenkverhalten der Assistenz stören.
  • Aus der DE 10 2014 008 849 A1 ist ein Verfahren zur Erkennung von Fahrspurmarkierungen bekannt, wobei Bilddaten einer Umgebung des Fahrzeugs erfasst werden, in einer Auswertung von Bilddaten die Fahrspurmarkierungen erkannt werden und die erfassten Bilddaten mittels Karteninformationen einer digitalen Karte plausibilisiert werden. Aus den Karteninformationen wird eine Fahrspurbreite ermittelt, wobei anhand einer Auswertung der Fahrspurbreite und einem Vergleich mit den Bilddaten reale Fahrspurmarkierungen von Phantommarkierungen unterschieden werden. Weiterhin sind Verwendungen der mittels dieses Verfahrens durchgeführten Erkennung von Fahrspurmarkierungen offenbart.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein verbessertes Verfahren zum Betrieb eines Fahrzeugs anzugeben.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren mit den Merkmalen des Anspruchs 1.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • Bei einem erfindungsgemäßen Verfahren zum Betrieb eines Fahrzeugs werden Bilddaten einer Umgebung des Fahrzeugs mittels einer Kamera erfasst, wobei mittels einer Auswertung der Bilddaten Fahrspuren erkannt werden, wobei anhand der erkannten Fahrspuren mittels eines Assistenzsystems eine autonome oder teilautonome Querregelung des Fahrzeugs erfolgt. Erfindungsgemäß ermittelt die Kamera anhand eines Schattenwurfs mindestens eines Objekts, ob in den Bilddaten ein Schatten vorhanden ist, wobei auf Basis der Uhrzeit, des Datums, einer Position des Fahrzeugs und einer aus Navigationsdaten bekannten Topographie ein Sonnenlichtvektor berechnet wird, wobei aus einer Überlappung einer Ausrichtung des Fahrzeugs mit dem Sonnenlichtvektor ein Blendungsfaktor berechnet wird, wobei anhand der Navigationsdaten eine Abschätzung einer Fahrtroute des Fahrzeugs durchgeführt wird, wobei die Uhrzeit, das Datum, die Position des Fahrzeugs und die bekannte Topographie, sowie ein Öffnungswinkel der Kamera bei der Berechnung des Blendungsfaktors für jeden Streckenabschnitt der gefahrenen und geplanten Fahrtroute berücksichtigt werden, wobei der Blendungsfaktor an das Assistenzsystem weitergegeben wird, wobei, sobald das Assistenzsystem infolge Erfassung von Daten durch die Kamera ein Verhalten generiert, unter Berücksichtigung des Blendungsfaktors eine Unsicherheit berechnet und das Verhalten des Assistenzsystems anhand des Blendungsfaktors angepasst wird.
  • Das Verfahren ermöglicht, vorzeitig auf sich verändernde Sonneneinstrahlung zu reagieren, diese zu antizipieren und daraus Regler-Parameter entsprechend der Sonneneinstrahlung einzustellen.
  • Durch die Verknüpfung von Verortungsdaten, der Uhrzeit, der Jahreszeit, einer Streckentopografie und einer Schattenerkennung mittels mindestens einer im Fahrzeug angeordneten Kamera kann eine Aussage zu einer Blendung der Kamera durch Sonnenlicht getroffen werden.
  • Die Erfindung erlaubt es, frühzeitig Fahrfunktionen, die Kameradaten nutzen, auf eine zukünftige Verschlechterung der Qualität der Kameradaten vorzubereiten. Somit kann auch ein Fahrer, der beispielsweise mit einem Fahrassistenzsystem fährt, auf eine mögliche Übernahme des Fahrzeuges frühzeitig vorbereitet werden. Beispielsweise kann die Querreglung angepasst werden, um Kameradaten schlechter Qualität infolge tiefstehender Sonne zu kompensieren.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
    • 1 eine schematische Ansicht eines Verfahrens zum Betrieb eines Fahrzeugs, und
    • 2 eine schematische Ansicht eines Fahrzeugs in einer Umgebung.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • 1 ist eine schematische Ansicht eines Verfahrens zum Betrieb eines Fahrzeugs 1. 2 ist eine schematische Ansicht eines Fahrzeugs 1 in einer Umgebung.
  • Die vorliegende Erfindung stellt ein Verfahren zur Verfügung, das es ermöglicht, vorzeitig auf sich verändernde Sonneneinstrahlung zu reagieren, diese zu antizipieren und daraus Regler-Parameter entsprechend der Sonneneinstrahlung einzustellen.
  • Durch die Verknüpfung von Verortungsdaten, der Uhrzeit, der Jahreszeit, einer Streckentopografie und einer Schattenerkennung mittels mindestens einer im Fahrzeug 1 angeordneten Kamera kann eine Aussage zu einer Blendung der Kamera durch Sonnenlicht getroffen werden.
  • Hierzu analysiert eine Kamera K in einem Fahrzeug 1 ihr Sichtfeld und ermittelt in einem Schritt S1 anhand des Schattenwurfs mindestens eines Objekts 2, beispielsweise eines oder mehrerer Bäume, im Sichtfeld, ob ein Schatten vorhanden ist. Der Schattenwurf tritt hauptsächlich nur dann auf, wenn auch wirklich eine Blendung der Kamera entstehen kann, das heißt, wenn die Sonne 3 scheint. An wolkigen Tagen tritt dieses Phänomen nicht auf. In einem Schritt S2 wird, parallel oder zeitlich vor oder nach dem Schritt S1, auf Basis der Uhrzeit, des Datums, einer Position des Fahrzeugs 1 und einer bekannten Topographie, beispielsweise aus Navigationsdaten N, ein genauerer Sonnenlichtvektor berechnet, dessen Betrag sich aus der Uhrzeit, Verortung, Datum, Topografie und Distanz des schattenwerfenden Objekts ergeben kann. Dies kann mit Einschätzungen aus anderen Sensoren verglichen und gegebenenfalls weiterverarbeitet werden. Aus den in den Schritten S1 und S2 ermittelten Daten wird in einem Schritt S3 eine Ausrichtung der Schatten berechnet. In einem Schritt S4 wird aus der Überlappung der Ausrichtung O des Fahrzeugs 1 mit dem Sonnenlichtvektor ein Blendungsfaktor berechnet. Es kann berücksichtigt werden, dass die unterschiedlichen Verortungen, Zeiten und Topografien zu einer Verschiebung des eigentlichen Vektors führen können. Der Blendungsfaktor ist am höchsten in Bereichen, in denen die Kamera K frontal in die Sonne 3 filmen würde, und am niedrigsten, wenn die Sonne 3 im Rücken der Kamera K steht. Aus den Navigationsdaten N ist eine Abschätzung einer Fahrtroute R des Fahrzeugs 1 bekannt, in denen es zu einer Blendung der Kamera durch Sonnenlicht kommen kann. Alle oben genannten Faktoren, die zur Berechnung des Sonnenlichtvektors genutzt wurden, das heißt die Uhrzeit, das Datum, die Position des Fahrzeugs 1 und die bekannte Topographie, sowie ein Öffnungswinkel der Kamera K, beeinflussen den Blendungsfaktor und werden entsprechend berücksichtigt. Es resultiert daher ein Wert des Blendungsfaktors für jeden Streckenabschnitt der gefahrenen und geplanten Fahrtroute R.
  • In einem Schritt S5 wird der Blendungsfaktor an Assistenzsysteme des Fahrzeugs 1 weitergegeben und dient der Parametrisierung in einem Schritt S6. Sobald ein Assistenzsystem infolge Erfassung von Daten durch die Kamera ein Verhalten generiert, kann unter Berücksichtigung des Blendungsfaktors somit eine Unsicherheit berechnet werden. Zudem kann das Verhalten der Assistenzsysteme angepasst werden.
  • Exemplarisch für ein Assistenzsystem kann eine Querregelung einer automatisierten Spurführung betrachtet werden, bei der durch Blendung oftmals Sprünge in der Linienerkennung bemerkbar sind. Hier könnte eine robustere und trägere Querregelung, in Bereichen, in denen eine Blendung auftritt, erreicht werden. Zudem kann der Fahrer frühzeitig über eine voraussichtliche Beeinträchtigung des Assistenzsystems informiert werden.
  • Die Analyse des Schattenwurfs kann beispielsweise auch dazu genutzt werden, die Linienerkennung robuster zu gestalten. Störelemente, wie beispielsweise der Schattenwurf von parallel zur Fahrrichtung führenden Stromleitungen, können fälschlicherweise als Linie für eine Querreglung (beispielsweise Spurhalteassistent) erkannt werden. Dieser Berechnungsprozess stellt einen weiteren vorteilhaften Gesichtspunkt der Schattenbetrachtung dar, der losgelöst von der Blendung einer Kamera ist.
  • Weiterhin können folgende Funktionen durch die Berücksichtigung des Blendungsfaktors parametrisiert werden:
    • - autonomes Fahren auf Autonomiestufe 3,
    • - Objektverfolgung,
    • - Objektidentifikation,
    • - Verfolgung von Passagieren und ungeschützten Verkehrsteilnehmern.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    2
    Objekt
    3
    Sonne
    K
    Kamera
    N
    Navigationsdaten
    O
    Ausrichtung
    R
    Fahrtroute
    S1 bis S6
    Schritt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102014008849 A1 [0003]

Claims (3)

  1. Verfahren zum Betrieb eines Fahrzeugs (1), wobei Bilddaten einer Umgebung des Fahrzeugs (1) mittels einer Kamera (K) erfasst werden, wobei mittels einer Auswertung der Bilddaten Fahrspuren erkannt werden, wobei anhand der erkannten Fahrspuren mittels eines Assistenzsystems eine autonome oder teilautonome Querregelung des Fahrzeugs (1) erfolgt, dadurch gekennzeichnet, dass die Kamera (K) anhand eines Schattenwurfs mindestens eines Objekts (2) ermittelt, ob in den Bilddaten ein Schatten vorhanden ist, wobei auf Basis der Uhrzeit, des Datums, einer Position des Fahrzeugs (1) und einer aus Navigationsdaten (N) bekannten Topographie ein Sonnenlichtvektor berechnet wird, wobei aus einer Überlappung einer Ausrichtung (O) des Fahrzeugs (1) mit dem Sonnenlichtvektor ein Blendungsfaktor berechnet wird, wobei anhand der Navigationsdaten (N) eine Abschätzung einer Fahrtroute (R) des Fahrzeugs (1) durchgeführt wird, wobei die Uhrzeit, das Datum, die Position des Fahrzeugs (1) und die bekannte Topographie, sowie ein Öffnungswinkel der Kamera (K) bei der Berechnung des Blendungsfaktors für jeden Streckenabschnitt der gefahrenen und geplanten Fahrtroute (R) berücksichtigt werden, wobei der Blendungsfaktor an das Assistenzsystem weitergegeben wird, wobei, sobald das Assistenzsystem infolge Erfassung von Daten durch die Kamera (K) ein Verhalten generiert, unter Berücksichtigung des Blendungsfaktors eine Unsicherheit berechnet und das Verhalten des Assistenzsystems anhand des Blendungsfaktors angepasst wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Ausgabe zur Information eines Fahrers über eine voraussichtliche Beeinträchtigung des Assistenzsystems anhand des Blendungsfaktors erfolgt.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zusätzlich mindestens eine der folgenden Funktionen durch die Berücksichtigung des Blendungsfaktors parametrisiert wird: - autonomes Fahren auf Autonomiestufe 3, - Objektverfolgung, - Objektidentifikation, - Verfolgung von Passagieren und ungeschützten Verkehrsteilnehmern.
DE102020000538.1A 2020-01-29 2020-01-29 Verfahren zum Betrieb eines Fahrzeugs Withdrawn DE102020000538A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020000538.1A DE102020000538A1 (de) 2020-01-29 2020-01-29 Verfahren zum Betrieb eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020000538.1A DE102020000538A1 (de) 2020-01-29 2020-01-29 Verfahren zum Betrieb eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102020000538A1 true DE102020000538A1 (de) 2020-10-01

Family

ID=72612693

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020000538.1A Withdrawn DE102020000538A1 (de) 2020-01-29 2020-01-29 Verfahren zum Betrieb eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102020000538A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220315050A1 (en) * 2021-03-31 2022-10-06 Honda Motor Co., Ltd. Vehicle control device, route generation device, vehicle control method, route generation method, and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220315050A1 (en) * 2021-03-31 2022-10-06 Honda Motor Co., Ltd. Vehicle control device, route generation device, vehicle control method, route generation method, and storage medium

Similar Documents

Publication Publication Date Title
DE102011083039B4 (de) Vorrichtung und Verfahren zum Betreiben eines Fahrzeugs
DE102013221696A1 (de) Verfahren und Vorrichtung zum Ermitteln eines Höhenverlaufes einer vor einem Fahrzeug liegenden Straße
DE102011085325A1 (de) Verfahren zum Führen eines Fahrzeugs und Fahrerassistenzsystem
DE102005049133A1 (de) Elektronischer Horizont für Fahrerassistenzsysteme
DE19633704A1 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
DE102016220583A1 (de) Verfahren zur Überprüfung einer Überholmöglichkeitsbedingung
DE102016209232B4 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeuges relativ zu den Fahrstreifen einer Fahrbahn
DE102007020280A1 (de) Verfahren und Vorrichtung für die Steuerung eines Fahrerassistenzsystems
DE102019118210A1 (de) Vorrichtung und Verfahren zur Kompensation eines Richtungswinkels
DE10354290A1 (de) Fahrspurvorrichtung, Auswahlvorrichtung und Verfahren zur Ermittlung der Fahrspur eines Fahrzeugs
DE102018117290A1 (de) Verfahren zur Kalibrierung und/oder Justierung mindestens einer Sensoreinheit eines Fahrzeugs
DE112018004003T5 (de) Steuerung und verfahren zum automatischen fahren
DE102010049215A1 (de) Verfahren zur Bestimmung einer Fahrzeugumgebung
WO2009013052A2 (de) Verfahren und vorrichtung für die spurerfassung mit einem fahrerassistenzsystem
DE102018212060A1 (de) Verfahren zum Führen eines Fahrzeugs von einer Startposition zu einer Zielposition
DE102008001105A1 (de) Verfahren zur Beeinflussung des Lenkmoments in einem Fahrzeuglenksystem
DE102017206344A1 (de) Fahrerassistenzsystem für ein Fahrzeug
DE102020000538A1 (de) Verfahren zum Betrieb eines Fahrzeugs
DE102007015227B4 (de) Verfahren und Anordnung zur näherungsweisen Bestimmung einer von einem Fahrzeug aktuell befahrenen Fahrspur
DE102017205973A1 (de) Verfahren zum Ermitteln eines in einem Gierratensignal eines Gierratensensors eines Kraftfahrzeugs enthaltenen Versatzes sowie Steuervorrichtung und Kraftfahrzeug
DE102016215287A1 (de) Verfahren zum Ermitteln einer maximal möglichen Fahrgeschwindigkeit für eine Kurvenfahrt eines Kraftfahrzeugs, Steuervorrichtung und Kraftfahrzeug
DE102021005088A1 (de) Verfahren zur Regelung oder Steuerung einer Längsbewegung eines Fahrzeuges
DE102009046855A1 (de) Verfahren und Navigationsgerät zum Bereitstellen von Zusatzdaten in einer digitalen Straßenkarte
DE102009013176A1 (de) Verfahren und Vorrichtung zum Betrieb eines Fahrzeugs
DE102016216634A1 (de) Verfahren zur Einordnung eines Kraftfahrzeugs in eine Fahrzeugkolonne

Legal Events

Date Code Title Description
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: DAIMLER AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70372 STUTTGART, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee