DE102020000538A1 - Verfahren zum Betrieb eines Fahrzeugs - Google Patents
Verfahren zum Betrieb eines Fahrzeugs Download PDFInfo
- Publication number
- DE102020000538A1 DE102020000538A1 DE102020000538.1A DE102020000538A DE102020000538A1 DE 102020000538 A1 DE102020000538 A1 DE 102020000538A1 DE 102020000538 A DE102020000538 A DE 102020000538A DE 102020000538 A1 DE102020000538 A1 DE 102020000538A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- camera
- assistance system
- glare factor
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 230000004313 glare Effects 0.000 claims abstract description 27
- 238000012876 topography Methods 0.000 claims abstract description 10
- 238000011156 evaluation Methods 0.000 claims abstract description 5
- 230000006735 deficit Effects 0.000 claims description 2
- 230000005855 radiation Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0013—Planning or execution of driving tasks specially adapted for occupant comfort
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Betrieb eines Fahrzeugs (1), wobei Bilddaten einer Umgebung des Fahrzeugs (1) mittels einer Kamera (K) erfasst werden, wobei mittels einer Auswertung der Bilddaten Fahrspuren erkannt werden, wobei anhand der erkannten Fahrspuren mittels eines Assistenzsystems eine autonome oder teilautonome Querregelung des Fahrzeugs (1) erfolgt, wobei die Kamera (K) anhand eines Schattenwurfs mindestens eines Objekts (2) ermittelt, ob in den Bilddaten ein Schatten vorhanden ist, wobei auf Basis der Uhrzeit, des Datums, einer Position des Fahrzeugs (1) und einer aus Navigationsdaten (N) bekannten Topographie ein Sonnenlichtvektor berechnet wird, wobei aus einer Überlappung einer Ausrichtung (O) des Fahrzeugs (1) mit dem Sonnenlichtvektor ein Blendungsfaktor berechnet wird, wobei anhand der Navigationsdaten (N) eine Abschätzung einer Fahrtroute (R) des Fahrzeugs (1) durchgeführt wird, wobei die Uhrzeit, das Datum, die Position des Fahrzeugs (1) und die bekannte Topographie, sowie ein Öffnungswinkel der Kamera (K) bei der Berechnung des Blendungsfaktors für jeden Streckenabschnitt der gefahrenen und geplanten Fahrtroute (R) berücksichtigt werden, wobei der Blendungsfaktor an das Assistenzsystem weitergegeben wird, wobei, sobald das Assistenzsystem infolge Erfassung von Daten durch die Kamera (K) ein Verhalten generiert, unter Berücksichtigung des Blendungsfaktors eine Unsicherheit berechnet und das Verhalten des Assistenzsystems anhand des Blendungsfaktors angepasst wird.
Description
- Die Erfindung betrifft ein Verfahren zum Betrieb eines Fahrzeugs gemäß Anspruch 1.
- Fahrerassistenzsysteme, die eine teilweise oder vollständige Automatisierung der Fahraufgabe darstellen, beruhen unter anderem auf kamerabasierten Sensoren. Diese Sensoren erkennen typischerweise eine Fahrspur und Objekte in der Umgebung. Ein Teilproblem dieser Sensoren ist, dass sie lichtempfindlich sind und somit Sonneneinstrahlung einen Einfluss auf die Qualität der erfassten Daten haben kann. Da durch Abnahme der Datenqualität auch eine Reduktion der Automatisierungsqualität vorliegt (beispielsweise Lenkverhalten auf Basis der Spurerkennung), können in Abhängigkeit von der Sonneneinstrahlung die Fahrerassistenzsysteme teilweise nicht genutzt werden. Da ein Fahrzeug sich dynamisch in der Umgebung bewegt, kann sich die Sonneneinstrahlung verändern und kurzfristig beispielsweise das Lenkverhalten der Assistenz stören.
- Aus der
DE 10 2014 008 849 A1 ist ein Verfahren zur Erkennung von Fahrspurmarkierungen bekannt, wobei Bilddaten einer Umgebung des Fahrzeugs erfasst werden, in einer Auswertung von Bilddaten die Fahrspurmarkierungen erkannt werden und die erfassten Bilddaten mittels Karteninformationen einer digitalen Karte plausibilisiert werden. Aus den Karteninformationen wird eine Fahrspurbreite ermittelt, wobei anhand einer Auswertung der Fahrspurbreite und einem Vergleich mit den Bilddaten reale Fahrspurmarkierungen von Phantommarkierungen unterschieden werden. Weiterhin sind Verwendungen der mittels dieses Verfahrens durchgeführten Erkennung von Fahrspurmarkierungen offenbart. - Der Erfindung liegt die Aufgabe zu Grunde, ein verbessertes Verfahren zum Betrieb eines Fahrzeugs anzugeben.
- Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren mit den Merkmalen des Anspruchs 1.
- Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
- Bei einem erfindungsgemäßen Verfahren zum Betrieb eines Fahrzeugs werden Bilddaten einer Umgebung des Fahrzeugs mittels einer Kamera erfasst, wobei mittels einer Auswertung der Bilddaten Fahrspuren erkannt werden, wobei anhand der erkannten Fahrspuren mittels eines Assistenzsystems eine autonome oder teilautonome Querregelung des Fahrzeugs erfolgt. Erfindungsgemäß ermittelt die Kamera anhand eines Schattenwurfs mindestens eines Objekts, ob in den Bilddaten ein Schatten vorhanden ist, wobei auf Basis der Uhrzeit, des Datums, einer Position des Fahrzeugs und einer aus Navigationsdaten bekannten Topographie ein Sonnenlichtvektor berechnet wird, wobei aus einer Überlappung einer Ausrichtung des Fahrzeugs mit dem Sonnenlichtvektor ein Blendungsfaktor berechnet wird, wobei anhand der Navigationsdaten eine Abschätzung einer Fahrtroute des Fahrzeugs durchgeführt wird, wobei die Uhrzeit, das Datum, die Position des Fahrzeugs und die bekannte Topographie, sowie ein Öffnungswinkel der Kamera bei der Berechnung des Blendungsfaktors für jeden Streckenabschnitt der gefahrenen und geplanten Fahrtroute berücksichtigt werden, wobei der Blendungsfaktor an das Assistenzsystem weitergegeben wird, wobei, sobald das Assistenzsystem infolge Erfassung von Daten durch die Kamera ein Verhalten generiert, unter Berücksichtigung des Blendungsfaktors eine Unsicherheit berechnet und das Verhalten des Assistenzsystems anhand des Blendungsfaktors angepasst wird.
- Das Verfahren ermöglicht, vorzeitig auf sich verändernde Sonneneinstrahlung zu reagieren, diese zu antizipieren und daraus Regler-Parameter entsprechend der Sonneneinstrahlung einzustellen.
- Durch die Verknüpfung von Verortungsdaten, der Uhrzeit, der Jahreszeit, einer Streckentopografie und einer Schattenerkennung mittels mindestens einer im Fahrzeug angeordneten Kamera kann eine Aussage zu einer Blendung der Kamera durch Sonnenlicht getroffen werden.
- Die Erfindung erlaubt es, frühzeitig Fahrfunktionen, die Kameradaten nutzen, auf eine zukünftige Verschlechterung der Qualität der Kameradaten vorzubereiten. Somit kann auch ein Fahrer, der beispielsweise mit einem Fahrassistenzsystem fährt, auf eine mögliche Übernahme des Fahrzeuges frühzeitig vorbereitet werden. Beispielsweise kann die Querreglung angepasst werden, um Kameradaten schlechter Qualität infolge tiefstehender Sonne zu kompensieren.
- Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
- Dabei zeigen:
-
1 eine schematische Ansicht eines Verfahrens zum Betrieb eines Fahrzeugs, und -
2 eine schematische Ansicht eines Fahrzeugs in einer Umgebung. - Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
-
1 ist eine schematische Ansicht eines Verfahrens zum Betrieb eines Fahrzeugs1 .2 ist eine schematische Ansicht eines Fahrzeugs1 in einer Umgebung. - Die vorliegende Erfindung stellt ein Verfahren zur Verfügung, das es ermöglicht, vorzeitig auf sich verändernde Sonneneinstrahlung zu reagieren, diese zu antizipieren und daraus Regler-Parameter entsprechend der Sonneneinstrahlung einzustellen.
- Durch die Verknüpfung von Verortungsdaten, der Uhrzeit, der Jahreszeit, einer Streckentopografie und einer Schattenerkennung mittels mindestens einer im Fahrzeug
1 angeordneten Kamera kann eine Aussage zu einer Blendung der Kamera durch Sonnenlicht getroffen werden. - Hierzu analysiert eine Kamera
K in einem Fahrzeug1 ihr Sichtfeld und ermittelt in einem SchrittS1 anhand des Schattenwurfs mindestens eines Objekts2 , beispielsweise eines oder mehrerer Bäume, im Sichtfeld, ob ein Schatten vorhanden ist. Der Schattenwurf tritt hauptsächlich nur dann auf, wenn auch wirklich eine Blendung der Kamera entstehen kann, das heißt, wenn die Sonne3 scheint. An wolkigen Tagen tritt dieses Phänomen nicht auf. In einem SchrittS2 wird, parallel oder zeitlich vor oder nach dem SchrittS1 , auf Basis der Uhrzeit, des Datums, einer Position des Fahrzeugs1 und einer bekannten Topographie, beispielsweise aus NavigationsdatenN , ein genauerer Sonnenlichtvektor berechnet, dessen Betrag sich aus der Uhrzeit, Verortung, Datum, Topografie und Distanz des schattenwerfenden Objekts ergeben kann. Dies kann mit Einschätzungen aus anderen Sensoren verglichen und gegebenenfalls weiterverarbeitet werden. Aus den in den SchrittenS1 undS2 ermittelten Daten wird in einem SchrittS3 eine Ausrichtung der Schatten berechnet. In einem SchrittS4 wird aus der Überlappung der AusrichtungO des Fahrzeugs1 mit dem Sonnenlichtvektor ein Blendungsfaktor berechnet. Es kann berücksichtigt werden, dass die unterschiedlichen Verortungen, Zeiten und Topografien zu einer Verschiebung des eigentlichen Vektors führen können. Der Blendungsfaktor ist am höchsten in Bereichen, in denen die KameraK frontal in die Sonne3 filmen würde, und am niedrigsten, wenn die Sonne3 im Rücken der KameraK steht. Aus den NavigationsdatenN ist eine Abschätzung einer FahrtrouteR des Fahrzeugs1 bekannt, in denen es zu einer Blendung der Kamera durch Sonnenlicht kommen kann. Alle oben genannten Faktoren, die zur Berechnung des Sonnenlichtvektors genutzt wurden, das heißt die Uhrzeit, das Datum, die Position des Fahrzeugs1 und die bekannte Topographie, sowie ein Öffnungswinkel der KameraK , beeinflussen den Blendungsfaktor und werden entsprechend berücksichtigt. Es resultiert daher ein Wert des Blendungsfaktors für jeden Streckenabschnitt der gefahrenen und geplanten FahrtrouteR . - In einem Schritt
S5 wird der Blendungsfaktor an Assistenzsysteme des Fahrzeugs1 weitergegeben und dient der Parametrisierung in einem SchrittS6 . Sobald ein Assistenzsystem infolge Erfassung von Daten durch die Kamera ein Verhalten generiert, kann unter Berücksichtigung des Blendungsfaktors somit eine Unsicherheit berechnet werden. Zudem kann das Verhalten der Assistenzsysteme angepasst werden. - Exemplarisch für ein Assistenzsystem kann eine Querregelung einer automatisierten Spurführung betrachtet werden, bei der durch Blendung oftmals Sprünge in der Linienerkennung bemerkbar sind. Hier könnte eine robustere und trägere Querregelung, in Bereichen, in denen eine Blendung auftritt, erreicht werden. Zudem kann der Fahrer frühzeitig über eine voraussichtliche Beeinträchtigung des Assistenzsystems informiert werden.
- Die Analyse des Schattenwurfs kann beispielsweise auch dazu genutzt werden, die Linienerkennung robuster zu gestalten. Störelemente, wie beispielsweise der Schattenwurf von parallel zur Fahrrichtung führenden Stromleitungen, können fälschlicherweise als Linie für eine Querreglung (beispielsweise Spurhalteassistent) erkannt werden. Dieser Berechnungsprozess stellt einen weiteren vorteilhaften Gesichtspunkt der Schattenbetrachtung dar, der losgelöst von der Blendung einer Kamera ist.
- Weiterhin können folgende Funktionen durch die Berücksichtigung des Blendungsfaktors parametrisiert werden:
- - autonomes Fahren auf Autonomiestufe
3 , - - Objektverfolgung,
- - Objektidentifikation,
- - Verfolgung von Passagieren und ungeschützten Verkehrsteilnehmern.
- Bezugszeichenliste
-
- 1
- Fahrzeug
- 2
- Objekt
- 3
- Sonne
- K
- Kamera
- N
- Navigationsdaten
- O
- Ausrichtung
- R
- Fahrtroute
- S1 bis S6
- Schritt
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102014008849 A1 [0003]
Claims (3)
- Verfahren zum Betrieb eines Fahrzeugs (1), wobei Bilddaten einer Umgebung des Fahrzeugs (1) mittels einer Kamera (K) erfasst werden, wobei mittels einer Auswertung der Bilddaten Fahrspuren erkannt werden, wobei anhand der erkannten Fahrspuren mittels eines Assistenzsystems eine autonome oder teilautonome Querregelung des Fahrzeugs (1) erfolgt, dadurch gekennzeichnet, dass die Kamera (K) anhand eines Schattenwurfs mindestens eines Objekts (2) ermittelt, ob in den Bilddaten ein Schatten vorhanden ist, wobei auf Basis der Uhrzeit, des Datums, einer Position des Fahrzeugs (1) und einer aus Navigationsdaten (N) bekannten Topographie ein Sonnenlichtvektor berechnet wird, wobei aus einer Überlappung einer Ausrichtung (O) des Fahrzeugs (1) mit dem Sonnenlichtvektor ein Blendungsfaktor berechnet wird, wobei anhand der Navigationsdaten (N) eine Abschätzung einer Fahrtroute (R) des Fahrzeugs (1) durchgeführt wird, wobei die Uhrzeit, das Datum, die Position des Fahrzeugs (1) und die bekannte Topographie, sowie ein Öffnungswinkel der Kamera (K) bei der Berechnung des Blendungsfaktors für jeden Streckenabschnitt der gefahrenen und geplanten Fahrtroute (R) berücksichtigt werden, wobei der Blendungsfaktor an das Assistenzsystem weitergegeben wird, wobei, sobald das Assistenzsystem infolge Erfassung von Daten durch die Kamera (K) ein Verhalten generiert, unter Berücksichtigung des Blendungsfaktors eine Unsicherheit berechnet und das Verhalten des Assistenzsystems anhand des Blendungsfaktors angepasst wird.
- Verfahren nach
Anspruch 1 , dadurch gekennzeichnet, dass eine Ausgabe zur Information eines Fahrers über eine voraussichtliche Beeinträchtigung des Assistenzsystems anhand des Blendungsfaktors erfolgt. - Verfahren nach
Anspruch 1 oder2 , dadurch gekennzeichnet, dass zusätzlich mindestens eine der folgenden Funktionen durch die Berücksichtigung des Blendungsfaktors parametrisiert wird: - autonomes Fahren auf Autonomiestufe 3, - Objektverfolgung, - Objektidentifikation, - Verfolgung von Passagieren und ungeschützten Verkehrsteilnehmern.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020000538.1A DE102020000538A1 (de) | 2020-01-29 | 2020-01-29 | Verfahren zum Betrieb eines Fahrzeugs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020000538.1A DE102020000538A1 (de) | 2020-01-29 | 2020-01-29 | Verfahren zum Betrieb eines Fahrzeugs |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020000538A1 true DE102020000538A1 (de) | 2020-10-01 |
Family
ID=72612693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020000538.1A Withdrawn DE102020000538A1 (de) | 2020-01-29 | 2020-01-29 | Verfahren zum Betrieb eines Fahrzeugs |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020000538A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220315050A1 (en) * | 2021-03-31 | 2022-10-06 | Honda Motor Co., Ltd. | Vehicle control device, route generation device, vehicle control method, route generation method, and storage medium |
-
2020
- 2020-01-29 DE DE102020000538.1A patent/DE102020000538A1/de not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220315050A1 (en) * | 2021-03-31 | 2022-10-06 | Honda Motor Co., Ltd. | Vehicle control device, route generation device, vehicle control method, route generation method, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102011083039B4 (de) | Vorrichtung und Verfahren zum Betreiben eines Fahrzeugs | |
DE102013221696A1 (de) | Verfahren und Vorrichtung zum Ermitteln eines Höhenverlaufes einer vor einem Fahrzeug liegenden Straße | |
DE102011085325A1 (de) | Verfahren zum Führen eines Fahrzeugs und Fahrerassistenzsystem | |
DE102005049133A1 (de) | Elektronischer Horizont für Fahrerassistenzsysteme | |
DE19633704A1 (de) | Fahrzeugumgebungs-Überwachungsvorrichtung | |
DE102016220583A1 (de) | Verfahren zur Überprüfung einer Überholmöglichkeitsbedingung | |
DE102016209232B4 (de) | Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeuges relativ zu den Fahrstreifen einer Fahrbahn | |
DE102007020280A1 (de) | Verfahren und Vorrichtung für die Steuerung eines Fahrerassistenzsystems | |
DE102019118210A1 (de) | Vorrichtung und Verfahren zur Kompensation eines Richtungswinkels | |
DE10354290A1 (de) | Fahrspurvorrichtung, Auswahlvorrichtung und Verfahren zur Ermittlung der Fahrspur eines Fahrzeugs | |
DE102018117290A1 (de) | Verfahren zur Kalibrierung und/oder Justierung mindestens einer Sensoreinheit eines Fahrzeugs | |
DE112018004003T5 (de) | Steuerung und verfahren zum automatischen fahren | |
DE102010049215A1 (de) | Verfahren zur Bestimmung einer Fahrzeugumgebung | |
WO2009013052A2 (de) | Verfahren und vorrichtung für die spurerfassung mit einem fahrerassistenzsystem | |
DE102018212060A1 (de) | Verfahren zum Führen eines Fahrzeugs von einer Startposition zu einer Zielposition | |
DE102008001105A1 (de) | Verfahren zur Beeinflussung des Lenkmoments in einem Fahrzeuglenksystem | |
DE102017206344A1 (de) | Fahrerassistenzsystem für ein Fahrzeug | |
DE102020000538A1 (de) | Verfahren zum Betrieb eines Fahrzeugs | |
DE102007015227B4 (de) | Verfahren und Anordnung zur näherungsweisen Bestimmung einer von einem Fahrzeug aktuell befahrenen Fahrspur | |
DE102017205973A1 (de) | Verfahren zum Ermitteln eines in einem Gierratensignal eines Gierratensensors eines Kraftfahrzeugs enthaltenen Versatzes sowie Steuervorrichtung und Kraftfahrzeug | |
DE102016215287A1 (de) | Verfahren zum Ermitteln einer maximal möglichen Fahrgeschwindigkeit für eine Kurvenfahrt eines Kraftfahrzeugs, Steuervorrichtung und Kraftfahrzeug | |
DE102021005088A1 (de) | Verfahren zur Regelung oder Steuerung einer Längsbewegung eines Fahrzeuges | |
DE102009046855A1 (de) | Verfahren und Navigationsgerät zum Bereitstellen von Zusatzdaten in einer digitalen Straßenkarte | |
DE102009013176A1 (de) | Verfahren und Vorrichtung zum Betrieb eines Fahrzeugs | |
DE102016216634A1 (de) | Verfahren zur Einordnung eines Kraftfahrzeugs in eine Fahrzeugkolonne |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication | ||
R081 | Change of applicant/patentee |
Owner name: DAIMLER AG, DE Free format text: FORMER OWNER: DAIMLER AG, 70372 STUTTGART, DE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |