DE102012112724A1 - Verfahren zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten - Google Patents

Verfahren zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten Download PDF

Info

Publication number
DE102012112724A1
DE102012112724A1 DE102012112724.7A DE102012112724A DE102012112724A1 DE 102012112724 A1 DE102012112724 A1 DE 102012112724A1 DE 102012112724 A DE102012112724 A DE 102012112724A DE 102012112724 A1 DE102012112724 A1 DE 102012112724A1
Authority
DE
Germany
Prior art keywords
camera
friction
road condition
coefficient
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102012112724.7A
Other languages
English (en)
Inventor
Bernd Hartmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Teves AG and Co OHG
Original Assignee
Continental Teves AG and Co OHG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Teves AG and Co OHG filed Critical Continental Teves AG and Co OHG
Priority to DE102012112724.7A priority Critical patent/DE102012112724A1/de
Priority to DE112013006175.9T priority patent/DE112013006175A5/de
Priority to US14/424,148 priority patent/US9676331B2/en
Priority to PCT/DE2013/200339 priority patent/WO2014094766A1/de
Publication of DE102012112724A1 publication Critical patent/DE102012112724A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/068Road friction coefficient
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/28Wheel speed

Abstract

Die Erfindung betrifft ein Verfahren bzw. eine Vorrichtung zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten. Zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten ist eine Fusion von Daten aus mindestens einer Vorrichtung, die einen lokalen Fahrbahnzustand oder Reibwert misst, mit Daten einer Kamera (4) zur Erfassung einer vorausliegenden Fahrbahn (1) vorgesehen. Dazu können bei der Auswertung der Kamerabilddaten der lokal gemessene Fahrbahnzustand bzw. Reibwert unter Berücksichtigung von Odometrie- und Zeitinformationen einzelnen Bildbereichen eines Kamerabilds zugeordnet und zur Unterstützung und/oder Plausibilisierung bei einer vorausschauenden und ortsaufgelösten Reibwertschätzung bzw. Fahrbahnzustandsermittlung anhand von Kameradaten berücksichtigt werden.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten, insbesondere aus Kameradaten.
  • Die Erfassung oder Bestimmung des zwischen Reifen und Fahrbahn wirkenden Reibwerts bzw. die Erfassung des Fahrbahnzustands (z.B. trocken, nass, schneebedeckt und vereist), aus dem sich die Reibwertgruppe ableiten lässt, ist eine wichtige Voraussetzung, um den Fahrer in seiner Fahraufgabe zu unterstützen und so schwere Unfälle zu vermeiden oder deren Folgen abzuschwächen. Allgemein obliegt die Einschätzung der Straßenverhältnisse dem Fahrer, der seine Fahrweise darauf ausrichtet. Fahrzeugregelsysteme wie ESC (Electronic Stability Control) / TCS (Traction Control System) oder ABS (Antiblockiersystem) helfen ihm, das Fahrzeug im Grenzbereich zu stabilisieren, um so seiner Fahraufgabe in Extremsituationen leichter entsprechen zu können. Mit steigendem Automatisierungsgrad der Fahrerassistenz – bis hin zum hochautomatisierten bzw. autonomen Fahren – steigt die Bedeutung von Informationen zum Fahrbahnzustand beziehungsweise zum Reibwert kontinuierlich an. Typische Anwendungsfälle für die Fahrbahnzustands-/Reibwertinformationen sind
    • – Fahrerinformation
    • – Fahrerwarnung
    • – Festlegung der Eingriffszeitpunkte für Brems- und Lenkeingriffee bei Fahrrerassistenzsystemen und
    • – Anpassung von Fahrzeugsteuerungsfunktionen wie Bremse, Lenkung.
  • Die Unfallvermeidung gewinnt bei Fahrerassistenzsystemen zunehmend an Bedeutung. Notbrems- oder seit neuestem auch Notausweichsysteme leisten einen wichtigen Beitrag. Ihre Wirkung hängt jedoch entscheidend vom Reibwert des Untergrundes ab. Nässe, Schnee und Eis erniedrigen den zur Verfügung stehenden Reibwert zwischen Reifen und Fahrbahn gegenüber dem auf einer trockenen Fahrbahn zur Verfügung stehenden erheblich.
  • EP 792 228 B1 zeigt ein System zur Fahrstabilitätsregelung für ESP-(Electronic Stability Program)/ESC-Regelungen, mit dem in speziellen Situationen ein Reibwert ermittelt werden kann. Wenn mindestens ein Rad den Reibwert ausnutzt, z. B. beim Fahren auf einem glatten Untergrund, kann die Fahrzeugbremsenregelung den Reibwert aus dem Drehverhalten der Räder und den ESP/ESC-Beschleunigungssensoren bestimmen.
  • DE 102 56 726 A1 zeigt ein Verfahren zur Generierung eines Signals in Abhängigkeit von der Fahrbahnbeschaffenheit unter Verwendung eines Reflexionssignalsensors wie z.B. eines Radar- oder eines optischen Sensor. Dadurch wird eine vorausschauende Erfassung des Fahrbahnzustands in einem Kraftfahrzeug ermöglicht.
  • DE 10 2004 018 088 A1 zeigt ein Fahrbahnerkennungssystem mit einem Temperatursensor, einem Ultraschallsensor und einer Kamera. Die aus den Sensoren erhaltenen Fahrbahndaten werden gefiltert, mit Referenzdaten verglichen, um die Befahrbarkeit der Fahrbahn zu ermitteln, wobei die Fahrbahnoberfläche (z.B. Beton, Asphalt, Schmutz, Gras, Sand oder Kies) und deren Zustand (z.B. trocken, vereist, verschneit, nass) klassifiziert werden kann.
  • DE 10 2004 047 914 A1 zeigt eine Methode zur Einschätzung des Fahrbahnzustands, bei der Daten aus mehreren unterschiedlichen Sensoren, z.B. Kamera, Infrarotsensor, Regensensor bzw. Mikrofon fusioniert werden, um zu einer Klassifikation des Fahrbahnzustands zu gelangen, der ein Reibungswert zugeordnet werden kann.
  • DE 10 2008 047 750 A1 zeigt eine Bestimmung eines Kraftschlusses mit wenigen Sensoren, bei der Drehschwingungen eines Rads eines Fahrzeugs analysiert werden und auf Basis dieser Analyse ein Reibbeiwert abgeschätzt wird.
  • DE 10 2009 041 566 A1 zeigt ein Verfahren zur Ermittlung eines Fahrbahnreibwerts µ, bei dem eine erste ständig aktualisierte Reibwertkenngröße und eine zweite lediglich situationsbedingt aktualisierte Reibwertgröße zu einem gemeinsamen Reibschätzwert verknüpft werden.
  • WO 2011/007015 A1 zeigt ein laserbasiertes Verfahren zur Reibwertklassifikation in Kraftfahrzeugen. Signale eines Lidar- bzw. CV-Sensors, die auf die Fahrbahnoberfläche gerichtet sind, werden hierzu ausgewertet und anschließend wird insbesondere anhand der Amplitude der vermessenen Fahrbahnoberfläche ein Reibwert zugeordnet. Es kann beispielsweise geschätzt werden, ob Schnee, Asphalt oder Eis die Fahrbahnoberfläche bilden.
  • WO 2012/110030 A2 zeigt ein Verfahren und eine Vorrichtung zur Reibwertschätzung mittels einer 3D-Kamera, z.B. einer Stereokamera. Mit der 3D-Kamera wird mindestens ein Bild von der Umgebung des Fahrzeugs aufgenommen. Aus den Bilddaten der 3D-Kamera wird im gesamten Fahrzeugvorfeld ein Höhenprofil der Straßenoberfläche erstellt. Aus dem Höhenprofil wird der zu erwartende lokale Reibwert der Straßenoberfläche im Fahrzeugvorfeld geschätzt.
  • Die automatische Erfassung der Fahrbahnzustandsinformationen ist ein Schlüsselelement auf dem Weg zum autonomen Fahren in der Zukunft. Die bekannten Verfahren weisen jedoch Nachteile auf. Einerseits ist die Verfügbarkeit der Informationen sehr eingeschränkt (ESC), anderseits sind die Sensoren und Algorithmen noch nicht hinreichend präzise (Kamera, IR-Sensoren, Radar) oder die Robustheit des Systems reicht für Sicherheitssysteme bei Weitem nicht aus (Raddrehschwingungsanalyse, Stereokamera).
  • Ansatzpunkt der erfindungsgemäßen Lösung sind folgende Überlegungen: die nach dem Stand der Technik ermittelten Reibwertinformationen sind i.d.R. nicht für beliebige Fahrbahnabschnitte gültig.
  • Während direkt messende Systeme zwar sehr genau messen können, ist es ihnen aber nicht möglich, vorausschauend zu arbeiten. Gutes Beispiel sind Fahrzeugregelsysteme wie ESC, ABS bzw. TCS, die ja quasi direkt in der Aufstandsfläche (bzw. im Footprint) des Reifens über das Schlupf- und Einlaufverhalten am Reifen den Reibwert bestimmen. Auch optische Sensoren z.B. im Nahinfrarot sind technologiespezifisch nur sehr bedingt in der Lage Informationen ausreichend vorausschauend zu liefern, da der Winkel zur Fahrbahn nicht beliebig spitz werden darf. Beiden Systemen und im Übrigen auch der Raddrehzahlanalyse ist gemein, dass sie den Fahrbahnzustand nur lokal bestimmen können.
  • Andere Systeme, wie insbesondere Kamera-/Videosysteme, können den Fahrbahnzustand nur indirekt, z.B. durch eine Klassifikation bestimmen, und sind deshalb verfahrensbedingt weniger präzise als direkt messende Systeme. Systeme mit einem Erfassungsbereich mit einer Tiefe von einigen bis mehreren Metern (z.B. 1m–20m, 2m–100m, 5m–200m je nach Kameraauslegung) und mit einer Breite, die ausreichend zur Erkennung der Fahrbahnoberfläche ist, sind aber aufgrund ihrer eigentlichen Anwendung als Umgebungssensor bzw. Frontkamera zur flächendeckenden Fahrbahnvorausschau besonders gut geeignet.
  • Ein erfindungsgemäßes Verfahren zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten sieht eine Fusion von Daten aus mindestens einer Vorrichtung (bzw. eines Sensors), die am Fahrzeug und/oder insbesondere am oder unmittelbar vor mindestens einem Fahrzeugrad bzw. -reifen einen lokalen Reibwert misst bzw. Fahrbahnzustandsinformationen ermittelt, mit Daten einer Kamera bzw. eines die vorausliegende Fahrbahn erfassenden Fahrzeugumgebungssensors mit größerer Reichweite. Dazu kann bei der Auswertung der Kamerabilddaten der lokal gemessene Fahrbahnzustand respektive Reibwert bzw. die lokale Fahrbahnzustandsinformation unter Berücksichtigung von Odometrie- und Zeitinformationen einzelnen Bildbereichen eines Kamerabilds zugeordnet und zur Unterstützung und/oder Plausibilisierung bei einer vorausschauenden und ortsaufgelösten Reibwertschätzung oder Fahrbahnzustandsermittlung anhand von Kameradaten berücksichtigt werden.
  • Unter Odometrieinformationen werden hierbei Informationen verstanden, die eine Bewegung des Fahrzeugs charakterisieren und insbesondere Fahrzeugsensorikdaten wie Messgrößen eines Fahrwerks, eines Antriebsstrangs, einer Lenkung sowie Messgrößen einer Navigationsvorrichtung des Fahrzeugs umfassen. Zusammen mit den Zeitinformationen ist somit eine zurückgelegte Bewegung bzw. Trajektorie des Fahrzeugs ermittelbar oder in Kombination mit der Umfeldsensorik auch eine zukünftige Trajektorie vorhersagbar bzw. prädizierbar.
  • Insbesondere kann während der Fahrt ein begrenzter Fahrbahnabschnitt, der zunächst nur von der Kamera erfasst und dessen Fahrbahnzustand bzw. Reibwert aus Kamerabildern geschätzt wird, nachträglich gemessen werden, wenn er vom lokal messenden Sensor überfahren wird. Mit diesem gemessenen Reibwert bzw. dieser ermittelten Fahrbahnzustandsinformation können nun vorausliegende Fahrbahnabschnitte eingeschätzt werden, bei denen eine Bildauswertung zu ähnlichen oder identischen Ergebnissen führt wie beim ursprünglichen begrenzten Fahrbahnabschnitt (in vorherigen Kamerabildern).
  • Der Reibwert, auch Reibbeiwert, Kraftschlussbeiwert, (Haft-)Reibungszahl oder Reibungskoeffizient gibt an, welche Kraft zwischen einer Fahrbahnoberfläche und einem Fahrzeugreifen (z.B. in Tangentialrichtung) maximal übertragen werden kann und ist somit ein wesentliches Maß für den Fahrbahnzustand. Neben dem Fahrbahnzustand sind Eigenschaften des Reifens zu einer vollständigen Bestimmung des Reibwerts erforderlich. Für eine Schätzung des Reibwerts z.B. aus Kamerabilddaten werden typischerweise nur Fahrbahnzustandsinformationen berücksichtigt, da im Allgemeinen aus Kamerabilddaten keine Reifeneigenschaften ermittelt werden können.
  • Mit anderen Worten werden lokal den Reibwert bzw. Fahrbahnzustand bestimmende Systeme wie ESC (inkl. ABS/TCS) oder eine Raddrehschwingungsanalyse (beide auf Basis des Raddrehzahlsignals) und/oder optische Sensoren (z.B. Infrarot-/Lasersensoren) zur Bestimmung der Fahrbahnoberfläche bzw. Messung des lokalen Reibwerts mit der Kamera/Videosensorik zur flächendeckenden Vorausschau derart fusioniert, dass die diskreten Messpunkte der lokal messenden Vorrichtung auf Basis von Odometrie- und Zeitinformationen, also z.B. auf Basis der Fahrzeugbewegung im Kamerabild, verfolgt werden können und somit zur Unterstützung und Plausibilisierung der Kameraalgorithmen den einzelnen Bildbereichen (bzw. Fahrbahnabschnitten) gut zuzuordnen sind.
  • Das erfindungsgemäße Verfahren zur Bestimmung des Fahrbahnzustands gewährleistet eine sehr präzise, hochauflösende und vor allem vorausschauende Ermittlung des ortsaufgelösten Fahrbahnzustands bzw. Reibwerts. Gegenüber vorbestimmten Klassifikationsmethoden einer Fahrbahnzustands-/Reibwertschätzung aus Kamerabilddaten allein erweist sich das erfindungsgemäße Verfahren als besonders anpassungsfähig, da die tatsächlich gemessenen lokalen Reibwerte bzw. ermittelten lokalen Fahrbahninformationen aufgrund der Zuordnung zu den aktuellen Kamerabilddaten das Verfahren weitgehend resistent gegenüber Störeinflüssen bei der Kameraerfassung machen. Dadurch können die Sicherheitssysteme des Fahrzeugs prädiktiv und situativ auf Fahrbahnzustände vorbereitet oder der Fahrer informiert bzw. gewarnt werden.
  • In einer vorteilhaften Ausführungsform nimmt die Bildauswertung eine Zuordnung von einem lokal gemessenen Reibwert zu einem Fahrbahnabschnitt in mindestens einem Kamerabild vor, wenn die Berücksichtigung von Odometrie- und Zeitinformationen ergibt, dass der Fahrbahnzustand/Reibwert dieses Fahrbahnabschnitts nachträglich lokal gemessen worden ist. Ein Fahrbahnabschnitt kann aus dem Kamerabild insbesondere durch eine Segmentierung ermittelt werden, wobei die Segmentierung vorzugsweise Segmente mit einem vergleichbaren Fahrbahnzustand liefert. Aus den Odometrie- und Zeitinformationen kann ermittelt werden, welcher Fahrbahnabschnitt aus einem Kamerabild nachträglich überfahren worden ist und welcher lokale Reibwert dabei gemessen bzw. welcher lokale Fahrbahnzustand dabei ermittelt wurde.
  • Bevorzugt sieht die Bildauswertung eine Klassifikation einzelner Fahrbahnabschnitte in Kamerabildern anhand bestimmter Merkmale vor. Die bestimmten Merkmale können insbesondere vorgegebenen Fahrbahnzuständen zugeordnet sein. Der ermittelte Fahrbahnzustand (z.B. trocken, nass, schneebedeckt, vereist) ist ein Indikator für den verfügbaren Reibwert zwischen Reifen und Fahrbahn. Einem nachträglich lokal gemessenen Reibwert bzw. lokal ermittelten Fahrbahnzustand kann nun eine Klasse an Fahrbahnabschnitten (in denen derselbe Fahrbahnzustand aus dem Kamerabild ermittelt worden war) zugeordnet werden. Dadurch gelingt eine vorausschauende Reibwertschätzung für alle Fahrbahnabschnitte, die dieser Klasse zugeordnet sind.
  • Gemäß einer vorteilhaften Ausführungsform wird das Kamerabild in der Fahrbahnebene in ein zweidimensionales Gitternetz unterteilt und der mindestens eine gemessene lokale Reibwert bzw. Fahrbahnzustand mindestens einer Zelle des Gitternetzes zugeordnet. Dazu kann eine Repräsentation der durch von der Kamera abgebildeten Fahrbahnoberfläche erstellt werden, die Abstände auf der Fahrbahnoberfläche maßstäblich wiedergibt, z.B. aus der Vogelperspektive darstellt. Hierbei würden die Gitterlinien des Gitternetzes in einer Richtung (horizontal oder vertikal) jeweils einen festen Abstand zueinander aufweisen. Alternativ könnte dazu ein Gitter über das Kamerabild gelegt werden, das die perspektivische Verzerrung der Fahrzeugumgebung (und Fahrbahn) durch die Kamera widerspiegelt.
  • Dadurch könnte der Inhalt einer jeden Gitterzelle jeweils einem gleich großen Abschnitt der Fahrbahn in realen Abständen entsprechen.
  • Bevorzugt richtet sich die Anzahl der Zellen, in die das Gitternetz unterteilt wird, nach der Homogenität der Fahrbahn bzw. der Fahrbahnoberfläche insbesondere im Kamerabild. Erscheint die Fahrbahnoberfläche im Kamerabild weitgehend homogen, können weniger Gitterzellen verwendet werden als bei einer inhomogenen Fahrbahnoberfläche. Unterschiedliche Fahrbahnbeläge, Pfützen, Schneeflächen, Laub können Ursache für inhomogene Fahrbahnoberflächen sein, bei denen mit dem Fahrbahnzustand der Reibwert sehr schnell wechseln kann.
  • Vorteilhaft richtet sich die Anzahl der Zellen, in die das Gitternetz unterteilt wird, nach der aktuellen Fahrsituation und/oder deren Kritikalität. In kritischen Fahrsituationen kann eine höhere Anzahl von Zellen zu einer noch präziseren ortsaufgelösten Fahrbahnzustands-/Reibwertschätzung aus dem Kamerabild eingesetzt werden. Dadurch kann z.B. die Bremsensteuerung für ein Notbremsmanöver unter Berücksichtigung von lokalen Fahrbahnzustands-/Reibwertänderungen optimiert werden.
  • Des Weiteren kann sich die Anzahl der Zellen, in die das Gitternetz unterteilt wird, nach der verfügbaren Rechenleistung richten, die zur Bildauswertung zur Verfügung steht.
  • Unter Umständen kann die Anzahl der Zellen auf 1 reduziert werden, in aller Regel ist jedoch eine Mehrzahl von Zellen für das Gitternetz vorzusehen, um eine Ortsauflösung zu ermöglichen.
  • Gemäß einer bevorzugten Ausführungsform wird das Ergebnis der Auswertung der Kameradaten unter Berücksichtigung der dem Kamerabild zugeordneten Fahrbahnzustands-/Reibwertmessdaten anschließend prädiktiv auf ein nachfolgend erfasstes Kamerabild angewendet. Die Zuordnung erfolgt bevorzugt anhand von Zellen mit gleichen oder ähnlichen Merkmalen bezüglich des Fahrbahnzustands. Insbesondere kann dabei einzelnen Zellen, die einer gemeinsamen Klasse angehören, ein Fahrbahnzustand bzw. Reibwert zugeordnet werden, die aus einem lokal gemessenen Reibwert bzw. einem lokal ermittelten Fahrbahnzustand bestätigt oder plausibilisiert wurde.
  • Vorteilhaft wird aus einer prädizierten Bewegungstrajektorie des Fahrzeugs ein Fahrschlauch berechnet, mittels dem sich die Positionen der einzelnen lokal messenden Sensoren und der Räder des Fahrzeugs prädiktiv vor dem Fahrzeug liegenden Fahrbahnabschnitten im Kamerabild, also insbesondere einzelnen Zellen eines Gitternetzes, zuordnen lassen. Die Bewegungstrajektorien des Fahrzeugs können in an sich bekannter Weise aus Fahrzeugsensor- und/oder Umfeldsensordaten (Kamera, Radar, Lidar etc.) prädiziert werden.
  • Vorteilhaft werden einzelne Fahrbahnabschnitte bzw. Gitterzellen mit einer Klassenwahrscheinlichkeit belegt. Beispielsweise kann angegeben werden, dass eine Zelle zu 80% Klasse 1 zuzuordnen ist, zu 20% einer anderen Klasse. Dadurch kann auch der Tatsache Rechnung getragen werden, dass innerhalb einer Zelle tatsächlich unterschiedliche Beschaffenheitsbereiche vorliegen können. Z.B. können 60% eines Zelleninhalts eine nasse Fahrbahn darstellen, während 40% trocken sind.
  • Bevorzugt wird als Kamerasensor eine monokulare Kamera verwendet. Monokameras sind als Fahrerassistenzkameras etabliert und preisgünstiger als Stereokameras.
  • Gemäß einer vorteilhaften Ausführungsform wird als Kamerasensor eine Stereokamera verwendet. Eine Stereokamera bietet gegenüber einer Monokamera eine räumliche Auflösung zu den Bilddaten. Je nach Anforderung können beide oder nur eines der beiden Bilder zur Fahrbahnzustands- bzw. Reibwertschätzung ausgewertet werden.
  • In einer bevorzugten Ausgestaltung wird als lokal messende Vorrichtung bzw. Sensor exklusiv oder zusätzlich zu weiteren ein optischer Sensor verwendet. Der optische Sensor ist bevorzugt auf die Fahrbahnoberfläche gerichtet und kann die dreidimensionale Form der Fahrbahnoberfläche lokal ermitteln, woraus der Fahrbahnzustand abgeleitet bzw. ein Reibwert geschätzt werden kann. Alternativ können auch Ultraschall- oder Radarsensoren als derartige lokale Messvorrichtungen verwendet werden, solange sie die dreidimensionale Form der Fahrbahnoberfläche lokal ermitteln können.
  • In einer besonders vorteilhaften Ausführungsform wird als lokal messende Vorrichtung exklusiv oder zusätzlich zu weiteren mindestens eine Messvorrichtung verwendet, die aus den Drehzahlsignalen eines Fahrzeugrads (R1–R4) Reibwerte misst und/oder ableitet. Aus dem Raddrehzahlsignal können Reifenschlupf und Reifenschwingung analysiert werden, woraus eine Klassifikation des Reibwerts vorgenommen werden kann. Eine derartige Analyse des Schwingungsverhaltens des Reifens, aus dem ein Anregungsspektrum durch die Fahrbahn ermittelt wird, welches mit dem Reibwert korreliert, kann z.B. DE 10 2008 047 750 A1 entnommen werden. Auch ABS/ESC/TCS-Systeme, die aus den Drehzahlsignalen einzelner Fahrzeugräder durch eine Analyse von Schlupfeinläufen maximale Reibwerte messen bzw. ableiten können, können als derartige Messvorrichtung verwendet werden.
  • Die Erfindung betrifft weiterhin eine Vorrichtung zur Bestimmung eines Fahrbahnzustands. Die Vorrichtung umfasst eine Kamera, mindestens eine Vorrichtung, die dazu ausgebildet ist, einen lokalen Reibwert zu messen bzw. einen lokalen Fahrbahnzustand zu ermitteln, und eine Kameradatenauswertungsvorrichtung. Letztere ist dazu ausgebildet, den lokal gemessenen Reibwert/Fahrbahnzustand bei der Kameradatenauswertung zu berücksichtigen. Die Kameradatenauswertungsvorrichtung ist dazu ausgebildet, den lokal gemessenen Reibwert bzw. Fahrbahnzustand unter Berücksichtigung von Odometrie- und Zeitinformationen einzelnen Bildbereichen eines Kamerabilds zuzuordnen und zur Unterstützung und/oder Plausibilisierung bei einer vorausschauenden und ortsaufgelösten Reibwertschätzung oder Fahrbahnzustandsermittlung anhand von Kameradaten berücksichtigen zu können.
  • Im Folgenden wird die Erfindung anhand von Figuren und Ausführungsbeispielen näher erläutert.
  • Es zeigen:
  • 1 ein Kamerabild einer vorausliegenden Fahrzeugumgebung;
  • 2 eine Repräsentation der durch das Kamerabild wiedergegeben Szene aus der Vogelperspektive;
  • 3 eine Unterteilung eines Ausschnitts der Repräsentation in Zellen mittels eines Gitternetzes, in dem einzelne Zellen klassifiziert sind. und
  • 4 ein Fahrzeug mit lokal messenden Sensoren in einem Gitternetz, in dem einzelne Zellen klassifiziert sind.
  • 1 zeigt beispielhaft ein Kamerabild einer vorausliegenden Fahrzeugumgebung, wie es von einer Frontkamera eines fahrenden Fahrzeugs aufgenommen worden ist. Aus demselben Bild können kamerabasierte Fahrerassistenzfunktionen realisiert werden, z.B. eine Spurverlassenswarnung (LDW, Lane Departure Warning), eine Spurhalteunterstützung (LKA/LKS, Lane Keeping Assistance/System), eine Verkehrszeichenerkennung (TSR, Traffic Sign Recognition), eine automatische Fernlichtsteuerung (IHC, Intelligent Headlamp Control), eine Kollisionswarnung (FCW, Forward Collision Warning), eine Niederschlagserkennung, eine automatische Längsregelung (ACC, Adaptive Cruise Control), eine Einparkunterstützung, automatische Notbrems- oder Notlenksysteme (EBA, Emergency Brake Assist oder ESA, Emergency Steering Assist). Das Kamerabild zeigt eine Fahrbahn (1), deren Oberfläche weitgehend homogen ist. Auf der Oberfläche sind Fahrspurmarkierungen zu erkennen: jeweils eine durchgezogenen Seitenlinie, die das linke und rechte Ende der Fahrbahn markieren sowie Mittelliniensegmente (3) der unterbrochenen bzw. gestrichelten mittleren Fahrbahnmarkierung. Die Fahrbahn (1) könnte aus Asphalt oder Beton gebildet sein. Auf der Fahrbahn (1) ist eine Pfütze (2) zu erkennen.
  • 2 zeigt eine Repräsentation der durch das Kamerabild in 1 wiedergegebenen Szene aus einer Vogelperspektive betrachtet. Diese Repräsentation kann aus dem Kamerabild ermittelt werden, wobei bei einer Monokamera vorzugsweise Abbildungseigenschaften der Kamera (4), die Einbaugeometrie der Kamera im Fahrzeug (5), der tatsächlichen Fahrzeughöhe (aufgrund der Reifenstands-/Fahrwerksteuerung), Nick-, Gier- und/oder Rollwinkel berücksichtigt werden. Es kann die Annahme getroffen werden, dass die Fahrbahnoberfläche eben ist. Bei einer Stereokamera ist die Repräsentation aufgrund der erfassten 3D-Bilddaten unmittelbar ermittelbar, wobei auch hierbei weitere Aspekte berücksichtigt werden können. Die Repräsentation ist im Wesentlichen dadurch gekennzeichnet, dass dort Abstände tatsächlichen Abständen entsprechen. So sind die gezeigten Mittelstreifensegmente auch auf der realen Fahrbahn äquidistant angeordnet.
  • Auf der in 2 dargestellten Repräsentation sind die Fahrbahn (1), die Pfütze (2) und die Mittelliniensegmente (3) der Fahrbahnmarkierung zu erkennen, die bereits im Kamerabild (1) enthalten sind. Zusätzlich ist in der Repräsentation ein Fahrzeug (5) mit einer Kamera (4) enthalten, wobei mit der Kamera (4) das Bild aus 1 aufgenommen worden ist. Der gestrichelte Pfeil gibt die prädizierte Trajektorie (T) des Fahrzeugs (5) an. Bei dieser Geradeausfahrt kann der zurückgelegte Weg s entlang der Trajektorie (T) im Falle einer gleichförmigen Bewegung mit der Geschwindigkeit v unter Berücksichtigung der Information über die Zeit t bestimmt werden aus s = vt. Auf diese Weise kann unter Berücksichtigung der Odometrie- und Zeitinformationen bestimmt werden, wann z.B. das linke Vorderrad des Fahrzeugs (5) die Pfütze (2) erreichen wird. Nicht dargestellt sind in diese Repräsentation die lokalen Reibwertmessvorrichtungen des Fahrzeugs (5), die lokal – also im Wesentlichen unter dem Fahrzeug – den Fahrbahnzustand und/oder den Reibwert zwischen Reifen und Fahrbahnoberfläche (1) messen können. Derartige Vorrichtungen können optische Sensoren (6) sein, die auf die Fahrbahnoberfläche (1) gerichtet sind, insbesondere Infrarot- oder Lasersensoren, oder Vorrichtungen wie ESC, die lokal an den Rädern den verfügbaren Reibwert ermitteln oder die aus einer Analyse eines Raddrehzahlsignals einen Reibwert ableiten.
  • 3 zeigt wie ein Gitter (G) über einen Teil der Repräsentation aus 2 gelegt wird. Dadurch wird die Repräsentation in einzelne Zellen unterteilt. Durch eine Klassifikation können einzelnen Gitterzellen einzelne Klassen zugeordnet werden, die eine Information über den Fahrbahnzustand bzw. den Reibwert beinhalten. Im vorliegenden Beispiel sind die Zellen der Klasse K1 zugeordnet, in denen trockener Asphalt die Fahrbahn bildet. Die Zellen, in denen nasser Asphalt vorkommt, sind der Klasse K2 zugeordnet. Zellen, in denen ein anderer Untergrund vorkommt, können der Klasse Kn zugeordnet werden. Eine simple Klassifikation besteht zum Beispiel in einer Einteilung der Fahrbahnabschnitte in die vier Klassen trockener Asphalt (K1), nasser Asphalt (K2), Schnee und Eis. Allgemeiner können n Klassen K1 bis Kn vorgesehen werden, die z.B. unterschiedlichen Fahrbahnmaterialien (Asphalt, Beton, Sand, Kies, etc.) und verschiedenen Kondensatzuständen (z.B. trocken, nass, Schnee, Eis) Rechnung tragen können. Unter den n Klassen kann auch eine Restklasse vorgesehen sein für Fahrbahnabschnitte, die keiner der übrigen (vorgegebenen) Klassen zugeordnet werden können. Die Anzahl an Gitterzellen bzw. die Größe einer einzelnen Zelle des Gitters (G) kann variiert werden. Wenn die Fahrbahnoberfläche im Kamerabild weitgehend homogen erscheint, wie es hier im Bereich der Fahrbahn (1) außerhalb der Pfütze (2) der Fall ist, können weniger Gitterzellen verwendet werden als bei einer insgesamt inhomogenen Fahrbahnoberfläche oder im Bereich der Pfütze (2). Unterschiedliche Fahrbahnbeläge, Pfützen (2), Schneeflächen, Laub können Ursache für inhomogene Fahrbahnoberflächen sein, bei denen der Reibwert sehr schnell wechseln kann.
  • In kritischen Fahrsituationen kann ebenso eine höhere Anzahl von Zellen zu einer noch präziseren ortsaufgelösten Fahrbahnzustands-/Reibwertschätzung aus dem Kamerabild eingesetzt werden. Dadurch kann z.B. die Bremsensteuerung für ein Notbremsmanöver unter Berücksichtigung von lokalen Reibwertänderungen optimiert werden. Schließlich kann sich die Anzahl der Zellen des Gitters (G) nach der verfügbaren Rechenleistung richten, die zur Bildauswertung zur Verfügung steht.
  • 4 zeigt eine gitterbasierte Zuordnung von lokalen Reibwertmessdaten zu klassifizierten Fahrbahnabschnitten bzw. Gitterzellen. Wie anhand von 3 erläutert, erfolgt durch eine Bildauswertung mittels Bildverarbeitungsalgorithmen zunächst eine Klassifikation der einzelnen Zellen anhand bestimmter Merkmale. Daraus ergeben sich Klassenwerte (K1 bis Kn) für die vor dem Fahrzeug liegenden Zellen. In 4 liegt beispielsweise eine Fahrbahnsituation vor, die der in 2 und 3 dargestellten vergleichbar ist. Die meisten Zellen sind der Klasse K1 zugeordnet, während ein 2×2 Block von Zellen der Klasse K2 zugeordnet ist. Während also der Kameraauswertung und Klassifikation die Information entnommen werden kann, dass eine Pfütze bzw. ein zusammenhängender nasser Bereich (2) auf ansonsten trockener Fahrbahn (1) vorausliegt, kann diesen Klassen (K1, K2, ...) nicht ohne weiteres Wissen (Durchschnittswerte, Erfahrungswerte etc.) ein tatsächlicher Fahrbahnzustand/Reibwert zugeordnet werden. Die trockene Fahrbahn (1) könnte aus griffigem oder glattem Asphalt gebildet sein. Die Pfütze (2) könnte flach oder tief sein, aus Wasser oder aus Öl gebildet etc. Diese Ungewissheit kann durch eine Messung des Fahrbahnzustands/Reibwerts mittels eines lokalen Sensors des Fahrzeugs (5) ausgeräumt werden. Das dargestellte Fahrzeug (5) verfügt über einen optischen Sensor (6) und vier Messvorrichtungen, die aus den Drehzahlsignalen jeweils eines der vier Fahrzeugräder (R1–R4) Reibwerte ableiteten bzw. messen als lokale Sensoren. Diese lokalen Sensoren messen einen aktuellen Fahrbahnzustand/Reibwert, der jeweils der Zelle des Gitters (G) zugeordnet werden kann, innerhalb welcher der lokale Sensor den Fahrbahnzustand/Reibwert misst. In 4 sind das die Zellen, in denen der optische Sensor (6) misst und in denen jeweils ein Rad (R1–R4) mit der Fahrbahn (1) in Kontakt ist. Die Verknüpfung zwischen den Klassen K1 bis Kn und den lokalen Messwerten erfolgt über Odometrie- und Zeitdaten. Die Klasseneinteilung auf Basis der Kameradaten kann nun odometriegestützt bei Überfahrt des Fahrzeugs mit den Ergebnissen der lokalen Sensoren mit den Ergebnissen der Kameraklassifikation in den jeweiligen Zellen fusioniert werden. In 4 war z.B. die Zelle, in der der optische Sensor (6) den Fahrbahnzustand/Reibwert misst der Klasse K1 (trockener Asphalt) zugeordnet. Aufgrund des Messwerts kann dieser Klasse erstmals ein Reibwert bzw. Fahrbahnzustand zugeordnet werden oder ein vorab geschätzter Fahrbahnzustand/Reibwert für diese Klasse (K1) kann als fusionierter Fahrbahnzustand/Reibwert (K1) plausibilisiert, korrigiert oder validiert werden. In den Zellen links des linken (R3) und rechten (R4) Hinterrads war bereits bei der Überfahrt ein entsprechender fusionierter Reibwert bzw. Fahrbahnzustand (K1) ermittelt worden. In gleicher Weise kann ein Messwert für die Klasse K2 (nasser Asphalt) erhalten werden in der Zelle, in der sich das vordere rechte Fahrzeugrad (R2) befindet, indem die Messvorrichtung aus dem Drehzahlsignal des vorderen rechten Fahrzeugrads (R2) den Fahrbahnzustand/Reibwert ableitet bzw. misst und daraus ein fusionierter Reibwert bzw. Fahrbahnzustand (K2) für die Klasse K2 bestimmt wird. Die Zuordnung dieser Zelle zur Klasse K2 war bereits in einem zuvor aufgenommenen Kamerabild erfolgt. Und aufgrund der Odometrie- und Zeitdaten wird ermittelt, ob und wann die lokalen Sensoren im Bereich dieser klassifizierten Zellen messen. Die so gewonnenen Fusionsergebnisse werden anschließend wiederum prädiktiv auf das aktuell vorausschauende Kamerabild angewendet und hier den entsprechenden Klassen der einzelnen Zellen zugeordnet. Alternativ ist es möglich, aus der prädizierten Bewegungstrajektorie (T) des Fahrzeugs (5) den zukünftigen Fahrschlauch zu berechnen. Auch dies ist in 4 dargestellt. Ausgehend vom aktuellen Kamerabild lässt sich z.B. abschätzen, dass der optische Sensor (6) den Fahrbahnzustand/Reibwert in den Zellen messen können wird, durch die die gestrichelte Trajektorie (T) verläuft. Wann das der Fall sein wird, lässt sich aus den Odometrie- und Zeitdaten bestimmen. Bei einer gleichförmigen Bewegung mit einer konstanten Winkelgeschwindigkeit ω entlang einer Kreisbahn mit Radius r bestimmt sich der während einer Zeit t zurückgelegte Weg s zu s = rωt. Damit lassen sich die Positionen des optischen Sensors (6) und der einzelnen Räder (R1–R4) des Fahrzeugs (5) prädiktiv den vor dem Fahrzeug liegenden Zellen mit ihren Merkmalen präzise zuordnen. So ist zu erkennen, dass in zwei Zellen, die der Klasse K2 zugeordnet sind, in nächster Zeit der optische Sensor (6) den Fahrbahnzustand/Reibwert messen können wird und somit ein fusionierter Reibwert (K2) für die Klasse 2 verfügbar sein wird: nämlich in der dritten und vierten Zelle rechts der Zelle mit dem optischen Sensor (6).
  • Bezugszeichenliste
  • 1
    Fahrbahn bzw. Fahrbahnoberfläche
    2
    Pfütze
    3
    Mittelliniensegment
    4
    Kamera
    5
    Fahrzeug
    6
    Optischer Sensor zur lokalen Fahrbahnzustandsbestimmung
    T
    (Bewegungs-)Trajektorie
    G
    Gitter bzw. Gitternetz
    K1
    Klasse 1
    K2
    Klasse 2
    Kn
    Klasse n
    K1
    fusionierte Reibwertschätzung für Klasse 1
    K2
    fusionierte Reibwertschätzung für Klasse 2
    R1
    linkes Vorderrad
    R2
    rechtes Vorderrad
    R3
    linkes Hinterrad
    R4
    rechtes Hinterrad
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 792228 B1 [0004]
    • DE 10256726 A1 [0005]
    • DE 102004018088 A1 [0006]
    • DE 102004047914 A1 [0007]
    • DE 102008047750 A1 [0008, 0036]
    • DE 102009041566 A1 [0009]
    • WO 2011/007015 A1 [0010]
    • WO 2012/110030 A2 [0011]

Claims (15)

  1. Verfahren zur Bestimmung eines Fahrbahnzustands aus Kameradaten, wobei Daten aus mindestens einer Vorrichtung, die einen lokalen Fahrbahnzustand oder Reibwert misst, mit Daten einer Kamera (4) fusioniert werden, dadurch gekennzeichnet, dass bei der Auswertung der Kameradaten der lokal gemessene Fahrbahnzustand oder Reibwert unter Berücksichtigung von Odometrie- und Zeitinformationen einzelnen Bildbereichen eines Kamerabilds zugeordnet und zur Unterstützung und/oder Plausibilisierung bei einer vorausschauenden und ortsaufgelösten Reibwertschätzung oder Fahrbahnzustandsermittlung anhand von Kameradaten berücksichtigt werden kann.
  2. Verfahren nach Anspruch 1, wobei die Bildauswertung eine Zuordnung des lokal gemessenen Fahrbahnzustands oder Reibwerts zu mindestens einem Fahrbahnabschnitt in einem Kamerabild vornimmt, wenn die Berücksichtigung von Odometrie- und Zeitinformationen ergibt, dass der Fahrbahnzustand oder Reibwert dieses Fahrbahnabschnitts nachträglich lokal gemessen worden ist.
  3. Verfahren nach Anspruch 1 oder 2, wobei die Bildauswertung eine Klassifikation (K1, K2, ..., Kn) einzelner Bildbereiche oder Fahrbahnabschnitte in einem Kamerabild anhand bestimmter Merkmale vorsieht.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Kamerabild in der Fahrbahnebene in ein zweidimensionales Gitternetz (G) unterteilt wird und der mindestens eine lokal gemessene Fahrbahnzustand oder Reibwert einer Zelle des Gitternetzes (G) zugeordnet wird.
  5. Verfahren nach Anspruch 4, wobei sich die Anzahl der Zellen, in die das Gitternetz (G) unterteilt wird, nach der Homogenität der Fahrbahn (1) richtet.
  6. Verfahren nach Anspruch 4 oder 5, wobei sich die Anzahl der Zellen, in die das Gitternetz (G) unterteilt wird, nach der aktuellen Fahrsituation und/oder deren Kritikalität richtet.
  7. Verfahren nach einem der Ansprüche 4 bis 6, wobei sich die Anzahl der Zellen, in die das Gitternetz (G) unterteilt wird, nach der für das Verfahren verfügbaren Rechenleistung richtet.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Ergebnis der Auswertung der Kameradaten unter Berücksichtigung des dem Kamerabild zugeordneten lokal gemessenen Fahrbahnzustands oder Reibwerts anschließend prädiktiv auf ein nachfolgend erfasstes Kamerabild angewendet wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei aus einer prädizierten Bewegungstrajektorie (T) des Fahrzeugs (5) ein Fahrschlauch berechnet wird, mittels dem sich die Positionen der einzelnen Räder (R1–R4) des Fahrzeugs (5) und/oder eines lokal messenden Sensors prädiktiv Fahrbahnabschnitten im Kamerabild zuordnen lassen, die vor dem Fahrzeug liegen.
  10. Verfahren nach einem der Ansprüche 3 bis 9, wobei einem Bildbereich oder Fahrbahnabschnitt Wahrscheinlichkeitswerte zugeordnet werden, die angeben, mit welcher Wahrscheinlichkeit der Bildbereich oder Fahrbahnabschnitt einer ersten Klasse und mindestens einer zweiten Klasse zuzuordnen ist.
  11. Verfahren nach einem der vorhergehenden Ansprüche, wobei als Kamera (4) eine Monokamera verwendet wird.
  12. Verfahren nach einem der Ansprüche 1 bis 10, wobei als Kamera (4) eine Stereokamera verwendet wird.
  13. Verfahren nach einem der vorhergehenden Ansprüche, wobei als lokal messende Vorrichtung ein Sensor oder ein optischer Sensor (6) verwendet wird, der die dreidimensionale Form der Fahrbahnoberfläche lokal ermittelt.
  14. Verfahren nach einem der vorhergehenden Ansprüche, wobei als lokal messende Vorrichtung mindestens eine Messvorrichtung verwendet wird, die aus den Drehzahlsignalen eines Fahrzeugrads (R1–R4) einen lokalen Reibwert misst und/oder ableitet.
  15. Vorrichtung zur Bestimmung eines Fahrbahnzustands umfassend eine Kamera (4), mindestens eine Vorrichtung, die dazu ausgebildet ist, einen lokalen Fahrbahnzustand oder Reibwert zu messen, und eine Kameradatenauswertungsvorrichtung, die dazu ausgebildet ist, den lokal gemessenen Fahrbahnzustand oder Reibwert bei der Kameradatenauswertung zu berücksichtigen, dadurch gekennzeichnet, dass die Kameradatenauswertungsvorrichtung ferner dazu ausgebildet ist, den lokal gemessenen Fahrbahnzustand oder Reibwert unter Berücksichtigung von Odometrie- und Zeitinformationen einzelnen Bildbereichen eines Kamerabilds zuzuordnen und zur Unterstützung und/oder Plausibilisierung bei einer vorausschauenden und ortsaufgelösten Reibwertschätzung oder Fahrbahnzustandsermittlung anhand von Kameradaten berücksichtigen zu können.
DE102012112724.7A 2012-12-20 2012-12-20 Verfahren zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten Withdrawn DE102012112724A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102012112724.7A DE102012112724A1 (de) 2012-12-20 2012-12-20 Verfahren zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten
DE112013006175.9T DE112013006175A5 (de) 2012-12-20 2013-12-09 Verfahren zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten
US14/424,148 US9676331B2 (en) 2012-12-20 2013-12-09 Method for determining a state of a pavement from surroundings sensor data
PCT/DE2013/200339 WO2014094766A1 (de) 2012-12-20 2013-12-09 Verfahren zur bestimmung eines fahrbahnzustands aus umfeldsensordaten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012112724.7A DE102012112724A1 (de) 2012-12-20 2012-12-20 Verfahren zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten

Publications (1)

Publication Number Publication Date
DE102012112724A1 true DE102012112724A1 (de) 2014-06-26

Family

ID=49999655

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102012112724.7A Withdrawn DE102012112724A1 (de) 2012-12-20 2012-12-20 Verfahren zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten
DE112013006175.9T Pending DE112013006175A5 (de) 2012-12-20 2013-12-09 Verfahren zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112013006175.9T Pending DE112013006175A5 (de) 2012-12-20 2013-12-09 Verfahren zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten

Country Status (3)

Country Link
US (1) US9676331B2 (de)
DE (2) DE102012112724A1 (de)
WO (1) WO2014094766A1 (de)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013222634A1 (de) * 2013-11-07 2015-05-07 Volkswagen Aktiengesellschaft Verfahren zur Prognostizierung eines Fahrbahn-Reibungsbeiwerts sowie Verfahren zum Betrieb eines Kraftfahrzeugs
DE102016217637A1 (de) 2016-09-15 2018-03-15 Volkswagen Aktiengesellschaft Odometrie-Verfahren zum Ermitteln einer Position eines Kraftfahrzeugs, Steuervorrichtung und Kraftfahrzeug
DE102016223391A1 (de) * 2016-11-25 2018-05-30 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zum erzeugen einer fahrzeugumgebungsansicht bei einem fahrzeug
WO2018108533A1 (de) * 2016-12-16 2018-06-21 Volkswagen Aktiengesellschaft Verfahren zum schätzen eines reibwerts einer fahrbahn mittels eines kraftfahrzeugs sowie steuervorrichtung und kraftfahrzeug
DE102017124944A1 (de) * 2017-10-25 2019-04-25 Valeo Schalter Und Sensoren Gmbh Fahrerassistenzvorrichtung zum Anzeigen einer Umgebung eines Kraftfahrzeugs mit einer abgespeicherten Bodentextur
DE102018212630A1 (de) * 2018-07-27 2020-01-30 Continental Teves Ag & Co. Ohg Verfahren zur Bestimmung eines Fahrbahnzustands
DE102018212629A1 (de) * 2018-07-27 2020-01-30 Continental Teves Ag & Co. Ohg Verfahren zur Bestimmung von Fahrbahnzuständen
WO2020074037A1 (de) 2018-10-09 2020-04-16 Schaeffler Technologies AG & Co. KG Verfahren zur ermittlung eines fahrbahnzustandes und fahrzeug mit mindestens zwei radselektiven lenkungsaktuatoren
WO2020079037A1 (de) * 2018-10-17 2020-04-23 Zf Friedrichshafen Ag Vorrichtung und verfahren zum anpassen eines abstands zwischen einem ego-fahrzeug und einem vorausfahrenden fahrzeug
DE102018221594A1 (de) * 2018-12-13 2020-06-18 Audi Ag Verfahren und Vorrichtung zur Glätteerkennung für ein Fahrzeug sowie Kraftfahrzeug
DE102019105649A1 (de) * 2019-03-06 2020-09-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Ermitteln des Reibwerts zwischen mindestens einem Reifen und einer Fahrbahn eines Neigefahrzeugs, Steuervorrichtung und Neigefahrzeug
DE102019114904A1 (de) * 2019-06-04 2020-12-10 Valeo Schalter Und Sensoren Gmbh Vorausschauende Erkennung einer Fahrbahnbeschaffenheit mittels eines Laserscanners und einer Kameraeinheit
DE102020103917A1 (de) 2020-02-14 2021-08-19 HELLA GmbH & Co. KGaA Verfahren zur Bestimmung des Reibwertes einer mit einem Fahrzeug befahrenen Fahrbahnoberfläche
EP3885219A1 (de) * 2020-03-26 2021-09-29 INTEL Corporation Sicherheitssystem für ein fahrzeug, fahrzeug und computerprogramm
DE102020205340A1 (de) 2020-04-28 2021-10-28 Zf Friedrichshafen Ag Umfelderfassung für ein Off-Road Fahrzeug
WO2022106342A1 (de) * 2020-11-20 2022-05-27 Zf Friedrichshafen Ag Auswerteeinrichtung, computerprogramm und computerimplementiertes verfahren zum trainieren eines neuronalen netzes zur reibwertbestimmung
DE102021101788A1 (de) 2021-01-27 2022-07-28 Zf Cv Systems Global Gmbh Verfahren zum ortsaufgelösten Ermitteln einer Oberflächeneigenschaft eines Untergrundes, Verarbeitungseinheit und Fahrzeug
WO2022269098A1 (fr) * 2021-06-25 2022-12-29 Renault S.A.S Procede d'optimisation du contrôle dynamique du châssis d'un vehicule
DE102018103214B4 (de) 2017-02-27 2023-12-07 GM Global Technology Operations LLC Verfahren und systeme zum proaktiven schätzen des strassenoberflächen-reibungskoeffizienten

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012112725A1 (de) * 2012-12-20 2014-06-26 Continental Teves Ag & Co. Ohg Reibwertschätzung aus Kamera- und Raddrehzahldaten
DE102013101639A1 (de) 2013-02-19 2014-09-04 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands
DE102013223367A1 (de) 2013-11-15 2015-05-21 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands mittels eines Fahrzeugkamerasystems
US9387851B2 (en) 2014-08-28 2016-07-12 Robert Bosch Gmbh Adaptive electronic stability control
DE102015216483A1 (de) * 2015-01-29 2016-08-04 Robert Bosch Gmbh Verfahren zum Betrieb einer Reibwertdatenbank und Reibwertdatenbank
CA2976344A1 (en) * 2015-02-10 2016-08-18 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
JP6673766B2 (ja) * 2016-06-30 2020-03-25 株式会社ブリヂストン 路面状態判別方法
US10082795B2 (en) * 2016-08-24 2018-09-25 GM Global Technology Operations LLC Vision-based on-board real-time estimation of water film thickness
EP3299993A1 (de) * 2016-09-22 2018-03-28 OmniKlima AB Verfahren und anordnung zur bestimmung des zustands eines strassenbelags
US10275662B1 (en) 2016-09-30 2019-04-30 Zoox, Inc. Estimating friction based on image data
DE102016220651A1 (de) 2016-10-20 2018-04-26 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Erzeugung einer Fahrzeugumgebungsansicht bei einem Fahrzeug
KR20180061686A (ko) * 2016-11-30 2018-06-08 삼성전자주식회사 자율 주행 경로 생성 방법 및 그 장치
US10078334B2 (en) * 2016-12-07 2018-09-18 Delphi Technologies, Inc. Vision sensing compensation
US10261515B2 (en) * 2017-01-24 2019-04-16 Wipro Limited System and method for controlling navigation of a vehicle
CN110832281A (zh) * 2017-06-20 2020-02-21 尼拉动力公司 道路状况监测
US20200174490A1 (en) * 2017-07-27 2020-06-04 Waymo Llc Neural networks for vehicle trajectory planning
DE102017214030A1 (de) * 2017-08-11 2019-02-14 Robert Bosch Gmbh Verfahren zum Bestimmen eines Reibwerts für einen Kontakt zwischen einem Reifen eines Fahrzeugs und einer Fahrbahn und Verfahren zum Steuern einer Fahrzeugfunktion eines Fahrzeugs
US10773725B1 (en) 2017-08-25 2020-09-15 Apple Inc. Tire-road friction estimation and mapping
CN111132878B (zh) 2017-09-26 2022-08-30 尼拉动力公司 摩擦估计
EP3722172A4 (de) * 2017-12-07 2020-12-02 Nissan Motor Co., Ltd. Verfahren zur bestimmung des strassenzustandes und vorrichtung zur bestimmung des strassenzustandes
US10489923B2 (en) * 2017-12-13 2019-11-26 Vaisala, Inc. Estimating conditions from observations of one instrument based on training from observations of another instrument
US11124193B2 (en) 2018-05-03 2021-09-21 Volvo Car Corporation System and method for providing vehicle safety distance and speed alerts under slippery road conditions
US10706294B2 (en) * 2018-05-03 2020-07-07 Volvo Car Corporation Methods and systems for generating and using a road friction estimate based on camera image signal processing
CN108960060A (zh) * 2018-06-01 2018-12-07 东南大学 一种无人驾驶车辆路面纹理识别系统及方法
DE102018216809A1 (de) * 2018-09-28 2020-04-02 Robert Bosch Gmbh Verfahren, Vorrichtung und Sensorsystem zur Umfelderfassung für ein Fahrzeug
KR102529918B1 (ko) * 2018-10-16 2023-05-08 현대자동차주식회사 차량 물튐 현상 대응 장치, 그를 포함한 시스템 및 그 방법
US11845310B2 (en) 2018-10-18 2023-12-19 Ford Global Technologies, Llc Systems and methods for tire warmup and vehicle launch optimization
DE102018220576A1 (de) * 2018-11-29 2020-06-04 Robert Bosch Gmbh Verfahren und Steuergerät zum Bestimmen eines Reibwertpotentials eines Fahrbahnbelags
EP3947088B1 (de) 2019-04-05 2024-03-13 Volvo Truck Corporation Verfahren und steuereinheit zur bestimmung eines parameters, der eine strassenkapazität eines ein fahrzeug tragenden strassensegments anzeigt
EP3959485B1 (de) * 2019-04-23 2024-04-03 Google LLC Erzeugung von oberflächenkarten zur verbesserung der navigation
CN113015887A (zh) * 2019-10-15 2021-06-22 谷歌有限责任公司 基于天气和路面类型的导航方向
KR20220057674A (ko) * 2020-10-29 2022-05-09 주식회사 만도 차량 제어 장치 및 방법과, 차량 시스템
CN114781498B (zh) * 2022-04-06 2023-09-01 欧亚高科数字技术有限公司 基于人工智能的道路塌陷监测方法及系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4712635A (en) * 1986-01-13 1987-12-15 Aisin-Warner Kabushiki Kaisha Control apparatus for four-wheel drive vehicle
EP0412791A2 (de) * 1989-08-10 1991-02-13 LUCAS INDUSTRIES public limited company Überwachung und Vorhersage von Fahrzeug/Strassen-Bedingungen
DE19854964A1 (de) * 1998-11-29 2000-06-08 Martin Spies Sensor zur Fahrbahnbeurteilung
EP0792228B1 (de) 1994-11-25 2000-08-09 Continental Teves AG & Co. oHG System zur fahrstabilitätsregelung
DE10256726A1 (de) 2002-12-05 2004-06-24 Conti Temic Microelectronic Gmbh Verfahren zur fahrbahnabhängigen Signalgenerierung in einem Kraftfahrzeug
DE102004018088A1 (de) 2003-04-09 2005-02-10 Continental Teves, Inc., Auburn Hills Fahrbahnerkennungssystem
DE102004047914A1 (de) 2004-09-29 2006-03-30 A.D.C. Automotive Distance Control Systems Gmbh Methode zur Einschätzung des Fahrbahnzustands
DE102008047750A1 (de) 2007-09-18 2009-05-07 Continental Teves Ag & Co. Ohg Bestimmung eines Kraftschlusses mit wenigen Sensoren
WO2011007015A1 (de) 2009-07-17 2011-01-20 Continental Teves Ag & Co. Ohg Laserbasiertes verfahren zur reibwertklassifikation in kraftfahrzeugen
DE102009041566A1 (de) 2009-09-15 2011-03-24 Continental Teves Ag & Co. Ohg Verfahren zur Klassifizierung des Fahrbahnreibwerts
WO2012110030A2 (de) 2011-02-14 2012-08-23 Conti Temic Microelectronic Gmbh Reibwertschätzung mittels einer 3d-kamera

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0735522A (ja) 1993-07-23 1995-02-07 Nippon Doro Kodan レーザーを利用した舗装路面横断プロフィル測定方法
US5774821A (en) 1994-11-25 1998-06-30 Itt Automotive Europe Gmbh System for driving stability control
JPH08263784A (ja) 1995-03-23 1996-10-11 Honda Motor Co Ltd 道路状況認識装置
EP0827127B1 (de) 1996-08-28 2006-10-04 Matsushita Electric Industrial Co., Ltd. Lokales Positionierungsgerät und Verfahren dafür
DE19856510C2 (de) 1998-02-20 2002-10-24 Cegelec Anlagen Und Automatisi Verfahren und System zur Ermittlung von Unebenheiten und Schadstellen in der Oberfläche einer Verkehrsfläche
JP2001334921A (ja) 2000-05-30 2001-12-04 Fuji Heavy Ind Ltd 車両の路面摩擦係数推定装置
JP3271963B1 (ja) * 2000-10-26 2002-04-08 富士重工業株式会社 車両の路面摩擦係数推定装置
JP3539722B2 (ja) * 2000-11-16 2004-07-07 富士重工業株式会社 車両の路面摩擦係数推定装置
DE10060333A1 (de) 2000-12-04 2002-06-13 Daimler Chrysler Ag Vorrichtung zur Erkennung einer während des Fahrbetriebes eines Fahrzeuges auftretenden Aquaplaninggefahr
DE10155488A1 (de) 2001-11-13 2003-05-28 Wilhelm Caspary Verfahren zur Erfassung der Oberfläche einer Fahrbahn
US6636258B2 (en) 2001-10-19 2003-10-21 Ford Global Technologies, Llc 360° vision system for a vehicle
CN1321838C (zh) 2001-12-21 2007-06-20 株式会社普利司通 路面状况及轮胎行驶状态的推断方法和装置及利用它们的防滑刹车系统和车辆控制
EP1504276B1 (de) 2002-05-03 2012-08-08 Donnelly Corporation Objektdetektionssystem für ein fahrzeug
JP4046059B2 (ja) * 2002-11-08 2008-02-13 株式会社豊田中央研究所 路面状態推定装置
US7417738B2 (en) * 2004-01-27 2008-08-26 Tradewind Scientific Ltd. Determining surface properties of a roadway or runway from a moving vehicle
JP4453382B2 (ja) 2004-02-10 2010-04-21 トヨタ自動車株式会社 車両の走行制御装置
US8310545B2 (en) * 2004-03-29 2012-11-13 Pioneer Corporation Apparatus and method for analyzing road view
DE102004016288B3 (de) 2004-04-02 2005-08-18 Daimlerchrysler Ag Verfahren zur Bestimmung eines Reibwerts
DE102004019337A1 (de) 2004-04-21 2005-11-17 Siemens Ag Assistenzsystem für Kraftfahrzeuge
DE102004055069B4 (de) 2004-07-15 2007-02-15 Daimlerchrysler Ag Mehrdimensionale Fahrbahnvermessung
DE102004048637A1 (de) 2004-10-04 2006-04-06 Daimlerchrysler Ag 3D-Fahrbahnmessung mit redundanten Messdaten
DE102006012289A1 (de) 2006-03-17 2007-09-20 Man Nutzfahrzeuge Ag Verfahren zur vorausschauenden Erkennung der Reibwertänderung eines Straßenbelags
US8306747B1 (en) 2007-01-19 2012-11-06 Starodub, Inc. Travel way measurement system
EP2048476B1 (de) 2007-10-08 2013-12-11 Delphi Technologies, Inc. Fahrerunterstützungsverfahren
DE102009033219A1 (de) 2009-01-23 2010-07-29 Daimler Ag Verfahren zur Ermittlung eines Fahrzeug vorausliegenden Straßenprofils einer Fahrspur
JP5172764B2 (ja) 2009-03-30 2013-03-27 本田技研工業株式会社 路面摩擦係数推定装置
US8395529B2 (en) 2009-04-02 2013-03-12 GM Global Technology Operations LLC Traffic infrastructure indicator on head-up display
KR101089650B1 (ko) 2009-09-23 2011-12-06 삼성전기주식회사 차량 속도 제어 장치 및 방법
JP5325765B2 (ja) 2009-12-28 2013-10-23 日立オートモティブシステムズ株式会社 路肩検出装置及び路肩検出装置を用いた車両
DE102010011093A1 (de) 2010-03-11 2011-09-15 Daimler Ag Verfahren zur Bestimmung einer Fahrzeugaufbaubewegung
DE102010013339A1 (de) 2010-03-30 2011-01-05 Daimler Ag Vorrichtung und Verfahren zur Steuerung eines Motorlagers für ein Fahrzeug
DE102010045162A1 (de) 2010-09-11 2012-03-15 Volkswagen Ag Schlaglochassistent mit Umfeldwahrnehmung
JP2012066785A (ja) 2010-09-27 2012-04-05 Fuji Heavy Ind Ltd 車両の統合制御装置
DE102010063017A1 (de) 2010-12-14 2012-06-14 Robert Bosch Gmbh Verfahren in einem Fahrerassistenzsystem zur Erkennung von Nässe auf einer Fahrbahn
DE102011011755A1 (de) 2011-02-18 2012-08-23 Conti Temic Microelectronic Gmbh Halbleiterschaltkreis und Verfahren in einem Sicherheitskonzept zum Einsatz in einem Kraftfahrzeug
EP2681092A1 (de) * 2011-03-01 2014-01-08 Continental Teves AG & Co. oHG Sicherheitsvorrichtung für ein kraftfahrzeug und verfahren zum betrieb eines kraftfahrzeugs
DE102012203673A1 (de) * 2011-03-09 2012-10-04 Continental Teves Ag & Co. Ohg Sicherheitsvorrichtung für ein Kraftfahrzeug und Verfahren zum Betrieb eines Kraftfahrzeugs
DE102011100907A1 (de) 2011-05-09 2012-01-12 Daimler Ag Vorrichtung und Verfahren zur Ermittlung eines Fahrbahnzustands
US10081308B2 (en) 2011-07-08 2018-09-25 Bendix Commercial Vehicle Systems Llc Image-based vehicle detection and distance measuring method and apparatus
DE102011081362A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ermittlung eines Oberflächenzustands einer von einem Fahrzeug befahrenen oder zu befahrenden Fahrbahn
DE102012101085A1 (de) 2012-02-10 2013-08-14 Conti Temic Microelectronic Gmbh Bestimmung einer Beschaffenheit einer Fahrbahnoberfläche mittels einer 3D-Kamera
DE102012024874B4 (de) 2012-12-19 2014-07-10 Audi Ag Verfahren und Vorrichtung zum prädikativen Ermitteln eines Parameterwertes einer von einem Fahrzeug befahrbaren Oberfläche
DE102012112725A1 (de) 2012-12-20 2014-06-26 Continental Teves Ag & Co. Ohg Reibwertschätzung aus Kamera- und Raddrehzahldaten
DE102013101639A1 (de) 2013-02-19 2014-09-04 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands
US9187099B2 (en) 2013-10-17 2015-11-17 Richard M. Powers Systems and methods for predicting weather performance for a vehicle
DE102013223367A1 (de) 2013-11-15 2015-05-21 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands mittels eines Fahrzeugkamerasystems
US9434388B2 (en) 2014-10-31 2016-09-06 GM Global Technology Operations LLC Surface estimation for vehicles

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4712635A (en) * 1986-01-13 1987-12-15 Aisin-Warner Kabushiki Kaisha Control apparatus for four-wheel drive vehicle
EP0412791A2 (de) * 1989-08-10 1991-02-13 LUCAS INDUSTRIES public limited company Überwachung und Vorhersage von Fahrzeug/Strassen-Bedingungen
EP0792228B1 (de) 1994-11-25 2000-08-09 Continental Teves AG & Co. oHG System zur fahrstabilitätsregelung
DE19854964A1 (de) * 1998-11-29 2000-06-08 Martin Spies Sensor zur Fahrbahnbeurteilung
DE10256726A1 (de) 2002-12-05 2004-06-24 Conti Temic Microelectronic Gmbh Verfahren zur fahrbahnabhängigen Signalgenerierung in einem Kraftfahrzeug
DE102004018088A1 (de) 2003-04-09 2005-02-10 Continental Teves, Inc., Auburn Hills Fahrbahnerkennungssystem
DE102004047914A1 (de) 2004-09-29 2006-03-30 A.D.C. Automotive Distance Control Systems Gmbh Methode zur Einschätzung des Fahrbahnzustands
DE102008047750A1 (de) 2007-09-18 2009-05-07 Continental Teves Ag & Co. Ohg Bestimmung eines Kraftschlusses mit wenigen Sensoren
WO2011007015A1 (de) 2009-07-17 2011-01-20 Continental Teves Ag & Co. Ohg Laserbasiertes verfahren zur reibwertklassifikation in kraftfahrzeugen
DE102009041566A1 (de) 2009-09-15 2011-03-24 Continental Teves Ag & Co. Ohg Verfahren zur Klassifizierung des Fahrbahnreibwerts
WO2012110030A2 (de) 2011-02-14 2012-08-23 Conti Temic Microelectronic Gmbh Reibwertschätzung mittels einer 3d-kamera

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013222634A1 (de) * 2013-11-07 2015-05-07 Volkswagen Aktiengesellschaft Verfahren zur Prognostizierung eines Fahrbahn-Reibungsbeiwerts sowie Verfahren zum Betrieb eines Kraftfahrzeugs
DE102013222634B4 (de) * 2013-11-07 2019-05-16 Volkswagen Aktiengesellschaft Verfahren zur Prognostizierung eines Fahrbahn-Reibungsbeiwerts sowie Verfahren zum Betrieb eines Kraftfahrzeugs
US10466064B2 (en) 2016-09-15 2019-11-05 Volkswagen Ag Odometry method for determining a position of a motor vehicle, control device and motor vehicle
DE102016217637A1 (de) 2016-09-15 2018-03-15 Volkswagen Aktiengesellschaft Odometrie-Verfahren zum Ermitteln einer Position eines Kraftfahrzeugs, Steuervorrichtung und Kraftfahrzeug
DE102016223391A1 (de) * 2016-11-25 2018-05-30 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zum erzeugen einer fahrzeugumgebungsansicht bei einem fahrzeug
US10937201B2 (en) 2016-11-25 2021-03-02 Conti Temic Microelectronic Gmbh Method and device for generating a vehicle environment view for a vehicle
US11186285B2 (en) 2016-12-16 2021-11-30 Volkswagen Aktiengesellschaft Method for estimating a friction coefficient of a roadway by a transportation vehicle, control device, and transportation vehicle
WO2018108533A1 (de) * 2016-12-16 2018-06-21 Volkswagen Aktiengesellschaft Verfahren zum schätzen eines reibwerts einer fahrbahn mittels eines kraftfahrzeugs sowie steuervorrichtung und kraftfahrzeug
DE102018103214B4 (de) 2017-02-27 2023-12-07 GM Global Technology Operations LLC Verfahren und systeme zum proaktiven schätzen des strassenoberflächen-reibungskoeffizienten
DE102017124944A1 (de) * 2017-10-25 2019-04-25 Valeo Schalter Und Sensoren Gmbh Fahrerassistenzvorrichtung zum Anzeigen einer Umgebung eines Kraftfahrzeugs mit einer abgespeicherten Bodentextur
DE102018212629A1 (de) * 2018-07-27 2020-01-30 Continental Teves Ag & Co. Ohg Verfahren zur Bestimmung von Fahrbahnzuständen
US11592298B2 (en) 2018-07-27 2023-02-28 Continental Teves Ag & Co. Ohg Method for determining road surface conditions
DE102018212630A1 (de) * 2018-07-27 2020-01-30 Continental Teves Ag & Co. Ohg Verfahren zur Bestimmung eines Fahrbahnzustands
WO2020074037A1 (de) 2018-10-09 2020-04-16 Schaeffler Technologies AG & Co. KG Verfahren zur ermittlung eines fahrbahnzustandes und fahrzeug mit mindestens zwei radselektiven lenkungsaktuatoren
WO2020079037A1 (de) * 2018-10-17 2020-04-23 Zf Friedrichshafen Ag Vorrichtung und verfahren zum anpassen eines abstands zwischen einem ego-fahrzeug und einem vorausfahrenden fahrzeug
DE102018221594A1 (de) * 2018-12-13 2020-06-18 Audi Ag Verfahren und Vorrichtung zur Glätteerkennung für ein Fahrzeug sowie Kraftfahrzeug
DE102018221594B4 (de) 2018-12-13 2023-08-03 Audi Ag Verfahren und Vorrichtung zur Glätteerkennung für ein Fahrzeug sowie Kraftfahrzeug
DE102019105649A1 (de) * 2019-03-06 2020-09-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Ermitteln des Reibwerts zwischen mindestens einem Reifen und einer Fahrbahn eines Neigefahrzeugs, Steuervorrichtung und Neigefahrzeug
DE102019114904A1 (de) * 2019-06-04 2020-12-10 Valeo Schalter Und Sensoren Gmbh Vorausschauende Erkennung einer Fahrbahnbeschaffenheit mittels eines Laserscanners und einer Kameraeinheit
DE102020103917A1 (de) 2020-02-14 2021-08-19 HELLA GmbH & Co. KGaA Verfahren zur Bestimmung des Reibwertes einer mit einem Fahrzeug befahrenen Fahrbahnoberfläche
EP3885219A1 (de) * 2020-03-26 2021-09-29 INTEL Corporation Sicherheitssystem für ein fahrzeug, fahrzeug und computerprogramm
US11472414B2 (en) 2020-03-26 2022-10-18 Intel Corporation Safety system for a vehicle
DE102020205340A1 (de) 2020-04-28 2021-10-28 Zf Friedrichshafen Ag Umfelderfassung für ein Off-Road Fahrzeug
WO2022106342A1 (de) * 2020-11-20 2022-05-27 Zf Friedrichshafen Ag Auswerteeinrichtung, computerprogramm und computerimplementiertes verfahren zum trainieren eines neuronalen netzes zur reibwertbestimmung
DE102021101788A1 (de) 2021-01-27 2022-07-28 Zf Cv Systems Global Gmbh Verfahren zum ortsaufgelösten Ermitteln einer Oberflächeneigenschaft eines Untergrundes, Verarbeitungseinheit und Fahrzeug
FR3124469A1 (fr) * 2021-06-25 2022-12-30 Renault S.A.S Procede d’optimisation du contrôle dynamique du châssis d’un vehicule
WO2022269098A1 (fr) * 2021-06-25 2022-12-29 Renault S.A.S Procede d'optimisation du contrôle dynamique du châssis d'un vehicule

Also Published As

Publication number Publication date
US20150224925A1 (en) 2015-08-13
WO2014094766A1 (de) 2014-06-26
DE112013006175A5 (de) 2015-09-10
US9676331B2 (en) 2017-06-13

Similar Documents

Publication Publication Date Title
DE102012112724A1 (de) Verfahren zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten
WO2019174682A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnzuständen und witterungsbedingten umwelteinflüssen
DE102013101639A1 (de) Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands
EP2888604B1 (de) Verfahren zur bestimmung eines fahrspurverlaufs für ein fahrzeug
WO2014094767A1 (de) Reibwertschätzung aus kamera- und raddrehzahldaten
DE112017003974B4 (de) Geschwindigkeitsregelungsvorrichtung
DE102013223367A1 (de) Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands mittels eines Fahrzeugkamerasystems
EP3094530A1 (de) Verfahren und system zum schätzen eines fahrspurverlaufs
DE102006038018A1 (de) Verfahren und Vorrichtung zur Fahrerassistenz durch Erzeugung von Spurinformationen zur Unterstützung oder zum Ersatz von Spurinformationen einer videobasierten Spurinformationseinrichtung
DE102009012917A1 (de) Hinderniserkennungsvorrichtung für Fahrzeuge
DE102010050167A1 (de) Verfahren und Vorrichtung zur Bestimmung eines plausiblen Fahrstreifens zur Führung eines Fahrzeugs sowie Kraftwagen
DE102009047333A1 (de) Verfahren zur Bestimmung einer Trajektorie eines Fahrzeugs
DE102006036921A1 (de) Verfahren zum Stabilisieren eines Kraftfahrzeugs und Fahrdynamikregelsystem
DE102014109062A1 (de) Verfahren zum Verfolgen eines sich einem Kraftfahrzeug nähernden Zielfahrzeugs mittels eines Kamerasystems des Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102008020007A1 (de) Verfahren zum Unterstützen eines Fahrers beim Fahren mit einem Fahrzeug mit einer Fahrspurerkennung
DE102019206875B3 (de) Erkennen einer Bankettfahrt eines Kraftfahrzeugs
WO2016177372A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von umwelteinflüssen und fahrbahnzustandsinformationen im fahrzeugumfeld
DE102015116542A1 (de) Verfahren zum Bestimmen einer Parkfläche zum Parken eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
EP2982572A2 (de) Verfahren zum unterstützen eines fahrers eines kraftfahrzeugs beim ausparken, fahrerassistenzsystem und kraftfahrzeug
DE102013201796A1 (de) Verfahren zur Bereitstellung eines Fahrkorridors für ein Fahrzeug und Fahrassistenzsystem
WO2018023143A1 (de) Verfahren und vorrichtung zum messen eines abstands zwischen einem ersten fahrzeug und einem zweiten, dem ersten fahrzeug unmittelbar vorausfahrenden, fahrzeug
DE102008025773A1 (de) Verfahren zur Schätzung eines Orts- und Bewegungszustands eines beobachteten Objekts
DE102013022076A1 (de) Verfahren zum Bestimmen einer Breite eines Zielfahrzeugs mittels eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
EP2964503B1 (de) Schätzung der zukünftigen geschwindigkeit und/oder entfernung eines fahrzeugs von einem referenzpunkt und schätzung der zukünftigen beschleunigung
WO2013102518A1 (de) Tiefenbildberechnung mit einer monokamera durch eine definierte trajektorie

Legal Events

Date Code Title Description
R163 Identified publications notified
R118 Application deemed withdrawn due to claim for domestic priority