DE102013101639A1 - Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands - Google Patents

Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands Download PDF

Info

Publication number
DE102013101639A1
DE102013101639A1 DE102013101639.1A DE102013101639A DE102013101639A1 DE 102013101639 A1 DE102013101639 A1 DE 102013101639A1 DE 102013101639 A DE102013101639 A DE 102013101639A DE 102013101639 A1 DE102013101639 A1 DE 102013101639A1
Authority
DE
Germany
Prior art keywords
image
image area
vehicle
road condition
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102013101639.1A
Other languages
English (en)
Inventor
Bernd Hartmann
Stefan Fritz
Stefan Schubert
Dieter Krökel
Joachim Denzler
Björn Fröhlich
Michael Kemmler
Eric Bach
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Friedrich Schiller Universtaet Jena FSU
Conti Temic Microelectronic GmbH
Continental Teves AG and Co OHG
Original Assignee
Friedrich Schiller Universtaet Jena FSU
Conti Temic Microelectronic GmbH
Continental Teves AG and Co OHG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Friedrich Schiller Universtaet Jena FSU, Conti Temic Microelectronic GmbH, Continental Teves AG and Co OHG filed Critical Friedrich Schiller Universtaet Jena FSU
Priority to DE102013101639.1A priority Critical patent/DE102013101639A1/de
Priority to DE112014000887.7T priority patent/DE112014000887A5/de
Priority to PCT/DE2014/200062 priority patent/WO2014127777A2/de
Priority to US14/764,782 priority patent/US10147002B2/en
Publication of DE102013101639A1 publication Critical patent/DE102013101639A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/42Document-oriented image-based pattern recognition based on the type of document
    • G06V30/422Technical drawings; Geographical maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Abstract

Die Erfindung betrifft ein Verfahren bzw. eine Vorrichtung zur Bestimmung eines Fahrbahnzustands mittels einer Fahrzeugkamera (6) und umfasst die folgenden Schritte:
– mindestens ein Bild (I) mittels der Fahrzeugkamera aufgenommen wird (S10),
– ein erster Bildbereich (R1) ermittelt wird, der eine Abbildung der Fahrbahnoberfläche (1) umfasst (S16)
– der erste Bildbereich (R1) einem Klassifikator zugeführt wird, wobei der Klassifikator den ersten Bildbereich mindestens einer Klasse zuordnet, die einen bestimmten Fahrbahnzustand repräsentiert (S18) und
– eine Information zu diesem mindestens einen Fahrbahnzustand ausgegeben wird (S20).

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bestimmung eines Fahrbahnzustands mittels einer Fahrzeugkamera.
  • Der technologische Fortschritt im Bereich der optischen Bilderfassung erlaubt den Einsatz von kamerabasierten Fahrerassistenzsystemen, die hinter der Windschutzscheibe platziert der visuellen Wahrnehmung des Fahrers entsprechend das Vorfeld des Fahrzeugs erfassen. Die funktionalen Umfänge dieser Assistenzsysteme erstrecken sich dabei von der Fernlichtautomatik über Erkennung und Anzeige von Geschwindigkeitsbegrenzungen bis hin zur Warnung bei Spurhaltefehlern oder drohender Kollision.
  • Ausgehend von der reinen Vorfelderfassung bis hin zum vollständigen 360°-Rundumblick sind heute Kameras in vielfältigen Applikationen und unterschiedlichen Funktionen für Fahrerassistenzsysteme in modernen Fahrzeugen zu finden. Aufgabe der digitalen Bildverarbeitung von Kamerabildern als eigenständige Sensordatenquelle oder in Fusion mit Radar- oder Lidarsensordaten ist es dabei primär Objekte zu erkennen, zu klassifizieren und im Bildausschnitt zu verfolgen. Klassische Objekte sind in der Regel verschiedenste Fahrzeuge wie PKW, LKW, Zweiräder oder Fußgänger. Darüber hinaus übernehmen Kameras die Erfassung von Verkehrsschildern, Fahrspurmarkierungen, Leitplanken, Freiräumen oder sonstigen generischen Objekten.
  • Das automatische Erlernen und Erkennen von Objektkategorien und deren Instanzen gehört zu den wichtigsten Aufgaben der digitalen Bildverarbeitung und stellt den aktuellen Stand der Technik dar.
  • Im Bereich moderner Fahrerassistenz werden unterschiedliche Sensoren u. a. auch Videokameras eingesetzt, um das Fahrzeugumfeld möglichst genau und robust zu erfassen. Diese Umfeldinformationen gegebenenfalls zusammen mit den fahrdynamischen Informationen des Fahrzeugs (z. B. aus der Inertialsensorik) verschaffen einen guten Eindruck über den aktuellen Fahrzustand des Fahrzeugs und die gesamte Fahrsituation. Daraus lässt sich die Kritikalität von Fahrsituationen ableiten und die entsprechenden Fahrerinformationen/-warnungen bis hin zu fahrdynamischen Eingriffen über Bremse und Lenkung initiieren.
  • Da der tatsächlich zur Verfügung stehende Reibbeiwert oder gleichwertige Informationen über den aktuellen Fahrbahnzustand für serienreife Fahrerassistenzsysteme jedoch in aller Regel nicht zur Verfügung steht bzw. nicht gemessen oder ermittelt werden kann, erfolgt die Auslegung der Warn- und Eingriffszeitpunkte grundsätzlich auf Basis einer trockenen Fahrbahn mit hohem Kraftschlussbeiwert zwischen Reifen und Fahrbahn.
  • Daraus ergibt sich das folgende grundsätzliche Problem. Die Fahrerwarnung bzw. der systemseitige Eingriff bei unfallvermeidenden oder zumindest -abschwächenden Systemen erfolgt so spät, dass es bei tatsächlich trockener Fahrbahn gerade noch zur Unfallvermeidung oder zur akzeptablen Unfallfolgenminderung reicht. Die Wirkung der fahrdynamischen Eingriffe über Bremse und Lenkung hängt jedoch entscheidend vom Reibbeiwert des Untergrundes ab. Nässe, Schnee und Eis verringern den zur Verfügung stehenden Reibbeiwert zwischen Reifen und Fahrbahn gegenüber dem auf einer trockenen Fahrbahn zur Verfügung stehenden erheblich. Ist die Fahrbahn bei Nässe, Schnee oder gar Eis weniger griffig, kann der Unfall nicht mehr verhindert werden und auch die Minderung der Unfallfolgen erzielt nicht den gewünschten Effekt.
  • Ein bekannter Ansatz, um dieser grundsätzlichen Problematik zu begegnen, liegt in der Berücksichtigung von Kamerabildern mit dem Ziel der Schätzung von Fahrbahnzuständen und einer daraus abgeleiteten Schätzung von Reibbeiwerten.
  • DE 10 2004 018 088 A1 zeigt ein Fahrbahnerkennungssystem mit einem Temperatursensor, einem Ultraschallsensor und einer Kamera. Die aus den Sensoren erhaltenen Temperatur-, Rauhigkeits- und Bilddaten (Fahrbahndaten) werden gefiltert und mit Referenzdaten verglichen und ein Sicherheitsgrad für den Vergleich wird generiert. Auf Basis des Vergleichs der gefilterten Fahrbahndaten mit den Referenzdaten wird der Zustand der Fahrbahnoberfläche ermittelt. Die Fahrbahnoberfläche (z. B. Beton, Asphalt, Schmutz, Gras, Sand oder Kies) und deren Zustand (z. B. trocken, vereist, verschneit, nass) kann auf diese Weise klassifiziert werden.
  • WO 2012/110030 A2 zeigt ein Verfahren und eine Vorrichtung zur Reibwertschätzung mittels einer 3D-Kamera, z. B. einer Stereokamera. Mit der 3D-Kamera wird mindestens ein Bild von der Umgebung des Fahrzeugs aufgenommen. Aus den Bilddaten der 3D-Kamera wird im gesamten Fahrzeugvorfeld ein Höhenprofil der Straßenoberfläche erstellt. Aus dem Höhenprofil wird der zu erwartende lokale Reibbeiwert der Straßenoberfläche im Fahrzeugvorfeld geschätzt. Aus speziellen ermittelten Höhenprofilen kann im Einzelfall eine Klassifikation der Fahrbahnoberfläche z. B. als Schneedecke oder schlammiger Feldweg erfolgen.
  • Die bekannten Verfahren stellen jedoch hohe Anforderungen an die erforderliche Sensorik. So sind bei den genannten Verfahren bzw. Vorrichtungen entweder ein Temperatur- und Ultraschallsensor zusätzlich zu einer Kamera erforderlich, oder die Kamera muss als 3D-Sensor ausgebildet sein, damit die Klassifikationsergebnisse hinreichend robust sind.
  • Aufgabe der vorliegenden Erfindung ist daher, eine Fahrbahnzustandserkennung mittels einer Kamera anzugeben, die bei Verwendung (nur) einer Monokamera eine zuverlässige und robuste vorausschauende Fahrbahnzustandserkennung bzw. daraus abgeleitete Reibbeiwertschätzung gewährleistet.
  • Ansatzpunkt der erfindungsgemäßen Lösung sind folgende Überlegungen:
    Eine Verknüpfung von Algorithmen der digitalen Bildverarbeitung mit einer intelligenten Anpassung und Justierung des für die Bearbeitung relevanten Bildbereichs bzw. ROI (Region of Interest) auf die jeweilige Fahrsituation soll gewährleisten, dass der analysierte Bildbereich die Fahrbahnoberfläche beinhaltet mit dem Ziel den Fahrbahnzustand zu bestimmen.
  • Ein Hauptgedanke der Erfindung aus Sicht der digitalen Bildverarbeitung ist die Berechnung lokaler und globaler Merkmale aus dem Bildbereich (ROI) sowie die geeignete Kombination verschiedener Merkmale innerhalb eines Bildbereichs aber auch aus verschiedenen Bildbereichen, und die nachfolgende Entscheidung durch einen aus Beispieldaten trainierbaren Klassifikator, dessen Ergebnisse aus verschiedenen Zeitabschnitten zu einer Entscheidung über den Fahrbahnzustand führt. Dabei besteht der technische Vorteil in der effizienten Bearbeitung des Kamerabildes aufgrund einfacher Operationen und das Erreichen einer hohen Qualität über das Zusammenführen verschiedener Merkmale.
  • Ein erfindungsgemäßes Verfahren zur Bestimmung eines Fahrbahnzustands mittels einer Fahrzeugkamera umfasst die folgenden Schritte:
    • – mindestens ein Bild wird mittels der Fahrzeugkamera aufgenommen,
    • – ein erster Bereich im aufgenommenen Bild wird ermittelt, der eine Abbildung der Fahrbahnoberfläche umfasst,
    • – der erste Bildbereich wird einem Klassifikator zugeführt, wobei der Klassifikator den ersten Bildbereich mindestens einer Klasse zuordnet, die einen bestimmten Fahrbahnzustand repräsentiert und
    • – eine Information zu diesem mindestens einen Fahrbahnzustand wird ausgegeben.
  • Die Fahrzeugkamera erfasst eine Umgebung außerhalb des Fahrzeugs, insbesondere kann die Fahrzeugkamera nach vorne gerichtet und hinter der Windschutzscheibe etwa im Bereich des Innenspiegels angeordnet sein. Der erste Bildbereich, der zur Erfassung des Fahrbahnzustandes ermittelt wird, kann auch als Region-of-Interest (ROI) bezeichnet werden und kann das gesamte Bild oder ein Ausschnitt des Bildes sein. Der Bildbereich kann beispielsweise ein einfaches Rechteck, eine Region nichtdefinierter Form oder sogar ein einzelner Pixel sein. Die Ermittlung des für die weitere Bildverarbeitung relevanten Bildausschnitts ist insbesondere wichtig, um zu gewährleisten, dass der analysierte erste Bildbereich die Fahrbahnoberfläche beinhaltet, so dass aus diesem ersten Bildbereich der Fahrbahnzustand bestimmt werden kann. Dem ersten Bildbereich wird von einem Klassifikator (bzw. einem Klassifikationssystem) mindestens eine der vorgegebenen Klassen von Fahrbahnzuständen zugewiesen. Diese Klassen sind vorzugsweise „nasse Fahrbahn”, „trockene Fahrbahn”, „schneebedeckte Fahrbahn” und „vereiste Fahrbahn”. Der Klassifikator kann insbesondere anhand von Beispieldaten trainiert worden sein. Anhand gelernter Zuordnungen von Beispielbildbereichen zu bekannten Fahrbahnzuständen kann der trainierte Klassifikator auch ihm bis dato unbekannte Bildinhalte bzw. -bereiche mindestens einer Klasse zuordnen.
  • Eine Information zu dem mindestens einen Fahrbahnzustand wird ausgegeben, vorzugsweise an weitere Fahrerassistenzfunktionen, Fahrzeugfunktionen oder auch an den Fahrer.
  • Die Information, die zu dem ermittelten Fahrbahnzustand ausgegeben wird, kann insbesondere eine Schätzung des Reibbeiwerts für den Fahrbahnbereich sein, der im Bildbereich abgebildet ist. Der Reibbeiwert, auch Reibwert, Kraftschlussbeiwert, (Haft-)Reibungszahl oder Reibungskoeffizient gibt an, welche Kraft bezogen auf die Radlast zwischen einer Fahrbahnoberfläche und einem Fahrzeugreifen (z. B. in Tangentialrichtung) maximal übertragen werden kann und ist somit ein wesentliches Maß für den Fahrbahnzustand. Neben dem Fahrbahnzustand sind Eigenschaften des Reifens zu einer vollständigen Bestimmung des Reibwerts erforderlich. Für eine Schätzung des Reibwerts aus Kamerabilddaten werden typischerweise nur Fahrbahnzustandsinformationen berücksichtigt, da im Allgemeinen aus Kamerabilddaten keine Reifeneigenschaften ermittelt werden können.
  • Das erfindungsgemäße Verfahren zur Bestimmung des Fahrbahnzustands gewährleistet eine sehr robuste, zuverlässige und vorausschauende Ermittlung des ortsaufgelösten Fahrbahnzustands. Die automatische Erfassung der Fahrbahnzustandsinformationen ist ein Schlüsselelement auf dem Weg zum hochautomatisierten oder autonomen Fahren in der Zukunft.
  • In einer vorteilhaften Ausführungsform wird mindestens ein Merkmal aus dem ersten Bildbereich extrahiert und dem Klassifikator zugeführt. Das Merkmal ist bzw. die Merkmale sind insbesondere geeignet, die unterschiedliche Erscheinung des Fahrbahnbelags im Kamerabild in Abhängigkeit des Fahrbahnzustands zu erfassen.
  • Mehrere einzelne Merkmale können einen Merkmalsvektor bilden, der verschiedene Information aus dem ersten Bildbereich kombiniert, um im Schritt der Klassifikation robuster und genauer über den Fahrbahnzustand entscheiden zu können. Verschiedene Merkmalstypen für einen Bildbereich ergeben eine Menge von Merkmalsvektoren. Die so entstandene Menge an Merkmalsvektoren für einen Bildbereich wird als Merkmalsdeskriptor bezeichnet. Sofern mehrere Bildbereiche verwendet werden, kann der Merkmalsdeskriptor auch aus kombinierten Merkmalen der verschiedenen Bildbereiche zusammengesetzt oder kombiniert sein. Das Zusammensetzen des Merkmalsdeskriptors kann durch einfaches Aneinanderhängen (Konkatenation), eine gewichtete Kombination oder andere nichtlineare Abbildungen erfolgen. Dabei können nicht nur verschiedene Bildbereiche zu einem Zeitpunkt in einem Bild, sondern auch über mehrere Zeitpunkte hinweg also in aufeinander folgenden Bildern einer Bilderserie verwendet werden. Der Merkmalsdeskriptor wird anschließend von einem Klassifikationssystem (Klassifikator) mindestens einer der Klassen zugewiesen. Ein Klassifikator ist in diesem Fall eine Abbildung des Merkmalsdeskriptors auf eine diskrete Zahl, die die zu erkennenden Klassen identifiziert.
  • Bevorzugt umfasst das Merkmal, das aus dem ersten Bildbereich extrahiert und dem Klassifikator zugeführt wird, den mittleren Grauwert oder den mittleren Farbwert (RGB) des ersten Bildbereichs. Der Merkmalstyp „mittlerer RGB-Farbwert” umfasst drei einzelne Merkmale bzw. Merkmalswerte, nämlich R, G und B (Rot-, Grün- und Blauwert), welche als ein Merkmalsvektor zusammengefasst werden können.
  • Geeignet ist aber auch jede andere Information, die aus einer ROI oder aus Pixeln der ROI extrahiert werden kann und aus der Unterschiede zwischen den vorgegebenen Klassen ermittelt werden können.
  • Vorzugsweise können als Merkmalstypen über den ersten Bildbereich gemittelten HSI-Werte (Hue, Saturation, Intensity) bzw. L·a·b·-Werte (CIELAB Farbraum) oder z. B. Gradientenwerte als Merkmal extrahiert werden. Die Merkmalsvektoren für einzelne oder mehrere Merkmalstypen, die aus einer oder mehrerer ROIs eines Bildes extrahiert werden, bilden den Merkmalsdeskriptor.
  • In vorteilhafter Weise umfasst das mindestens eine Merkmal, das aus dem ersten Bildbereich extrahiert und dem Klassifikator zugeführt wird, das Ergebnis oder die Ergebnisse einer pixelweisen Segmentierung innerhalb des ersten Bildbereichs. Dabei können innerhalb eines Bildbereichs spezielle Regionen punktgenau lokalisiert werden. Dies ist von Vorteil für die Erkennung von lokalen Unterschieden beispielsweise für die Detektion von Pfützen, abtrocknenden Fahrspuren auf nasser Fahrbahn oder vereisten Fahrspuren auf Schneefahrbahnen. Dadurch wird die Qualität bei der Erkennung dieser Sachverhalte erhöht. Diese punktgenaue Klassifikation kann zum Beispiel durch Verfahren der semantischen Segmentierung erreicht werden, bei der jedem Pixel im Bildbereich ein Label einer der vorgegebenen Klassen zugeordnet wird. Die pixelgenaue Klassifikation von Bildern erweitert eine grobe Lokalisierung von Objekten in Bildern um eine punktgenaue Klassifikation.
  • Gemäß einer vorteilhaften Ausführungsform wird als Klassifikator ein zufälliger Entscheidungswald (,Random Decision Forest' oder auch nur ,Random Forest') verwendet.
  • Entscheidungsbäume sind hierarchisch angeordnete Klassifikatoren, die das Klassifikationsproblem baumartig aufspalten. Beginnend in der Wurzel wird auf Basis der getroffenen Entscheidungen der Pfad zu einem Blattknoten beschritten, in welchem die finale Klassifikationsentscheidung stattfindet. Aufgrund der Lernkomplexität werden vorzugsweise für die inneren Knoten sehr einfache Klassifikatoren, die sogenannten „decision stumps” (Entscheidungsbaumstümpfe) verwendet, welche den Eingaberaum orthogonal zu einer Koordinatenachse separieren.
  • Entscheidungswälder sind Kollektionen von Entscheidungsbäumen, die an vorzugsweise zwei Stellen randomisierte Elemente beim Trainieren der Entscheidungsbäume enthalten. Als erstes wird jeder Baum mit einer zufälligen Auswahl an Trainingsdaten trainiert und zweitens für jede binäre Entscheidung nur eine zufällige Auswahl zulässiger Dimensionen verwendet. In den Blattknoten werden Klassenhistogramme gespeichert, die eine Maximum-Likelihood-Schätzung (Schätzung der größten Wahrscheinlichkeit) über die den Blattknoten im Training erreichenden Merkmalsvektoren erlauben. Klassenhistogramme speichern die Häufigkeit, mit der ein Merkmalsdeskriptor eines bestimmten Fahrbahnzustands beim Durchlaufen des Entscheidungsbaumes den entsprechenden Blattknoten erreiche. Als Resultat kann jeder Klasse vorzugsweise eine Wahrscheinlichkeit zugeordnet werden, die sich aus den Klassenhistogrammen berechnet.
  • Um für einen Merkmalsdeskriptor eine Entscheidung über den Fahrbahnzustand zu treffen, wird vorzugsweise die wahrscheinlichste Klasse aus dem Klassenhistogramm als der aktuelle Fahrbahnzustand verwendet. Es können aber auch andere Methoden angewendet werden, um die Information aus den Entscheidungsbäumen in eine Fahrbahnzustandsentscheidung zu übertragen.
  • Gemäß einer bevorzugten Ausführungsform wird die Zuordnung des ersten Bildbereichs zu mindestens einer Klasse durch den Klassifikator für mindestens ein aufgenommenes Bild einer zeitlichen Filterung unterworfen bevor die Information zu dem mindestens einen zugeordneten Fahrbahnzustand ausgegeben wird. Der Klassifikator weist einem aufgenommenen Bild bzw. einem Bildbereich daraus mindestens eine Klasse zu. An diese Zuordnung bzw. Entscheidung pro aufgenommenes Bild kann sich eine Optimierung anschließen. Diese Optimierung kann insbesondere zeitlichen Kontext berücksichtigen indem sie als zeitliche Filterung fungiert. Dabei wird die Zuordnung für das aktuell aufgenommene Bild verglichen mit früher zugeordneten Fahrbahnzuständen. Dabei kann insbesondere die häufigste Klasse aus einem vorangegangenen Zeitabschnitt als Referenz verwendet werden. Einzelne Ausreißer (Fehlzuordnungen) können auf diese Weise eliminiert werden.
  • Vorteilhaft sieht die zeitliche Filterung vor, dass die Zuordnung des ersten Bildbereichs zu mindestens einer Klasse durch den Klassifikator für mindestens ein aktuell aufgenommenes Bild verglichen wird mit einer Zuordnung anhand mindestens eines vorher aufgenommenen Bildes. Ein Wechsel der zugeordneten Fahrbahnzustandsklasse wird erst ausgegeben, wenn eine dem Wechsel zugeordnete Wahrscheinlichkeit, die aus der Klassifikation des aktuell aufgenommenen Bildes abgeleitet wird, einen Schwellwert überschreitet.
  • Der zeitliche Kontext wird vorzugsweise dadurch berücksichtigt, dass ein sogenanntes Hysterese-Schwellwertverfahrens angewendet wird. Bei dem Hysterese-Schwellwertverfahren wird der Wechsel von einem Fahrbahnzustand in den anderen anhand von Schwellwerten geregelt. Ein Wechsel erfolgt erst dann, wenn die Wahrscheinlichkeit für den neuen Fahrbahnzustand hoch genug und für den alten Fahrbahnzustand dementsprechend gering ist. Dadurch wird das Klassifikationsergebnis stabil und permanente Sprünge zwischen verschiedenen Fahrbahnzuständen können vermieden werden.
  • Alternativ oder kumulativ zur zeitlichen Filterung können weitere Information aus dem Fahrzeug, beispielsweise vom Regensensor, oder anderen vom Fahrzeug zur Verfügung gestellte Daten zur Überprüfung der Zuordnung durch den Klassifikator herangezogen werden bevor eine Information zu dem mindestens einen zugeordneten Fahrbahnzustand ausgegeben wird.
  • In einer bevorzugten Ausführungsform wird die Position, die Größe und/oder die Form des ersten Bildbereichs an eine aktuelle Fahrsituation des eigenen Fahrzeugs angepasst. Dabei erfolgt die Ausrichtung (im aktuellen Bild) und Nachführung (in nachfolgend aufgenommenen Bildern) des mindestens einen in Form, Größe und Position auf die Fahrsituation angepassten Bildbereichs vorzugsweise unter Berücksichtigung der Bewegung des eigenen Fahrzeugs, möglicher weiterer Verkehrsteilnehmer und der Fahrbahngegebenheiten.
  • Dabei erfolgt die Ausrichtung und Nachführung des mindestens einen in Form, Größe und Position auf die Fahrsituation angepassten Bildbereichs insbesondere auf folgende Weise:
    • a) Der erste Bildbereich ist das Gesamtbild der Kamera, sofern die Fahrzeugkamera ausschließlich auf die Fahrbahn gerichtet ist.
    • b) Der erste Bildbereich ist mindestens ein fixer Bildbereich, der durch Justage und Kalibrierung der Fahrzeugkamera vorzugsweise mittig oder vor den linken und rechten Fahrzeugrädern vor dem Fahrzeug auf die Fahrbahn projiziert wird.
    • c) Der erste Bildbereich ist mindestens ein dynamischer Bildausschnitt, der im Bild in den Fahrschlauch des Fahrzeugs, welcher u. a. aus den Odometriedaten des Fahrzeugs berechnet wird, projiziert und diesem dynamisch nachgeführt wird.
    • d) Der erste Bildbereich ist mindestens ein dynamischer Bildausschnitt, der im Bild in die durch das Fahrzeug befahrenen Fahrbahn/-spur, die innerhalb von zwei oder seitlich einer Fahrstreifenbegrenzungslinie liegt, projiziert und dieser dynamisch nachgeführt wird.
    • e) Der erste Bildbereich ist mindestens ein dynamischer Bildausschnitt, der im Bild in die durch das Fahrzeug befahrenen Fahrbahn/-spur, die mit Hilfe von Mitteln der digitalen Bildverarbeitung detektiert wird, projiziert und dieser dynamisch nachgeführt wird.
    • f) Der erste Bildbereich ist mindestens ein dynamischer Bildausschnitt, der im Bild in den geschätzten Fahrbahnverlauf, projiziert und diesem dynamisch nachgeführt wird.
    • g) Der erste Bildbereich ist mindestens ein dynamischer Bildausschnitt, der im Bild in die durch das System berechnete Trajektorie vorzugsweise als Mittellinie eines prädizierten Fahrkorridors auf Basis einer vorausschauenden Trajektorienplanung, projiziert und dieser dynamisch nachgeführt wird.
    • h) Der erste Bildbereich ist mindestens ein dynamischer Bildausschnitt, der auf Basis von GPS-Fahrzeugdaten vorzugsweise entsprechend Fahrgeschwindigkeit und Headingwinkel (bzw. Gierwinkel) in Richtung der Fahrzeugbewegung vor das Fahrzeug projiziert und dieser dynamisch nachgeführt wird.
    • i) Der erste Bildbereich ist mindestens ein dynamischer Bildausschnitt, der auf Basis von Fahrzeugodometriedaten in Richtung der Fahrzeugbewegung vor das Fahrzeug projiziert und dieser dynamisch nachgeführt wird.
    • j) Der erste Bildbereich ist mindestens ein dynamischer Bildausschnitt, der auf Basis von Fahrzeugpositions- und Kartendaten in Fahrtrichtung vor das Fahrzeug auf die Fahrbahn projiziert und dieser dynamisch nachgeführt wird.
    • k) Der erste Bildbereich ist mindestens ein fixer oder dynamischer Bildausschnitt, der der Schnittmenge der Einzelbereiche bei einer Überlagerung mindestens zweier Bereiche aus a) bis j) entspricht.
    • l) Der erste Bildbereich ist mindestens ein fixer oder dynamischer Bildausschnitt, der einen Bereich aus a) bis k) enthält, wobei Bildsegmente mit erkannten Objekten wie beispielsweise Fahrzeugen, Fußgängern oder Infrastruktur ausgenommen werden.
  • Die Anpassung kann vorteilhaft in Abhängigkeit von der Geschwindigkeit des eigenen Fahrzeugs vorgenommen werden. Bevorzugt wird Position, Größe und/oder Form des zweiten Bildbereichs an die Geschwindigkeit des eigenen Fahrzeugs angepasst, um eine zeitlich gleichmäßige Voraussage über den zu erwartenden Fahrbahnzustand zu erhalten. Z. B. kann ermittelt werden, welcher Fahrbahnzustand in 0,5 Sekunden oder in einer Sekunde überfahren werden wird.
  • Eine hierzu erforderliche Abschätzung zur Entfernung kann auch mit einer Monokamera bei bekannter Einbauhöhe und der Annahme eines ebenen Fahrbahnverlaufs über die Abbildungsgeometrie mit ausreichender Genauigkeit erfolgen. Bei Nutzung einer Stereokamera kann entsprechend die Entfernung über Triangulation mit höherer Genauigkeit bestimmt werden.
  • Vorteilhaft wird eine Fahrspur ermittelt, auf der das eigene Fahrzeug sich befindet, und der erste Bildbereich wird derart angepasst, dass er eine Abbildung der Fahrbahnoberfläche der vorausliegenden eigenen Fahrspur umfasst.
  • Dazu kann insbesondere eine Erkennung von Fahrspurmarkierungen vorgesehen sein und der mindestens eine „dynamische” Bildbereich umfasst im Bild die durch das Fahrzeug befahrenen Fahrbahn/-spur, die innerhalb von zwei oder seitlich einer Fahrstreifenbegrenzungslinie liegt. Die Größe des ersten Bildbereichs wird vorzugsweise durch Fahrbahnmarkierungen oder -begrenzungen in lateraler Richtung begrenzt. Die Form des ersten Bildbereichs kann einem Trapez aber auch einem Rechteck entsprechen.
  • Dazu kann durch eine Berücksichtigung von Odometrie- und Zeitinformationen dieser Abbildungsbereich bei nachfolgend aufgenommenen Bildern in diese projiziert werden, so dass der Bildbereich dynamisch nachgeführt wird.
  • Unter Odometrieinformationen werden hierbei Informationen verstanden, die eine Bewegung des Fahrzeugs charakterisieren und insbesondere Fahrzeugsensorikdaten wie Messgrößen eines Fahrwerks, eines Antriebsstrangs, einer Lenkung sowie Messgrößen einer Navigationsvorrichtung des Fahrzeugs umfassen. Zusammen mit den Zeitinformationen ist somit eine zurückgelegte Bewegung bzw. Trajektorie des Fahrzeugs ermittelbar.
  • In einer bevorzugten Ausführungsform wird eine Bewegungstrajektorie des eigenen Fahrzeugs prädiziert und daraus ein Fahrschlauch berechnet. Grundlage der Prädiktion können Daten aus der Kamera, weiteren Umfeldsensoren, Fahrzeugsensoren, Navigationseinrichtungen, Telematikeinrichtungen oder ähnlichem sein. Der erste Bildbereich wird derart angepasst, dass er eine Abbildung der Fahrbahnoberfläche umfasst, die innerhalb des berechneten Fahrschlauchs liegt.
  • Besonders bevorzugt wird der erste Bildbereich derart angepasst, dass der erste Bildbereich nur eine Abbildung der Fahrbahnoberfläche beinhaltet. Relevant ist hierbei insbesondere alles, worüber die Reifen des eigenen Fahrzeugs zukünftig rollen werden oder möglicherweise rollen werden. Im Normalfall sind z. B. relevant: Fahrbahnbelag, Niederschlag darauf, Verschmutzung (Laub, Papier, Sand, Öl, Tierkadaverreste), Fahrbahnmarkierungen, die überfahren werden.
  • Im Normalfall nicht relevant sind dagegen z. B.: durchgezogene Fahrspurbegrenzungslinien, Grasnarben seitlich der Fahrbahn.
  • Vorteilhaft kann der erste Bildbereich derart angepasst werden, dass Bildsegmenten mit zuvor erkannten Objekten aus dem ersten Bildbereich ausgeschlossen sind. Zuvor erkannte Objekte sind insbesondere andere Verkehrsteilnehmer, wie Fahrzeuge (u. a. PKW, LKW), Zweiradfahrer bzw. Fußgänger, oder Infrastrukturelemente.
  • Bevorzugt können bei der Anpassung des ersten Bildbereichs Navigations- und Kartendaten und/oder Fahrzeugsensordaten und/oder Daten weiterer Umfeldsensordaten berücksichtigt werden.
  • Gemäß einer vorteilhaften Weiterbildung der Erfindung wird ein zweiter Bildbereich ermittelt, der eine Abbildung eines zweiten Bereichs der Fahrbahnoberfläche umfasst.
  • Beispielsweise kann der erste Bildbereich einem prädizierten Fahrschlauchbereich entsprechen, in dem die linken Fahrzeugräder auf der Fahrbahnoberfläche rollen werden, und der zweite Bildbereich einem prädizierten Fahrschlauchbereich, in dem die rechten Fahrzeugräder rollen werden.
  • Die Nutzung zweier Bildbereiche gegenüber einem ausgedehnten Bildbereich bringt die Vorteile mit sich, dass für die Bildverarbeitung weniger Rechenleistung und -zeit benötigt als für einen einzigen Bildbereich, der beide separaten Bildbereiche einschließt und dass eine höhere räumliche Auflösung für die Fahrbahnzustandsklassifikation erzielt wird. Lokale Fahrbahnzustandsänderungen wie beispielsweise freigefahrene Spuren auf Schneefahrbahnen, wie man sie häufig in Skandinavien sieht, vereiste Pfützen o. ä. erreichen bei der Aufteilung in mehrere kleinere Bildbereiche genauer erkannt und berücksichtigt werden.
  • Es können auch drei oder mehr derartige Bildbereiche ermittelt werden.
  • Vorteilhaft umfasst der zweite Bildbereich eine Abbildung eines weiter vorausliegenden Bereichs der Fahrbahnoberfläche. Eine bevorzugte Ausführung könnte also zwei Bildbereiche enthalten, wobei der erste Bildbereich in der Ego-Fahrspur direkt vor dem Ego-Fahrzeug liegt und ein zweiter Bildbereich geschwindigkeitsabhängig in derselben Fahrspur weiter vor dem Fahrzeug positioniert wird.
  • Die Größe beider Bildbereiche wird, wie vorher beschrieben, vorzugsweise durch Fahrbahnmarkierungen oder -begrenzungen in lateraler Richtung begrenzt.
  • Bevorzugt überlappen erster und zweiter Bildbereich einander nicht und können räumlich voneinander getrennt sein. Der zweite Bildbereich wird insbesondere in gleicher Weise wie der erste Bildbereich gemäß den bereits beschriebenen Verfahrensschritten ausgewertet. Ein separater zweiter Bildausschnitt bietet gegenüber einem vergrößerten einzelnen Bildausschnitt den Vorteil einer höheren Ortsauflösung.
  • Bevorzugt wird Position, Größe und/oder Form des zweiten Bildbereichs an die Geschwindigkeit des eigenen Fahrzeugs angepasst, um eine zeitlich gleichmäßige Voraussage (bzw. Preview) über den zu erwartenden Fahrbahnzustand zu erhalten.
  • Vorteilhaft wird die Zuordnung des ersten Bildbereichs zu mindestens einem Fahrbahnzustand aus einem aktuell aufgenommenen Bild plausibilisiert durch die Zuordnung des zweiten Bildbereichs zu mindestens einem Fahrbahnzustand aus einem zuvor aufgenommenen Bild. Eine Information wird entsprechend zu mindestens einem plausibilisierten Fahrbahnzustand ausgegeben. Da der zweite Bildbereich eine Abbildung eines weiter vorausliegenden Bereichs der Fahrbahnoberfläche umfasst, liefert seine Klassifikation praktisch eine Vorausschau. In einem späteren Bild befindet sich der Bereich der Fahrbahnfläche bei einer Vorwärtsfahrt zumindest teilweise im ersten Bildbereich aufgrund der Fahrzeugeigenbewegung. Bei der Klassifikation des für die Weiterfahrt unmittelbar maßgeblichen ersten Bildbereichs kann die frühere Klasse des zweiten Bildbereichs als „Preview” zur Plausibilisierung berücksichtigt werden. Dadurch wird die Erkennungssicherheit erhöht. Die Transformation der beiden Bildbereiche aufeinander erfolgt bevorzugt mit Hilfe von Odometriedaten des Fahrzeugs.
  • In einer bevorzugten Ausführungsform wird die Zuordnung des zweiten Bildbereichs zu mindestens einem Fahrbahnzustand aus einem aktuellen oder bereits aufgenommenen Bild mit der Zuordnung des ersten Bildbereichs zu mindestens einem Fahrbahnzustand aus einem aktuell aufgenommenen Bild fusioniert und eine Information zu mindestens einen fusionierten Fahrbahnzustand ausgegeben.
  • Vorteilhaft wird als Kamera eine monokulare Kamera verwendet. Monokameras sind als Fahrerassistenzkameras etabliert und preisgünstiger als Stereokameras. Das erfindungsgemäße Verfahren ermöglicht bereits auf der Basis von Monokamerabildern eine robuste und zuverlässige Fahrbahnzustandsklassifikation.
  • Alternativ wird im Rahmen einer weiteren vorteilhaften Ausführungsform als Kamera eine 3D- oder Stereokamera verwendet. 3D- oder Stereokameras ermöglichen die Auswertung von Tiefeninformationen aus dem Bild. Zudem lässt sich anhand der 3D-Positionsdaten leichter eine zurückliegende Trajektorienbestimmung aus Odometrie- und Zeitinformationen mit den Bilddaten in Einklang bringen oder eine zukünftige Trajektorie bzw. ein prädizierter Fahrschlauch in die Bilddaten einrechnen. Desweiteren wird die Berücksichtigung von Tiefeninformationsprofilen bei der Klassifikation möglich.
  • Die Erfindung betrifft weiterhin eine Vorrichtung zur Bestimmung eines Fahrbahnzustands umfassend eine Fahrzeugkamera, eine Bildverarbeitungseinheit, eine Klassifikationseinheit und eine Ausgabeeinheit. Die Fahrzeugkamera ist dazu ausgebildet, mindestens ein Bild der Fahrzeugumgebung aufzunehmen. Die Bildverarbeitungseinheit ist dazu ausgebildet, einen ersten Bildbereich zu ermitteln, der eine Abbildung der Fahrbahnoberfläche umfasst und diesen einer Klassifikationseinheit zuzuführen. Die Klassifikationseinheit ist dazu ausgebildet, den ersten Bildbereich mindestens einer Klasse zuzuordnen, die einen bestimmten Fahrbahnzustand repräsentiert. Die Ausgabeeinheit ist dazu ausgebildet, eine Information zu dem mindestens einen Fahrbahnzustand auszugeben, der dem ersten Bildbereich durch die Klassifikationseinheit zugeordnet ist.
  • Im Folgenden wird die Erfindung anhand von Figuren und Ausführungsbeispielen näher erläutert.
  • Es zeigen:
  • 1 ein Flussdiagramm zur Veranschaulichung des Ablaufs einer Ausführungsvariante des Verfahrens zur Bestimmung eines Fahrbahnzustands mittels einer Fahrzeugkamera;
  • 2 ein Bild einer vorausliegenden Fahrzeugumgebung, das mit einer Fahrzeugkamera aufgenommen wurde;
  • 3 eine Repräsentation der durch das Bild wiedergegeben Szene aus der Vogelperspektive;
  • 4 ein Bild mit einem ersten Bildbereich;
  • 5 ein Bild mit einem ersten Bildbereich und einem dazu verschobenen Bildbereich;
  • 6 eine Darstellung zur Ermittlung eines vorausschauenden Adaptationshorizonts;
  • 7 bisheriger und zukünftiger Verlauf einer Trajektorie bei einer Kurvenfahrt;
  • 8 ein Bild mit einem ersten Bildbereich und einem dazu unter Berücksichtigung des Fahrspurverlaufs verschobenen Bildbereich;
  • 9 einen Vergleich von bisheriger IST- und berechneter SOLL-Trajektorie bei einem Ausweichmanöver und
  • 10 ein Bild mit einem ersten Bildbereich und zwei dazu unter Berücksichtigung eines für ein Ausweichmanöver prädizierten Fahrschlauchs verschobenen Bildbereichen.
  • 1 zeigt ein Flussdiagramm zur Veranschaulichung des Ablaufs einer Ausführungsvariante des erfindungsgemäßen Verfahrens zur Bestimmung eines Fahrbahnzustands mittels einer Fahrzeugkamera.
  • Zunächst wird in Schritt S10 ein Bild mit der Fahrzeugkamera aufgenommen. Aus diesem Bild kann in Schritt 12 die Fahrbahn ermittelt werden, z. B. anhand von Fahrspurmarkierungen im Bild, Fahrbahnbegrenzungsobjekten etc. Bereits hier können z. B. nichtstationäre Objekte ermittelt werden, die bei der Ermittlung des Fahrbahnzustands nicht berücksichtigt werden sollen.
  • Optional kann in Schritt 14 eine Prädiktion der Trajektorie bzw. des Fahrschlauchs des eigenen Fahrzeugs erfolgen. Hierbei können Daten aus der eigenen Fahrzeugsensorik (V), z. B. Lenkwinkel, Geschwindigkeit, etc., Navigationssystemdaten bzw. Kartendaten (N) bzw. Daten weiterer Umfeldsensoren wie z. B. Radar, Lidar, Telematikeinheit etc. berücksichtigt werden.
  • In Schritt 16 wird die ROI bzw. ein erster oder mehrere Bildbereiche ermittelt, die eine Abbildung der Fahrbahnoberfläche umfasst. Dieser oder diese Bildausschnitte bzw. Merkmale, die daraus extrahiert wurden, werden in Schritt 18 einem Klassifikator zugeführt, der jeden Bildbereich mindestens einer Klasse zuordnet, die einen bestimmten Fahrbahnzustand repräsentiert.
  • In Schritt 20 wird eine Information zu diesem mindestens einen Fahrbahnzustand ausgegeben, z. B. an eine Kollisionswarnung oder einen Notbremsassistenten, die ihre Warnschwellwerte oder Eingriffszeitpunkte an den ermittelten Fahrbahnzustand anpassen kann.
  • 2 zeigt beispielhaft ein Bild (I) einer vorausliegenden Fahrzeugumgebung, wie es von einer Frontkamera (6) eines fahrenden Fahrzeugs aufgenommen worden ist. Aus demselben Bild können kamerabasierte Fahrerassistenzfunktionen realisiert werden, z. B. eine Spurverlassenswarnung (LDW, Lane Departure Warning), eine Spurhalteunterstützung (LKA/LKS, Lane Keeping Assistance/System), eine Verkehrszeichenerkennung (TSR, Traffic Sign Recognition), eine automatische Fernlichtsteuerung (IHC, Intelligent Headlamp Control), eine Kollisionswarnung (FCW, Forward Collision Warning), eine Niederschlagserkennung, eine automatische Längsregelung (ACC, Adaptive Cruise Control), eine Einparkunterstützung, automatische Notbrems- oder Notlenksysteme (EBA, Emergency Brake Assist oder ESA, Emergency Steering Assist). Das Kamerabild zeigt eine Fahrbahn (1), deren Oberfläche weitgehend homogen ist. Auf der Oberfläche sind Fahrspurmarkierungen zu erkennen: jeweils eine durchgezogenen Seitenlinie (4), die das linke und rechte Ende der Fahrbahn markieren sowie Mittelliniensegmente (3) der unterbrochenen bzw. gestrichelten mittleren Fahrbahnmarkierung. Die Fahrbahn (1) könnte aus Asphalt oder Beton gebildet sein. Auf der ansonsten trockenen Fahrbahn (1) ist eine Pfütze (2) zu erkennen.
  • 3 zeigt eine Repräsentation der durch das Bild der Fahrzeugkamera in 2 wiedergegebenen Szene aus einer Vogelperspektive betrachtet. Diese Repräsentation kann aus dem Kamerabild ermittelt werden, wobei bei einer Monokamera vorzugsweise Abbildungseigenschaften der Kamera (4), die Einbaugeometrie der Kamera im Fahrzeug (5), der tatsächlichen Fahrzeughöhe (aufgrund der Reifenstands-/Fahrwerksteuerung), Nick-, Gier- und/oder Rollwinkel berücksichtigt werden. Es kann die Annahme getroffen werden, dass die Fahrbahnoberfläche eben ist.
  • Bei einer 3D- oder Stereokamera ist die Repräsentation aufgrund der erfassten 3D-Bilddaten unmittelbar ermittelbar, wobei auch hierbei weitere Aspekte berücksichtigt werden können.
  • Die Repräsentation ist im Wesentlichen dadurch gekennzeichnet, dass dort Abstände tatsächlichen Abständen entsprechen. So sind die gezeigten Mittelstreifensegmente auch auf der realen Fahrbahn äquidistant angeordnet.
  • Auf der in 3 dargestellten Repräsentation sind die Fahrbahn (1), die Pfütze (2), die Mittelliniensegmente (3) und die durchgezogenen seitlichen Begrenzungslinien (4) der Fahrbahnmarkierung zu erkennen, die bereits im Kamerabild (2) enthalten sind. Zusätzlich ist in der Repräsentation ein Fahrzeug (5) mit einer Kamera (6) enthalten, wobei mit der Kamera (6) das Bild aus 2 aufgenommen worden ist. Ein Koordinatensystem, bei dem die X-Richtung der Fahrzeuglängsrichtung und die Y-Richtung der Fahrzeugquerrichtung entspricht, ist in 3 dargestellt. Fahrzeug- bzw. Echtraumkoordinaten werden durch Großbuchstaben bezeichnet.
  • Der gestrichelte Pfeil gibt die prädizierte Trajektorie (T) des Fahrzeugs (5) an. Bei dieser Geradeausfahrt kann der zurückgelegte Weg s entlang der Trajektorie (T) in X-Richtung im Falle einer gleichförmigen Bewegung mit der Geschwindigkeit v unter Berücksichtigung der Information über die Zeit t bestimmt werden aus s = vt. Auf diese Weise könnte unter Berücksichtigung der Odometrie- und Zeitinformationen bestimmt werden, wann z. B. das linke Vorderrad des Fahrzeugs (5) die Pfütze (2) erreichen wird.
  • Bestimmung der Region of Interest (ROI) eines gegebenen Kamerabildes in Abhängigkeit der jeweiligen Fahrsituation
  • Ausgehend von einem gegebenen Kamerabild (I), wir im Folgenden unter der Region of Interest (ROI) derjenige Bildbereich verstanden, der für bestimmte nachgelagerte Funktionalitäten (ACC, Fahrbahnzustandsschätzung usw.) die größte Informationsdichte bezüglich des Fahrbahnzustands enthält. 4 zeigt einen solchen Bildbereich (R1) innerhalb des Kamerabildes (I).
  • Der Mittelpunkt eines beispielhaft rechteckförmig angenommenen ersten Bildbereichs (R1) ist innerhalb des gesamten Kamerabildes (I) durch die Bildkoordinaten (x0, y0) und die Ausdehnung (Δx0, Δy0) beschrieben. Bildkoordinaten werden durch Kleinbuchstaben bezeichnet. Durch geeignete Anpassung des ersten Bildbereichs (R1) an den jeweiligen Fahrzustand des Ego-Fahrzeugs (5) wird es möglich, den Informationsgehalt für nachgelagerte Regelsysteme zu erhöhen.
  • Die 5 und 7 zeigen zusätzlich zu einem ersten (R1) jeweils einen zweiten Bildbereich (R2). Dieser kann simultan (also für ein einziges auszuwertendes Bild (I)) zum ersten Bildbereich (R1) ausgewertet werde. Der erste Bildbereich (R1) beinhaltet Informationen über den Fahrbahnzustand, der in einer kürzeren Zeit vom Fahrzeug (5) erreicht wird, und der zweite (R2) Informationen, die in einer späteren Zeit relevant werden (Preview für den aktuellen ersten Bildbereich).
  • Alternativ kann der zweite Bildbereich (R2) jeweils eine Anpassung des ersten Bildbereichs (R1) an eine schnellere Fahrzeuggeschwindigkeit (oder weitere veränderte Fahrsituationen) veranschaulichen. Exemplarisch für eine derartige Anpassung des ersten Bildbereichs (R1) stehen eine Adaption über die Fahrzeugeigengeschwindigkeit, den Fahrspurverlauf bei einer Kurvenfahrt und den prädizierten Fahrschlauch bei einem Ausweichmanöver.
  • 1. Adaption des ersten Bildbereichs (R1) an die Geschwindigkeit des eigenen Fahrzeugs (Geradeausfahrt)
  • Bei der in 5 dargestellten Geradeausfahrt könnte z. B. der erste Bildbereich (R1) den Bereich der Fahrbahn (1) angeben, der bei einer Geschwindigkeit von 50 km/h in 1 s vom Fahrzeug überfahren wird. Wenn das Fahrzeug doppelt so schnell fährt, würde dagegen in einer Sekunde der Bereich der Fahrbahn (1) überfahren, den der zweite Bildbereich (R2) wiedergibt. Mit steigender Fahrzeuggeschwindigkeit wandert die ROI (R2) weiter in den oberen Bildteil (weiter entfernt vom Fahrzeug (5)) und aufgrund der Kameraperspektive etwas nach links (x10 < x0, y10 > y0) bei geringer werdender Ausdehnung (Δx10 < Δx0, Δy10 < Δy0)
  • 6 illustriert die Ermittlung dieser Adaption anhand einer Darstellung im Fahrzeugkoordinatensystem (X, Y). Aus der Sicht des eigenen Fahrzeugs (5), dessen Schwerpunkt CoGVeh sich an einer aktuellen Position X0Veh befindet, wird ein vorausschauender Adaptionshorizont XpVeh ermittelt, der eine Funktion der Fahrzeuggeschwindigkeit VVeh sowie optional weiterer Umfeld-Informationen InfUmf ist: XpVeh = f(VVeh, InfUmf)
  • Bei einer geraden Vorwärtsfahrt des Fahrzeugs (5) ist der vorausschauende Adaptionshorizont XpVeh gegenüber der aktuellen Fahrzeugposition X0Veh in positiver X-Richtung verschoben ist, da sich das Fahrzeug in seiner Längsrichtung bewegt (vgl. 3).
  • Die Umfeld-Informationen InfUmf können z. B. ergeben, dass ein Bildbereich (R1, R2) weiter angepasst werden sollte, damit ein vorausfahrendes Fahrzeug (nicht dargestellt) nicht in diesem Bildbereich abgebildet wird. Dies könnte zu einer fehlerhaften Fahrbahnzustandsklassifikation führen. Um dies zu verhindern, sollte ein Bildbereich (R1, R2) in dieser Situation verkleinert, beschnitten oder verschoben werden, so dass anschließend nur noch die zu klassifizierende Fahrbahnoberfläche (1, 2) darin abgebildet wird.
  • Ein geeigneter Algorithmus übernimmt abschließend die Transformation des ermittelten Prädiktionshorizonts (XpVeh) in das Bild-Koordinatensystem (x, y), um die neue Lage (x10, y10) und Ausdehnung (Δx10, Δy10) des angepassten bzw. geänderten Bildbereichs zu ermitteln. Die Transformation entspricht dem Übergang von einer Darstellung wie in 3 zu einer Darstellung wie in 2.
  • 2. Adaption des ersten Bildbereichs (R1) an einen vorausliegenden Fahrspurverlauf (hier beispielhaft bei Kurvenfahrt)
  • Aus einem Bild (I) der Fahrzeugkamera (6) können Fahrspurmarkierungen (3, 4) erkannt werden und z. B. für eine Spurverlassenswarnungsfunktion (LDW) eingesetzt werde. Bei Kenntnis des Verlaufs der Fahrspurmarkierungen (3, 4) kann der Verlauf der vom eigenen Fahrzeug (5) befahrenen Fahrspur ermittelt werden.
  • In 7 ist im Fahrzeugkoordinatensystem der bisherige und anhand einer Fahrspurermittlung prädizierte Bewegungsverlauf (T) bei einer Kurvenfahrt dargestellt. Die mittlere Krümmung x des prädizierten Bewegungsverlaufs (T gestrichelte Linie) kann als Funktion der aktuellen Fahrzeug-Gierbewegung κact des bisherigen Bewegungsverlaufs (T durchgezogene Linie) sowie zusätzlicher Umfeld-Informationen, insbesondere der Krümmung des vorausliegenden Fahrspurverlaufs angeben werden.
  • Figure DE102013101639A1_0002
  • 8 zeigt für Rechtsverkehr, wie ein aus 7 ermittelter Prädiktionshorizont (dort nicht dargestellt) im Bild (I) durch eine Anpassung des Bildbereichs von R1 zu R2 transformiert werden kann. Bei der hier dargestellten Linkskurve wandert die ROI in die linke obere Kamerabildecke (x20 < x0, y20 > y0). Die Fläche des Bildbereichs verkleinert sich dabei entsprechend der Kameraabbildung. Als Form der beiden dargestellten Bildbereiche (R1, R2) wurde hier eine Trapezform gewählt, die auf der Fahrbahn zwischen dem Mittelstreifen (3) und der rechten Fahrstreifenbegrenzungslinie (4) liegt.
  • 3. Adaption des ersten Bildbereichs (R1) an einen prädizierten Fahrschlauch beieinem Ausweichmanöver
  • Unter dem Fahrschlauch wird der prädizierte Bewegungskorridor des Ego-Fahrzeugs (5) bis ca. 150 m Entfernung verstanden. Er wird insbesondere durch seine Breite, welche in etwa der Fahrstreifenbreite entsprechen kann, charakterisiert. Der Fahrschlauch kann aus Kameradaten, Daten weiterer Umfeld- bzw. Fahrzeugsensoren berechnet werden.
  • Ist durch entsprechende Kamera-/Umfeldsensorik und eine Überwachung der Fahrer-Aktivitäten sichergestellt, dass ein Ausweichmanöver durchzuführen ist, wird der von der ROI abzubildende Bereich der Fahrbahnoberfläche (1) in Abhängigkeit einer optimal geplanten Ausweich-Trajektorie (beispielsweise 2. Ordnung) verschoben.
  • Figure DE102013101639A1_0003
  • Der lateral benötigte Fahrzeugversatz wird mit SY bezeichnt, der zur Verfügung stehende Ausweichraum in X-Richtung ist SX. Die Krümmung der optimalen Ausweichkurve κref ergibt sich aus der geplanten Ausweich-Trajektorie gemäß:
    Figure DE102013101639A1_0004
  • Die aktuell gefahrene Kurvenkrümmung xact ist eine Funktion der Fahrzeug-Gierbewegung (vgl. Abschnitt 2). Der Prädiktionshorizont XpVeh ist ein Maß dafür, mit welcher „Vorausschau” einzelne Punkte (XpVeh, YpVeh) der optimalen Ausweichkurve die Ziel-Bildkoordinaten (x30, y30) für die ROI werden.
  • 9 zeigt im Fahrzeugkoordinatensystem einen bisherigen Bewegungsverlauf Tist, dessen Fortführung zu einer Kollision mit einem Hindernis (7) führen würde. Eine optimale Ausweichtrajektorie Tsoll ist als strichpunktierte Kurve dargestellt. Dadurch hätte das Hindernis komfortabel umfahren werden können. Im Rahmen eines Notmanövers kann nun durch eine kurzfristige Änderung des Gierwinkels von Ψact zu Ψref ein Bewegungsverlauf gemäß der gestrichelten Linie erforderlich sein, um möglichst effektiv in den Bereich der Soll-Trajektorie zu gelangen. Bei einem derartigen Notmanöver ist aber eine Fahrbahnzustandsbestimmung bzw. kamerabasierte Reibbeiwertschätzung enorm wichtig, da bei Notmanövern bis zur Reibbertgrenze gebremst oder auch gelenkt wird.
  • Eine Pfütze (2) auf einer ansonsten trockenen Fahrbahn (1) wie in 2 könnte dazu führen, dass eine Kollision mit dem Hindernis doch nicht vermieden werden kann oder das eigene Fahrzeug von der Fahrbahn abkommt.
  • In 10 ist ein Kamerabild (I) gezeigt, dass ein stehendes Hindernis (7), z. B. ein Fahrzeug, auf der eigenen Fahrspur vor dem eigenen Fahrzeug (6) abbildet. Zusätzlich zum berechneten Fahrschlauch (bzw. Bewegungskorridor) T mit der durchgezogenen Mittelpunktstrajektorie und den gepunkteten Seitenlinien für ein Ausweichmanöver dargestellt wie ein aus 9 ermittelter Prädiktionshorizont XpVeh, VpVeh im Bild (I) durch eine Anpassung des Bildbereichs von R1 zu R1'' transformiert werden kann. Ein Zwischenschritt der Anpassung (R1') ist ebenfalls dargestellt.
  • Für Lage und Ausdehnung der Anpassung des ersten Bildbereichs R1' bzw. R1'' ergibt sich im dargestellten Fall (Ausweichen nach links) nach geeigneter Transformation der Bewegungsgrößen (X, Y) in das Bild-Koordinatensystem (x, y) ein rechteckiger Bildbereich R1'' an der Position (x30 < x0, y30 > y0) mit der Ausdehnung (Δx30, Δy30). Dadurch würde eine Fahrbahnzustands- bzw. Reibbeiwertänderung erkannt bzw. zuverlässig abgeschätzt und kann bei der Durchführung eines Notmanövers berücksichtigt werden.
  • Bezugszeichenliste
  • 1
    Fahrbahn bzw. Fahrbahnoberfläche
    2
    Pfütze
    3
    Mittelliniensegment
    4
    durchgezogene Fahrspurbegrenzungslinie
    5
    (eigenes) Fahrzeug
    6
    Fahrzeugkamera
    7
    Hindernis
    S10
    Bildaufnahme
    S12
    Fahrbahnermittlung
    S14
    Trajektorienplanung
    S16
    ROI-Ermittlung
    S18
    ROI-Klassifikation
    S20
    Ausgabe des Fahrbahnzustands
    V
    Fahrzeugsensorikdaten
    N
    Navigations-/Kartendaten
    E
    Umfeldsensordaten
    I
    Bild
    T
    (Bewegungs-)Trajektorie
    X
    Fahrzeuglängskoordinate
    Y
    Fahrzeugquerkoordinate
    x, y
    Bildkoordinaten
    R1
    erster Bildbereich/ROI
    R2
    zweiter bzw. angepasster Bildbereich/ROI
    CoGVeh
    Fahrzeugschwerpunkt
    X0Veh, Y0Veh
    aktuelle Fahrzeug-X- bzw. -Y-Position
    XpVeh, YpVeh
    Position des vorausschauenden Adaptionshorizonts
    VVeh
    Fahrzeuggeschwindigkeit
    InfUmf
    Umfeldinformationen
    M
    Mittelpunkt des Kurvenkreises
    κact
    aktuelle Krümmung
    x
    prädizierte Krümmung
    Ψact
    aktueller Gierwinkel
    Ψ .Veh
    aktuelle Gierrate
    Tist
    Ist-Trajektorie
    Tsoll
    Soll-Trajektorie
    κref
    Krümmung der Soll-Trajektorie
    Ψref
    Gierwinkel, der zur Soll-Trajektorie führt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102004018088 A1 [0009]
    • WO 2012/110030 A2 [0010]

Claims (20)

  1. Verfahren zur Bestimmung eines Fahrbahnzustands mittels einer Fahrzeugkamera (6), wobei – mindestens ein Bild (I) mittels der Fahrzeugkamera aufgenommen wird (S10), – ein erster Bildbereich (R1) ermittelt wird, der eine Abbildung der Fahrbahnoberfläche (1) umfasst (S16) – der erste Bildbereich (R1) einem Klassifikator zugeführt wird, wobei der Klassifikator den ersten Bildbereich mindestens einer Klasse zuordnet, die einen bestimmten Fahrbahnzustand repräsentiert (S18) und – eine Information zu diesem mindestens einen Fahrbahnzustand ausgegeben wird (S20).
  2. Verfahren nach Anspruch 1, wobei mindestens ein Merkmal aus dem ersten Bildbereich (R1) extrahiert wird und dem Klassifikator zugeführt wird.
  3. Verfahren nach Anspruch 2, wobei das mindestens eine Merkmal den mittleren Grauwert oder den mittleren Farbwert des ersten Bildbereichs (R1) umfasst.
  4. Verfahren nach Anspruch 2 oder 3, wobei das mindestens eine Merkmal Ergebnisse einer pixelweisen Segmentierung innerhalb des ersten Bildbereichs (R1) umfasst.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei als Klassifikator ein zufälliger Entscheidungswald verwendet wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Zuordnung des ersten Bildbereichs (R1) zu mindestens einer Klasse durch den Klassifikator (S18) für mindestens ein aufgenommenes Bild (I) einer zeitlichen Filterung unterworfen wird bevor die Information zu dem mindestens einen zugeordneten Fahrbahnzustand ausgegeben wird (S20).
  7. Verfahren nach Anspruch 6, wobei die zeitliche Filterung vorsieht, dass die Zuordnung des ersten Bildbereichs (R1) zu mindestens einer Klasse durch den Klassifikator für mindestens ein aktuell aufgenommenes Bild (I) verglichen wird mit einer Zuordnung anhand mindestens eines vorher aufgenommenen Bildes und ein Wechsel der Fahrbahnzustandsklasse erst ausgegeben wird, wenn eine dem Wechsel zugeordnete Wahrscheinlichkeit, die aus der Klassifikation des aktuell aufgenommenen Bildes abgeleitet wird, einen Schwellwert überschreitet.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei Position, Größe und/oder Form des ersten Bildbereichs (R1), an eine aktuelle Fahrsituation des eigenen Fahrzeugs angepasst wird.
  9. Verfahren nach Anspruch 8, wobei Position, Größe und/oder Form des ersten Bildbereichs (R1), an die Geschwindigkeit des eigenen Fahrzeugs (5) angepasst wird.
  10. Verfahren nach Anspruch 8 oder 9, wobei eine Fahrspur ermittelt wird, auf der das eigene Fahrzeug sich befindet und der erste Bildbereich (R1) derart angepasst wird, dass er eine Abbildung der Fahrbahnoberfläche (1) der vorausliegenden eigenen Fahrspur umfasst.
  11. Verfahren nach einem der Ansprüche 8 bis 10, wobei eine Bewegungstrajektorie T des eigenen Fahrzeugs (5) prädiziert und daraus ein Fahrschlauch berechnet wird und der erste Bildbereich (R1) derart angepasst wird, dass er eine Abbildung der Fahrbahnoberfläche (1) des berechneten Fahrschlauchs umfasst.
  12. Verfahren nach einem der Ansprüche 8 bis 11, wobei der erste Bildbereich (R1) derart angepasst wird, dass der erste Bildbereich nur eine Abbildung der Fahrbahnoberfläche (1) beinhaltet.
  13. Verfahren nach einem der Ansprüche 8 bis 12, wobei der erste Bildbereich (R1) derart angepasst wird, dass Bildsegmenten mit zuvor erkannten Objekten aus dem ersten Bildbereich ausgeschlossen sind.
  14. Verfahren nach einem der Ansprüche 8 bis 13, wobei bei der Anpassung des ersten Bildbereichs (R1) Navigations- und Kartendaten (N) und/oder Fahrzeugsensordaten (V) und/oder Daten weiterer Umfeldsensoren (E) berücksichtigt werden.
  15. Verfahren nach einem der vorhergehenden Ansprüche, wobei ein zweiter Bildbereich (R2) ermittelt wird, der eine Abbildung eines weiter vorausliegenden Bereichs der Fahrbahnoberfläche (1) umfasst, wobei erster und zweiter Bildbereich (R1; R2) einander nicht überlappen und wobei der zweite Bildbereich (R2) in gleicher Weise wie der erste Bildbereich (R1) nach einem der vorhergehenden Ansprüche ausgewertet wird.
  16. Verfahren nach Anspruch 15, wobei die Zuordnung des ersten Bildbereichs (R1) zu mindestens einem Fahrbahnzustand aus einem aktuell aufgenommenen Bild (I) plausibilisiert wird durch die Zuordnung des zweiten Bildbereichs (R2) zu mindestens einem Fahrbahnzustand aus einem zuvor aufgenommenen Bild und eine Information zu mindestens einem plausibilisierten Fahrbahnzustand ausgegeben wird.
  17. Verfahren nach Anspruch 15, wobei die Zuordnung des zweiten Bildbereichs (R2) zu mindestens einem Fahrbahnzustand aus einem aktuellen oder bereits aufgenommenen Bild (I) mit der Zuordnung des ersten Bildbereichs (R1) zu mindestens einem Fahrbahnzustand aus einem aktuell aufgenommenen Bild fusioniert wird und eine Information zu mindestens einen fusionierten Fahrbahnzustand ausgegeben wird.
  18. Verfahren nach einem der vorhergehenden Ansprüche, wobei als Fahrzeugkamera (6) eine Monokamera verwendet wird.
  19. Verfahren nach einem der Ansprüche 1 bis 17, wobei als Fahrzeugkamera (6) eine 3D- oder Stereokamera verwendet wird.
  20. Vorrichtung zur Bestimmung eines Fahrbahnzustands umfassend – eine Fahrzeugkamera (6), die dazu ausgebildet ist mindestens ein Bild (I) aufzunehmen (S10), – eine Bildverarbeitungseinheit, die dazu ausgebildet ist einen ersten Bildbereich (R1) zu ermitteln, der eine Abbildung der Fahrbahnoberfläche (1) umfasst (S16), und einer Klassifikationseinheit zuzuführen, – eine Klassifikationseinheit, die dazu ausgebildet ist den ersten Bildbereich mindestens einer Klasse zuzuordnen, die einen bestimmten Fahrbahnzustand repräsentiert (S18) und – eine Ausgabeeinheit, die dazu ausgebildet ist eine Information zu dem mindestens einen Fahrbahnzustand auszugeben (S20), der dem ersten Bildbereich durch die Klassifikationseinheit zugeordnet ist.
DE102013101639.1A 2013-02-19 2013-02-19 Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands Withdrawn DE102013101639A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102013101639.1A DE102013101639A1 (de) 2013-02-19 2013-02-19 Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands
DE112014000887.7T DE112014000887A5 (de) 2013-02-19 2014-02-14 Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands
PCT/DE2014/200062 WO2014127777A2 (de) 2013-02-19 2014-02-14 Verfahren und vorrichtung zur bestimmung eines fahrbahnzustands
US14/764,782 US10147002B2 (en) 2013-02-19 2014-02-14 Method and apparatus for determining a road condition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013101639.1A DE102013101639A1 (de) 2013-02-19 2013-02-19 Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands

Publications (1)

Publication Number Publication Date
DE102013101639A1 true DE102013101639A1 (de) 2014-09-04

Family

ID=50433895

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102013101639.1A Withdrawn DE102013101639A1 (de) 2013-02-19 2013-02-19 Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands
DE112014000887.7T Pending DE112014000887A5 (de) 2013-02-19 2014-02-14 Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112014000887.7T Pending DE112014000887A5 (de) 2013-02-19 2014-02-14 Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands

Country Status (3)

Country Link
US (1) US10147002B2 (de)
DE (2) DE102013101639A1 (de)
WO (1) WO2014127777A2 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016183074A1 (en) * 2015-05-10 2016-11-17 Mobileye Vision Technologies Ltd. Road profile along a predicted path
DE102016217916A1 (de) 2016-09-19 2018-03-22 Volkswagen Aktiengesellschaft Verfahren, Assistenzsystem und computerlesbares Speichermedium mit Instruktionen zum Auswerten fahrwegbezogener Informationen
DE102016218949A1 (de) * 2016-09-30 2018-04-05 Conti Temic Microelectronic Gmbh Kameravorrichtung sowie Verfahren zur Objektdetektion in einem Umgebungsbereich eines Kraftfahrzeugs
DE102016224539A1 (de) * 2016-12-08 2018-06-14 Brose Fahrzeugteile Gmbh & Co. Kommanditgesellschaft, Bamberg Verfahren zur Ansteuerung einer Stellvorrichtung mit einer Einklemmschutzfunktion
DE102017120899A1 (de) * 2017-09-11 2019-03-14 Connaught Electronics Ltd. Verfahren und System zum automatischen Parken eines Fahrzeugs in einer Notsituation
DE102018209595A1 (de) * 2018-06-14 2019-12-19 Robert Bosch Gmbh Verfahren zum automatischen Bestimmen eines Straßenzustands
DE102019108649A1 (de) * 2019-04-03 2020-10-08 Valeo Schalter Und Sensoren Gmbh Verfahren und Fahrerassistenzsystem zum Erfassen eines Objekts
DE102015121339B4 (de) 2014-12-12 2023-09-21 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Systeme und verfahren zum ermitteln eines zustands einer fahrbahn
DE102022204089A1 (de) 2022-04-27 2023-11-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Erkennen, ob ein Egofahrzeug von einer momentan befahrenen Fahrspur einer Fahrbahn in eine benachbarte Fahrspur wechselt oder ob es die momentan befahrene Fahrspur beibehält

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012112725A1 (de) 2012-12-20 2014-06-26 Continental Teves Ag & Co. Ohg Reibwertschätzung aus Kamera- und Raddrehzahldaten
DE102012112724A1 (de) 2012-12-20 2014-06-26 Continental Teves Ag & Co. Ohg Verfahren zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten
DE102013223367A1 (de) 2013-11-15 2015-05-21 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands mittels eines Fahrzeugkamerasystems
US10325165B2 (en) * 2014-09-30 2019-06-18 Conduent Business Services, Llc Vision-based on-street parked vehicle detection via normalized-view classifiers and temporal filtering
EP3211368B1 (de) * 2014-10-24 2023-07-26 Kyocera Corporation Stereokameravorrichtung und mit der stereokameravorrichtung ausgestattetes fahrzeug
US9428194B2 (en) * 2014-12-11 2016-08-30 Toyota Motor Engineering & Manufacturing North America, Inc. Splash condition detection for vehicles
KR101692628B1 (ko) * 2014-12-24 2017-01-04 한동대학교 산학협력단 관심영역을 이용하여 차량의 후방 좌우 옆 차선 영역을 감지하는 방법 및 이를 이용한 차량용 영상 모니터링 시스템
US10691958B1 (en) * 2015-07-30 2020-06-23 Ambarella International Lp Per-lane traffic data collection and/or navigation
US10235817B2 (en) * 2015-09-01 2019-03-19 Ford Global Technologies, Llc Motion compensation for on-board vehicle sensors
WO2017118907A1 (en) * 2016-01-05 2017-07-13 Mobileye Vision Technologies Ltd. Systems and methods for estimating future paths
JP6745112B2 (ja) 2016-02-04 2020-08-26 株式会社トプコン 路面性状の評価方法、及び路面性状の評価装置
JP6745113B2 (ja) * 2016-02-04 2020-08-26 株式会社トプコン 路面性状取得方法、及び路面性状取得装置
JP6811534B2 (ja) 2016-02-04 2021-01-13 株式会社トプコン 道路性状の表示方法、及び道路性状の表示装置
CN107092920A (zh) * 2016-02-17 2017-08-25 福特全球技术公司 评估其上行驶有车辆的路面的方法和装置
US20170307743A1 (en) * 2016-04-22 2017-10-26 Delphi Technologies, Inc. Prioritized Sensor Data Processing Using Map Information For Automated Vehicles
DE102016207436A1 (de) * 2016-04-29 2017-11-02 Ford Global Technologies, Llc System und Verfahren zum Steuern- und/oder Regeln eines Lenksystems eines Fahrzeugs sowie Fahrzeug
CN107563256A (zh) * 2016-06-30 2018-01-09 北京旷视科技有限公司 辅助驾驶信息产生方法及装置、辅助驾驶系统
US11270130B2 (en) * 2016-08-05 2022-03-08 Transportation Ip Holdings, Llc Route inspection system
JP6776058B2 (ja) * 2016-08-26 2020-10-28 シャープ株式会社 自律走行車両制御装置、自律走行車両制御システム及び自律走行車両制御方法
US11145142B2 (en) 2016-09-06 2021-10-12 International Business Machines Corporation Detection of road surface defects
US10275662B1 (en) * 2016-09-30 2019-04-30 Zoox, Inc. Estimating friction based on image data
DE102016220308A1 (de) * 2016-10-18 2018-04-19 Continental Automotive Gmbh System und Verfahren zur Erzeugung von digitalen Straßenmodellen aus Luft- oder Satellitenbildern und von Fahrzeugen erfassten Daten
US10481609B2 (en) * 2016-12-09 2019-11-19 Ford Global Technologies, Llc Parking-lot-navigation system and method
JP6794243B2 (ja) * 2016-12-19 2020-12-02 日立オートモティブシステムズ株式会社 物体検出装置
WO2018146802A1 (en) * 2017-02-10 2018-08-16 Nec Corporation Control customization system, control customization method, and control customization program
JP6666289B2 (ja) * 2017-03-15 2020-03-13 株式会社東芝 移動体用空間情報算出装置及び衝突回避システム
US10209089B2 (en) 2017-04-03 2019-02-19 Robert Bosch Gmbh Automated image labeling for vehicles based on maps
DE102017114571A1 (de) * 2017-06-29 2019-01-03 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bestimmen einer Beschaffenheit einer Oberfläche in der Umgebung eines Fahrzeugs
US10331957B2 (en) * 2017-07-27 2019-06-25 Here Global B.V. Method, apparatus, and system for vanishing point/horizon estimation using lane models
DE102017216016A1 (de) * 2017-09-12 2019-03-14 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen eines Umfelds eines Fahrzeugs
DE102017122432A1 (de) 2017-09-27 2019-03-28 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erfassen einer Fahrbahnbeschaffenheit einer Fahrbahn für ein Kraftfahrzeug, Fahrerassistenzsystem sowie Kraftfahrzeug
US10678256B2 (en) * 2017-09-28 2020-06-09 Nec Corporation Generating occlusion-aware bird eye view representations of complex road scenes
JP6863476B2 (ja) * 2017-12-07 2021-04-21 日産自動車株式会社 路面状態判定方法及び路面状態判定装置
EP3495219B1 (de) * 2017-12-11 2023-07-05 Volvo Car Corporation Wegvorhersage für ein fahrzeug
DE102018203807A1 (de) 2018-03-13 2019-09-19 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen
EP3546312A1 (de) * 2018-03-26 2019-10-02 Volvo Car Corporation Verfahren und system zur handhabung der bedingungen einer strasse, auf der ein fahrzeug fährt
US11124193B2 (en) 2018-05-03 2021-09-21 Volvo Car Corporation System and method for providing vehicle safety distance and speed alerts under slippery road conditions
US10706294B2 (en) 2018-05-03 2020-07-07 Volvo Car Corporation Methods and systems for generating and using a road friction estimate based on camera image signal processing
US11592566B2 (en) 2019-08-15 2023-02-28 Volvo Car Corporation Vehicle systems and methods utilizing LIDAR data for road condition estimation
US10800408B2 (en) * 2018-05-24 2020-10-13 Baidu Usa Llc Determining driving paths for autonomous driving that avoid moving obstacles
US11699207B2 (en) * 2018-08-20 2023-07-11 Waymo Llc Camera assessment techniques for autonomous vehicles
US10872419B2 (en) * 2018-09-04 2020-12-22 GM Global Technology Operations LLC Method and apparatus for evaluating a vehicle travel surface
US11199847B2 (en) * 2018-09-26 2021-12-14 Baidu Usa Llc Curvature corrected path sampling system for autonomous driving vehicles
CN109446963B (zh) * 2018-10-19 2021-10-01 中国科学院东北地理与农业生态研究所 基于hsv和lbp结合的地表状态识别方法
US11010592B2 (en) * 2018-11-15 2021-05-18 Toyota Research Institute, Inc. System and method for lifting 3D representations from monocular images
JP6946605B2 (ja) * 2018-12-27 2021-10-06 三井金属アクト株式会社 ドア自動開閉システム
US11472413B2 (en) 2019-02-20 2022-10-18 Steering Solutions Ip Holding Corporation Mu confidence estimation and blending
DE102019106625A1 (de) * 2019-03-15 2020-09-17 HELLA GmbH & Co. KGaA Verfahren und Vorrichtung zum Ermitteln einer Gefahrenquelle auf einer Fahrbahn
CN113646194A (zh) * 2019-03-27 2021-11-12 日立安斯泰莫株式会社 悬架控制装置
DE102019206036A1 (de) * 2019-04-26 2020-10-29 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Bestimmung der geografischen Position und Orientierung eines Fahrzeugs
US11361574B2 (en) * 2019-10-23 2022-06-14 Bendix Commercial Vehicle Systems Llc System and method for monitoring for driver presence and position using a driver facing camera
US11592304B2 (en) * 2020-02-03 2023-02-28 Bose Corporation Surface detection for micromobility vehicles
WO2021236549A1 (en) 2020-05-18 2021-11-25 Roadbotics, Inc. Systems and methods for creating and/or analyzing three-dimensional models of infrastructure assets
AT524256B1 (de) * 2020-10-08 2023-06-15 Thomas Genitheim Ing Dipl Ing Fh Verfahren zur Ermittlung eines Reibbeiwertes
KR20220078506A (ko) * 2020-12-03 2022-06-10 주식회사 에이치엘클레무브 실시간 연속 차선 맵핑 및 분류 방법 및 시스템
CN112528793B (zh) * 2020-12-03 2024-03-12 上海汽车集团股份有限公司 一种车辆的障碍物检测框抖动消除方法及装置
JP2022149840A (ja) * 2021-03-25 2022-10-07 トヨタ自動車株式会社 降車支援装置
CN113200052B (zh) * 2021-05-06 2021-11-16 上海伯镭智能科技有限公司 一种用于无人驾驶的路况智能识别方法
JP2023536692A (ja) * 2021-07-02 2023-08-29 フジツウ テクノロジー ソリューションズ ゲーエムベーハー レーストラックのaiベースのモニタリング
EP4113459A1 (de) * 2021-07-02 2023-01-04 Fujitsu Technology Solutions GmbH Ki-basierte überwachung von rennbahnen
CN117292349B (zh) * 2023-11-22 2024-04-12 魔视智能科技(武汉)有限公司 确定路面高度的方法、装置、计算机设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0827127A1 (de) * 1996-08-28 1998-03-04 Matsushita Electric Industrial Co., Ltd. Lokales Positionierungsgerät und Verfahren dafür
US5963148A (en) * 1995-03-23 1999-10-05 Honda Giken Kogyo Kabushiki Kaisha Road situation perceiving system
DE102004018088A1 (de) 2003-04-09 2005-02-10 Continental Teves, Inc., Auburn Hills Fahrbahnerkennungssystem
KR20110032422A (ko) * 2009-09-23 2011-03-30 삼성전기주식회사 차량 속도 제어 장치 및 방법
WO2012110030A2 (de) 2011-02-14 2012-08-23 Conti Temic Microelectronic Gmbh Reibwertschätzung mittels einer 3d-kamera

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH072448B2 (ja) 1986-01-13 1995-01-18 アイシン・エィ・ダブリュ株式会社 4輪駆動の制御装置
GB8918303D0 (en) 1989-08-10 1989-09-20 Lucas Ind Plc Monitoring and predicting road vehicle/road surface conditions
JPH0735522A (ja) 1993-07-23 1995-02-07 Nippon Doro Kodan レーザーを利用した舗装路面横断プロフィル測定方法
US5586028A (en) * 1993-12-07 1996-12-17 Honda Giken Kogyo Kabushiki Kaisha Road surface condition-detecting system and anti-lock brake system employing same
US5774821A (en) 1994-11-25 1998-06-30 Itt Automotive Europe Gmbh System for driving stability control
DE19856510C2 (de) 1998-02-20 2002-10-24 Cegelec Anlagen Und Automatisi Verfahren und System zur Ermittlung von Unebenheiten und Schadstellen in der Oberfläche einer Verkehrsfläche
DE19854964A1 (de) 1998-11-29 2000-06-08 Martin Spies Sensor zur Fahrbahnbeurteilung
JP2001334921A (ja) 2000-05-30 2001-12-04 Fuji Heavy Ind Ltd 車両の路面摩擦係数推定装置
JP3271963B1 (ja) 2000-10-26 2002-04-08 富士重工業株式会社 車両の路面摩擦係数推定装置
DE10060333A1 (de) 2000-12-04 2002-06-13 Daimler Chrysler Ag Vorrichtung zur Erkennung einer während des Fahrbetriebes eines Fahrzeuges auftretenden Aquaplaninggefahr
DE10155488A1 (de) 2001-11-13 2003-05-28 Wilhelm Caspary Verfahren zur Erfassung der Oberfläche einer Fahrbahn
US6636258B2 (en) 2001-10-19 2003-10-21 Ford Global Technologies, Llc 360° vision system for a vehicle
US7203579B2 (en) 2001-12-21 2007-04-10 Kabushiki Kaisha Bridgestone Method and apparatus for estimating road surface state and tire running state, ABS and vehicle control using the same
US7038577B2 (en) 2002-05-03 2006-05-02 Donnelly Corporation Object detection system for vehicle
DE10256726A1 (de) 2002-12-05 2004-06-24 Conti Temic Microelectronic Gmbh Verfahren zur fahrbahnabhängigen Signalgenerierung in einem Kraftfahrzeug
JP4453382B2 (ja) 2004-02-10 2010-04-21 トヨタ自動車株式会社 車両の走行制御装置
DE102004016288B3 (de) 2004-04-02 2005-08-18 Daimlerchrysler Ag Verfahren zur Bestimmung eines Reibwerts
DE102004019337A1 (de) 2004-04-21 2005-11-17 Siemens Ag Assistenzsystem für Kraftfahrzeuge
DE102004055069B4 (de) 2004-07-15 2007-02-15 Daimlerchrysler Ag Mehrdimensionale Fahrbahnvermessung
DE102004047914A1 (de) 2004-09-29 2006-03-30 A.D.C. Automotive Distance Control Systems Gmbh Methode zur Einschätzung des Fahrbahnzustands
DE102004048637A1 (de) 2004-10-04 2006-04-06 Daimlerchrysler Ag 3D-Fahrbahnmessung mit redundanten Messdaten
DE102006012289A1 (de) 2006-03-17 2007-09-20 Man Nutzfahrzeuge Ag Verfahren zur vorausschauenden Erkennung der Reibwertänderung eines Straßenbelags
US8306747B1 (en) 2007-01-19 2012-11-06 Starodub, Inc. Travel way measurement system
DE102008047750A1 (de) 2007-09-18 2009-05-07 Continental Teves Ag & Co. Ohg Bestimmung eines Kraftschlusses mit wenigen Sensoren
EP2048476B1 (de) 2007-10-08 2013-12-11 Delphi Technologies, Inc. Fahrerunterstützungsverfahren
JP5436442B2 (ja) * 2008-10-30 2014-03-05 株式会社ブリヂストン 路面状態推定方法
DE102009033219A1 (de) 2009-01-23 2010-07-29 Daimler Ag Verfahren zur Ermittlung eines Fahrzeug vorausliegenden Straßenprofils einer Fahrspur
JP5172764B2 (ja) 2009-03-30 2013-03-27 本田技研工業株式会社 路面摩擦係数推定装置
US8395529B2 (en) 2009-04-02 2013-03-12 GM Global Technology Operations LLC Traffic infrastructure indicator on head-up display
CN102481935B (zh) 2009-07-17 2016-01-20 大陆-特韦斯贸易合伙股份公司及两合公司 用于在机动车中进行摩擦系数分类的基于激光的方法
DE102009041566B4 (de) 2009-09-15 2022-01-20 Continental Teves Ag & Co. Ohg Verfahren zur Klassifizierung des Fahrbahnreibwerts
JP5325765B2 (ja) * 2009-12-28 2013-10-23 日立オートモティブシステムズ株式会社 路肩検出装置及び路肩検出装置を用いた車両
JP5551236B2 (ja) * 2010-03-03 2014-07-16 パナソニック株式会社 道路状況管理システム及び道路状況管理方法
DE102010011093A1 (de) 2010-03-11 2011-09-15 Daimler Ag Verfahren zur Bestimmung einer Fahrzeugaufbaubewegung
DE102010013339A1 (de) 2010-03-30 2011-01-05 Daimler Ag Vorrichtung und Verfahren zur Steuerung eines Motorlagers für ein Fahrzeug
DE102010045162A1 (de) 2010-09-11 2012-03-15 Volkswagen Ag Schlaglochassistent mit Umfeldwahrnehmung
JP2012066785A (ja) 2010-09-27 2012-04-05 Fuji Heavy Ind Ltd 車両の統合制御装置
DE102010063017A1 (de) 2010-12-14 2012-06-14 Robert Bosch Gmbh Verfahren in einem Fahrerassistenzsystem zur Erkennung von Nässe auf einer Fahrbahn
DE102011011755A1 (de) 2011-02-18 2012-08-23 Conti Temic Microelectronic Gmbh Halbleiterschaltkreis und Verfahren in einem Sicherheitskonzept zum Einsatz in einem Kraftfahrzeug
DE102011100907A1 (de) 2011-05-09 2012-01-12 Daimler Ag Vorrichtung und Verfahren zur Ermittlung eines Fahrbahnzustands
US10081308B2 (en) * 2011-07-08 2018-09-25 Bendix Commercial Vehicle Systems Llc Image-based vehicle detection and distance measuring method and apparatus
DE102011081362A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ermittlung eines Oberflächenzustands einer von einem Fahrzeug befahrenen oder zu befahrenden Fahrbahn
DE102012101085A1 (de) 2012-02-10 2013-08-14 Conti Temic Microelectronic Gmbh Bestimmung einer Beschaffenheit einer Fahrbahnoberfläche mittels einer 3D-Kamera
US20150178572A1 (en) * 2012-05-23 2015-06-25 Raqib Omer Road surface condition classification method and system
DE102012024874B4 (de) 2012-12-19 2014-07-10 Audi Ag Verfahren und Vorrichtung zum prädikativen Ermitteln eines Parameterwertes einer von einem Fahrzeug befahrbaren Oberfläche
DE102012112724A1 (de) 2012-12-20 2014-06-26 Continental Teves Ag & Co. Ohg Verfahren zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten
DE102012112725A1 (de) 2012-12-20 2014-06-26 Continental Teves Ag & Co. Ohg Reibwertschätzung aus Kamera- und Raddrehzahldaten
US8788146B1 (en) * 2013-01-08 2014-07-22 Ford Global Technologies, Llc Adaptive active suspension system with road preview
US9187099B2 (en) 2013-10-17 2015-11-17 Richard M. Powers Systems and methods for predicting weather performance for a vehicle
DE102013223367A1 (de) 2013-11-15 2015-05-21 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands mittels eines Fahrzeugkamerasystems
US9434388B2 (en) 2014-10-31 2016-09-06 GM Global Technology Operations LLC Surface estimation for vehicles

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5963148A (en) * 1995-03-23 1999-10-05 Honda Giken Kogyo Kabushiki Kaisha Road situation perceiving system
EP0827127A1 (de) * 1996-08-28 1998-03-04 Matsushita Electric Industrial Co., Ltd. Lokales Positionierungsgerät und Verfahren dafür
DE102004018088A1 (de) 2003-04-09 2005-02-10 Continental Teves, Inc., Auburn Hills Fahrbahnerkennungssystem
KR20110032422A (ko) * 2009-09-23 2011-03-30 삼성전기주식회사 차량 속도 제어 장치 및 방법
WO2012110030A2 (de) 2011-02-14 2012-08-23 Conti Temic Microelectronic Gmbh Reibwertschätzung mittels einer 3d-kamera

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Dickmanns, E.D.; Graefe,V.: Dynamic Monocular Machine Vision. Machine Vision and Applications, 1988, Seite 223-240. *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015121339B4 (de) 2014-12-12 2023-09-21 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Systeme und verfahren zum ermitteln eines zustands einer fahrbahn
US10513269B2 (en) 2015-05-10 2019-12-24 Mobileye Vision Technologies Ltd Road profile along a predicted path
US9902401B2 (en) 2015-05-10 2018-02-27 Mobileye Vision Technologies Ltd. Road profile along a predicted path
WO2016183074A1 (en) * 2015-05-10 2016-11-17 Mobileye Vision Technologies Ltd. Road profile along a predicted path
EP4220537A3 (de) * 2015-05-10 2023-08-16 Mobileye Vision Technologies Ltd. Strassenprofile entlang eines prognostizierten weges
US11192557B2 (en) 2015-05-10 2021-12-07 Mobileye Vision Technologies Ltd. Road profile along a predicted path
DE102016217916A1 (de) 2016-09-19 2018-03-22 Volkswagen Aktiengesellschaft Verfahren, Assistenzsystem und computerlesbares Speichermedium mit Instruktionen zum Auswerten fahrwegbezogener Informationen
DE102016218949A1 (de) * 2016-09-30 2018-04-05 Conti Temic Microelectronic Gmbh Kameravorrichtung sowie Verfahren zur Objektdetektion in einem Umgebungsbereich eines Kraftfahrzeugs
DE102016224539A1 (de) * 2016-12-08 2018-06-14 Brose Fahrzeugteile Gmbh & Co. Kommanditgesellschaft, Bamberg Verfahren zur Ansteuerung einer Stellvorrichtung mit einer Einklemmschutzfunktion
DE102017120899A1 (de) * 2017-09-11 2019-03-14 Connaught Electronics Ltd. Verfahren und System zum automatischen Parken eines Fahrzeugs in einer Notsituation
DE102018209595A1 (de) * 2018-06-14 2019-12-19 Robert Bosch Gmbh Verfahren zum automatischen Bestimmen eines Straßenzustands
DE102019108649A1 (de) * 2019-04-03 2020-10-08 Valeo Schalter Und Sensoren Gmbh Verfahren und Fahrerassistenzsystem zum Erfassen eines Objekts
DE102022204089A1 (de) 2022-04-27 2023-11-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Erkennen, ob ein Egofahrzeug von einer momentan befahrenen Fahrspur einer Fahrbahn in eine benachbarte Fahrspur wechselt oder ob es die momentan befahrene Fahrspur beibehält

Also Published As

Publication number Publication date
US20150371095A1 (en) 2015-12-24
WO2014127777A2 (de) 2014-08-28
US10147002B2 (en) 2018-12-04
WO2014127777A3 (de) 2014-12-24
DE112014000887A5 (de) 2015-11-19

Similar Documents

Publication Publication Date Title
DE102013101639A1 (de) Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands
WO2019174682A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnzuständen und witterungsbedingten umwelteinflüssen
DE102012104766B4 (de) Spurermittlung mittels Spurmarkierungsidentifikation für Spurzentrierung/-haltung
EP3292510B1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnreflexionen
DE102007043164B4 (de) Nebelerkennungsvorrichtung für Kraftfahrzeuge
DE112016000422B4 (de) Geschwindigkeitsregelvorrichtung und geschwindigkeitsregelverfahren für fahrzeuge
WO2014094766A1 (de) Verfahren zur bestimmung eines fahrbahnzustands aus umfeldsensordaten
WO2016177372A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von umwelteinflüssen und fahrbahnzustandsinformationen im fahrzeugumfeld
DE102009012917A1 (de) Hinderniserkennungsvorrichtung für Fahrzeuge
WO2014161691A1 (de) Verfahren und vorrichtung zum führen eines fahrzeugs im umfeld eines objekts
DE102014200638A1 (de) Verfahren und System zum Schätzen eines Fahrspurverlaufs
DE102008020007A1 (de) Verfahren zum Unterstützen eines Fahrers beim Fahren mit einem Fahrzeug mit einer Fahrspurerkennung
DE102013201796A1 (de) Verfahren zur Bereitstellung eines Fahrkorridors für ein Fahrzeug und Fahrassistenzsystem
DE102017106349A1 (de) Fahrerassistenzsystem für ein Fahrzeug zum Prognostizieren eines dem Fahrzeug vorausliegenden Fahrspurbereichs, Fahrzeug und Verfahren
DE102017223439B4 (de) Warnvorrichtung vor Gefahrensituationen für ein Kraftfahrzeug
DE102018211368A1 (de) Verfahren zur Beschreibung einer Umgebung eines Fahrzeugs durch die Topologie der befahrenen Straße
EP2964503B1 (de) Schätzung der zukünftigen geschwindigkeit und/oder entfernung eines fahrzeugs von einem referenzpunkt und schätzung der zukünftigen beschleunigung
EP3655299B1 (de) Verfahren und vorrichtung zum ermitteln eines optischen flusses anhand einer von einer kamera eines fahrzeugs aufgenommenen bildsequenz
WO2009097883A1 (de) Verfahren zum betrieb einer bildaufnahmevorrichtung und eine bildaufnahmevorrichtung
DE102014209015A1 (de) Verfahren und Vorrichtung zur Abstandsregelung für ein Fahrzeug
DE102012221652B4 (de) Verfahren und Vorrichtung zum Bestimmen, ob in einer Verkehrssituation Linksverkehr oder Rechtsverkehr besteht
DE102016221591A1 (de) Verfahren und Vorrichtung zur Bewertung eines Fahrbahnzustands und Fahrerassistenzsystem
EP3704631A2 (de) Verfahren zur ermittlung einer entfernung zwischen einem kraftfahrzeug und einem objekt
DE102008050456A1 (de) Verfahren und Vorrichtung zur Fahrspurerkennung
EP2696310B1 (de) Verfahren zum Identifizieren eines Straßenrands

Legal Events

Date Code Title Description
R163 Identified publications notified
R118 Application deemed withdrawn due to claim for domestic priority