DE102016122484A1 - Sichtbasierte erkennung von nassem strassenoberflächenzustand unter verwendung des rückwärtsspritzens von reifen - Google Patents

Sichtbasierte erkennung von nassem strassenoberflächenzustand unter verwendung des rückwärtsspritzens von reifen Download PDF

Info

Publication number
DE102016122484A1
DE102016122484A1 DE102016122484.7A DE102016122484A DE102016122484A1 DE 102016122484 A1 DE102016122484 A1 DE 102016122484A1 DE 102016122484 A DE102016122484 A DE 102016122484A DE 102016122484 A1 DE102016122484 A1 DE 102016122484A1
Authority
DE
Germany
Prior art keywords
region
image
filter
interest
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016122484.7A
Other languages
English (en)
Inventor
Qingrong Zhao
Qi Zhang
Jinsong Wang
Bakhtiar B. Litkouhi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102016122484A1 publication Critical patent/DE102016122484A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/06Combustion engines, Gas turbines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/40Torque distribution
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Verfahren zum Bestimmen eines nassen Oberflächenzustands einer Straße. Ein Bild einer Fahrbahnoberfläche wird durch eine Bildaufnahmevorrichtung des Host-Fahrzeugs aufgenommen. Die Bildaufnahmevorrichtung ist auf einer Seite des Host-Fahrzeugs angebracht und nimmt ein Bild in einer Abwärtsrichtung auf. Ein interessierender Bereich hinter dem Rad des Host-Fahrzeugs wird in dem aufgenommenen Bild durch einen Prozessor identifiziert. Der interessierende Bereich ist repräsentativ dafür, wo Rückwärtsspritzen auftritt, wie durch das Rad erzeugt. Eine Bestimmung wird durch Anwenden eines Filters auf das Bild durchgeführt, ob Niederschlag in dem interessierenden Bereich vorhanden ist. Ein Signal nasse Fahrbahnoberfläche wird als Reaktion auf die Identifizierung von Niederschlag im interessierenden Bereich erzeugt.

Description

  • HINTERGRUND DER ERFINDUNG
  • Eine Ausführungsform bezieht sich im Allgemeinen auf eine Erkennung einer nassen Fahrbahnoberfläche unter Verwendung von Erkennung des Rückwärtsspritzens von Reifen.
  • Niederschlag auf einer Fahroberfläche verursacht mehrere unterschiedliche Probleme für ein Fahrzeug. Beispielsweise reduziert Wasser auf einer Straße den Reibwert zwischen den Reifen des Fahrzeugs und der Oberfläche der Straße, was in Fahrzeugstabilitätsproblemen resultiert. Die Erkennung von Niederschlag auf einer Fahrstraße wird typischerweise durch ein Host-Fahrzeug bestimmt, das Niederschlag auf der Straße erfasst, indem es einen Erfassungsvorgang verwendet, der dann auftritt, wenn der Niederschlag den Fahrzeugbetrieb bereits beeinflusst, z. B. wie Erkennen von Radschlupf. Folglich muss das Fahrzeug seine eigenen Betriebsbedingungen (z. B. Radschlupf) gegen trockene Fahrbahnbetriebsbedingungen überwachen, um zu bestimmen, ob Niederschlag vorhanden ist. Dadurch können derartige Systeme auf das Auftreten einer solchen Bedingung warten oder können Anregungen an das Fahrzeug zur Bestimmung einleiten, ob der Zustand vorhanden ist (z. B. Erzeugen plötzlicher Beschleunigung auf den angetriebenen Rädern zum Herbeiführen von Radschlupf, wenn der Niederschlag vorhanden ist).
  • KURZDARSTELLUNG DER ERFINDUNG
  • Ein Vorteil einer Ausführungsform ist die Erkennung von Wasser auf einer Straße unter Verwendung einer sichtbasierten Bildgebungsvorrichtung, die Niederschlag identifiziert, der von der Oberfläche der Straße durch das eigene Fahrzeugrad verteilt wird. Die hierin beschriebene Technik erfordert keine Anregungen vom Fahrzeug oder Fahrer zum Initiieren einer Bestimmung, ob Niederschlag vorhanden ist. Vielmehr wird Niederschlag als Reaktion auf Überwachung von Rückwärtsspritzen eines Fahrzeugrads bestimmt. Die Technik nimmt vorzugsweise ein Bild auf und erkennt Kanten im Bild, die zwischen Spritzen, das von den Reifen des eigenen Fahrzeugs erzeugt wird, die den Niederschlag aufwirbeln, und einem nicht bespritzten Bereich unterscheiden (d. h. ungestörter Niederschlag auf der Fahrbahnoberfläche). Eine trainierte Datenbank, wie z. B. ein Klassifizierer, wird offline erzeugt und dann innerhalb des Fahrzeugs zum sofortigen Bestimmen unter Verwendung des trainierten Klassifizierers implementiert, ob Niederschlag vorhanden ist.
  • Eine Ausführungsform zieht ein Verfahren zum Bestimmen eines nassen Oberflächenzustands einer Straße in Erwägung. Ein Bild einer Fahrbahnoberfläche wird durch eine Bildaufnahmevorrichtung des Host-Fahrzeugs aufgenommen. Die Bildaufnahmevorrichtung ist auf einer Seite des Host-Fahrzeugs montiert und nimmt ein Bild in einer Abwärtsrichtung auf. Ein interessierender Bereich hinter dem Rad des Host-Fahrzeugs wird durch einen Prozessor in dem aufgenommenen Bild identifiziert. Der interessierende Bereich ist repräsentativ dafür, wo das Rückwärtsspritzen auftritt, das durch das Rad erzeugt wird. Es erfolgt eine Bestimmung, ob Niederschlag in dem interessierenden Bereich vorhanden ist. Ein Signal für eine nasse Fahrbahnoberfläche wird als Reaktion auf die Identifizierung des Niederschlags im interessierenden Bereich erzeugt.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine exemplarische perspektivische Ansicht einer Fahrzeugszene auf einer nassen Oberfläche, die durch eine Kamera aufgenommen ist.
  • 2 veranschaulicht ein Blockdiagramm eines Erkennungssystems einer nassen Fahrbahnoberfläche.
  • 3 ist eine exemplarische perspektivische Ansicht einer Fahrzeugrundumsicht mit einer Rundumsichtabdeckung.
  • 4 veranschaulicht ein Ablaufdiagramm zum Erkennen einer nassen Oberfläche.
  • 5 veranschaulicht einen exemplarischen interessierenden Bereich vom aufgenommenen Bild.
  • 6 veranschaulicht eine exemplarische Filterreaktion für die nasse Fahrbahnoberfläche.
  • 7 veranschaulicht eine exemplarische Filterreaktion für eine trockene Fahrbahnoberfläche.
  • 8 veranschaulicht ein exemplarisches kombiniertes Diagramm mit den Filterreaktionen auf die nassen und trockenen Oberflächen auf einem gleichen Graphen.
  • 9 veranschaulicht ein Beispiel von Validierungsergebnissen.
  • AUSFÜHRLICHE BESCHREIBUNG
  • In 1 ist ein Fahrzeug 10 dargestellt, das entlang einer Fahrzeugstraße 12 fährt. Niederschlag 14, der auf der Fahrzeugstraße 12 angeordnet dargestellt ist, wird häufig durch das Fahrzeugrad 14 und Reifen 16, montiert auf einer Felge 18 des Rades 14, verlagert, wenn sich die Reifen über der nassen Oberfläche auf der Fahrzeugstraße 12 drehen. Häufig ist es vorteilhaft zu wissen, wann das Fahrzeug entlang einer nassen Fahrzeugstraße 12 fährt, sodass Probleme, die aus Niederschlag resultieren, wie z. B. Antriebsschlupf oder Motorverschlechterung aufgrund von eintretendem Wasser durch die Außenlufteinlassöffnungen, beseitigt oder mindestens verringert werden können.
  • Niederschlag 19 auf der Fahrzeugstraße 12 kann zu einer Verringerung der Traktion beim Fahren auf der nassen Fahrbahnoberfläche führen. Der Niederschlag 19, der auf der Fahrzeugstraße 12 angeordnet ist, senkt den Reibwert zwischen den Fahrzeugreifen und der Fahrzeugstraße 12. Dadurch wird die Traktion zwischen den Fahrzeugreifen und der Fahrzeugstraße 12 abgesenkt. Traktionsverlust kann durch verschiedene Abschwächungstechniken abgeschwächt werden, die beinhalten, aber nicht beschränkt sind auf Warnung des Fahrers, die Fahrzeuggeschwindigkeit auf eine herabzusetzen, die an die Umgebungsbedingungen angepasst ist; Betätigung der automatischen Anwendung der Fahrzeugbremse unter Verwendung einer sehr niedrigen Bremskraft zum Minimieren des Niederschlags, der auf den Oberflächen der Bremsenkomponenten ausgebildet wird; Deaktivierung oder Beschränkung der Aktivierung einer Geschwindigkeitsregelungsfunktion, während Niederschlag erkannt wird; oder Benachrichtigung des Fahrers, einen größeren Bremsabstand zu einem vorausfahrenden Fahrzeug einzuhalten. Es versteht sich, dass die hierin beschriebenen Ausführungsformen auf andere Arten von Systemen, abgesehen von Automobilen, angewendet werden können, bei denen Erkennung eines nassen Fahrbahnoberflächenzustands erwünscht ist. Beispiele für Fahrzeuge, die anders als Automobile sind, die dieses System verwenden können, beinhalten, sind aber nicht beschränkt auf Schienensysteme, Flugzeuge, Geländefahrzeuge, Roboterfahrzeuge, Motorräder, Fahrräder, Landwirtschaftsausrüstung und Baumaschinen.
  • 2 veranschaulicht ein Blockdiagramm eines Erkennungssystems für eine nasse Fahrbahnoberfläche. Eine Mehrzahl von fahrzeugbasierten Bildaufnahmevorrichtungen 20 ist auf dem Fahrzeug zur Aufnahme von Bildern um das Fahrzeug montiert. Die Mehrzahl von fahrzeugbasierten Bildaufnahmevorrichtungen 20 kann auf dem vorderen, hinteren Teil, und den Seiten des Fahrzeugs angebracht sein. 3 veranschaulicht eine exemplarische 360 Grad-Rundumsichtabdeckung zum Erkennen von Objekten um das Fahrzeug herum. Jede der bildbasierten Aufnahmevorrichtungen wird zusammenwirkend zur Erkennung und Identifizierung von Objekten auf jeder Seite des Fahrzeugs verwendet. Die bildbasierten Erkennungsvorrichtungen 20 beinhalten, sind aber nicht beschränkt auf eine Frontsichtkamera 22, die auf einem Vorderteil des Fahrzeugs angebracht wird, die Bilder nach vorne und teilweise an den Seiten des Fahrzeugs aufnimmt. Eine Fahrerseitenkamera 24 nimmt Bilder auf der Fahrerseite des Fahrzeugs auf. Eine Beifahrerseitenkamera 26 nimmt Bilder auf der Beifahrerseite des Fahrzeugs auf. Eine nach hinten weisende Kamera 28 nimmt Bilder rückwärts und an den Seiten des Fahrzeugs auf.
  • Nochmals mit Verweis auf 2 verarbeitet ein Prozessor 30 die aufgenommenen Bilder durch die Bildaufnahmevorrichtungen 20. Der Prozessor 30 analysiert Bilder und Daten um zu bestimmen, ob Niederschlag unter einem Rad des Fahrzeuges 10 vorhanden ist. Der Prozessor 30 kann Teil eines bestehenden Systems sein, wie z. B. Traktionssteuerungssystem oder ein anderes System, oder kann ein eigenständiger Prozessor sein, der zum Analysieren von Daten von den Bildaufnahmevorrichtungen 20 bestimmt ist.
  • Der Prozessor 30 kann mit einer oder mehreren Ausgabevorrichtungen wie Steuerung 32 zur Initiierung bzw. Aktivierung einer Steuermaßnahme verbunden sein, wenn Niederschlag auf der Fahrbahnoberfläche gefunden wird. Eine oder mehrere Gegenmaßnahmen können zum Abschwächen der Wirkung aktiviert werden, die der Niederschlag auf den Betrieb des Fahrzeugs haben kann.
  • Die Steuerung 32 kann Teil des Fahrzeug-Subsystems sein oder kann verwendet werden, um ein Fahrzeug-Subsystem in die Lage zu versetzen, die Wirkungen des Wassers zu bekämpfen. Beispielsweise kann die Steuerung 32 als Reaktion darauf, dass die Straße nass ist, ein elektrisches oder elektrohydraulisches Bremssystem 34 oder Ähnliches aktivieren, bei dem eine Bremsstrategie bereitsteht, falls Traktionsverlust auftritt. Zusätzlich zur Vorbereitung einer Bremsstrategie kann das Bremssystem autonom eine leichte Bremskraft aufbringen, ohne dass dies dem Fahrer bewusst ist, um Niederschlag von den Fahrzeugbremsen zu entfernen, sobald das Fahrzeug in den Niederschlag eintritt. Entfernen von Niederschlag von den Rädern und Bremsen hält einen erwarteten Reibungskoeffizienten zwischen den Fahrzeugbremsstellgliedern und der Bremsfläche der Räder aufrecht, wenn der Fahrer manuell bremst.
  • Die Steuerung 32 kann ein Traktionssteuerungssystem 36 steuern, das Strom individuell auf jedes jeweilige Rad zur Reduzierung von Radschlupf durch ein jeweiliges Rad verteilt, wenn Niederschlag auf der Fahrbahnoberfläche erkannt wird.
  • Die Steuerung 32 kann ein Geschwindigkeitsregelungssystem 38 steuern, das die Geschwindigkeitsregelung deaktivieren kann oder die Aktivierung der Geschwindigkeitsregelung einschränken kann, wenn Niederschlag auf der Fahrbahnoberfläche erkannt wird.
  • Die Steuerung 32 kann ein Fahrerinformationssystem 40 zur Bereitstellung von Warnungen an den Fahrer des Fahrzeugs in Bezug auf Niederschlag steuern, der auf der Fahrzeugstraße erkannt wird. Solch eine Warnung, die durch die Steuerung 32 getätigt wird, kann den Fahrer vor dem sich nähernden Niederschlag auf der Fahrbahnoberfläche warnen und kann empfehlen, dass der Fahrer die Fahrzeuggeschwindigkeit auf eine Geschwindigkeit absenkt, die an die aktuellen Umgebungsbedingungen angepasst ist, oder die Steuerung 32 kann eine Warnung zur Aufrechterhaltung eines sicheren Fahrabstands zu dem Fahrzeug vor dem gefahrenen Fahrzeug tätigen. Es versteht sich, dass die Steuerung 32, wie hierin beschrieben, eines oder mehrere Steuermodule beinhalten kann, die eine einzelne Funktion steuern oder eine Kombination von Funktionen steuern können.
  • Die Steuerung 32 kann weiterhin die Betätigung von automatischem Öffnen und Schließen von Luftleitblechen 42 steuern, um Wassereintritt in einen Motor des Fahrzeugs zu verhindern. Unter solchen Bedingungen betätigt die Steuerung 32 automatisch das Schließen der Luftleitbleche 42, wenn erkannt wird, dass Niederschlag auf der Fahrbahnoberfläche vor dem Fahrzeug vorhanden ist, und kann die Luftleitbleche erneut öffnen, wenn bestimmt wird, dass kein Niederschlag mehr auf der Fahrbahnoberfläche vorhanden ist.
  • Die Steuerung 32 kann weiterhin die Betätigung einer drahtlosen Kommunikationsvorrichtung 44 zur autonomen Mitteilung des nassen Fahrbahnzustands an andere Fahrzeuge steuern, und zwar unter Verwendung eines Fahrzeug-zu-Fahrzeug- oder Fahrzeug-zu-Infrastruktur-Kommunikationssystems.
  • Die Steuerung kann auch weiterhin die Warnungen vor der nassen Fahrbahnoberfläche an einen Fahrer des Fahrzeugs gegen eine Verwendung von automatisierten Merkmalen bereitstellen, die beinhalten, aber nicht beschränkt sind auf, adaptive Geschwindigkeitsregelung, Spurwechsel, Ausweich-/Unterstützungsmanöver und automatisiertes Notbremsen.
  • Der Vorteil der hierin beschriebenen Techniken ist, dass keine Anregungen vom Fahrzeug oder Fahrer erforderlich sind zum Initiieren einer Bestimmung, ob Wasser oder Niederschlag vorhanden ist. Das heißt, dass einige herkömmliche Techniken eine beträchtliche Erregung durch das Fahrzeug erfordern, ganz gleich ob mittels eines Bremsmanövers, erhöhter Beschleunigung, Lenkmanövers, so wie für Oberflächenwassererkennung. Basierend auf der Reaktion (z. B. Radschlupf, Gieren) bestimmt ein solches Verfahren, ob das Fahrzeug gerade auf Wasser oder Niederschlag fährt. Im Gegensatz dazu stellen die hierin beschriebenen Techniken eine Technologie bereit, die keine Fahreranregungen zur Bestimmung von Niederschlag auf der Straße erfordern.
  • 4 veranschaulicht ein Ablaufdiagramm eines Verfahrens zum Erkennen einer nassen Oberfläche der Straße. In Schritt 50 ist ein Sensor-/Fusionsmodul vorgesehen, das Szeneninformationen erhält, in dem verschiedene Eigenschaften in der Szene analysiert werden können zur Bestimmung, ob Niederschlag im Bild vorhanden ist. 5 veranschaulicht ein durch eine Bildaufnahmevorrichtung aufgenommenes Bild. Das Bild kann so verarbeitet werden, dass eine Sicht in Abwärtsrichtung aufgenommen wird (d. h. Herunterschauen auf die Straße der Reisestrecke). Bei einer Linse, die durch eine jeweilige Bildaufnahmevorrichtung verwendet wird, kann ein Fischaugen-Objektiv verwendet werden, bei dem ein weites Sichtfeld aufgenommen wird (z. B. 180 Grad). Bildverarbeitung kann auch angewendet werden, um die Haltung der Kamera so zu ändern, dass die Haltung, wie sie in dem Bild gesehen wird, nach unten weist. Wenn zum Beispiel ein Bild von den jeweiligen Seitenkameras verwendet wird, dann kann ein jeweiliger Standort im Bild durch Erzeugung einer virtuellen Haltung anfokussiert werden, die die Szene so gestaltet, als wenn die Kamera direkt nach unten gerichtet wäre und das Rad 14, die Fahrbahnoberfläche 12 und Niederschlag 19 aufnimmt. Zur Veränderung der Haltung kann ein virtuelles Kameramodell mit dem aufgenommenen Bild so verwendet werden, dass eine virtuelle Haltung verwendet wird, um das Bild so neu auszurichten, dass ein virtuelles Bild erzeugt wird, als wenn sich die Kamera an einem anderen Standort befinden, und in eine andere Richtung weisen würde (beispielsweise direkt nach unten). Neuausrichten des Bildes zur Erzeugung des virtuellen Bildes beinhaltet Identifizieren der virtuellen Haltung und Abbildung von jedem virtuellen Punkt auf dem virtuellen Bild an einem entsprechenden Punkt auf dem realen Bild. Der Begriff Haltung, wie hierin verwendet, bezieht sich auf einen Kamerabetrachtungswinkel (ob echte Kamera oder virtuelle Kamera) eines Kamerastandorts, der durch die Kamerakoordinaten und die Ausrichtung einer z-Achse der Kamera definiert ist. Der Begriff virtuelle Kamera, wie hierin verwendet, bezieht sich auf eine simulierte Kamera mit simulierten Kameramodellparametern und simulierter Bildgebungsoberfläche, zusätzlich zu einer simulierten weiteren Kamerahaltung. Kameramodellierung wird durch den Prozessor, wie hierin beschrieben, als Erhalten eines virtuellen Bilds ausgeführt, das ein synthetisiertes Bild der Szene mittels der virtuellen Kameramodellierung ist.
  • Nochmals mit Verweis auf 4 wird in Schritt 51 ein interessierender Bereich von dem realen Bild oder virtuellen Bild identifiziert. Diese Technik lokalisiert den interessierenden Bereich, der einen jeweiligen relativen Bereich identifiziert, wo dispergierter Niederschlag erwartet wird, wenn Rückwärtsspritzen vorhanden ist. Der interessierende Bereich für dispergierten Niederschlag für Rückwärtsspritzen liegt typischerweise hinter dem Rad entgegengesetzt zu der Richtung, in der das Fahrzeug fährt. Wie in 5 dargestellt, stellt der durch 49 identifizierte Bereich den interessierenden Bereich im Bild dar.
  • Nochmals mit Verweis auf 4 wird in Schritt 52 der interessierende Bereich identifiziert und eine Analyse über dispergierten Niederschlag wird durchgeführt um zu bestimmen, ob Niederschlag auf der Fahrbahnoberfläche in dem interessierenden Bereich vorhanden ist. Dies wird bestimmt durch Analysieren, ob Wassertröpfchen im Bild im interessierenden Bereich als Ergebnis davon vorhanden sind, dass Wasser von der Fahrbahnoberfläche hochgeschleudert wird, wenn sich der Reifen dreht. Verschiedene Techniken können später zum Extrahieren eines Merkmals verwendet werden um zu bestimmen, ob ein Bild eine Kanteninformation wie z. B. eine ausgeprägte Kante aufweist, die Niederschlag, der in die Luft geschleudert wird, und einen unbespritzten Bereich in dem Bild trennt. Dadurch kann Kantenerkennung unter Verwendung eines Filters durchgeführt werden, wie z. B. eine LM-Filterbank oder andere Bildanalysetechniken. Die LM-Filterbank ist ein rotierender unveränderlicher Satz von Filtern, die zur Klassifizierung von Texturen und der Richtung der Textur im Bild verwendet werden. In diesem Beispiel ist die LM eine multiskalare, multiorientierende Filterbank mit einer Mehrzahl von Filtern. Es kann eine erste und zweite Gauß'sche Ableitung beinhalten, die eine entsprechende Anzahl von Orientierungen zum Vergleich mit den Texturen des Bildes aufweist. Wenn Niederschlagsspritzen im interessierenden Bereich vorhanden ist, dann werden die Pixel im Bild große Werte (z. B. großen Reaktionen auf die LM-Filter) relativ zu den Werten auf einer trockenen Oberfläche aufweisen. Dadurch sollte ein absoluter Mittelwert der Pixelwerte im interessierenden Bereich des gefilterten Bildes, der den Niederschlag darstellt, viel größer sein relativ zu Nicht-Spritzbereichen (d. h. ungestörter Niederschlag auf der Fahrbahnoberfläche). Der Filter identifiziert eine Kante, die Spritzen von Bereichen ohne Spritzen unterscheidet.
  • 6 veranschaulicht eine exemplarische Filterreaktion 60 auf einer nassen Oberfläche. Der Reaktionsgraph beinhaltet eine Bildbreite (W) auf einer ersten Achse und eine Bildhöhe (H) auf einer zweiten Achse. Jedes Pixel im Bild ist durch Koordinaten (W, H) dargestellt. Die Reaktion (Größe des Intensitätswerts) ist auf der z-Achse für jedes Pixel dargestellt. Wie in 6 dargestellt, ist ein Bereich in Zusammenhang mit dem interessierenden Bereich 49 mit dem Spritzen auf dem Graphen identifiziert.
  • Im Gegensatz veranschaulicht 7 eine exemplarische Filter 62 -Reaktion auf einer trockenen Oberfläche. Der Reaktionsgraph beinhaltet die Bildbreite (W) auf der x-Achse und die Bildhöhe (H) auf der y-Achse. Jedes Pixel im Bild ist durch Koordinaten (W, H) dargestellt. Die Reaktion (Größe des Intensitätswert) ist auf der z-Achse dargestellt. Wie in 7 dargestellt, ist der mit dem interessierenden Bereich 49 auf der trockenen Oberfläche zusammenhängende Bereich zum Vergleich dargestellt. Die Pixelwerte der trockenen Oberfläche weisen eine LM-Filterreaktion von im Wesentlichen Null auf. Im Vergleich weisen die Pixel der nassen Oberfläche eine LM-Filterreaktion auf, die wesentlich größer (z. B. Absolutwert) als die Filterreaktion der trockenen Oberfläche ist.
  • 8 veranschaulicht einen kombinierten Graphen mit den Filterreaktionen der nassen und trockenen Oberflächen auf einem gleichen Graphen. Filterreaktion 60 stellt die Reaktion auf der nassen Oberfläche dar, während Filterreaktion 62 die Reaktion auf der trockenen Oberfläche darstellt. Beim Vergleichen der zwei Reaktionen auf dem gleichen Graphen sind die Pixelwerte (absolut) in Zusammenhang mit der nassen Oberfläche wesentlich größer als die Pixelwerte in Zusammenhang mit der trockenen Oberfläche.
  • Nochmals mit Verweis auf 4 wird in Schritt 53 die Merkmalsanalyse des gefilterten Bildes auf das Identifizieren des Musterabgleichs angewendet. Merkmalsanalysen werden typischerweise offline in Maschinenlernen trainiert, das die Merkmalsextraktion und Merkmalsberechnung beinhaltet, um eine jeweilige Musterdatenbank aufzubauen. Nachdem die Datenbank ausgebildet ist, wird ein Klassifizierer online implementiert. Während der Online-Merkmalsanalyse werden die extrahierten Eigenschaften berechnet und in den Klassifizierer eingegeben. Der Klassifizierer wird eine Entscheidung ausgeben, ob eine aktuelle Oberfläche im Bild zu einer nassen oder trockenen Oberfläche gehört. Wie früher beschrieben, wird zum Anwenden einer Merkmalsanalyse eine multiskalare multiorientierende LM-Filterbank zur Merkmalsextraktion verwendet. Beispielsweise kann eine exemplarische LM-Filterbank 36 Filter mit ersten und zweiten Derivaten von Gauß'schen Elementen bei 6 Ausrichtungen und 3 Skalen beinhalten. Jeder Filter wird während einem Trainieren eines Klassifizierers angewendet, um die Musterdatenbank zu erzeugen. Alternativ kann die Merkmalsextraktion auch über andere Techniken, wie z. B. Tieflerntechniken erfolgen. Ein mittlerer Intensitätswert der Pixel in dem interessierenden Bereich eines jeweiligen gefilterten Bildes wird als ein Merkmal angesehen. Ein Intensitätwert für ein jeweiliges Merkmal wird berechnet und zu der Musterdatenbank hinzugefügt. Wenn eine Verwendung online erfolgt, bestimmt der Klassifizierer das Merkmal basierend auf zuvor trainierten Klassifizierungen. Die folgende Formel kann verwendet werden, um den Merkmalsintensitätswert zu bestimmen, der dargestellt ist wie folgt: Merkmal k = 1 / nΣ N / i=1Ik(i) k = 1, 2, ... 36 wobei N eine Gesamtzahl von Pixeln in dem interessierenden Bereich der gefilterten Bildes von dem k-ten LM-Filter ist, und Ik(i) ein Pixelwert des i-ten Pixels des gefilterten Bildes k-ten LM-Filters ist.
  • 9 veranschaulicht ein Beispiel von Validierungsergebnissen. In diesem Validierungstest wurde die Fahrzeuggeschwindigkeit auf 40 mph eingestellt, und die Oberfläche wurde mit einem jeweiligen Pegel von Wasser bedeckt. Jedes Symbol in 9 stellt eine Verteilung von Mustern in dem Merkmalsraum dar. Wie in 9 dargestellt, stellt die x-Achse ein erstes Merkmal (F-7) dar und die y-Achse stellt ein zweites Merkmal (F-13) dar. Die Merkmale sind zwei erste Ableitungen von Gauß'schen Filtern mit einer horizontalen Ausrichtung und zwei unterschiedlichen Maßstäben. Die Symbol „o“ stellt eine nasse Oberfläche dar, während Symbol „x“ eine trockene Oberfläche darstellt. Mit einem trainierten Klassifizierer wird eine Trennung zwischen der Verteilung von Proben in dem Merkmalsraum deutlich zwischen der ersten nassen Oberfläche und der trockenen Oberfläche unterschieden.
  • Nochmals mit Verweis auf 4 wird in Schritt 54 festgestellt, ob Niederschlag basierend auf der Merkmalsanalyse vorhanden ist. Wenn die Bestimmung getroffen wird, dass der Niederschlag vorliegt, dann fährt die Routine mit Schritt 55 fort; wobei die Routine ansonsten mit Schritt 56 fortfährt.
  • In Schritt 56 wird als Reaktion auf eine Bestimmung, dass Niederschlag in dem interessierenden Bereich vorhanden ist, ein Indikator für eine nasse Oberfläche eingestellt und an eine Steuerung mitgeteilt, wobei unterschiedliche Fahrzeugvorgänge wie früher beschrieben, betätigt werden können, die beinhalten, jedoch nicht beschränkt sind auf Bremssteuerung, Traktionssteuerung, Geschwindigkeitsregelung, Fahrerwarnung, Luftleitsteuerung und Fahrzeug-zu-Fahrzeug-Kommunikation.
  • Wenn die Bestimmung in Schritt 54 getroffen wurde, dass kein Niederschlag in dem interessierenden Bereich vorhanden war, dann fährt die Routine mit Schritt 56 fort, wobei andere zusätzliche Techniken verwendet werden können, um zu überprüfen, ob Niederschlag vorhanden ist oder nicht.
  • Obwohl bestimmte Ausführungsformen der vorliegenden Erfindung ausführlich beschrieben wurden, werden Fachleute auf dem Gebiet, auf das sich diese Erfindung bezieht, verschiedene alternative Entwürfe und Ausführungsformen für die Durchführung der Erfindung erkennen, wie durch die folgenden Patentansprüche bestimmt.

Claims (10)

  1. Verfahren zur Bestimmung einer nassen Oberflächenbeschaffenheit einer Straße, worin das Verfahren die Schritte umfasst: Aufnehmen eines Bildes einer Fahrbahnoberfläche durch eine Bildaufnahmevorrichtung des Host-Fahrzeugs, wobei die Bildaufnahmevorrichtung auf einer Seite des Host-Fahrzeugs angebracht ist, und ein Bild in einer Abwärtsrichtung aufnimmt; Identifizieren eines interessierenden Bereichs in dem aufgenommenen Bild durch einen Prozessor hinter dem Rad des Host-Fahrzeugs, des interessierenden Bereichs, der repräsentativ dafür ist, wo das Rückwärtsspritzen, wie von dem Rad erzeugt, auftritt; Bestimmen, ob Niederschlag in dem interessierenden Bereich vorhanden ist; und Erzeugung eines Signals nasse Fahrbahnoberfläche als Reaktion auf die Identifikation des Niederschlags im interessierenden Bereich.
  2. Verfahren nach Anspruch 1, weiterhin umfassend den Schritt des Anwendens eines Filters auf den interessierenden Bereich des Bildes zum Identifizieren von Niederschlag.
  3. Verfahren nach Anspruch 2, worin der Schritt des Anwendens eines Filters auf den interessierenden Bereich das Anwenden eines Kantenfilters zum Identifizieren einer Kante zwischen einem Bereich mit Spritzen und einem Bereich ohne Spritzen im interessierenden Bereich beinhaltet.
  4. Verfahren nach Anspruch 3, worin das Anwenden eines Kantenfilters das Anwenden eines Texturklassifizierungsfilters beinhaltet.
  5. Verfahren nach Anspruch 4, worin beim Anwenden eines Texturklassifizierungsfilters eine LM-Filterbank verwendet wird, die eine Mehrzahl von Filtern mit verschiedenen Orientierungen beinhaltet, worin die Mehrzahl von Filtern, die auf den interessierenden Bereich angewendet wird, das Identifizieren von Kanten innerhalb des interessierenden Bereichs unterstützt.
  6. Verfahren nach Anspruch 5, worin die LM-Filterbank erste und zweite Ableitungen bei vorbestimmten Orientierungen und vorbestimmten bemessenen Skalen sind.
  7. Verfahren nach Anspruch 5, worin eine Merkmalsanalyse auf Reaktionen angewendet wird um zu bestimmen, ob Niederschlag vorhanden ist, worin eine Reaktion von einem LM-Filter mit einer Größenordnung von im Wesentlichen 0 einen Nicht-Spritz-Zustand angibt.
  8. Verfahren nach Anspruch 7, worin eine Reaktion von einem LM-Filter mit einer Größe von im Wesentlichen größer als 0 Niederschlag angibt.
  9. Verfahren nach Anspruch 8, worin eine Maschinenlerntechnik angewendet wird, um einen Offline-Klassifizierer unter Verwendung von extrahierten Merkmalen aus einer Mehrzahl von Probebildern zu trainieren, worin der Klassifizierer online innerhalb des Fahrzeugs implementiert ist, um Kanten basierend auf extrahierten Merkmalen von Merkmalsanalysen zu erkennen, indem bestimmt wird, ob Niederschlag in Abhängigkeit von Reaktionen von dem Kantenfilter vorhanden ist.
  10. Verfahren nach Anspruch 9, worin ein Intensitätswert eines Merkmals mit der folgenden Formel bestimmt wird:
    Figure DE102016122484A1_0002
    wobei N die Gesamtanzahl von Pixeln in dem interessierenden Bereich des gefilterten Bilds ist, die den k-ten Filter ausmachen, und Ik(i) ein Pixelwert des i-ten Pixels des Filterbilds des k-ten LM-Filters ist.
DE102016122484.7A 2015-12-03 2016-11-22 Sichtbasierte erkennung von nassem strassenoberflächenzustand unter verwendung des rückwärtsspritzens von reifen Pending DE102016122484A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/957,953 US9928427B2 (en) 2015-12-03 2015-12-03 Vision-based wet road surface condition detection using tire rearward splash
US14/957,953 2015-12-03

Publications (1)

Publication Number Publication Date
DE102016122484A1 true DE102016122484A1 (de) 2017-06-08

Family

ID=58722911

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016122484.7A Pending DE102016122484A1 (de) 2015-12-03 2016-11-22 Sichtbasierte erkennung von nassem strassenoberflächenzustand unter verwendung des rückwärtsspritzens von reifen

Country Status (3)

Country Link
US (1) US9928427B2 (de)
CN (1) CN107093180B8 (de)
DE (1) DE102016122484A1 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10082795B2 (en) * 2016-08-24 2018-09-25 GM Global Technology Operations LLC Vision-based on-board real-time estimation of water film thickness
US10814846B2 (en) 2017-08-11 2020-10-27 Ford Global Technologies, Llc Traction control based on friction coefficient estimation
DE102017219048A1 (de) * 2017-10-25 2019-04-25 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen eines Zustands einer Fahrbahn eines Fahrzeugs
DE102018206732A1 (de) * 2018-05-02 2019-11-07 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen eines Straßenzustands
DE102018218733A1 (de) * 2018-10-31 2020-04-30 Robert Bosch Gmbh Verfahren zur Unterstützung einer kamerabasierten Umfelderkennung eines Fortbewegungsmittels mittels einer Strassennässeinformation eines ersten Ultraschallsensors
CN111222521B (zh) * 2018-11-23 2023-12-22 汕尾比亚迪汽车有限公司 汽车及用于其的车轮受困判断方法及装置
US11643072B2 (en) * 2019-09-27 2023-05-09 Zoox, Inc. Planning accommodations for particulate matter
US11640170B1 (en) 2019-10-29 2023-05-02 Zoox, Inc. Identification of particulate matter in sensor data
US11521127B2 (en) 2020-06-05 2022-12-06 Waymo Llc Road condition deep learning model
CN112380930B (zh) * 2020-10-30 2022-04-29 浙江预策科技有限公司 一种雨天识别方法和系统
CN112611697B (zh) * 2020-11-27 2022-06-28 山东大学 一种透水沥青路面渗透性衰减模型试验系统及方法
US20220366786A1 (en) * 2021-05-03 2022-11-17 Here Global B.V. Method and apparatus for estimating lane pavement conditions based on street parking information

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6807473B1 (en) * 2003-04-09 2004-10-19 Continental Teves, Inc. Road recognition system
US8890951B2 (en) * 2008-04-24 2014-11-18 GM Global Technology Operations LLC Clear path detection with patch smoothing approach
US8332134B2 (en) * 2008-04-24 2012-12-11 GM Global Technology Operations LLC Three-dimensional LIDAR-based clear path detection
US8618921B2 (en) * 2009-11-10 2013-12-31 GM Global Technology Operations LLC Method and system for identifying wet pavement using tire noise
SG189840A1 (en) * 2010-10-19 2013-06-28 3M Innovative Properties Co Computer-aided assignment of ratings to digital samples of a manufactured web product
US9499172B2 (en) * 2012-09-20 2016-11-22 Google Inc. Detecting road weather conditions
CN104768822B (zh) * 2012-09-20 2017-04-19 谷歌公司 检测公路天气状况的方法和系统
US10179543B2 (en) * 2013-02-27 2019-01-15 Magna Electronics Inc. Multi-camera dynamic top view vision system
DE102013223367A1 (de) * 2013-11-15 2015-05-21 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands mittels eines Fahrzeugkamerasystems
CN104050681B (zh) * 2014-07-04 2017-08-25 哈尔滨工业大学 一种基于视频图像的道路消失点检测方法

Also Published As

Publication number Publication date
CN107093180B8 (zh) 2021-01-08
US9928427B2 (en) 2018-03-27
CN107093180B (zh) 2020-12-08
CN107093180A (zh) 2017-08-25
US20170161570A1 (en) 2017-06-08

Similar Documents

Publication Publication Date Title
DE102016122484A1 (de) Sichtbasierte erkennung von nassem strassenoberflächenzustand unter verwendung des rückwärtsspritzens von reifen
DE102016122489A1 (de) Sichtgestützte erfassung von nassen fahrbahnzuständen mittels reifenspuren
DE102016122487A1 (de) Sichtbasierte erkennung von nassem fahrbahnoberflächenzustand unter verwendung des seitwärtsspritzens von reifen
DE102017106535B4 (de) Verfahren zur Feststellung eines Oberflächenzustandes eines Bewegungsweges
DE102016122416A1 (de) Erkennung von nassen strassenoberflächen
DE102016100030B4 (de) Gerät zum sicheren führen eines fahrzeugs
EP3083361B1 (de) Verfahren und vorrichtung zur überwachung einer äusseren abmessung eines fahrzeugs
DE102005009814B4 (de) Fahrzeugzustands-Erfassungssystem und -verfahren
EP3292510B1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnreflexionen
WO2019174682A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnzuständen und witterungsbedingten umwelteinflüssen
DE102016122481A1 (de) Oberflächenzustandserkennung für schneebedeckte fahrbahnen
DE112013001424T5 (de) Objekterkennungsvorrichtung
WO2016026568A1 (de) Verfahren und achsenzähl-vorrichtung zur berührungslosen achsenzählung eines fahrzeugs sowie achsenzählsystem für den strassenverkehr
DE102015109238B4 (de) Verfahren zum ermitteln eines zustands eines nassen strassenbelags für ein fahrzeug, das auf einer strasse fährt
DE102017108254B4 (de) Rundumsichtkamerasystem zur Objekterkennung und -verfolgung und Verfahren zum Ausstatten eines Fahrzeugs mit einem Rundumsichtkamerasystem
WO2013072231A1 (de) Verfahren zur nebeldetektion
WO2004041611A1 (de) Fahrdynamikregelung mit bildsensorsystem
DE102012223360A1 (de) Vorrichtung und Verfahren zum Erfassen eines Hindernisses für ein Rundumsicht-Überwachungssystem
WO2016177372A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von umwelteinflüssen und fahrbahnzustandsinformationen im fahrzeugumfeld
DE102019217723A1 (de) Fahrsicherheits-steuersystem unter verwendung von umgebungsgeräuschen und steuerverfahren dafür
EP3520020B1 (de) Verkehrszeichenklassifikation in einem umgebungsbereich eines kraftfahrzeugs
DE102017212175A1 (de) Verfahren und Vorrichtung zum Ermitteln eines optischen Flusses anhand einer von einer Kamera eines Fahrzeugs aufgenommenen Bildsequenz
EP2942253B1 (de) Kraftfahrzeug
WO2020169386A1 (de) VERFAHREN UND COMPUTERPROGRAMMPRODUKT ZUM ADAPTIEREN EINER AUFLÖSUNG EINES MULTISENSORSYSTEMS EINES STRAßENFAHRZEUGES UND STEUERGERÄT FÜR EIN MULTISENSORSYSTEM UND COMPUTERPROGRAMMPRODUKT
EP3704631A2 (de) Verfahren zur ermittlung einer entfernung zwischen einem kraftfahrzeug und einem objekt

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

R016 Response to examination communication