DE102016122487A1 - Sichtbasierte erkennung von nassem fahrbahnoberflächenzustand unter verwendung des seitwärtsspritzens von reifen - Google Patents

Sichtbasierte erkennung von nassem fahrbahnoberflächenzustand unter verwendung des seitwärtsspritzens von reifen Download PDF

Info

Publication number
DE102016122487A1
DE102016122487A1 DE102016122487.1A DE102016122487A DE102016122487A1 DE 102016122487 A1 DE102016122487 A1 DE 102016122487A1 DE 102016122487 A DE102016122487 A DE 102016122487A DE 102016122487 A1 DE102016122487 A1 DE 102016122487A1
Authority
DE
Germany
Prior art keywords
image
water
interest
region
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016122487.1A
Other languages
English (en)
Inventor
Qingrong Zhao
Qi Zhang
Jinsong Wang
Bakhtiar B. Litkouhi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102016122487A1 publication Critical patent/DE102016122487A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/06Combustion engines, Gas turbines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/40Torque distribution
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein Verfahren zum Bestimmen eines nassen Oberflächenzustands einer Straße. Ein Bild einer Fahrbahnoberfläche wird durch eine Bildaufnahmevorrichtung des Host-Fahrzeugs aufgenommen. Die Bildaufnahmevorrichtung ist auf einer Seite des Host-Fahrzeugs angebracht und nimmt ein Bild in einer Abwärtsrichtung auf. Identifizieren eines interessierenden Bereichs im aufgenommenen Bild durch einen Prozessor. Der interessierende Bereich ist ein Bereich seitlich zu einer Fläche des Rades. Der interessierende Bereich ist repräsentativ dafür, wo Seitwärtsspritzen, wie von dem Rad erzeugt, auftritt. Es erfolgt eine Bestimmung, ob Wasser im interessierenden Bereich vorhanden ist. Ein Signal nasse Fahrbahnoberfläche wird als Reaktion auf die Identifizierung von Wasser im interessierenden Bereich erzeugt.

Description

  • HINTERGRUND DER ERFINDUNG
  • Eine Ausführungsform bezieht sich im Allgemeinen auf eine Erkennung einer nassen Fahrbahnoberfläche unter Verwendung von Erkennung des Seitwärtsspritzens von Reifen.
    Niederschlag auf einer Fahroberfläche verursacht mehrere unterschiedliche Probleme für ein Fahrzeug. So reduziert beispielsweise Wasser auf einer Straße den Reibwert zwischen den Reifen des Fahrzeugs und der Oberfläche der Straße, was in Fahrzeugstabilitätsproblemen resultiert. Die Erkennung von Niederschlag auf einer Fahrstraße wird typischerweise durch ein Host-Fahrzeug bestimmt, das Niederschlag auf der Straße erfasst, indem es einen Erfassungsvorgang verwendet, der dann auftritt, wenn der Niederschlag den Fahrzeugbetrieb bereits beeinflusst, z.°B. wie Erkennen von Radschlupf. Folglich muss das Fahrzeug seine eigenen Betriebsbedingungen (z.°B. Radschlupf) gegen trockene Fahrbahnbetriebsbedingungen überwachen, um zu bestimmen, ob Niederschlag vorhanden ist. Dadurch können derartige Systeme auf das Auftreten einer solchen Bedingung warten oder können Anregungen an das Fahrzeug zur Bestimmung einleiten, ob der Zustand vorhanden ist (z.°B. Erzeugen plötzlicher Beschleunigung auf den angetriebenen Rädern zum Herbeiführen von Radschlupf, wenn der Niederschlag vorhanden ist).
  • KURZDARSTELLUNG DER ERFINDUNG
  • Ein Vorteil einer Ausführungsform ist die Erkennung von Wasser auf einer Straße unter Verwendung einer sichtbasierten Bildgebungsvorrichtung, die Niederschlag identifiziert, der von der Oberfläche der Straße auf eine Seite des Fahrzeugrades verteilt wird. Die hierin beschriebene Technik erfordert keine Anregungen vom Fahrzeug oder Fahrer zum Initiieren einer Bestimmung, ob Niederschlag vorhanden ist. Vielmehr wird Niederschlag als Reaktion auf Überwachung von Spritzen auf eine Seite eines Fahrzeugrads bestimmt. Die Technik nimmt vorzugsweise ein Bild auf, das Wasserspritzen in unterschiedliche Richtung beinhaltet. Die Technik verwendet ein polarisiertes Bild der aufgenommenen Szene und wendet Kantenfilterung an, um kurze unterbrochene Vertikallinien zu identifizieren, die repräsentativ für Wasserspritzen sind. Binäre Bildgebung wird danach zur weiteren Verbesserung des Bildes zur Erkennung von Kanten innerhalb des aufgenommenen Bildes verwendet. Eine Korrelationsanalyse wird angewandt, um den Korrelationsgrad unter weißfarbigen Pixeln in einer Vertikalrichtung im binären Bild durch Verwendung einer Technik mit gleichzeitig auftretender Matrix zu analysieren. Je größer ein Grad des vorhandenen Niederschlags ist, umso ein größerer Grad an Korrelation wird in der Technik mit gleichzeitig auftretender Matrix identifiziert.
  • Eine Ausführungsform zieht ein Verfahren zum Bestimmen einer nassen Oberflächenbeschaffenheit einer Straße in Erwägung. Ein Bild einer Fahrbahnoberfläche wird durch eine Bildaufnahmevorrichtung des Host-Fahrzeugs aufgenommen. Die Bildaufnahmevorrichtung ist auf einer Seite des Host-Fahrzeugs angebracht und nimmt ein Bild in einer Abwärtsrichtung auf. Ein interessierender Bereich wird durch einen Prozessor als das aufgenommene Bild identifiziert. Der interessierende Bereich ist ein Bereich seitlich zu einer Fläche des Rades. Der interessierende Bereich ist repräsentativ dafür, wo Seitwärtsspritzen auftritt, das durch das Rad erzeugt wird. Es erfolgt eine Bestimmung, ob Wasser im interessierenden Bereich vorhanden ist. Ein Signal nasse Fahrbahnoberfläche wird als Reaktion auf die Identifizierung von Wasser im interessierenden Bereich erzeugt.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 veranschaulicht ein Blockdiagramm eines Erkennungssystems einer nassen Fahrbahnoberfläche.
  • 2 ist eine exemplarische perspektivische Ansicht einer Fahrzeugszene auf einer nassen Oberfläche, die durch eine Kamera aufgenommen wurde.
  • 3 ist eine exemplarische perspektivische Ansicht einer Fahrzeugrundumsicht mit einer Rundumsichtabdeckung.
  • 4 veranschaulicht ein Ablaufdiagramm zum Erkennen einer nassen Oberfläche.
  • 5 veranschaulicht ein durch die Bildaufnahmevorrichtung aufgenommenes Bild.
  • 6 veranschaulicht ein exemplarisches polarisiertes Bild.
  • 7 veranschaulicht ein binäres Umwandlungsbild.
  • 8 veranschaulicht ein Bild, das von einer trockenen Fahrbahnoberfläche aufgenommen wurde.
  • 9 veranschaulicht ein exemplarisches polarisiertes Bild der trockenen Fahrbahnoberfläche.
  • 10 veranschaulicht ein binäres umgewandeltes Bild des polarisierten Bildes der trockenen Fahrbahnoberfläche.
  • 11 stellt einen exemplarischen Graphen dar, der exemplarische Korrelationsanalyseresultate veranschaulicht.
  • AUSFÜHRLICHE BESCHREIBUNG
  • In 1 ist ein Fahrzeug 10 dargestellt, das alleine auf einer Fahrzeugstraße 12 fährt. Niederschlag 19 in Form von Wasser, das auf der Fahrzeugstraße 12 angeordnet dargestellt ist, wird häufig durch das Fahrzeugrad 14 und Reifen 16, der auf einer Felge 18 des Rades 14 montiert ist, verlagert, wenn sich die Reifen über der nassen Oberfläche auf der Fahrzeugstraße 12 drehen. Häufig ist es vorteilhaft zu wissen, wann das Fahrzeug entlang einer nassen Fahrzeugstraße 12 fährt, sodass Probleme, die aus Wasser resultieren, wie z.°B. Antriebsschlupf oder Motorverschlechterung aufgrund von eintretendem Wasser durch die Außenlufteinlassöffnungen, beseitigt oder mindestens verringert werden können.
  • Niederschlag 19 auf der Fahrzeugstraße 12 kann zu einer Verringerung der Traktion beim Fahren auf der nassen Fahrbahnoberfläche führen. Der Niederschlag 19, der auf der Fahrzeugstraße 12 angeordnet ist, senkt den Reibwert zwischen den Fahrzeugreifen und der Fahrzeugstraße 12. Dadurch wird die Traktion zwischen den Fahrzeugreifen und der Fahrzeugstraße 12 abgesenkt. Traktionsverlust kann durch verschiedene Abschwächungstechniken abgeschwächt werden, die beinhalten, aber nicht beschränkt sind auf Warnung des Fahrers, die Fahrzeuggeschwindigkeit auf eine herabzusetzen, die an die Umgebungsbedingungen angepasst ist; Betätigung der automatischen Anwendung der Fahrzeugbremse unter Verwendung einer sehr niedrigen Bremskraft zum Minimieren des Niederschlags, der auf den Oberflächen der Bremsenkomponenten ausgebildet wird; Deaktivierung oder Beschränkung der Aktivierung einer Geschwindigkeitsregelungsfunktion, während Niederschlag erkannt wird; oder Benachrichtigung des Fahrers, einen größeren Bremsabstand zu einem vorausfahrenden Fahrzeug einzuhalten. Es versteht sich, dass die hierin beschriebenen Ausführungsformen auf andere Arten von Systemen, abgesehen von Automobilen, angewandt werden können, bei denen Erkennung eines nassen Fahrbahnoberflächenzustands erwünscht ist. Beispiele für Fahrzeuge, die anders als Automobile sind, die dieses System verwenden können, beinhalten, sind aber nicht beschränkt auf Schienensysteme, Flugzeuge, Geländefahrzeuge, Roboterfahrzeuge, Motorräder, Fahrräder, Landwirtschaftsausrüstung und Baumaschinen.
  • 2 veranschaulicht ein Blockdiagramm eines Erkennungssystems für eine nasse Fahrbahnoberfläche. Eine Mehrzahl von fahrzeugbasierten Bildaufnahmevorrichtungen 20 ist auf dem Fahrzeug zur Aufnahme von Bildern um das Fahrzeug montiert. Die Mehrzahl von fahrzeugbasierten Bildaufnahmevorrichtungen 20 kann auf dem vorderen, hinteren Teil, und den Seiten des Fahrzeugs angebracht sein. 3 veranschaulicht eine exemplarische 360 Grad-Rundumsichtabdeckung zum Erkennen von Objekten um das Fahrzeug herum. Jede der bildbasierten Aufnahmevorrichtungen wird zusammenwirkend zur Erkennung und Identifizierung von Objekten auf jeder Seite des Fahrzeugs verwendet. Die bildbasierten Erkennungsvorrichtungen 20 beinhalten, sind aber nicht beschränkt auf eine Frontsichtkamera 22, die auf einem Vorderteil des Fahrzeugs angebracht wird, die Bilder nach vorne und teilweise an den Seiten des Fahrzeugs aufnimmt. Eine Fahrerseitenkamera 24 nimmt Bilder auf der Fahrerseite des Fahrzeugs auf. Eine Beifahrerseitenkamera 26 nimmt Bilder auf der Beifahrerseite des Fahrzeugs auf. Eine nach hinten weisende Kamera 28 nimmt Bilder rückwärts und an den Seiten des Fahrzeugs auf.
  • Nochmals mit Verweis auf 2 verarbeitet ein Prozessor 30 die aufgenommenen Bilder durch die Bildaufnahmevorrichtungen 20. Der Prozessor 30 analysiert Bilder und Daten um zu bestimmen, ob Wasser vorhanden ist, wie er von dem Rad des Fahrzeuges 10 hochgeschleudert wurde. Da die Kamera vorzugsweise fest am Fahrzeug mit einer fest eingestellten Position befestigt ist, ist die Radposition im Bild fixiert. Dadurch wird der interessierende Bereich vorbestimmt und wird offline zum Zeitpunkt der Kamerakalibrierung ausgeführt. Dann kann der Prozessor leicht den interessierenden Bereich online lokalisieren. Der Prozessor 30 kann Teil eines bestehenden Systems sein, wie z.°B. Traktionssteuerungssystem oder ein anderes System, oder kann ein eigenständiger Prozessor sein, der zum Analysieren von Daten von den Bildaufnahmevorrichtungen 20 bestimmt ist.
  • Der Prozessor 30 kann mit einer oder mehreren Ausgabevorrichtungen wie Steuerung 32 zur Initiierung oder Aktivierung einer Steuermaßnahme verbunden sein, wenn Wasser im interessierenden Bereich gefunden wird. Eine oder mehrere Gegenmaßnahmen können zum Abschwächen der Wirkung aktiviert werden, die das Wasser auf den Betrieb des Fahrzeugs haben kann.
  • Die Steuerung 32 kann Teil des Fahrzeug-Subsystems sein oder kann verwendet werden, um ein Fahrzeug-Subsystem in die Lage zu versetzen, die Wirkungen des Wassers zu bekämpfen. So kann beispielsweise die Steuerung 32 als Reaktion darauf, dass die Straße nass ist, ein elektrisches oder elektrohydraulisches Bremssystem 34 o. ä. aktivieren, bei dem eine Bremsstrategie bereitsteht, falls Traktionsverlust auftritt. Zusätzlich zur Vorbereitung einer Bremsstrategie kann das Bremssystem autonom eine leichte Bremskraft aufbringen, ohne dass dies dem Fahrer bewusst ist, um Wasser von den Fahrzeugbremsen zu entfernen, sobald das Fahrzeug in das Wasser eintritt. Entfernen von angesammeltem Wasser von den Rädern und Bremsen hält einen erwarteten Reibungskoeffizienten zwischen den Fahrzeugbremsstellgliedern und der Bremsfläche der Räder aufrecht, wenn der Fahrer manuell bremst.
  • Die Steuerung 32 kann ein Traktionssteuerungssystem 36 steuern, das Strom individuell auf jedes jeweilige Rad zur Reduzierung von Radschlupf durch ein jeweiliges Rad verteilt, wenn Wasser auf der Fahrbahnoberfläche erkannt wird.
  • Die Steuerung 32 kann ein Geschwindigkeitsregelungssystem 38 steuern, das die Geschwindigkeitsregelung deaktivieren kann oder die Aktivierung der Geschwindigkeitsregelung einschränken kann, wenn Wasser auf der Fahrbahnoberfläche erkannt wird.
  • Die Steuerung 32 kann ein Fahrerinformationssystem 40 zur Bereitstellung von Warnungen an den Fahrer des Fahrzeugs in Bezug auf Wasser steuern, das auf der Fahrzeugstraße erkannt wird. Solch eine Warnung, die durch die Steuerung 32 getätigt wird, kann den Fahrer vor dem sich nähernden Wasser auf der Fahrbahnoberfläche warnen und kann empfehlen, dass der Fahrer die Fahrzeuggeschwindigkeit auf eine Geschwindigkeit absenkt, die an die aktuellen Umgebungsbedingungen angepasst ist, oder die Steuerung 32 kann eine Warnung zur Aufrechterhaltung eines sicheren Fahrabstands zu dem Fahrzeug vor dem gefahrenen Fahrzeug tätigen. Es versteht sich, dass die Steuerung 32, wie hierin beschrieben, eines oder mehrere Steuermodule beinhalten kann, die eine einzelne Funktion steuern oder eine Kombination von Funktionen steuern können.
  • Die Steuerung 32 kann weiterhin die Betätigung von automatischem Öffnen und Schließen von Luftleitblechen 42 steuern, um Wassereintritt in einen Motor des Fahrzeugs zu verhindern. Unter solchen Bedingungen betätigt die Steuerung 32 automatisch das Schließen der Luftleitbleche 42, wenn erkannt wird, dass Wasser auf der Fahrbahnoberfläche vor dem Fahrzeug vorhanden ist, und kann die Luftleitbleche erneut öffnen, wenn bestimmt wird, dass kein Wasser mehr auf der Fahrbahnoberfläche vorhanden ist.
  • Die Steuerung 32 kann weiterhin die Betätigung einer drahtlosen Kommunikationsvorrichtung 44 zur autonomen Mitteilung des nassen Fahrbahnzustands an andere Fahrzeuge steuern, und zwar unter Verwendung eines Fahrzeug-zu-Fahrzeug- oder Fahrzeug-zu-Infrastruktur-Kommunikationssystems.
  • Die Steuerung kann auch weiterhin die Warnungen vor der nassen Fahrbahnoberfläche an einen Fahrer des Fahrzeugs gegen eine Verwendung von automatisierten Merkmalen bereitstellen, die beinhalten, aber nicht beschränkt sind auf, adaptive Geschwindigkeitsregelung, Spurwechsel, Ausweich-/Unterstützungsmanöver, automatisiertes Notbremsen usw.
  • Der Vorteil der hierin beschriebenen Techniken ist, dass keine Anregungen vom Fahrzeug oder Fahrer erforderlich sind zum Initiieren einer Bestimmung, ob Wasser vorhanden ist. Das heißt, dass einige herkömmliche Techniken eine beträchtliche Erregung durch das Fahrzeug erfordern, ganz gleich ob mittels eines Bremsmanövers, erhöhter Beschleunigung, Lenkmanövers, so wie für Oberflächenwassererkennung. Basierend auf der Reaktion (z.°B. Radschlupf, Gieren) bestimmt ein solches Verfahren, ob das Fahrzeug gerade auf Wasser fährt. Im Gegensatz dazu stellen die hierin beschriebenen Techniken eine Technologie bereit, die keine Fahreranregungen zur Bestimmung von Wasser auf der Straße erfordern.
  • 4 veranschaulicht ein Ablaufdiagramm eines Verfahrens zum Erkennen einer nassen Oberfläche der Straße. In Schritt 50 wird ein Bild von einem Bereich erhalten, der neben einem Fahrzeugrad des Fahrzeugs positioniert ist. Das Bild wird analysiert, um Szeneninformationen zu erhalten, bei denen verschiedene Eigenschaften in der Szene analysiert werden können zur Bestimmung, ob Wasser im Bild vorhanden ist. 5 veranschaulicht ein durch eine auf der Seite des Fahrzeugs montierte Bildaufnahmevorrichtung aufgenommenes Bild. Das Bild kann so verarbeitet werden, dass eine Sicht in Abwärtsrichtung aufgenommen wird (d.°h. Herunterschauen auf die Straße der Reisestrecke). Bei einer Linse, die durch eine jeweilige Bildaufnahmevorrichtung verwendet wird, kann ein Fischaugen-Objektiv verwendet werden, bei dem ein weites Sichtfeld aufgenommen wird (z.°B. 180 Grad). Bildverarbeitung kann auch angewandt werden, um die Haltung der Kamera so zu ändern, dass die Haltung, wie sie im Bild gesehen wird, nach unten weist. Wenn zum Beispiel ein Bild von den jeweiligen Seitenkameras verwendet wird, dann kann ein jeweiliger Standort im Bild durch Erzeugung einer virtuellen Haltung anfokussiert werden, die die Szene so gestaltet, als wenn die Kamera direkt nach unten gerichtet wäre und das Rad 14, die Fahrbahnoberfläche 12 und Wasser 19 aufnimmt. Zur Veränderung der Haltung kann ein virtuelles Kameramodell mit dem aufgenommenen Bild so verwendet werden, dass eine virtuelle Haltung verwendet wird, um das Bild so neu auszurichten, dass ein virtuelles Bild erzeugt wird, als wenn sich die Kamera an einem anderen Standort befinden, und in eine andere Richtung weisen würde (beispielsweise direkt nach unten). Neuausrichten des Bildes zur Erzeugung des virtuellen Bildes beinhaltet Identifizieren der virtuellen Haltung und Abbildung von jedem virtuellen Punkt auf dem virtuellen Bild an einem entsprechenden Punkt auf dem realen Bild. Der Begriff Haltung, wie hierin verwendet, bezieht sich auf einen Kamerabetrachtungswinkel (ob echte Kamera oder virtuelle Kamera) eines Kamerastandorts, der durch die Kamerakoordinaten und die Ausrichtung einer Kamera z-Achse definiert ist. Der Begriff virtuelle Kamera, wie hierin verwendet, bezieht sich auf eine simulierte Kamera mit simulierten Kameramodellparametern und simulierter Bildgebungsoberfläche, zusätzlich zu einer simulierten weiteren Kamerahaltung. Kameramodellierung wird durch den Prozessor wie hierin beschrieben als Erhalten eines virtuellen Bilds ausgeführt, das ein synthetisiertes Bild der Szene mittels der virtuellen Kameramodellierung ist.
  • Nochmals mit Verweis auf 4 wird in Schritt 51 ein interessierender Bereich von dem realen Bild oder virtuellen Bild identifiziert. Diese Technik lokalisiert den interessierenden Bereich, der einen jeweiligen relativen Bereich identifiziert, wo dispergiertes Wasser erwartet wird, wenn Seitwärtsspritzen vorhanden ist. Der interessierende Bereich für dispergiertes Wasser für Seitwärtsspritzen erstreckt sich typischerweise radial von der Seite des Rades nach außen. Wie in 5 dargestellt, stellt der durch 49 identifizierte Bereich den interessierenden Bereich im Bild dar. Nochmals mit Verweis auf 4 wird in Schritt 52 die
  • Polarkoordinatensystemumwandlung auf das Bild angewandt. Polarkoordinatenumwandlung wandelt das Bild des ursprünglichen interessierenden Bereichs in ein polarisiertes Bild um. Polarkoordinatenumwandlung verwendet ein Polarkoordinatensystem, bei dem es sich um ein zweidimensionales Koordinatensystem handelt, bei dem jeder Punkt auf einer Ebene durch eine Entfernung von einem Bezugspunkt und einen Winkel von einer jeweiligen Referenzrichtung bestimmt wird. Typischerweise wird der Bezugspunkt als Pol bezeichnet, der als Element 60 in 5 dargestellt ist. Die Bezugsrichtung wird allgemein als Polarachse bezeichnet. Die Entfernung vom Pol wird hierin als der Radius bezeichnet. Jedes Pixel innerhalb des interessierenden Bereichs wird zu einem polarisierten Bild unter Verwendung des Radius und des Winkels abgebildet.
  • 6 veranschaulicht ein exemplarisches polarisiertes Bild. Die y-Achse stellt den Radius (R) zu jedem Pixel von dem Pol dar. Die x-Achse stellt den Winkel in Grad bezüglich einer Referenzrichtung dar. Die Umwandlung des ursprünglichen Bilds in ein Polarkoordinatensystem unterstützt das Vereinheitlichen linearer Bewegungen von Wasserspritzen von allen Richtungen nur in vertikale Richtungen. Dies unterstützt die Vereinfachung der Bildanalyse zum Identifizieren von Wasser im Bild. Wie in 6 dargestellt, stellen die vertikalen Schlieren Wasser im Bild dar.
  • Nochmals mit Verweis auf 4 wird in Schritt 53 eine Analyse für dispergiertes Wasser durchgeführt um zu bestimmen, ob Wasser im interessierenden Bereich vorhanden ist. Kantenerkennung kann unter Verwendung eines Filters, wie z.°B. eines Sobel-Filters, ausgeführt werden. Der Sobel-Filter führt eine räumliche 2D-Gradientenmessung auf einem Bild aus. Der Filter berechnet eine Annäherung der absoluten Gradientengrößenordnung an jeden Punkt in einem Eingabe-Grauwertbild. Hierin liegt der Schwerpunkt nur auf Gradienteninformationen in vertikaler Richtung. Der Gradient wird berechnet, indem das Eingabebild mit einer bestimmten Maske konvolviert wird. Die Maske ist so konzipiert, dass sie maximal auf Kanten reagiert, die vertikal im Verhältnis zu dem Pixelgitter verlaufen. Das heißt, der Sobel-Filter arbeitet als Ableitung erster Ordnung und berechnet die Differenz von Pixelintensitäten in einem Bild. Die identifizierten Kanten unterstützen bei der Bestimmung von Kanten zwischen Wasser und einem Nichtvorhandensein von Wasser. Die Kantenerkennung hebt lineare Bewegungen von Textur innerhalb des erfassten Bildes hervor. Die Textur wird durch viele unterbrochene kurze vertikale Linien in einem Bild dargestellt, in dem Spritzen vorhanden ist. Im Gegensatz dazu, wenn die Oberfläche entweder trocken oder eine mit Schnee bedeckte Oberfläche ist, dann weist die Textur der trockenen oder mit Schnee bedeckten Oberfläche keine linearen Bewegungsmuster auf. Es versteht sich, dass abgesehen von Sobel-Filterung andere Arten von Filterung zum Identifizieren von Kanten im Bild verwendet werden können, ohne vom Umfang der Erfindung abzuweichen.
  • Zusätzlich wird binäre Umwandlung so auf das Bild angewandt, dass alles Wasser hervorgehoben und leichter zu identifizieren ist. 7 stellt eine binäre Umwandlung dar, bei der Wasser 62 als eine weiße Farbe mit Pixelwert 1 im Gegensatz zu einem Vorhandensein von Nicht-Wasser 64 dargestellt wird, das als eine schwarze Farbe mit Pixelwert 0 dargestellt wird.
  • Nochmals mit Verweis auf 4 wird in Schritt 54 eine Korrelationsanalyse zum Analysieren der Textur innerhalb des binären Bildes durch Verwendung einer Graustufen-Matrixtechnik bei gleichzeitigem Auftreten durchgeführt. Die Korrelationsanalyse konzentriert sich auf das Analysieren von Korrelationsbeziehungen zwischen weißfarbigen Pixeln in einer vertikalen Richtung im binären Bild. Die Graustufen-Matrixtechnik bei gleichzeitigem Auftreten charakterisiert die Textur des Bildes durch Berechnen, wie oft Paare von weißfarbigen Pixeln in vertikaler Richtung im Bild auftreten. Statistische Maßnahmen einschließlich, jedoch nicht beschränkt auf einen Grad von Korrelation werden aus dieser Graustufen-Matrixtechnik bei gleichzeitigem Auftreten extrahiert. Dadurch zeigen wässrige Oberflächen mit Seitenspritzen, wie in 7 veranschaulicht, eine stärkere Korrelation zwischen weißfarbigen Pixeln in vertikaler Richtung im Vergleich zu einem Nicht-Spritzen-Oberflächenzustand.
  • 810 stellen eine Nicht-Spritzen-Zustandsanalyse dar. 8 veranschaulicht eine Bildaufnahme einer Fahrbahnoberfläche relativ zu einem Fahrzeugrad beim Fahren auf einer trockenen Fahrbahnoberfläche. Der Bereich 49 seitlich des Reifens wird analysiert.
  • 9 veranschaulicht ein exemplarisches polarisiertes Bild. Die Umwandlung des Originalbildes in ein Polarkoordinatensystem unterstützt das Vereinheitlichen linearer Bewegungen des Wasserspritzens, falls vorhanden.
  • 10 veranschaulicht binäre Umwandlung, die so auf das Bild angewandt wird, dass alles Wasser hervorgehoben wird und leichter zu identifizieren ist. Wasser auf die Oberfläche würde als weiße Linien im binären umgewandelten Bild identifiziert, die sich vertikal erstrecken. Wie in 10 dargestellt, sind keine vertikalen Linien vorhanden, was auf einen Mangel an Vorhandensein von Wasser hinweist, das in die Luft gespritzt wird.
  • 11 stellt exemplarische Korrelationsanalyseresultate dar. Dieser Graph veranschaulicht Probebilder, die von trockenen und nassen Oberflächen nach der Graustufen-Matrixtechnik bei gleichzeitigem Auftreten auf das polarisierte binäre Bild angewandt wird. Eine x-Achse stellt eine Bildprobennummer dar, während die y-Achse den Grad der Texturkorrelation darstellt. Basierend auf der Texturanalyse ist ein Grad der Texturkorrelation für Spritzen und ideale trockene Oberflächen dargestellt. Das Symbol „o“ stellt Spritzen dar, während Symbol „x“ eine ideale trockene Oberfläche darstellt. Mit einem trainierten Klassifizierer wird eine Trennung, die durch eine Schwelle 66 dargestellt ist, zwischen der Verteilung von Proben im Merkmalsraum deutlich zwischen Spritzen und der idealen trockenen Oberfläche unterschieden.
  • Nochmals mit Verweis auf 4 wird in Schritt 55 festgestellt, ob eine Bestimmung getroffen wird, ob die Korrelation größer als die Schwelle ist. Wenn die Bestimmung getroffen wird, dass die Korrelation größer ist als der Schwellenwert, dann fährt die Routine mit Schritt 56 fort; ansonsten fährt die Routine mit Schritt 57 fort.
  • In Schritt 56 wird als Reaktion auf eine Bestimmung, dass die Korrelation größer als die Schwelle ist, ein markierter Indikator für eine nasse Oberfläche gesetzt, der anzeigt, ob Wasser im interessierenden Bereich vorhanden ist. Ein Signal wird an eine Steuerung übermittelt, in der unterschiedliche Fahrzeugfunktionen, wie oben beschrieben, betätigt werden können, die unter anderem folgende Funktionen beinhalten, aber nicht beschränkt sind auf: Bremssteuerung, Traktionssteuerung, Geschwindigkeitsregelung, Fahrerwarnung, Luftleitsteuerung und Fahrzeug-zu-Fahrzeug-Kommunikation.
  • Wenn in Schritt 55 ermittelt wurde, dass kein Wasser im interessierenden Bereich vorhanden war, dann fährt die Routine mit Schritt 57 fort, wobei andere zusätzliche Techniken verwendet werden können, um zu überprüfen, ob Wasser vorhanden ist oder nicht.
  • Obwohl bestimmte Ausführungsformen der vorliegenden Erfindung ausführlich beschrieben wurden, werden Fachleute auf dem Gebiet, auf das sich diese Erfindung bezieht, verschiedene alternative Entwürfe und Ausführungsformen für die Durchführung der Erfindung erkennen, wie durch die folgenden Patentansprüche bestimmt.

Claims (10)

  1. Verfahren zur Bestimmung eines nassen Oberflächenzustands einer Straße, worin das Verfahren die Schritte umfasst: Aufnehmen eines Bildes einer Fahrbahnoberfläche durch eine Bildaufnahmevorrichtung des Host-Fahrzeugs, wobei die Bildaufnahmevorrichtung auf einer Seite des Host-Fahrzeugs angebracht ist, und ein Bild in einer Abwärtsrichtung aufnimmt; Identifizieren eines interessierenden Bereichs im aufgenommenen Bild durch einen Prozessor in einem Bereich seitlich zu einer Fläche des Rades des interessierenden Bereichs, der repräsentativ dafür ist, wo Seitwärtsspritzen, wie von dem Rad erzeugt, auftritt; Bestimmen, ob Wasser im interessierenden Bereich vorhanden ist; und Erzeugung eines Signals nasse Fahrbahnoberfläche als Reaktion auf die Identifikation von Wasser im interessierenden Bereich.
  2. Verfahren nach Anspruch 1, worin Bestimmen, ob Wasser im interessierenden Bereich vorhanden ist, ferner den Schritt des Umwandelns des Bildes in ein polarisiertes Bild umfasst, wobei das polarisierte Bild das Identifizieren von linearen vertikalen Richtungen von Wasserspritzen umfasst.
  3. Verfahren nach Anspruch 1, worin Bestimmen des Umwandelns des Bildes in ein polarisiertes Bild die Schritte umfasst: Identifizieren eines Pols im interessierenden Bereich; Identifizieren einer Polarachse ausgehend von dem Pol; Erzeugung des polarisierten Bilds in Abhängigkeit von Radien und Winkeln, wobei jeder Radius im polarisierten Bild in Abhängigkeit von einer Entfernung von dem Pol zu jedem Bildpixel bestimmt wird, und jeder Winkel im polarisierten Bild als ein Winkel zwischen der Polarachse und jedem Bildpixel bestimmt wird.
  4. Verfahren nach Anspruch 1, weiterhin umfassend den Schritt des Anwendens eines Filters auf das polarisierte Bild zum Identifizieren vertikaler Linien im Bild.
  5. Verfahren nach Anspruch 1, worin Anwenden eines Kantenfilters das Anwenden eines Texturklassifizierungsfilters beinhaltet.
  6. Verfahren nach Anspruch 5, worin ein Sobel-Filter auf das polarisierte Bild angewendet wird.
  7. Verfahren nach Anspruch 5, worin der Schritt des Anwendens eines Filters auf den interessierenden Bereich das Anwenden eines Kantenfilters beinhaltet, die Reaktion von dem Kantenfilter eine Kante zwischen Wasser und einem Nichtvorhandensein von Wasser im interessierenden Bereich durch Unterscheidung linearer Bewegungstextur im polarisierten Bild identifiziert, die Textur durch unterbrochene vertikale Linien im polarisierten Bild dargestellt wird.
  8. Verfahren nach Anspruch 7, ferner umfassend, dass der Schritt des Bestimmens, ob Wasser im interessierenden Bereich vorhanden ist, weiterhin den Schritt des Anwendens von binärer Umwandlung des gefilterten Bilds beinhaltet, um weiterhin ein Vorhandensein von Wasser von einem Nichtvorhandensein von Wasser zu unterscheiden.
  9. Verfahren nach Anspruch 8, worin Bestimmen, ob Wasser im interessierenden Bereich vorhanden ist, weiterhin das Anwenden einer Korrelationsanalyse durch Vergleichen eines Grades von Korrelation von weißfarbigen Pixeln in einer vertikalen Richtung im Bild mit einer Korrelationsschwelle beinhaltet, worin bestimmt wird, dass Wasser vorhanden ist, wenn der Grad von Korrelation zwischen weißfarbigen Pixeln in vertikaler Richtung des gefilterten Bilds größer ist als eine Korrelationsschwelle.
  10. Verfahren nach Anspruch 1, worin Aufnehmen eines Bildes in einer Abwärtsrichtung die Erzeugung eines virtuellen Bilds in einer Abwärtsrichtung basierend auf dem echten Bild beinhaltet, worin ein virtuelles Bild durch Neuausrichtung des Bilds erzeugt wird. sodass das virtuelle Bild erzeugt wird, als wenn eine Kamerahaltung nach unten weist.
DE102016122487.1A 2015-12-03 2016-11-22 Sichtbasierte erkennung von nassem fahrbahnoberflächenzustand unter verwendung des seitwärtsspritzens von reifen Pending DE102016122487A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/957,998 2015-12-03
US14/957,998 US9971945B2 (en) 2015-12-03 2015-12-03 Vision-based wet road surface condition detection using tire side splash

Publications (1)

Publication Number Publication Date
DE102016122487A1 true DE102016122487A1 (de) 2017-06-08

Family

ID=58722940

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016122487.1A Pending DE102016122487A1 (de) 2015-12-03 2016-11-22 Sichtbasierte erkennung von nassem fahrbahnoberflächenzustand unter verwendung des seitwärtsspritzens von reifen

Country Status (3)

Country Link
US (1) US9971945B2 (de)
CN (1) CN106845332B (de)
DE (1) DE102016122487A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020203585A1 (de) 2020-03-20 2021-09-23 Zf Friedrichshafen Ag Anordnung und Filter für Bildverarbeitung, computerimplementiertes Verfahren zum Steuern eines derartigen Filters, Steuergerät für einen Bildgebungssensor, Kamera zum Polarisieren von Licht und Steuerungssystem für ein Fahrzeug umfassend eine derartige Kamera

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10134188B2 (en) * 2015-12-21 2018-11-20 Intel Corporation Body-centric mobile point-of-view augmented and virtual reality
US10082795B2 (en) * 2016-08-24 2018-09-25 GM Global Technology Operations LLC Vision-based on-board real-time estimation of water film thickness
US10814846B2 (en) 2017-08-11 2020-10-27 Ford Global Technologies, Llc Traction control based on friction coefficient estimation
KR102529918B1 (ko) * 2018-10-16 2023-05-08 현대자동차주식회사 차량 물튐 현상 대응 장치, 그를 포함한 시스템 및 그 방법
US11226620B2 (en) 2019-02-08 2022-01-18 GM Global Technology Operations LLC Automated driving systems and control logic with enhanced longitudinal control for transitional surface friction conditions
US11052914B2 (en) 2019-03-14 2021-07-06 GM Global Technology Operations LLC Automated driving systems and control logic using maneuver criticality for vehicle routing and mode adaptation
US11300677B2 (en) 2019-07-08 2022-04-12 GM Global Technology Operations LLC Automated driving systems and control logic for host vehicle velocity estimation using wide aperture radar
US20220366786A1 (en) * 2021-05-03 2022-11-17 Here Global B.V. Method and apparatus for estimating lane pavement conditions based on street parking information

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011081362A1 (de) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ermittlung eines Oberflächenzustands einer von einem Fahrzeug befahrenen oder zu befahrenden Fahrbahn
CN103136292B (zh) * 2011-12-05 2016-09-07 中国移动通信集团公司 一种基于图像特征的图像检索方法和装置
US9499172B2 (en) * 2012-09-20 2016-11-22 Google Inc. Detecting road weather conditions
DE102013223367A1 (de) * 2013-11-15 2015-05-21 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands mittels eines Fahrzeugkamerasystems
CN109932719A (zh) * 2019-03-18 2019-06-25 西安电子科技大学 基于sar成像的rcs高精度测量方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020203585A1 (de) 2020-03-20 2021-09-23 Zf Friedrichshafen Ag Anordnung und Filter für Bildverarbeitung, computerimplementiertes Verfahren zum Steuern eines derartigen Filters, Steuergerät für einen Bildgebungssensor, Kamera zum Polarisieren von Licht und Steuerungssystem für ein Fahrzeug umfassend eine derartige Kamera

Also Published As

Publication number Publication date
CN106845332A (zh) 2017-06-13
CN106845332B (zh) 2020-11-24
US9971945B2 (en) 2018-05-15
US20170161573A1 (en) 2017-06-08

Similar Documents

Publication Publication Date Title
DE102016122487A1 (de) Sichtbasierte erkennung von nassem fahrbahnoberflächenzustand unter verwendung des seitwärtsspritzens von reifen
DE102016122489A1 (de) Sichtgestützte erfassung von nassen fahrbahnzuständen mittels reifenspuren
DE102016122484A1 (de) Sichtbasierte erkennung von nassem strassenoberflächenzustand unter verwendung des rückwärtsspritzens von reifen
DE102017106535B4 (de) Verfahren zur Feststellung eines Oberflächenzustandes eines Bewegungsweges
DE102016122416A1 (de) Erkennung von nassen strassenoberflächen
DE102011086512B4 (de) Nebeldetektion
DE102016100030B4 (de) Gerät zum sicheren führen eines fahrzeugs
DE102016122481A1 (de) Oberflächenzustandserkennung für schneebedeckte fahrbahnen
WO2019174682A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnzuständen und witterungsbedingten umwelteinflüssen
DE102015109271B4 (de) Sichtbasierte Detektion eines nassen Strassenbelags unter Verwendung einer Strukturanalyse
EP3183721A1 (de) Verfahren und achsenzähl-vorrichtung zur berührungslosen achsenzählung eines fahrzeugs sowie achsenzählsystem für den strassenverkehr
DE102015109238B4 (de) Verfahren zum ermitteln eines zustands eines nassen strassenbelags für ein fahrzeug, das auf einer strasse fährt
DE112013001424T5 (de) Objekterkennungsvorrichtung
EP2710573B1 (de) Verfahren und vorrichtung zum erkennen eines möglichen kollisionsobjektes
DE10251949A1 (de) Fahrdynamikregelung mit Bildsensorsystem
DE102017108254B4 (de) Rundumsichtkamerasystem zur Objekterkennung und -verfolgung und Verfahren zum Ausstatten eines Fahrzeugs mit einem Rundumsichtkamerasystem
EP3044727B1 (de) Verfahren und vorrichtung zur objekterkennung aus tiefenaufgelösten bilddaten
WO2016177372A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von umwelteinflüssen und fahrbahnzustandsinformationen im fahrzeugumfeld
DE102019200849A1 (de) Verfahren zum Erfassen einer Bewegung eines Objekts
DE102019008089A1 (de) Verfahren zur Detektion eines Fahrspurwechsels eines weiteren Kraftfahrzeugs mittels einer Erfassungsvorrichtung, sowie Erfassungsvorrichtung
EP3520020B1 (de) Verkehrszeichenklassifikation in einem umgebungsbereich eines kraftfahrzeugs
DE102016119592A1 (de) Verfahren zum Erkennen von Objekten in einem Umgebungsbereich eines Kraftfahrzeugs unter Berücksichtigung von Sensordaten im infraroten Wellenlängenbereich, Objekterkennungsvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102004022289A1 (de) Fahrdynamikregelung mit Bildsensorsystem
DE102013210591A1 (de) Bewegungserkennung eines fahrzeugs mittels mehrerer kameras
DE102018202356A1 (de) Verfahren und Vorrichtung zum Prüfen einer Freigabe einer Anfahrt für ein Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

R016 Response to examination communication