DE102014212032A1 - Verfahren zum Detektieren einer Fahrbahn und entsprechendes Detektionssystem - Google Patents

Verfahren zum Detektieren einer Fahrbahn und entsprechendes Detektionssystem Download PDF

Info

Publication number
DE102014212032A1
DE102014212032A1 DE102014212032.2A DE102014212032A DE102014212032A1 DE 102014212032 A1 DE102014212032 A1 DE 102014212032A1 DE 102014212032 A DE102014212032 A DE 102014212032A DE 102014212032 A1 DE102014212032 A1 DE 102014212032A1
Authority
DE
Germany
Prior art keywords
light
vehicle
pattern
roadway
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014212032.2A
Other languages
English (en)
Inventor
Marzieh Asadeh Parchami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102014212032.2A priority Critical patent/DE102014212032A1/de
Priority to US14/744,678 priority patent/US9555812B2/en
Priority to CN201510349240.7A priority patent/CN105321353A/zh
Publication of DE102014212032A1 publication Critical patent/DE102014212032A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/068Road friction coefficient
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2210/00Detection or estimation of road or environment conditions; Detection or estimation of road shapes
    • B60T2210/10Detection or estimation of road conditions
    • B60T2210/12Friction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/26Wheel slip
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/40Coefficient of friction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/26Wheel slip
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1765Method using an image detector and processing of image signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • G01N2021/551Retroreflectance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Detektieren einer Fahrbahn (2) eines Fahrzeug (1), mit mindestens folgenden Schritten: Erzeugung eines Lichtsignals (11) und Aussenden des Lichtsignals (11) auf einen beleuchteten Bereich (23) der Fahrbahn (2), Empfangen von reflektierter Strahlung (21) des beleuchteten Bereichs (23) und Erzeugen eines Bildsignals, Auswertung des Bildsignals. Hierbei ist vorgesehen, dass das Lichtsignal (11) mit Lichtstrukturen (19) erzeugt wird, das Bildsignal als zweidimensionales Lichtpattern ausgewertet wird, wobei bei der Auswertung des Bildsignals (20) eine Erkennung von den Lichtstrukturen (19) entsprechenden Patternmerkmalen in dem Lichtpattern (20) durchgeführt wird, wobei eine Signalstärke des Bildpatterns ortsaufgelöst ausgewertet wird und daraus auf ein reflektierendes Verhalten des beleuchteten Bereichs (23) geschlossen wird, und aus dem reflektierenden Verhalten auf einen Fahrbahnbelag (22) geschlossen wird.

Description

  • Die Erfindung betrifft ein Verfahren zum Detektieren einer Fahrbahn und ein entsprechendes Detektionssystem.
  • Stand der Technik
  • Die Detektion der Fahrbahn ermöglicht insbesondere eine Bewertung der Fahrbahnoberfläche, um z. B. den Reibwert bzw. nachteilhafte Eigenschaften der Fahrbahn abschätzen zu können.
  • Hierbei sind zum einen Detektionssysteme bekannt, die das Verhalten vorausfahrender Fahrzeuge bewerten und/oder aus Verkehrsmeldungen Informationen ermitteln und Warnungen hinsichtlich einer möglichen Winterglätte an den Fahrer ausgeben. Hier ist u. a. das ITS – Intelligent Transport System – bekannt.
  • Weiterhin ist bekannt, auf der Fahrbahn einen Straßenbelag aufzubringen, der seine Farbe bei Winterglätte verändert und somit eine direkt wahrnehmbare Warnung darstellt. Es ist jedoch nachteilhaft, dass ein spezifischer Belag auf der Fahrbahn aufzubringen und zu warten ist. Auch kann die Farbe bzw. Wellenlänge und Intensitätsverteilung des von der Fahrbahn ausgesandten Lichtes von weiteren Faktoren abhängen.
  • Weiterhin sind Detektionssysteme bekannt, bei denen ein Ultraschallgeräusch, das durch Reibung der Reifen auf der Fahrbahn entsteht, aufgenommen und bewertet wird.
  • Weiterhin sind Kamerasysteme bekannt, die die Fahrbahn erfassen. Hierbei ist es bekannt, dass die Fahrbahn durch z. B. einen Scheinwerfer beleuchtet wird und zumindest ein Teil des beleuchteten Bereichs der Fahrbahn von der Kamera erfasst wird. Weiterhin können weitere Verkehrsteilnehmer erfasst und ihr Fahrverhalten bewertet werden. Die Detektion z. B. einer Winterglätte ist jedoch im Allgemeinen nicht möglich.
  • Somit ermöglichen bekannte Systeme insbesondere kein flexibles und schnelles Reagieren des Fahrers auf einen aktuell vorliegenden Fahrbahnbelag wie Wasser oder Eis. Weiterhin sind bekannte Systeme wie z. B. die Markierung des Straßenbelages und ähnliche Maßnahmen am Straßenbelag aufwändig und nicht für sämtliche Straßen eines Verkehrssystems durchführbar.
  • Offenbarung der Erfindung
  • Erfindungsgemäß wird ein Lichtsignal mit Lichtstrukturen erzeugt auf die Fahrbahn ausgesandt, und ein Bildsignal aufgenommen, das von der Fahrbahn reflektiertes Licht enthält, wobei das Bildsignal als zweidimensionales Lichtpattern, also Lichtmustern, aufgenommen und ausgewertet wird. Bei der Auswertung können den Lichtstrukturen entsprechende Patternmerkmale in dem Lichtpattern ermittelt und bewertet werden.
  • Den Lichtstrukturen entsprechende Patternmerkmale sind hierbei Patternmerkmale, also Strukturen des Lichtpatterns, die sich aus der Projektion auf die Fahrbahn unter einem Einfallswinkel und nachfolgender Aufnahme mit einer Kamera ergeben, die vorzugsweise etwas versetzt ist von einem das Lichtsignal erzeugenden Patterngenerator.
  • Erfindungsgemäß werden einige Vorteile erreicht:
    Es kann ein Lichtpattern aufgenommen und ausgewertet werden, das aufgrund mehrerer Patternmerkmale eine eindeutige ortsaufgelöste Zuordnung der Punkte des Patterns zu Punkten oder Stellen auf dem beleuchteten Bereich der Fahrbahn und somit eine relative Position zu dem Fahrzeug ermöglicht.
  • Der beleuchtete Bereich der Fahrbahn kann somit nach verschiedenen Bewertungskriterien beurteilt werden.
  • Zum einen kann das zeitliche Verhalten des Bildsignals, und der Signalstärke des reflektierten Lichtes bewertet werden, so dass auf eine Veränderung des Fahrbahnbelages geschlossen werden kann.
  • Weiterhin kann die Signalstärke des reflektierten Lichtes ortsaufgelöst ausgewertet werden. Hierzu liegen vorteilhafterweise Messwerte einer Kalibrierung vor, so dass eine direkte Auswertung der Signalstärke aufgrund der Kalibrierung möglich ist. Aus der Signalstärke kann zum einen auf einen Abstand des erfassten Punktes, d. h. insbesondere einen Abstand zum Fahrzeug, geschlossen werden. Weiterhin kann aus der Signalstärke auf ein reflektierendes Verhalten des Fahrbahnbelages und somit auf eine Reflektanz geschlossen werden. Aus dem reflektierenden Verhalten kann eine Klassifizierung des Fahrbahnbelages in verschiedene Klassen mit unterschiedlichen reflektierenden Verhalten erfolgen. Insbesondere wird das Bild des Patterns eindeutig durch die Signalstärke und Geometrie bestimmt.
  • Eine Klassifizierung kann insbesondere bezüglich unterschiedlicher Fahrbahnbeläge mit unterschiedlichem Reibwertverhalten erfolgen. Hierbei können relevante Klassen insbesondere sein: kein Fahrbahnbelag / kein Asphalt, ein nasser Fahrbahnbelag / Regennässe oder ein Feuchtigkeitsfilm, und weiterhin gefrorenes Wasser. Bei einer Klassifizierung als gefrorenes Wasser kann in einerseits Eis oder Frost und andererseits Schnee unterteilt werden, oder es können auch mehrere Unterklassen vorgesehen sein, z. B. Blitzeis oder überfrierende Nässe, milchig-trüber Frost, Schnee.
  • Der Erfindung liegt hierbei der Gedanke zugrunde, dass diese verschiedenen Fahrbahnbeläge im Wesentlichen auf unterschiedliche Formen von Wasser beruhen, zum einen aufgrund ihres Aggregatzustandes ein unterschiedliches Reflexionsverhalten zeigen, und weiterhin auch in Abhängigkeit der Kristallisation, Porösität, Trübung durch Lufteinschlüsse oder Einschlüsse von Partikeln, und weiterhin aufgenommenen Partikeln ein unterschiedliches Reflexionsverhalten aufweisen, das eine Klassifizierung ermöglicht.
  • Die Reflektivität der einzelnen Zustandsformen von Wasser ist hinreichend bekannt, insbesondere Aufgrund von allgemein zugänglichen Datenerhebungen. Neuschnee (ohne Verunreinigung) hat die größte Reflektanz im NIR (nahes Infrarot-Wellenlängenbereich) im Bereich von 90% der einfallenden Signalstärke. Bei Firn oder verschmutzten Formen von Schnee ist diese im NIR bis zu 60%. Eis ohne Einschlüsse (Glatteis oder Blitzeis) hat eine Reflektanz von etwa 50% im NIR. Trübes Eis (mit Einschlüsse) weist nur noch eine Reflektanz im Bereich von 30% im NIR auf. Wasser in flüssiger Form hat eine Reflektanz im Bereich von 15% bis 20%. Mit der Abstufung der Reflektanz der Signalstärke bei den verschiedenen Formen des Belags können die unterschiedlichen auf Wasser basierenden Beläge somit in Klassen unterteilt und voneinander unterschieden werden.
  • Den verschiedenen Klassen können nachfolgend Reibwerte oder Reibwert-Bereiche zugeordnet werden.
  • Indem eine Signalachse des Patterngenerators von der optischen Achse der Kamera abweicht, kann die Messung der Reflektanz verbessert werden, da direkte Reflektionen an spiegelnden Flächen geringer gehalten werden können, die bei gleichen Achsen stärker auftreten und im Allgemeinen nicht direkt Materialeigenschaften darstellen.
  • Weiterhin ist auch eine geometrische Kalibrierung möglich, so dass aus dem Lichtpattern oder aus den Patternmerkmalen des Lichtpatterns eine eindeutige Zuordnung des Punktes zu dem beleuchteten Bereich der Fahrbahn möglich ist. Somit kann eine hohe Ortsauflösung erreicht werden und somit eine Klassifikation des Fahrbahnbelages in unterschiedlichen Bereichen oder Abständen vor dem Fahrzeug vorgenommen werden.
  • Somit kann insbesondere auch ein beleuchteter Bereich über einen größeren Entfernungsabstand abgedeckt werden, z. B. von einem Meter oder wenigen Metern vor einem Fahrzeug, d.h. in dem Bild der Kamera direkt oberhalb der Motorhaube, bis zu hundert Meter vor dem Fahrzeug oder mehr, und nachfolgend eine ortsaufgelöste Klassifizierung des Fahrbahnbelages erfolgen.
  • Das ausgesandte Licht liegt vorteilhafterweise in einem Wellenlängenbereich oberhalb des sichtbaren Lichtes, insbesondere im nahen Infrarot, z. B. im Bereich von 780 bis 820 nm.
  • Hierbei wird erfindungsgemäß erkannt, dass in diesem Wellenlängenbereich keine Störung des Fahrers entgegenkommender Fahrzeuge oder anderer Verkehrsteilnehmer vorliegt, jedoch ähnliche Bildsensoren auf z. B. CMOS-Basis oder CCD-Basis eine hohe Lichtempfindlichkeit aufweisen.
  • Weiterhin kann hierdurch eine Kamera für ein Fahrzeug verwendet werden, die zusätzlich zu dem Detektionssystem auch breitere Bildaufnahme-Verarbeitungen ermöglicht.
  • Der Patterngenerator kann insbesondere mit einer LED oder Laserdiode zum Aussenden von Licht oder Strahlung in dem relevanten Wellenlängenbereich ausgebildet sein, und einer Projektionsoptik, die ein diffraktives optisches Element aufweist, dessen Fertigung über lithographische Verfahren ermöglicht ist. Somit kann insbesondere ein Lichtsignal mit Lichtstrukturen ausgebildet werden, die im Bild der Kamera dann ein Lichtpattern mit spezifischen Patternmerkmalen darstellt, das eine eindeutige Auflösung und Bildverarbeitung zulässt, insbesondere eine ortsaufgelöste Bildverarbeitung.
  • Als Patternmerkmale können insbesondere Linien erzeugt werden, die sich z. B. als gerade Linien im Bild darstellen, da Abweichungen von einer geraden Linie sehr gut detektiert und durch Bildauswertungs-Logarithmen erfasst werden können.
  • Insbesondere werden mehrere Linien erzeugt, die im Wesentlichen entlang der Fahrbahn bzw. auf dem Bild in vertikaler Richtung, d. h. von dem Fahrzeug weg verlaufen, wobei z. B. einige Linien parallel sein können und andere Linien demgegenüber unter einem Winkel. Vorteilhafterweise schneiden sich zumindest einige der Linien in charakteristischen Schnittpunkten oder Schnittwinkeln, so dass eine Auswertung der Winkel in den Schnittwinkeln bei der Bildverarbeitung und Auswertung ermöglicht ist.
  • Aus den Patternmerkmalen kann zunächst ermittelt werden, ob ein ordnungsgemäßes Bild vorliegt, das an einer ebenen Fahrbahn als Projektion auftritt, oder ein Hindernis vorliegt, z. B. auch ein weiterer Verkehrsteilnehmer, der zu einer Änderung der Geometrie der Patternmerkmale führt.
  • Weiterhin kann die ortsaufgelöste Zuordnung zu Bereichen der Fahrbahn, insbesondere Abständen zum eigenen Fahrzeug, erfolgen.
  • Auch können größere Unebenheiten und z. B. Verschmutzungen der Fahrbahn als Verschlechterung der Patternmerkmale detektiert werden.
  • Der Wellenlängenbereich kann fahrzeugspezifisch oder typspezifisch sein, um auch hierdurch eine Störung durch entsprechende Detektionssysteme anderer Fahrzeuge gering zu halten.
  • Das Detektionssystem und das erfindungsgemäße Verfahren ermöglichen somit insbesondere
    • – eine ortsaufgelöste Detektion, insbesondere mit direkter Zuordnung zu dem Bodenbereich der Fahrbahn, wobei die örtliche Detektion mit Auswertung der Patternmerkmale weiterhin eine Bewertung zulässt, ob ein Hindernis vorliegt, da ein Hindernis zu einer Änderung der Formgebung der Patternmerkmale führt,
    • – eine bezüglich der Signalstärke aufgelöste Detektion, aus der die Reflektanz ermittelt werden kann und Hindernisse erkannt werden können,
    • – eine zeitlich aufgelöste Detektion, aus der auf Veränderungen des Fahrbahnbelages geschlossen werden kann.
  • Somit kann ein Fahrzeug-Regelsystem geschaffen werden, das aufgrund einer Klassifizierung der Fahrbahn, insbesondere auch in unterschiedlichen Bereichen vor dem Fahrzeug, eine Fahrdynamik-Regelung oder Stabilitätsregelung entsprechend einem ermittelten oder abgeschätzten Reibwert durchführt.
  • Kurze Beschreibung der Zeichnungen:
  • 1 zeigt ein Fahrzeug mit Detektionssystemen gemäß Ausführungsformen der Erfindung bei der Fahrt auf einer Fahrbahn;
  • 2 zeigt ein Detektionssystem im Detail;
  • 3 zeigt ein Bildpattern gemäß einer Ausführungsform;
  • 4 zeigt einen Patterngenerator gemäß einer Ausführungsform;
  • 5 zeigt ein Flussdiagramm eines erfindungsgemäßen Verfahrens.
  • Beschreibung der Ausführungsformen
  • Ein Fahrzeug 1 fährt auf einer Fahrbahn 2 in einer Fahrtrichtung F. Das Fahrzeug weist ein Detektionssystem 3 auf, das an dem Fahrzeug gemäß 1 an unterschiedlichen Stellen vorgesehen ist; hierzu ist in 1 die Anbringung an zwei bevorzugten Positionen gezeigt:
    zum einen im Innenraum 5 (Fahrgastraum) des Fahrzeugs 1 hinter einer Fahrzeugscheibe 6, insbesondere der Frontscheibe 6, in deren gewischtem Bereich, und zum anderen, d.h. alternativ, im Frontbereich 7 des Fahrzeugs, z. B. im Bereich des Stoßfängers; insbesondere kann das Detektionssystem 3 im Frontbereich 7 mit einem Scheinwerfer 8 (Frontscheinwerfer, Frontlampe) integriert oder kombiniert sein.
  • 2 zeigt detaillierter die erste Anbringung, d.h. an der Fahrzeugscheibe, insbesondere einer Frontscheibe 6. Das Detektionssystem 3 kann insbesondere nahe dem Fahrzeugdach 9 oder am Rückspiegel und/oder in einem Schwarzdruck-Bereich 10 der Frontscheibe 6, vorteilhafterweise im gewischten, vom Benutzer nicht einsichtbaren Teil der Frontscheibe 6 angebracht sein.
  • Das Detektionssystem 3 weist eine Kamera 12 und einen Patterngenerator 14 auf, die vorteilhafterweise als eine Einheit mechanisch verbunden bzw. miteinander integriert sind. Die Kamera 12 kann für ergänzende Funktionen vorgesehen sein, d. h. allgemein als Multi Purpose Camera; sie kann somit den Außenraum 13 außerhalb des Fahrzeugs 1 auch zur visuellen Darstellung auf einer Anzeigeeinrichtung des Fahrzeugs 1 erfassen, weiterhin zur Detektion von Abständen zu weiteren Objekten, insbesondere als Stereo-Kamera, sowie auch für Aufnahmen im Infrarotbereich z. B. mit Nachtsichtfunktion.
  • 4 zeigt den Aufbau des Patterngenerators 14: Der Patterngenerator 14 weist ein Gehäuse 15, eine LED 16 oder Laserdiode, und eine Projektionsoptik 17 auf, die vorteilhafterweise ein Diffraktives Optisches Element (DOE) 18 aufweist. Die Projektionsoptik 17 kann zusätzlich zu dem Diffraktiven Optischen Element 18 grundsätzlich auch noch weitere optische Elemente zur Ausbildung einer geeigneten Projektions-Geometrie aufweisen. Somit sendet die LED 16 oder Laserdiode als Lichtquelle des Patterngenerators 14 Licht in einem schmalbandigen Spektralbereich, insbesondere einer einzigen zentralen Wellenlänge λm aus, die vorteilhafterweise im nicht-sichtbaren Bereich, insbesondere im nahen Infrarot, z. B. im Wellenlängenbereich zwischen 780 nm und 820 nm liegt. Somit erzeugt der Patterngenerator 14 ein Lichtsignal 11 mit Lichtstrukturen 19, wobei das Lichtsignal 11 für das menschliche Auge nicht sichtbar, aber apparativ gut ausbildbar ist, da Sensoren auf Siliziumbasis in diesem Spektralbereich hinreichend sensitiv sind.
  • Weiterhin zeigt sich, dass ein derartiger Wellenlängenbereich sich apparativ gut mit Wellenlängenbereichen, die von einer Kamera für weitere Funktionen verwendbar sind, ergänzt, insbesondere einer Nachtsichtfunktion, aber auch einer Bilderkennung im sichtbaren Wellenlängenbereich.
  • Der Wellenlängenbereich des nahen Infrarots von 780 nm bis 820 nm ist weiterhin auch vorteilhaft, da hier unterschiedliche, zu detektierende Fahrbahnbeläge 22 auf der Fahrbahn 2 relevante Charakteristiken bzw. Merkmale aufweisen. In diesem Wellenlängenbereich liegt insbesondere die Reflektanz r_Eis von Frost oder Eis als Fahrbahnbelag 22 im Bereich von ca. 60% bis 90 %. Damit ist die Reflektanz r_Eis um etwa 50% bis 80 % höher als die Reflektanz r0 von Asphalt als üblichem Material der Fahrbahn 2, welche im Bereich von etwa 10 % liegt.
  • Weiterhin zeigt sich, dass unterschiedliche Arten von Eis oder Frost auch eine unterschiedliche Reflektanz r zeigen. So zeigt milchig-trüber Frost eine andere Reflektanz r_Eis_1 als die Reflektanz r_Eis_2 von überfrierender Nässe, weiterhin zeigt die Reflektanz r_Eis_3 von Blitzeis, das durch schnelles bzw. sofortiges Gefrieren von flüssigem Niederschlag bzw. Regen auf einer Fahrbahn 2 mit tiefen Temperaturen deutlich unter 0° auftritt, einen abweichenden Wert. Diese Glättearten bzw. verschiedenen Ausbildungen von Frost oder Eis unterscheiden sich durch verschiedene molekulare Anordnungen der Flüssigkeit, durch die Ausgebildeten Poren bzw. Porösität und auch in Abhängigkeit von zusätzlichen Partikeln oder einer Trübung.
  • Somit kann ein Fahrbahnbelag 22 daraufhin differenziert und klassifiziert werden, ob flüssiges Wasser, d. h. Regennässe, oder Frost oder Eis vorliegt.
  • Hierbei kann das System auf die Reflektanz der verschiedenen Beläge bzw. Klassen von Belägen hin kalibriert wird. Die zurück reflektierte Signalstärke kann für die Fahrbahn mit und ohne die verschiedenen Beläge eindeutig charakterisiert werden. Somit kann im Vorfeld für die Kette der Signalverarbeitung die Reflektanz der einzelnen Beläge im gegebenen Wellenlängenbereich experimentell ermittelt werden. Das Detektionssystem erhält eine radiometrische Kalibrierung, d.h. im Detektionssystem ist bekannt, welcher Grauwert eines Bildsensors, welcher Eingangssignalstärke aus dem Objektraum durch das Pattern entspricht. Die empfangene Signalstärke des Patterns wird vorzugsweise mit den hinterlegten und den aktuell gemessenen Werten verglichen. Hierdurch wird es möglich, eine Aussage über die Beschaffenheit des Belags aufgrund der Signalstärke des Patterns zu machen.
  • Der Patterngenerator 14 des Detektionssystems 3 sendet vorzugsweise das Lichtsignal 11 mit einer Signalachse B aus, die von der optischen Achse A der Kamera 12 abweicht; im Allgemeinen wird das Lichtsignal 11 nach vorne, d.h. in Fahrtrichtung, und unter einem Winkel gegenüber der Horizontalen, der dem Einfallswinkel α gegenüber der die Horizontale darstellenden Fahrbahn 2 entspricht. Das Lichtsignal 11 erfasst auf der Fahrbahn 2 einen beleuchteten Fahrbahnbereich 23 der Fahrbahn 2, auf dem es ein Lichtmuster 19 ausbildet, das somit die Schnittfläche des sich kegelförmig aufweitenden Lichtsignals 11 mit der Fahrbahn 2 darstellt. Das Lichtmuster 19 sendet wiederum reflektiertes Licht 21 aus, das wiederum von der Kamera 12 erfasst wird. Die Kamera gibt Bildsignale S2 an eine Steuereinrichtung 26 aus, die sich gemäß 3 als zweidimensionales Lichtpattern 20 darstellen.
  • Das Lichtpattern 20 weist gemäß der Ausführungsform der 3 mehrere, hier z. B. neun, Patternmerkmale 25 auf, die in der gezeigten Ausführungsform Linien 25 sind. Die Linien 25 sind insbesondere gerade Linien 25, vorteilhafterweise begrenzte Linien 25 oder Linienabschnitte (Strecken). Das Lichtpattern 20 ist vorteilhafterweise nicht rotationssymmetrisch oder spiegelsymmetrisch, so dass das Lichtpattern 20 von der Gegenseite, d. h. z. B. von einem entgegenkommenden Fahrzeug, nicht als ein eigenes Lichtpattern erkannt werden kann. Vorteilhafterweise können auch z. B. von einer kreuzenden Fahrbahn kommende weitere Verkehrsteilnehmer das von dem Fahrzeug 1 ausgesandte Lichtpattern 20 nicht als ihr eigenes erkennen, da das Lichtpattern 20 keine rotationssymmetrische Stellung aufweist und daher eindeutig ist. Weiterhin ermöglicht das Lichtpattern 20 nicht nur aus der Länge der einzelnen Linien 25, sondern auch aus den Winkeln der Linien 25, eine eindeutige Erkennung und Zuordnung der einzelnen Linien 25.
  • Nachfolgend wertet die Steuereinrichtung 26 das Lichtpattern 20 aus, und zwar zum einen die geometrische Struktur der Linien 25, und zum anderen die Intensität oder Helligkeit des Lichtpatterns 20, wobei die Helligkeit der aufgenommenen Linien oder Patternmerkmale 25 und der weiteren Bereiche aufgenommen und verglichen werden kann. Somit kann die Reflektanz r des Fahrbahnbelags 22 ermittelt werden, und durch einen vergleichend vorgegebenen Werten eindeutig verschiedenen Klassen zugeordnet werden.
  • Derartige Klassen, zu denen der Fahrbahnbelag 22 zugeordnet werden kann, sind insbesondere folgende Klassen:
    k0: Asphalt,
    k1: Regennässe oder Wasserfilm,
    k2: leichter Frost, milchig-trüber Frost,
    k3: Blitzeis, überfrierende Nässe,
    k4: Schnee,
    k5: Kies, Dreck und andere Strukturierungen, die die Linien deutlich in ihrer Geometrie verbreitern.
  • Diesen Klassen sind vorteilhafterweise Reflektanzen r1 bis r4 oder r5 zugeordnet, die z. B. den folgenden Werte entsprechen können:
    r_Eis von Frost oder Eis,
    r0 von Asphalt,
    r_H2O von Wasser,
    r_Eis_1 von trübem Frost,
    r_Eis_2 von überfrierender Nässe oder Blitzeis,
    r_Eis_3 von Schnee.
  • Diesen Reflektanzen können wiederum entsprechende Reibwerte µ zugeordnet sein.
  • Das Lichtpattern 20 kann individuell, z. B. für jeden Fahrzeugtyp, ausgelegt werden. Hierbei können für verschiedene Detektionssysteme 3 z. B. die Wellenlängen variiert werden, und/oder das Lichtpattern 20 bzw. die Anordnung der Patternmerkmale 25 geändert werden.
  • Falschlichter, die durch Reflexion an vorausfahrenden Fahrzeugen oder anderen Hindernissen erzeugt werden, können durch Auswerten des Lichtpatterns 20, insbesondere der Geometrie, d.h. der Länge der einzelnen Linien 25 und ihrer Winkel in dem Lichtpattern 20 erkannt werden, so dass eindeutig erkannt werden kann, ob das Lichtpattern 20 von einer ebenen Fahrbahn 2 reflektiert wurde.
  • Weiterhin kann auch die Signalstärke des Lichtpatterns 20 daraufhin untersucht werden, ob es durch eine direkte Reflexion an einem vorausfahrenden Fahrzeug oder anderen Hindernis reflektiert wurde.
  • Gemäß dem Lichtpattern der 3 laufen die Linien 25 im Wesentlichen in Fahrtrichtung F bzw. ganz oder teilweise in Fahrtrichtung F. Es wird somit ein Lichtpattern 20 mit in die Ferne laufenden Linien 25 generiert.
  • Die Verwendung von geraden Linien 25 bietet den Vorteil, dass diese im Lichtpattern 20 deutlicher von anderen Mustern unterschieden werden kann, und Beeinträchtigungen direkt erkannt und ermittelt werden können.
  • Bei Reflexion an einem vorausfahrenden Fahrzeug oder einem Hindernis sind die Linien 25 im Lichtpattern 20 z. B. geknickt, oder ihr Verlauf und ihre Winkel zueinander entsprechen nicht mehr dem typischen Lichtpattern 20, das z. B. als Referenzbild hinterlegt und/oder in der Steuereinrichtung 26 gespeichert ist.
  • Die Steuereinrichtung 26 steuert somit den Patterngenerator 14 mit Steuersignalen S1 an und wertet die Bildsignale S2 der Kamera 12 aus. Hierbei wird der Einfallswinkel α so gewählt, dass das Lichtpattern 20 z. B. etwa in der unteren Bildhälfte oder einem unteren Teil des Bildes vorgesehen ist und die Detektion des Umfeldes des Fahrzeugs 1 nicht weiter stört, insbesondere Merkmale im oberen Bildbereich. Die Kamera 12 kann insbesondere als Stereo-Kamerasystem ausgebildet sein, bei dem Distanzen durch die Stereomessung bzw. Triangulation direkt ermittelt werden können.
  • Das Detektionssystem 3 wird vorteilhafterweise vorab kalibriert, wobei zwei Kalibrierungen vorteilhaft sind:
    Als erste Kalibrierung erfolgt eine geometrische Kalibrierung der intrinsischen Kameraparameter für ein optisches Modell zur Berechnung von Abständen und Distanzen der aufgenommenen Straßenszene. Somit kann aus dem Lichtpattern 20 oder den Patternmerkmalen 25, z. B. den geraden Linien, direkt auf den jeweiligen Abstand d zum Fahrzeug 1 geschlossen werden. Erfindungsgemäß wird erkannt, dass eine Kalibrierung hier vorteilhaft ist gegenüber einer rein theoretischen Berechnung aufgrund der Ausbildung des diffraktiven optischen Elementes 18 bzw. der Projektionsoptik 17.
  • Weiterhin erfolgt vorteilhafterweise eine Kalibrierung bezüglich der Signalstärken bzw. Intensitäten des zurückreflektierten Lichtes 21. Durch diese radiometrische Kalibrierung kann somit eine absolute Auswertung der Lichtstärke des ermittelten Lichtpatterns 20 auf die Reflektanzen r des Fahrbahnbelags 22 erfolgen.
  • Vorteilhafterweise sind die verschiedenen Reflektanzen r der Fahrbahnbeläge, d. h. r1, r2, r3, r4, r5 der verschiedenen Klassen k1, k2, k3, k4, k5 in der Steuereinrichtung 26 oder einem angeschlossenen Speicher gespeichert.
  • Die Steuereinrichtung 26 dient als Steuer- und Auswerteeinrichtung und wertet insbesondere folgende Merkmale aus, d. h. sie kann vorteilhafterweise folgende Bewertungsschritte durchführen:
  • Bewertungsschritt a):
  • Die Steuereinrichtung 26 ermittelt die Signalstärke oder Grauwerte des Lichtpatterns 20 und misst und bewertet zeitliche Veränderungen der Signalstärke des Lichtpatterns 20 oder des zurückreflektierten Lichtes 21.
  • Bewertungsschritt b):
  • Die Steuereinrichtung 26 bestimmt anhand der Grauwerte und der radiometrischen Kalibrierung der Kamera 12 das gesamte Lichtpattern 20 ortsaufgelöst bezüglich der Signalstärke und somit ortsaufgelöst die Reflektanz r.
  • Bewertungsschritt c):
  • Aus den Grauwerten und der geometrischen Kalibrierung kann der Abstand d, also die Distanzen der ermittelten Merkmale, zu dem Fahrzeug 1 ermittelt werden.
  • Bewertungsschritt d):
  • Anhand der Grauwerte, der radiometrischen Kalibrierung und der geometrischen Kalibrierung kann die Signalstärke des Patterns oder es können einzelne Punkte des Patterns einem Abstand d, also einer Distanz vom Fahrzeug d, zugeordnet werden.
  • Bewertungsschritt e):
  • Aus dem Bewertungsschritt d) und gespeicherten Werten heraus, insbesondere einer gespeicherten Tabelle, bspw. einer Look up-Tabelle, oder gespeicherten Referenzwerten, kann das Signal des Lichtpatterns 20 ortsaufgelöst in der Bildebene und im Objektraum, d. h. der Straßenszene bzw. dem beleuchteten Bereich 23 der Fahrbahn 2, eine Reflektanz r zuordnen. Somit kann eine ortsaufgelöste Reflektanz r oder r als Funktion des Abstandes d sowie weiterhin auch in Querrichtung y aufgelöst ermittelt werden.
  • Bewertungsschritt f):
  • Aus Bewertungsschritt e) heraus kann die Steuereinrichtung 26 eine Wahrscheinlichkeit berechnen, ob das reflektierte Licht 21 von einem Hindernis reflektiert wurde, oder von der Fahrbahn 2.
  • Bewertungsschritt g):
  • Aus Bewertungsschritt f) heraus kann die Steuereinrichtung 26 die Wahrscheinlichkeit für eine Klasse der verschiedenen Fahrbahnbeläge 22, d. h. eine Zuordnung zu den Klassen k1 bis k5, ermitteln, und somit unterschiedliche Glättemöglichkeiten und Glätte-Werte ermitteln. Als Folge hieraus kann die Steuereinrichtung 26 ein Auswertesignal S3 an den Fahrer und/oder an ein Fahrzeug-Regelsystem ausgeben. Das Auswertesignal S3 kann z. B. ein Warnsignal für den Fahrer sein, oder Reibwert-Informationen enthalten
  • Die Klassifikation in k0 bis k5 und somit unterschiedlicher Reibwerte µ kann in einem Fahrzeug-Regelsystem mit einer Fahrdynamik-Steuereinrichtung 30 dann für eine Fahrzeugregelung bzw. Fahrdynamikregelung z. B. ABS und/oder ein elektronisches Stabilitätsprogramm, in Abhängigkeit des Reibwertes herangezogen werden.
  • Das erfindungsgemäße Verfahren sieht somit gemäß dem Flussdiagramm der 5 folgende Schritte vor:
    Nach dem Start in Schritt St0 gibt die Steuereinrichtung 26 das Steuersignal S1 an den Patterngenerator 14 aus,
    in Schritt St2 erzeugt der Patterngenerator 14 mit seiner LED 16 und der Projektionsoptik 17 das Lichtsignal 11 mit Lichtstrukturen 19 und sendet es unter einem Einfallswinkel α auf die Fahrbahn 22,
    in Schritt St3 empfängt die Kamera 12 reflektierte Strahlung 21 desselben Wellenlängenbereichs wie dem Wellenlängenbereich des ausgesandten Lichtsignals 11 und gibt ein Bildsignal S2 aus,
    in Schritt St4 werden die Bewertungsschritte a bis g durchgeführt, um den Fahrbahnbelag 22 des belichteten Bereichs 23 der Fahrbahn 2 auszuwerten, und in Schritt St5 erfolgt die Ausgabe der Signale, z. B. zur Anzeige an den Fahrer und/oder an ein Fahrdynamik-Regelsystem.

Claims (14)

  1. Verfahren zum Detektieren einer Fahrbahn (2) eines Fahrzeugs (1), mit mindestens folgenden Schritten: Erzeugung eines Lichtsignals (11) und Aussenden des Lichtsignals (11) auf einen beleuchteten Bereich (23) der Fahrbahn (2) (St 2), Empfangen (St3) von reflektierter Strahlung (21) des beleuchteten Bereichs (23) und Erzeugen eines Bildsignals (S2), Auswertung (St4) des Bildsignals (S2), dadurch gekennzeichnet, dass das Lichtsignal (11) mit Lichtstrukturen (19) erzeugt wird, das Bildsignal als zweidimensionales Lichtpattern (20) ausgewertet wird, wobei bei der Auswertung des Bildsignals (20) eine Erkennung von den Lichtstrukturen (19) entsprechenden Patternmerkmalen (25) in dem Lichtpattern (20) durchgeführt wird, wobei eine Signalstärke des Bildpatterns (20) ortsaufgelöst ausgewertet wird und daraus auf ein reflektierendes Verhalten des beleuchteten Bereichs (23) geschlossen wird, und aus dem reflektierenden Verhalten auf einen Fahrbahnbelag (22) geschlossen wird.
  2. Verfahren nach einem Anspruch 1, dadurch gekennzeichnet, dass eine Klassifikation des Fahrbahnbelags (22) in Abhängigkeit gespeicherter Kalibrierungswerte für die verschiedenen Fahrbahnbeläge erfolgt.
  3. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Lichtpattern (20) als Patternmerkmale Linien (25) aufweist, die sich im Wesentlichen in vertikaler Richtung des Bildes und/oder in Fahrtrichtung (F) des beleuchteten Bereichs (23) erstrecken, insbesondere mehrere gerade Linien (25), die sich in unterschiedlichen Winkeln zur Fahrtrichtung erstrecken, und die sich in einem oder mehreren Schnittpunkten schneiden.
  4. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Lichtpattern (20) rotations-unsymmetrisch und gegenüber Spiegelungen und Drehungen unsymmetrisch ist, zur eindeutigen Zuordnung zu dem Fahrzeug (1).
  5. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Lichtsignal (11) in einem Wellenlängenbereich unterhalb des sichtbaren Lichts, insbesondere im nahen Infrarotbereich, z. B. im Bereich von 780 bis 820 nm, ausgesendet wird, und das reflektierte Licht (21) in dem Wellenlängenbereich aufgenommen wird.
  6. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass mittels gespeicherter Werte einer radiometrischen Kalibrierung aus einer Signalstärke oder einem Grauwert des Bildsignals (S2) auf einen jeweiligen ortsaufgelösten Abstand (d) der Punkte des beleuchteten Bereichs (23) zu dem Fahrzeug (1) geschlossen wird (St4c)).
  7. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass mittels gespeicherter Werte einer geometrischen Kalibrierung oder einem gespeicherten Muster des Lichtpatterns (20) auf einen jeweiligen Abstand (d) der Punkte des beleuchteten Bereichs (23) zu dem Fahrzeug (1) geschlossen wird (St4d)).
  8. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass aus dem Bildsignal (S2) eine Wahrscheinlichkeit ermittelt wird, ob das reflektierte Licht (21) von der Fahrbahn (2) oder einem Hindernis ausgesandt worden ist.
  9. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Lichtpattern (20) ortsaufgelöst klassifiziert wird in ein oder mehrere der folgenden Klassen (k0, k1, k2, k3, k4, k5): Asphalt (k0); Wasserfilm (k1) oder Regennässe (k1); gefrorenes Wasser (k2, k3, k4), insbesondere Frost (k2) oder Eis (k3) oder Schnee (k4); Kies (k5) oder Dreck (k5).
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass bei Klassifikation als gefrorenes Wasser eine Unterklassifizierung in unterschiedliche Unterklassen erfolgt, z. B. in zwei oder mehr als zwei der folgenden Unterklassen: leichter Frost (k2) oder milchig-trüber Frost (k2); Blitzeis (k3) oder überfrierende Nässe (k3).
  11. Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass den verschiedenen Klassen (k0, k1, k2, k3, k4, k5) Reibwerte (µ) oder Wahrscheinlichkeitswerte von Reibwerten (µ) zugeordnet werden.
  12. Verfahren zur Fahrdynamikregelung eines Fahrzeugs (1), dadurch gekennzeichnet, dass mit einem Verfahren nach einem der Ansprüche 9 bis 11 eine Fahrbahn (2) des Fahrzeugs ortsaufgelöst klassifiziert wird, und in Abhängigkeit der Klassifizierung Auswertesignale (S3) an eine Steuereinrichtung (30) eines Fahrdynamik-Regelsystems ausgegeben werden, die eine Fahrdynamikregelung in Abhängigkeit der Reibwerte (µ) der Fahrbahn (2) ausführt.
  13. Detektionssystem (3) für ein Fahrzeug (1), wobei das Detektionssystem (3) einen Patterngenerator (14) zum Aussenden eines Lichtsignals (11) auf eine Fahrbahn (2) des Fahrzeugs (1) und eine Kamera (12) zur Aufnahme von von der Fahrbahn (2) reflektierter Strahlung (11) aufweist, wobei der Patterngenerator (14) eine LED-Einrichtung (16) und eine Projektionsoptik (17) zur Ausbildung des Lichtsignals (11) mit Lichtstrukturen (19) aufweist, wobei die Projektionsoptik (17) ein diffraktives optisches Element (18) aufweist, und die Kamera (20) in dem reflektierten Licht (21) ein Lichtpattern (20) aufnehmen kann, das den Lichtstrukturen (19) entsprechende Patternmerkmale (25) aufweist, und die Steuereinrichtung (26) die aufgenommenen Patternmerkmale (25) auswerten kann, wobei wobei die Steuereinrichtung (26) beim Auswerten des Bildsignals (20) eine Erkennung von den Lichtstrukturen (19) entsprechenden Patternmerkmalen (25) in dem Lichtpattern (20) durchführt und eine Signalstärke des Bildpatterns (20) ortsaufgelöst auswertet und daraus auf ein reflektierendes Verhalten des beleuchteten Bereichs (23) schließt, und aus dem reflektierenden Verhalten auf einen Fahrbahnbelag (22) schließt.
  14. Fahrzeug (1), das ein Detektionssystem (3) nach Anspruch 13 und ein Fahrzeug-Regelsystem mit einer Fahrdynamik-Steuereinrichtung (30) aufweist, die von der Steuereinrichtung (26) des Detektionssystems (3) Auswertesignale (S3) aufnimmt und in Abhängigkeit einer Klassifikation der Fahrbahn (2), insbesondere einer ortsaufgelösten Klassifikation der Fahrbahn (2) nach Glättewerten oder Reibwerten (µ), eine Fahrdynamik-Regelung durchführt.
DE102014212032.2A 2014-06-24 2014-06-24 Verfahren zum Detektieren einer Fahrbahn und entsprechendes Detektionssystem Pending DE102014212032A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102014212032.2A DE102014212032A1 (de) 2014-06-24 2014-06-24 Verfahren zum Detektieren einer Fahrbahn und entsprechendes Detektionssystem
US14/744,678 US9555812B2 (en) 2014-06-24 2015-06-19 Method for detecting a roadway and corresponding detection systems
CN201510349240.7A CN105321353A (zh) 2014-06-24 2015-06-23 用于探测行车道的方法及相应的探测系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014212032.2A DE102014212032A1 (de) 2014-06-24 2014-06-24 Verfahren zum Detektieren einer Fahrbahn und entsprechendes Detektionssystem

Publications (1)

Publication Number Publication Date
DE102014212032A1 true DE102014212032A1 (de) 2015-12-24

Family

ID=54767966

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014212032.2A Pending DE102014212032A1 (de) 2014-06-24 2014-06-24 Verfahren zum Detektieren einer Fahrbahn und entsprechendes Detektionssystem

Country Status (3)

Country Link
US (1) US9555812B2 (de)
CN (1) CN105321353A (de)
DE (1) DE102014212032A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017220266A1 (de) * 2016-06-20 2017-12-28 Osram Gmbh Umgebungserfassungsvorrichtung, beleuchtungseinrichtung für ein fahrzeug und fahrzeug mit der umgebungserfassungsvorrichtung
DE102017109905A1 (de) * 2017-05-09 2018-11-15 Automotive Lighting Reutlingen Gmbh Scheinwerfer mit integriertem Lidar
DE102017122432A1 (de) * 2017-09-27 2019-03-28 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erfassen einer Fahrbahnbeschaffenheit einer Fahrbahn für ein Kraftfahrzeug, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019004614A1 (de) 2019-07-01 2020-01-16 Daimler Ag Verfahren zum Bestimmen einer Fahrbahneigenschaft einer Fahrbahn mittels einer phasengestuften Deflektometrie sowie Fahrbahnerfassungssystem
EP3764081A1 (de) * 2019-07-11 2021-01-13 ZKW Group GmbH Sensorsystem und verfahren zur molekülspektroskopischen bestimmung der oberflächenbeschaffenheit eines vor einem kraftfahrzeug befindlichen untergrunds

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016205430A1 (de) * 2016-04-01 2017-10-05 Robert Bosch Gmbh Verfahren und Vorrichtung zur Reibwertbestimmung eines befahrbaren Untergrunds mittels eines Ego-Fahrzeugs
KR101777518B1 (ko) * 2016-04-07 2017-09-11 엘지전자 주식회사 인테리어 카메라 장치, 이를 포함하는 차량 운전 보조장치 및 이를 포함하는 차량
DE102016213850A1 (de) * 2016-07-28 2018-02-01 Robert Bosch Gmbh Mess- und/oder Analysevorrichtung zum Analysieren einer Fahrbahnoberfläche und Verfahren zum Analysieren einer Fahrbahnoberfläche
DE102016010373B4 (de) * 2016-08-26 2024-02-01 Mercedes-Benz Group AG Verfahren und Vorrichtung zur Erkennung des Öffnungszustands eines Garagentores
US10788316B1 (en) * 2016-09-21 2020-09-29 Apple Inc. Multi-sensor real-time alignment and calibration
DE102016219099A1 (de) * 2016-09-30 2018-04-05 Robert Bosch Gmbh Optischer Sensor zur Entfernungs- und/oder Geschwindigkeitsmessung, System zur Mobilitätsüberwachung von autonomen Fahrzeugen und Verfahren zur Mobilitätsüberwachung von autonomen Fahrzeugen
DE102016015114A1 (de) * 2016-12-20 2018-06-21 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Anzeigevorrichtung zur Anordnung an einer Scheibe eines Kraftfahrzeugs
US10773725B1 (en) 2017-08-25 2020-09-15 Apple Inc. Tire-road friction estimation and mapping
DE102018206741A1 (de) * 2018-05-02 2019-11-07 Robert Bosch Gmbh Ultraschallsystem eines Fahrzeugs
US11592566B2 (en) * 2019-08-15 2023-02-28 Volvo Car Corporation Vehicle systems and methods utilizing LIDAR data for road condition estimation
CN109291922B (zh) * 2018-09-30 2020-08-07 东风汽车集团有限公司 一种自动识别小型障碍物并制动的驾驶辅助系统及控制方法
KR102081513B1 (ko) * 2018-10-12 2020-02-25 한양대학교 산학협력단 차량을 이용하는 노면 상태 측정 방법 및 장치
DE102018221517A1 (de) * 2018-12-12 2020-06-18 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erfassung einer Fahrbahnoberfläche
JP7134855B2 (ja) * 2018-12-12 2022-09-12 日立Astemo株式会社 路面状態判定装置、および、路面状態判定システム
SE543227C2 (en) * 2019-02-28 2020-10-27 Omniklima Ab Method and arrangement for determining a condition of a road surface by superposing images of NIR camera and RGB sensor
KR102342965B1 (ko) * 2020-08-07 2021-12-24 한국철도기술연구원 자갈 마모도 분석 시스템 및 자갈 마모도 분석 방법
KR20220057674A (ko) * 2020-10-29 2022-05-09 주식회사 만도 차량 제어 장치 및 방법과, 차량 시스템
CN113561905B (zh) * 2021-05-07 2023-05-12 上海厉鲨科技有限公司 道路病害巡检设备的安装、范围的获取方法、设备及介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4008280A1 (de) * 1990-03-15 1991-09-19 Tzn Forschung & Entwicklung Verfahren zur ermittlung des fahrbahnoberflaechenzustandes
US5489777A (en) * 1990-12-26 1996-02-06 Denver Seminary Apparatus for remote analysis of vehicle emissions using reflective thermography
US6049171A (en) * 1998-09-18 2000-04-11 Gentex Corporation Continuously variable headlamp control
DE19730414A1 (de) * 1997-07-16 1999-01-21 Opel Adam Ag Verfahren und Vorrichtung zur vorausschauenden Fahrbahnbeurteilung
US20080129541A1 (en) * 2006-12-01 2008-06-05 Magna Electronics Black ice detection and warning system
CN101089548B (zh) * 2007-07-06 2010-05-26 哈尔滨工业大学 路面车辙三维信息检测方法
JP5074888B2 (ja) * 2007-11-02 2012-11-14 株式会社小糸製作所 車両用ランプシステム
CN101845788B (zh) * 2010-04-09 2013-04-17 同济大学 基于结构光视觉的水泥混凝土路面错台检测装置及方法
US8473144B1 (en) * 2012-10-30 2013-06-25 Google Inc. Controlling vehicle lateral lane positioning
CN104044523A (zh) * 2013-03-11 2014-09-17 上海市第一中学 夜间行车安全辅助系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017220266A1 (de) * 2016-06-20 2017-12-28 Osram Gmbh Umgebungserfassungsvorrichtung, beleuchtungseinrichtung für ein fahrzeug und fahrzeug mit der umgebungserfassungsvorrichtung
DE102017109905A1 (de) * 2017-05-09 2018-11-15 Automotive Lighting Reutlingen Gmbh Scheinwerfer mit integriertem Lidar
DE102017109905B4 (de) 2017-05-09 2024-09-05 Automotive Lighting Reutlingen Gmbh Scheinwerfer mit integriertem Lidar
DE102017122432A1 (de) * 2017-09-27 2019-03-28 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erfassen einer Fahrbahnbeschaffenheit einer Fahrbahn für ein Kraftfahrzeug, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019004614A1 (de) 2019-07-01 2020-01-16 Daimler Ag Verfahren zum Bestimmen einer Fahrbahneigenschaft einer Fahrbahn mittels einer phasengestuften Deflektometrie sowie Fahrbahnerfassungssystem
EP3764081A1 (de) * 2019-07-11 2021-01-13 ZKW Group GmbH Sensorsystem und verfahren zur molekülspektroskopischen bestimmung der oberflächenbeschaffenheit eines vor einem kraftfahrzeug befindlichen untergrunds

Also Published As

Publication number Publication date
CN105321353A (zh) 2016-02-10
US20150367855A1 (en) 2015-12-24
US9555812B2 (en) 2017-01-31

Similar Documents

Publication Publication Date Title
DE102014212032A1 (de) Verfahren zum Detektieren einer Fahrbahn und entsprechendes Detektionssystem
DE102005044486B4 (de) Verfahren zur Detektion des Oberflächenzustands einer Fahrbahn, sowie Detektionssystem und Fahrerassistenzsystem zur Umsetzung des Verfahrens
DE102012209810A1 (de) Verfahren und Steuergerät zur Erkennung einer Wetterbedingung in einem Umfeld eines Fahrzeugs
DE10126492B4 (de) Verfahren zur Verbesserung der Sicht in Fahrzeugen
DE102013223367A1 (de) Verfahren und Vorrichtung zur Bestimmung eines Fahrbahnzustands mittels eines Fahrzeugkamerasystems
EP2788224A1 (de) Verfahren und vorrichtung zur erkennung einer bremssituation
DE10131840A1 (de) Vorrichtung zur Verbesserung der Sicht in Fahrzeugen
DE102011109440A1 (de) Verfahren zum Justieren und/oder Kalibrieren zumindest eines Scheinwerfers eines Fahrzeugs
DE102011084762A1 (de) Verfahren und Vorrichtung zur Ermittlung einer Position eines Objektes in einem Umfeld eines Fahrzeugs
EP1704072A1 (de) Verfahren und vorrichtung zur steuerung einer strahlungsquelle
DE102012209514A1 (de) Verfahren und Vorrichtung zur Detektion einer Sichtbeeinträchtigung einer Scheibe
DE102014224857A1 (de) Sensorsystem und Verfahren zur Klassifikation von Fahrbahnoberflächen
DE102006055906A1 (de) Verfahren zur Erkennung von Reflektoren, Schildern und Fahrzeuglichtern
DE102013021797A1 (de) Verfahren zur Abgabe eines Warnhinweises auf einen gefährlichen Fahrbahnzustand und Vorrichtung
DE112009004830T5 (de) Spektrummessvorrichtung für Bewegungsobjekt
WO2016015827A1 (de) Fahrerassistenzsystem, kraftfahrzeug und betriebsverfahren
DE102010043829B4 (de) Optisches Abtastsystem und optisches Abtastverfahren
WO2021037710A1 (de) Verfahren und vorrichtung zur echtzeitbestimmung von eigenschaften einer von einem fahrzeug momentan befahrenen fahrbahn
DE112020004884T5 (de) Mehrsensormesssystem und -verfahren für transportfahrzeug-betriebssysteme
DE10138361A1 (de) Verfahren zur Verbessung der Sicht in Fahrzeugen
DE60313287T2 (de) Verfahren zur sichtweitebestimmung und nebeldetektion
EP2748760B1 (de) VERFAHREN ZUR SCHÄTZUNG EINES STRAßENVERLAUFS UND VERFAHREN ZUR STEUERUNG EINER LICHTAUSSENDUNG ZUMINDEST EINES SCHEINWERFERS EINES FAHRZEUGS
WO2013091619A1 (de) Verfahren und vorrichtung zur ermittlung von feuchtigkeit auf einer fahrzeugscheibe
DE102004023323B4 (de) Sensorvorrichtung und Verfahren in einem Fahrzeug zur Erkennung des Zustands der Straßenoberfläche
DE102011081425A1 (de) Verfahren und Vorrichtung zur Klassifizierung eines sich in einem Vorfeld eines Fahrzeugs befindlichen Lichtobjekts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000