DE102022201522A1 - Eine Vorrichtung und ein Verfahren zum Erkennen eines Zustands einer Fahrbahnoberfläche - Google Patents

Eine Vorrichtung und ein Verfahren zum Erkennen eines Zustands einer Fahrbahnoberfläche Download PDF

Info

Publication number
DE102022201522A1
DE102022201522A1 DE102022201522.3A DE102022201522A DE102022201522A1 DE 102022201522 A1 DE102022201522 A1 DE 102022201522A1 DE 102022201522 A DE102022201522 A DE 102022201522A DE 102022201522 A1 DE102022201522 A1 DE 102022201522A1
Authority
DE
Germany
Prior art keywords
window
tuple
road surface
parameters
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022201522.3A
Other languages
English (en)
Inventor
Dietrich Dumler
Franz Wenninger
Wolfgang Gerner
Harald Gossner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Intel Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV, Intel Deutschland GmbH filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to EP22194388.9A priority Critical patent/EP4148683A1/de
Priority to US17/930,651 priority patent/US20230079037A1/en
Priority to JP2022143927A priority patent/JP2023041051A/ja
Priority to CN202211108971.9A priority patent/CN116030291A/zh
Publication of DE102022201522A1 publication Critical patent/DE102022201522A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/21Polarisation-affecting properties
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4738Diffuse reflection, e.g. also for testing fluids, fibrous materials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1765Method using an image detector and processing of image signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Immunology (AREA)
  • Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

Ausführungsbeispiele der Erfindung schaffen eine Vorrichtung (100) zum Erkennen eines Zustands (160, 170) einer Fahrbahnoberfläche (210). Die Vorrichtung (100) weist eine Eingangsschnittstelle (110), einen Bildteiler (120), einen Parameterberechner (130) und einen Klassifizierer (140) auf. Die Eingangsschnittstelle (110) ist ausgebildet, um eine Aufnahmeinformation (150, 220) der Fahrbahnoberfläche (210), wie zum Beispiel eine Kameraaufnahme, zu erhalten. Der Bildteiler (120) ist ausgelegt, um die Aufnahmeinformation (150, 220) in eine Mehrzahl von Fenstern (123, 126, 129, 226, 229) aufzuteilen, wobei jedes Fenster (123, 126, 129, 226, 229) eine Mehrzahl von Bildelementen (135) aufweist und wobei jedes Bildelement (135) wenigstens zwei verschiedene Informationen, wie zum Beispiel spektrale Absorption der Fahrbahnoberfläche und/oder Polarisation des reflektierten Lichts, aufweist. Der Parameterberechner (130) ist ausgebildet, um wenigstens zwei Parameter pro Fenster (123, 126, 129, 226, 229) unter Verwendung der wenigstens zwei verschiedenen Informationen jedes Bildelementes (135) in dem Fenster (123, 126, 129, 226, 229) zu berechnen. Der Klassifizierer (140) ist ausgelegt, um das Fenster (123, 126, 129, 226, 229) anhand eines Tupels (143) aus den wenigstens zwei Parametern des Fensters (123, 126, 129, 226, 229) zu klassifizieren, und um anhand des Tupels (143) aus den wenigstens zwei Parametern des Fensters (123, 126, 129, 226, 229) als Eingangswerte einen Zustand (160, 170) des Fensters (123, 126, 129, 226, 229) zu erkennen und den Zustand (160, 170) des Fensters (123, 126, 129, 226, 229) als Ausgangswert (160, 170) auszugeben.

Description

  • Die vorliegende Anmeldung betrifft eine Vorrichtung und ein Verfahren zum Erkennen eines Zustands einer Fahrbahnoberfläche.
  • Die Erkennung der Straßenverhältnisse ist unerlässlich für ein sicheres Fahren. Moderne Fahrzeuge schätzen allgemeine Risiken der Straßenverhältnisse mithilfe von Sensoren, wie zum Beispiel mit optischen Sensoren.
  • Die Situation vor einem Fahrzeug wird beispielsweise mit einer Kamera aufgenommen. Auf einem Rot-Grün-Blau- (RGB-) Bild ist es schwierig, zum Beispiel einen nassen Fleck von einem schmutzigen Fleck auf einer Fahrbahnoberfläche zu unterscheiden, da beide einfach nur dunkel sind. Obwohl Wasser transparent ist, ist Wasser in RGB-Bildern aufgrund verschiedener Effekte, die den Weg eines Lichtstrahls verändern, leicht sichtbar. Gängige Objekterkennungsverfahren (object detection) verwenden RGB-Daten, um Objekte, wie zum Beispiel Passanten, zu erkennen. Objekte, wie Pfützen, mit simplen Formen und mit komplexen optischen Verhalten, wie starke Reflexion oder Transparenz, sind jedoch schwer zu erkennen. Umweltvariablen, wie Tageslicht, Hintergrund und Untergrund, verändern das Erscheinungsbild witterungsbedingter Ablagerungen erheblich, was die Erkennung noch weiter erschwert.
  • RGB-Kameras oder RGB-Bildsensoren können die verschiedenen Effekte, wie Absorption und/oder Polarisation, nicht bestimmen. Daher sind die Ergebnisse des Lokalisierungs- und Klassifizierungsverfahrens stark fallabhängig und unzuverlässig.
  • Die Aufgabe der vorliegenden Erfindung besteht deshalb darin, ein zuverlässiges, robustes Konzept zum Erkennen eines Zustands einer Fahrbahnoberfläche zu schaffen.
  • Diese Aufgabe wird durch eine Vorrichtung nach Anspruch 1, durch ein Verfahren nach Anspruch 19, oder durch ein Computerprogramm nach Anspruch 20 gelöst.
  • Ausführungsbeispiele der Erfindung schaffen eine Vorrichtung zum Erkennen eines Zustands einer Fahrbahnoberfläche. Die Vorrichtung weist eine Eingangsschnittstelle, einen Bildteiler, einen Parameterberechner und einen Klassifizierer auf.
  • Die Eingangsschnittstelle ist ausgebildet, um eine Aufnahmeinformation der Fahrbahnoberfläche, wie zum Beispiel eine Kameraaufnahme, zu erhalten.
  • Der Bildteiler ist ausgelegt, um die Aufnahmeinformation in eine Mehrzahl von Fenstern aufzuteilen, wobei jedes Fenster eine Mehrzahl von Bildelementen aufweist und wobei jedes Bildelement wenigstens zwei verschiedene Informationen wie zum Beispiel eine spektrale Absorption der Fahrbahnoberfläche und/oder eine Polarisation des reflektierten Lichts aufweist.
  • Der Parameterberechner ist ausgebildet, um wenigstens zwei Parameter pro Fenster unter Verwendung der wenigstens zwei verschiedenen Informationen jedes Bildelementes in dem Fenster zu berechnen.
  • Der Klassifizierer ist ausgelegt, um das Fenster anhand eines Tupels aus den wenigstens zwei Parametern des Fensters zu klassifizieren. Der Klassifizierer ist ausgebildet, um anhand des Tupels aus den wenigstens zwei Parametern des Fensters als Eingangswerte einen Zustand des Fensters zu erkennen und den Zustand des Fensters der Aufnahmeinformation auszugeben.
  • In anderen Worten verwendet die erfinderische Vorrichtung eine fensterweise bzw. elementare Klassifizierung. Diese elementare Klassifizierung basiert auf einer Extraktion der optischen Eigenschaften von Fahrbahnoberflächen aus den Sensoraufnahmen, im Speziellen durch Evaluierung der spektralen Absorption der Fahrbahnoberfläche und/oder Polarisation des reflektierten Lichts.
  • Eine elementare bzw. fensterweise Klassifizierung erhöht die Widerstandsfähigkeit der Vorrichtung gegen Bildelementfehler, da bei einer fensterweisen Klassifizierung ein Bildelementfehler nur lokale Auswirkungen hat.
  • Die fensterweise Klassifizierung ermöglicht eine fensterweise Evaluierung. Die Güte der Klassifizierung kann durch einen Vergleich des Fensters mit dem Ergebnis der Klassifizierung bestimmt werden.
  • Ferner verwendet der erfinderische Bildsensor einen verringerten Rechenaufwand gegenüber einer gängigen Objektdetektion für die Erkennung eines Zustands einer Fahrbahnoberfläche.
  • Somit schafft der Bildsensor eine zuverlässige und robuste Erkennung eines Zustands einer Fahrbahnoberfläche und gleichzeitig eine einfache, fensterweise Evaluierung.
  • Bei Ausführungsbeispielen ist die Eingangsschnittstelle ausgebildet, um entweder die Ausgabeinformation von einem Sensor zu erhalten, oder um mehrere Sensoraufnahmen zu erhalten und die Aufnahmeinformation aus den erhaltenen Sensoraufnahmen zusammenzustellen. Die Aufnahmeinformation der Fahrbahnoberfläche weist pro Bildelement wenigstens zwei Sensoraufnahmen aus einer Gruppe von wenigstens vier Sensoraufnahmen auf.
  • Die Gruppe von Sensoraufnahmen weist eine erste Sensoraufnahme der Fahrbahnoberfläche mit einer ersten optischen Bandbreite auf, in der das Wasser eine erste Absorptionsrate hat.
  • Die Gruppe von Sensoraufnahmen weist eine zweite Sensoraufnahme der Fahrbahnoberfläche mit einer zweiten optischen Bandbreite auf, in der das Wasser eine zweite Absorptionsrate hat, die höher als die erste Absorptionsrate ist.
  • Die Gruppe von Sensoraufnahmen weist eine dritte Sensoraufnahme mit einem ersten Polarisationsfilter mit einem ersten Polarisationswinkel auf.
  • Die Gruppe von Sensoraufnahmen weist noch eine vierte Sensoraufnahme mit einem zweiten Polarisationsfilter mit einem zweiten Polarisationswinkel auf, der sich von dem ersten Polarisationswinkel unterscheidet.
  • Die Aufnahmeinformation der Fahrbahnoberfläche weist pro Bildelement wenigstens zwei Sensoraufnahmen auf.
  • Absorptionsinformationen ermöglichen konkrete Materialien mit bestimmen Absorptionseigenschaften in der Aufnahme leichter zu finden.
  • Beispielsweise, die Verwendung einer ersten und einer zweiten Sensoraufnahme mit unterschiedlichen optischen Bandbreiten, in denen das Wasser unterschiedliche Absorptionsraten hat, ermöglicht eine Erkennung von Wasser auf einer Fahrbahnoberfläche.
  • Sensoraufnahmen mit Polarisationsfiltern ermöglichen es, die an der Oberfläche reflektierenden Lichtstrahlen zu analysieren. Beispielsweise, die Reflexion von flüssigem Wasser zeigt ein hohes Polarisationsverhältnis des Lichts mit vorwiegend horizontaler Ausrichtung, während die Eiskristalle den Lichtstrahl streuen und eine Rotation der Welle verursachen. Eiskristalle ergeben eine stärker gestreute Polarisation mit leicht verschobener Orientierung.
  • Beispielsweise, die Verwendung von Sensoraufnahmen mit Polarisationsfiltern mit unterschiedlichen Polarisationswinkeln ermöglicht eine Unterscheidung zwischen Wasser, Schnee und Glatteis.
  • Bei Ausführungsbeispielen weist die erste optische Bandbreite eine Bandbreite auf, die aus einem Spektralbereich zwischen 400 nm und 900 nm ausgewählt ist. Gleichzeitig weist die zweite optische Bandbreite eine Bandbreite auf, die aus einem Spektralbereich zwischen 900 nm und 1200 nm ausgewählt ist.
  • Durch eine oben genannte Auswahl der ersten optischen Bandbreite und der zweiten optischen Bandbreite wird ein optimaler Intensitätsunterschied in Bereichen mit Wasser zwischen den Aufnahmen ermöglicht.
  • Bei Ausführungsbeispielen weist die erste optische Bandbreite bei einer Halbwertbreite einen Wert zwischen 820 nm und 870 nm und die zweite optische Bandbreite bei der Halbwertbreite einen Wert zwischen 920 nm und 970 nm auf.
  • Durch eine optimale Auswahl der ersten optischen Bandbreite und der zweiten optischen Bandbreite wird ein möglichst maximaler Intensitätsunterschied in Bereichen mit Wasser zwischen den Aufnahmen ermöglicht.
  • Bei Ausführungsbeispielen sind der Polarisationswinkel des ersten Polarisationsfilters und der Polarisationswinkel des zweiten Polarisationsfilters 90° zueinander versetzt dimensioniert.
  • Gleichmäßig verteilte Polarisationswinkel liefern die meisten Informationen über die an der Oberfläche reflektierenden Lichtstrahlen. Zwei Polarisationsfilter liefern schon ausreichende Informationen über die Polarisationsebene des Lichtstrahls.
  • Bei Ausführungsbeispielen weist der Klassifizierer einen Speicher auf, in dem für jedes Eingangstupel einer Mehrzahl von möglichen Tupeln eine zugeordnete Zustandsinformation einer Mehrzahl von verschiedenen Zustandsinformationen abgespeichert ist. Die Mehrzahl von verschiedenen Zustandsinformationen weist z. B. einen Zustand trocken, einen Zustand nass, einen Zustand Schnee und einen Zustand Glatteis auf.
  • Die Verwendung eines Klassifizierers, der die Zustandsinformationen der möglichen Zustände, wie zum Beispiel „nass“, „trocken“, „Schnee“ und „Glatteis“, speichert und der die Zustandsinformationen mit einem Eingangstupel vergleicht, verringert den benötigten Rechenaufwand gegenüber den gängigen Verfahren, wie zum Beispiel Bilderkennung.
  • Bei Ausführungsbeispielen ist der Klassifizierer ausgebildet, um die wenigstens zwei Parameter des Tupels auf Werte aus einem vorhandenen Eingangstupel zu runden, und dann unter Verwendung des vorhandenen Eingangstupels auf den Speicher zuzugreifen, um den Zustand für das Fenster zu erhalten.
  • Bei anderen Ausführungsbeispielen ist der Klassifizierer ausgebildet, um auf der Basis des Tupels für das Fenster ein Eingangstupel, das dem Tupel für das Fenster gemäß einem Kriterium auszuwählen. Das Kriterium ist beispielsweise eine kleinste aufaddierte quadratische Abweichung der wenigstens zwei Parameter des Tupels für das Fenster von den vorhandenen Eingangstupeln. Der Klassifizierer ist dann ausgebildet, um mit dem gewählten Tupel auf den Speicher zuzugreifen und den Zustand für das Fenster zu erhalten.
  • Der Speicher des Klassifizierers kann nicht alle Zustandsinformationen der möglichen Zustände aufweisen. Sind die wenigstens zwei Parameter des Tupels nicht im Speicher des Klassifizierers zu finden, kann der Klassifizierer die Parameter vor dem Vergleich leicht verändern. So sind die geänderten Parameter des Tupels in dem Speicher nun auffindbar. Dadurch bleibt der Zustand des Fensters erkennbar.
  • Bei Ausführungsbeispielen ist der Klassifizierer ausgebildet, um für jedes der Mehrzahl von Fenstern ein eigenes Tupel zu verwenden, um anhand jedes Tupels einen Zustand jedes Fensters zu erkennen und den Zustand jedes Fensters der Aufnahmeinformation der Fahrbahnoberfläche als Ausgangsgröße auszugeben. Somit ergibt sich eine fensterweise bzw. elementare Klassifizierung.
  • Die fensterweise Klassifizierung erhöht die Widerstandsfähigkeit der Vorrichtung gegen Bildelementfehler. Bildelemente eines Fensters können nur den Zustand des Fensters beeinflussen. Die Auswirkung eines Bildelementes oder Bildelementfehlers ist auf das Fenster begrenzt.
  • Die fensterweise Klassifizierung ermöglicht auch eine fensterweise Evaluierung. Die Güte der Klassifizierung kann nun durch einen Vergleich des Fensters mit dem Ergebnis der Klassifizierung bestimmt werden.
  • Bei Ausführungsbeispielen ist der Klassifizierer ausgebildet, um unter Verwendung von Zuständen von benachbarten Fenstern zusammenhängende Bereiche aus mehreren nebeneinander angeordneten Fenstern blockweise zu klassifizieren.
  • Nun werden zusammenhängende Bereiche definiert, die aus mehreren nebeneinander angeordneten Fenstern entstehen. Die Bestimmung der Grenzen von zusammenhängenden Bereichen ist sehr nützlich, um verschiedene Gefahren in Fahrsituationen zu vermeiden.
  • Bei Ausführungsbeispielen ist der Parameterberechner ausgebildet, um wenigstens zwei Parameter aus der Gruppe Absorptionskontrastparameter, Polarisationskontrastparameter und Reflexionsintensitätsparameter zu berechnen.
  • Der Absorptionskontrastparameter wird zum Beispiel derart berechnet, dass der Wert des Absorptionskontrastparameters eine Zahl innerhalb von ±20% eines Ergebnisses der folgenden Formel aufweist: a b s c o n t r a s t = 1 n i = 1 n I 850 ( i ) I 950 ( i ) I 850 ( i ) + I 950 ( i ) ,
    Figure DE102022201522A1_0001
    dabei sind:
  • abscontrast
    das Ergebnis;
    n
    Bildelementanzahl im Fenster;
    i
    Index eines Bildelements im Fenster;
    I850(i)
    Intensitätswert der ersten Sensoraufnahme des i-ten Bildelements im Fenster, und
    I950(i)
    Intensitätswert der zweiten Sensoraufnahme des i-ten Bildelements im Fenster.
  • Der Polarisationskontrastparameter wird zum Beispiel derart berechnet, dass der Wert des Absorptionskontrastparameters eine Zahl innerhalb von ±20% eines Ergebnisses der folgenden Formel aufweist: p o l c o n t r a s t = 1 n i = 1 n I p o l 1 ( i ) I p o l 2 ( i ) I p o l 1 ( i ) + I p o l 2 ( i ) ,
    Figure DE102022201522A1_0002
    dabei sind:
  • polcontrast
    das Ergebnis;
    n
    Bildelementanzahl im Fenster;
    i
    Index eines Bildelements im Fenster;
    Ipol1(i)
    Intensitätswert der dritten Sensoraufnahme des i-ten Bildelements im Fenster, und
    Ipol2(i)
    Intensitätswert der vierten Sensoraufnahme des i-ten Bildelements im Fenster.
  • Der Reflexionsintensitätsparameter wird zum Beispiel derart berechnet, dass der Wert des Reflexionsintensitätsparameters eine Zahl innerhalb von ±20% eines Ergebnisses der folgenden Formel aufweist: r e f m e a n = 1 n i = 1 n I p o l 1 ( i ) + I p o l 2 ( i ) + I 850 ( i ) 3 ,
    Figure DE102022201522A1_0003
    dabei sind:
  • refmean
    das Ergebnis;
    n
    Bildelementanzahl im Fenster;
    i
    Index eines Bildelements im Fenster;
    Ipol1(i)
    Intensitätswert der dritten Sensoraufnahme des i-ten Bildelements im Fenster,
    Ipol2(i)
    Intensitätswert der vierten Sensoraufnahme des i-ten Bildelements im Fenster, und
    I850(i)
    Intensitätswert der ersten Sensoraufnahme des i-ten Bildelements im Fenster.
  • Bei Ausführungsbeispielen ist der Bildteiler ausgebildet, um die Aufnahmeinformation in eine Mehrzahl von nicht überlappenden Fenstern aufzuteilen.
  • Die Anzahl der nicht überlappenden Fenster ist deutlich weniger als die Anzahl der möglichen überlappenden Fenster. Eine Reduzierung der Anzahl der Fenster auf die Anzahl der nicht überlappenden Fenster erspart Rechenaufwand.
  • Bei Ausführungsbeispielen ist der Bildteiler ausgebildet, um die Aufnahmeinformation in eine Mehrzahl von Fenstern mit positionsabhängiger Fenstergröße aufzuteilen, wobei das Fenster, das einen nahen Fahrbahnoberflächenteil repräsentiert größer ist als das Fenster, das einen fernen Fahrbahnoberflächenteil repräsentiert.
  • Bei einer positionsabhängigen oder dynamischen Fenstergröße wird die Fenstergröße anhand der Position des Fensters automatisch geregelt. Eine optimale Fenstergröße erhöht die Widerstandsfähigkeit des Fensters gegen mögliche Bildelementfehler. Eine große Anzahl der Bildelemente in einem Fenster erlaubt es, fehlerhafte Bildelemente zu ignorieren. Gleichzeitig vermindert die optimale Fenstergröße die Anzahl der möglichen Zustandsmissinterpretationen. Objekte in der Ferne sind kleiner in einem Bild und können einfacher mit dem Hintergrund vermischt werden als naheliegende Objekte.
  • Bei Ausführungsbeispielen ist der Parameterberechner ausgebildet, um eine Winkelkorrektur auf die einzelnen Fenster der Aufnahmeinformation vor der Berechnung der Parameter anzuwenden. Jedes Bildelement des Fensters wird abhängig von dem Winkel des eintreffendes Lichtes zur Fahrbahnoberfläche korrigiert. Eine Korrektur für ein Fenster, das einen nahen Fahrbahnoberflächenteil repräsentiert, unterscheidet sich von einer Korrektur für ein Fenster, das einen fernen Fahrbahnoberflächenteil repräsentiert.
  • Der Winkel der Kamera zur Straße kann mit bekannten Fensterpositionen im Bild bestimmt werden. Wenn der Öffnungswinkel der Kamera zum Beispiel 22° ist, sind die Pixel am oberen Rand des Bildes bei < 1° und die am unteren Rand bei ungefähr 22° zur Fahrbahnoberfläche geneigt. Das macht einen deutlichen Unterschied im Reflexionsverhalten aus. Eine Winkelkorrektur kann diese Unterschiede minimieren.
  • Bei Ausführungsbeispielen ist der Klassifizierer ausgebildet, um jedes Tupel einem Zustand abhängig von einem Winkel des eintreffendes Lichtes zur Fahrbahnoberfläche zuzuordnen.
  • Der Winkel der Kamera zur Straße kann mit bekannten Fensterpositionen im Bild bestimmt werden. Wenn der Öffnungswinkel der Kamera zum Beispiel 22° ist, sind die Pixel am oberen Rand des Bildes bei < 1° und die am unteren Rand bei ungefähr 22° zur Fahrbahnoberfläche. Das macht einen deutlichen Unterschied im Reflexionsverhalten aus. Mithilfe von deutlich mehr Trainingsdaten kann das Einbeziehen dieser Winkelinformationen zu einer genaueren Klassifizierung führen.
  • Ausführungsbeispiele der Erfindung schaffen ein Fortbewegungsmittel oder ein Fahrzeug mit der Vorrichtung und einer Schnittstelle. Die Schnittstelle ist ausgebildet, um eine Fahrerin oder einen Fahrer des Fortbewegungsmittels zu alarmieren und/oder um eine Steuerung des Fortbewegungsmittels zu beeinflussen, falls die Vorrichtung einen festen Zustand des Wassers detektiert.
  • Die Vorrichtung des Fortbewegungsmittels ermöglicht ein sicheres Fahren durch eine präventive Lokalisierung und Erkennung von Nassbereichen, Pfützen und Eis- oder Schneeformationen, um die tatsächliche Gefahr oder das tatsächliche Risiko eines Traktionsverlustes abzuleiten. Die präventive Gefahrerkennung vor dem tatsächlichen Traktionsverlust kann ein System in die Lage versetzen, über die Schnittstelle den Fahrer zu alarmieren oder die Steuerung des Fortbewegungsmittels zu beeinflussen.
  • Weitere Ausführungsbeispiele gemäß der vorliegenden Erfindung schaffen entsprechende Verfahren bzw. Computerprogramme.
  • Ausführungsbeispiele gemäß der vorliegenden Erfindung schaffen eine Vorrichtung und ein Verfahren zur Erkennung von Wasser und Eis auf Fahrbahnoberflächen durch Einbeziehung von wasserspezifischen optischen Eigenschaften.
  • Ausführungsbeispiele gemäß der vorliegenden Erfindung werden nachfolgend bezugnehmend auf die beiliegenden Figuren näher erläutert.
    • 1 zeigt eine schematische Darstellung eines Ausführungsbeispiels einer Vorrichtung mit einer Eingangsschnittstelle, einem Bildteiler, einem Parameterberechner und einem Klassifizierer;
    • 2 zeigt eine schematische perspektivische Darstellung einer Fahrbahnoberfläche und einen Rahmen, der eine Aufnahmeinformation der Fahrbahnoberfläche repräsentiert, mit zwei Fenstern, die unterschiedliche Größen haben;
    • 3 zeigt ein dreidimensionales Diagramm, bei dem jeder Punkt ein Fenster repräsentiert und wobei die X-, Y-, Z-Koordinaten drei Parameter des Fensters repräsentieren, nämlich die Parameter Absorptionskontrastparameter, Polarisationskontrastparameter und Reflexionsintensitätsparameter.
  • 1 zeigt eine schematische Darstellung eines Ausführungsbeispiels einer Vorrichtung 100 zum Erkennen eines Zustands einer Fahrbahnoberfläche. Die Vorrichtung weist eine Eingangsschnittstelle 110, einen Bildteiler 120, einen Parameterberechner 130 und einen Klassifizierer 140 auf.
  • Die Eingangsschnittstelle 110 ist ausgebildet, um eine Aufnahmeinformation 150 der Fahrbahnoberfläche zu erhalten und an den Bildteiler 120 weiterzugeben.
  • Der Bildteiler 120 teilt die Aufnahmeinformation 150 in eine Mehrzahl von Fenstern auf und gibt die Fenster, wie zum Beispiel die Fenster 123, 126, und 129, an den Parameterberechner 130 weiter.
  • Neben den vorbestimmten Fenstergrößen kann der Bildteiler 120 auch eine dynamische Fenstergröße verwenden. Bei einer dynamischen Fenstergröße wird die Fenstergröße je nach Fensterposition im Bild automatisch geregelt. Ein Beispiel für eine dynamischen Fenstergröße befindet sich in 2.
  • Jedes Fenster weist eine Mehrzahl von Bildelementen 135 auf, wobei jedes Bildelement 135 wenigstens zwei verschiedene Informationen aufweist.
  • Der Parameterberechner 130 ist ausgebildet, um ein Tupel 143 pro Fenster zu erstellen, wobei das Tupel wenigstens zwei Parameter umfasst. Die wenigstens zwei Parameter werden unter Verwendung der wenigstens zwei verschiedenen Informationen jedes Bildelements berechnet. Das Tupel 143 wird an den Klassifizierer 140 weitergegeben.
  • Der Klassifizierer 140 umfasst einen Speicher 145 und/oder eine Datenbank 145 mit verschiedenen möglichen Zustandsinformationen. Der Klassifizierer 140 ist ausgebildet, um jedes Tupel 143 mit einer Mehrzahl von Zustandsinformationen, die in dem Speicher 145 und/oder in der Datenbank 145 gespeichert sind, zu vergleichen und um anhand dieses Vergleichs den Zustand 160 des Fensters 126 oder 129 der Aufnahmeinformation 150 zu erkennen.
  • Die Zustandsinformationen, die in dem Speicher 145 und/oder in der Datenbank 145 gespeichert sind, können zum Beispiel in einem 3D-Plot, ähnlich wie der 3D-Plot 300 in 3, visualisiert werden.
  • Der Zustand 170 der gesamten Aufnahmeinformation 150 ist aus den Zuständen 160 der einzelnen Fenster zusammengestellt. Hierbei kann der Klassifizierer 140 mehrere nebeneinander angeordnete Fenster mit gleichem Zustand gemeinsam klassifizieren.
  • 2 zeigt eine schematische perspektivische Darstellung 200 einer Fahrbahnoberfläche 210 mit einem Rastermuster. Jedes Kästchen des Rastermusters repräsentiert einen 1m x 1m quadratischen Bereich auf der Straße. 2 zeigt noch einen Rahmen 220, der eine Aufnahmeinformation 220 der Fahrbahnoberfläche repräsentiert. Die Aufnahmeinformation 220 ist ähnlich wie die Aufnahmeinformation 150 in 1. Die Aufnahmeinformation 220 weist zwei Fenster 226 und 229 mit unterschiedlichen Fenstergrößen auf.
  • Die Aufnahmeinformation 220 wird wie die Aufnahmeinformation 150 in 1 über die Eingangsschnittstelle 110 an den Bildteiler 120 weitergegeben. Der Bildteiler ist ausgebildet, um die Aufnahme 220 in eine Mehrzahl von Fenstern aufzuteilen. Das aufgenommene Bild bzw. die Aufnahmeinformation in dem Rahmen 220 wird mithilfe von den Fenstern analysiert.
  • Hierbei wird ein Fenster, wie zum Beispiel das Fenster 226 oder 229, ausgewählt um das aufgenommene Bild bzw. einen Teil des aufgenommenen Bildes zu analysieren. Die Größe des Fensters wird in Anzahl von Pixeln bzw. Bildelementen in x- und y-Ausrichtung beschrieben: nx × ny. Eine höhere Pixelanzahl hilft dabei, einzelne Pixelfehler oder Missinterpretationen durch Mittelung zu verhindern, was aber wiederum die benötigte Rechenleistung erhöht, um die Operation, d. h. die Parameterberechnung und/oder die Klassifizierung, noch schnell genug ausführen zu können. Ist aber das gewählte Fenster deutlich größer als die zu identifizierenden Objekte, werden die Objekte durch eine Mittelung mit dem Hintergrund vermischt.
  • Neben den vorbestimmten Fenstergrößen von, zum Beispiel, 8x4, 8x8, 16x16, 32x32 kann der Bildteiler 120 in 1 eine dynamische Fenstergröße verwenden. Bei dynamischer Fenstergröße wird die Fenstergröße je nach Fensterposition im Bild automatisch geregelt.
  • 2 zeigt zwei Fenster 226 und 229 mit unterschiedlichen Größen. Das Fenster 226 im oberen Bereich des Bildes ist deutlich kleiner als das Fenster 229 im unteren Bereich des Bildes. Die Größen der Fenster 226, 229 sind bildpositionsabhängig oder dynamisch festgelegt. Der Abstand eines Oberflächenbereichs zur Kamera ändert sich mit der Höhe bzw. mit der Y-Koordinate der Bildposition. Oberflächenbereiche in der Ferne sind in dem Bild kleiner als die naheliegenden Oberflächenbereiche und befinden sich in dem oberen Bereich des Bildes. Somit wird die optimale Fenstergröße in einem oberen Bereich des Bildes kleiner sein als die optimale Fenstergröße in einem unteren Bereich des Bildes. Die dynamische Fenstergröße garantiert die nötige Genauigkeit für weit entfernte Abschnitte bzw. Fenster und ermöglicht weiterhin eine gute Mittelung für nähere Objekte.
  • Die Sensoraufnahmen werden Pixel für Pixel oder Bildelement für Bildelement mit dem gewählten Fenster oder mit dem dynamischen Fenster abgetastet und die Daten aus den Teilbildern oder Fenstern verarbeitet. Die Pixelanzahl im Fenster wird mit der Formel n = nx · ny berechnet. Bei dynamischer Fenstergröße wird die Pixelanzahl der Fenster abhängig von der Fensterposition im Bild dynamisch definiert.
  • Jedes Fenster weist eine Mehrzahl von Bildelementen, zum Beispiel n Bildelemente, auf, wobei jedes Bildelement wenigstens zwei verschiedene Informationen umfasst. Unter Verwendung der wenigstens zwei verschiedenen Informationen wird der Parameterberechner, wie zum Beispiel der Parameterberechner 130 in 1, wenigstens zwei Parameter pro Fenster aus der Gruppe Absorptionskontrastparameter, Polarisationskontrastparameter und Reflexionsintensitätsparameter erstellen. Beispielsweise kann der Parameterberechner die wenigstens zwei Parameter derart berechnen, dass die Werte der wenigstens zwei Parameter innerhalb von ±20% der Ergebnisse der folgenden Formel aufweisen: a b s c o n t r a s t = 1 n i = 1 n I 850 ( i ) I 950 ( i ) I 850 ( i ) + I 950 ( i ) ,
    Figure DE102022201522A1_0004
    p o l c o n t r a s t = 1 n i = 1 n I p o l 1 ( i ) I p o l 2 ( i ) I p o l 1 ( i ) + I p o l 2 ( i ) ,
    Figure DE102022201522A1_0005
    r e f m e a n = 1 n i = 1 n I p o l 1 ( i ) + I p o l 2 ( i ) + I 850 ( i ) 3 ,
    Figure DE102022201522A1_0006
    dabei sind:
  • abscontrast
    Absorptionskontrastparameter;
    polcontrast
    Polarisationskontrastparameter;
    refmean
    Reflexionsintensitätsparameter;
    n
    Bildelementanzahl im Fenster;
    i
    Index eines Bildelements im Fenster;
    I850(i)
    Intensitätswert der ersten Sensoraufnahme des i-ten Bildelements im Fenster;
    I950(i)
    Intensitätswert der zweiten Sensoraufnahme des i-ten Bildelements im Fenster;
    Ipol1(i)
    Intensitätswert der dritten Sensoraufnahme des i-ten Bildelements im Fenster und
    Ipol2(i)
    Intensitätswert der vierten Sensoraufnahme des i-ten Bildelements im Fenster.
  • Die wenigstens zwei Parameter des Fensters können als ein Tupel repräsentiert werden und jedes Tupel kann in einem 3D-Plot, ähnlich wie der 3D-Plot 300 in 3, dargestellt werden.
  • 3 zeigt ein dreidimensionales Diagramm oder einen 3D-Plot 300, bei dem jeder Punkt ein Fenster, ähnlich wie die Fenster 226 und 229 in 2, repräsentiert. Die X-, Y-, Z-Koordinaten eines Punktes in dem 3D-Plot stehen für die drei Parameter eines Fensters, nämlich die Parameter Absorptionskontrastparameter, Polarisationskontrastparameter und Reflexionsintensitätsparameter.
  • Der 3D-Plot 300 wurde aus mehreren Fenstern erstellt, die unterschiedlichen Fahrbahnoberflächen mit unterschiedlichen Zuständen repräsentieren. Die Zustandsdateien in der Datenbank des Klassifizierers können zum Beispiel mit dem 3D-Plot 300 visualisiert werden. Die Parameter der Fenster und die dazugehörigen Zustände sind in dem Speicher oder in der Datenbank des Klassifizierers gespeichert. In dem 3D-Plot 300 sind die Zustände „Glatteis“, „nass“, „trocken“ und „Schnee“ mit Farben oder mit unterschiedlicher Schattierung repräsentiert.
  • Der Klassifizierer wird ein neues Fenster bzw. einen neuen Punkt in diesem 3D-Plot 300 hinzufügen und anhand der Position bzw. des Bereichs des neuen Punktes den Zustand des Fensters erkennen.
  • Es wird schnell ersichtlich, dass Messungen von Bereichen gleicher Straßenzustände Tupel ergeben, die sich im selben Bereich wiederfinden. Dies erlaubt eine messtechnische Trennung, also Klassifizierung der Zustände. Zeichnen sich deutliche Wolken bzw. Bereiche ab, die klar getrennt sind, dann können die Zustände auch tatsächlich messtechnisch voneinander getrennt werden. Der besondere Vorteil ist, dass das Verfahren nicht auf ein Objekterkennungsverfahren eines z. B. mehrstufigen faltenden neuronalen Netzwerks basiert, das erst generell Objekte sucht und diese mit Ankern markiert, um diese in einem weiteren Schritt zu markieren oder labeln, sondern unabhängig von dem Gesamtbild nur die einzelnen Fenster bewertet. Dies macht das erfindungsgemäße Konzept nicht nur sehr robust gegen Störungen, wie Objekte, die im Weg stehen, sondern das erfindungsgemäße Konzept lässt sich auch leicht nachvollziehen, und somit auch einfach hinsichtlich seiner Funktion überprüfen.
  • Die Qualität der Erkennung hängt von der Anzahl der Daten ab. Mit zusätzlichen Daten kann eine noch feinere Verwendung der Zustände erreicht werden. Hierbei kann es sich um die tatsächlichen Daten handeln, die mit weiteren Kameras oder Filtern aufgenommen werden oder auch um Informationen, die mit verschiedenen Verfahren aus den vorhandenen Kamerabildern extrahiert werden.
  • Zusätzlich kann der Klassifizierer auch die Fensterposition bzw. den Abstand zur Kamera berücksichtigen. Mit der bekannten Fensterposition im Bild kann der Winkel der Kamera zur Straße bestimmt werden. Zum Beispiel war der Öffnungswinkel der Kameras im Ausführungsbeispiel 22°. Damit sind die Pixel am oberen Rand des Bildes bei unter 1° und die am unteren Rand bei gegen 22° zur Fahrbahnoberfläche geneigt, was einen deutlichen Unterschied im Reflexionsverfahren ausmacht. Das Einbeziehen dieser Informationen kann zu einer genaueren Klassifizierung führen, benötigt aber mehr Trainingsdaten.
  • Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar. Einige oder alle der Verfahrensschritte können durch einen Hardware-Apparat (oder unter Verwendung eines Hardware-Apparats), ausgeführt werden. Bei einigen Ausführungsbeispielen können einige oder mehrere der wichtigsten Verfahrensschritte durch einen solchen Apparat ausgeführt werden.
  • Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein.
  • Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.
  • Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahingehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft.
  • Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.
  • Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist.
  • Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft.
  • Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.
  • Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahingehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.
  • Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahingehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.
  • Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.
  • Ein weiteres Ausführungsbeispiel gemäß der Erfindung umfasst eine Vorrichtung oder ein System, die bzw. das ausgelegt ist, um ein Computerprogramm zur Durchführung zumindest eines der hierin beschriebenen Verfahren zu einem Empfänger zu übertragen. Die Übertragung kann beispielsweise elektronisch oder optisch erfolgen. Der Empfänger kann beispielsweise ein Computer, ein Mobilgerät, ein Speichergerät oder eine ähnliche Vorrichtung sein. Die Vorrichtung oder das System kann beispielsweise einen Datei-Server zur Übertragung des Computerprogramms zu dem Empfänger umfassen.
  • Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.
  • Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.

Claims (20)

  1. Eine Vorrichtung (100) zum Erkennen eines Zustands (160, 170) einer Fahrbahnoberfläche (210), mit folgenden Merkmalen: einer Eingangsschnittstelle (110) zum Erhalten einer Aufnahmeinformation (150, 220) der Fahrbahnoberfläche; einem Bildteiler (120) zum Aufteilen der Aufnahmeinformation in eine Mehrzahl von Fenstern (123, 126, 129, 226, 229), wobei jedes Fenster eine Mehrzahl von Bildelementen (135) aufweist, wobei jedes Bildelement wenigstens zwei verschiedene Informationen aufweist; einem Parameterberechner (130) zum Berechnen von wenigstens zwei Parametern pro Fenster unter Verwendung der wenigstens zwei verschiedenen Informationen jedes Bildelementes in dem Fenster; und einem Klassifizierer (140) zum Klassifizieren des Fensters anhand eines Tupels (143) aus den wenigstens zwei Parametern des Fensters, wobei der Klassifizierer ausgebildet ist, um anhand des Tupels aus den wenigstens zwei Parametern des Fensters als Eingangswerte einen Zustand des Fensters zu erkennen und den Zustand (160, 170) des Fensters als Ausgangswert (160, 170) auszugeben.
  2. Die Vorrichtung (100) gemäß Anspruch 1, bei der die Eingangsschnittstelle (110) ausgebildet ist, entweder um die Aufnahmeinformation (150, 220) von einem Sensor zu erhalten, oder um mehrere Sensoraufnahmen zu erhalten und die Aufnahmeinformation (150, 220) aus den erhaltenen Sensoraufnahmen zusammenzustellen, wobei die Aufnahmeinformation (150, 220) der Fahrbahnoberfläche (210) pro Bildelement (135) wenigstens zwei Sensoraufnahmen aus der folgenden Gruppe von Sensoraufnahmen aufweist: eine erste Sensoraufnahme der Fahrbahnoberfläche (210) mit einer ersten optischen Bandbreite, in der das Wasser eine erste Absorptionsrate hat, eine zweite Sensoraufnahme der Fahrbahnoberfläche (210) mit einer zweiten optischen Bandbreite, in der das Wasser eine zweite Absorptionsrate hat, die höher als die erste Absorptionsrate ist, eine dritte Sensoraufnahme mit einem ersten Polarisationsfilter mit einem ersten Polarisationswinkel, und eine vierte Sensoraufnahme mit einem zweiten Polarisationsfilter mit einem zweiten Polarisationswinkel, wobei sich die zwei Polarisationsfilter voneinander in ihren Polarisationswinkeln unterscheiden.
  3. Die Vorrichtung (100) gemäß Anspruch 2, bei der die erste optische Bandbreite eine Bandbreite umfasst, die aus einem Spektralbereich zwischen 400 nm und 900 nm ausgewählt ist; und die zweite optische Bandbreite eine Bandbreite umfasst, die aus einem Spektralbereich zwischen 900 nm und 1200 nm ausgewählt ist.
  4. Die Vorrichtung (100) gemäß Anspruch 2 oder 3, bei der die erste optische Bandbreite bei einer Halbwertsbreite einen Wert zwischen 820 nm und 870 nm aufweist; und die zweite optische Bandbreite bei der Halbwertsbreite einen Wert zwischen 920 nm und 970 nm aufweist.
  5. Die Vorrichtung (100) gemäß einem der Ansprüche 2 bis 4, bei der der Polarisationswinkel des ersten Polarisationsfilters und der Polarisationswinkel des zweiten Polarisationsfilters 90° zueinander versetzt dimensioniert sind.
  6. Die Vorrichtung (100) gemäß einem der Ansprüche 1 bis 5, bei der der Klassifizierer (140) einen Speicher (145) aufweist, in dem für jedes Eingangstupel (143) einer Mehrzahl von möglichen Tupeln (143) eine zugeordnete Zustandsinformation (160, 170) einer Mehrzahl von verschiedenen Zustandsinformationen (160, 170) abgespeichert ist, wobei die Mehrzahl von verschiedenen Zustandsinformationen (160, 170) z. B. einen Zustand trocken, einen Zustand nass, einen Zustand Schnee und einen Zustand Glatteis aufweist.
  7. Die Vorrichtung (100) gemäß Anspruch 6, bei der der Klassifizierer (140) ausgebildet ist, um die wenigstens zwei Parameter des Tupels (143) auf Werte aus einem vorhandenen Eingangstupel (143) zu runden, und dann unter Verwendung des vorhandenen Eingangstupels (143) auf den Speicher zuzugreifen, oder bei der der Klassifizierer (140) ausgebildet ist, um auf der Basis des Tupels (143) für das Fenster (123, 126, 129, 226, 229) ein Eingangstupel (143) auszuwählen, der dem Tupel (143) für das Fenster (123, 126, 129, 226, 229) gemäß einem Kriterium am nächsten kommt, und um dann mit dem gewählten Tupel (143) auf den Speicher (145) zuzugreifen, um den Zustand für das Fenster (123, 126, 129, 226, 229) zu erhalten, wobei das Kriterium beispielsweise eine kleinste aufaddierte quadratische Abweichung der wenigstens zwei Parameter des Tupels (143) für das Fenster (123, 126, 129, 226, 229) von den vorhandenen Eingangstupeln (143) ist.
  8. Die Vorrichtung (100) gemäß einem der Ansprüche 1 bis 7, bei der der Klassifizierer (140) ausgebildet ist, um für jedes der Mehrzahl von Fenstern (123, 126, 129, 226, 229) ein eigenes Tupel (143) zu verwenden, um anhand jedes Tupels (143) einen Zustand (160, 170) jedes Fensters (123, 126, 129, 226, 229) zu erkennen und den Zustand (160, 170) jedes Fensters (123, 126, 129, 226, 229) der Aufnahmeinformation (150, 220) der Fahrbahnoberfläche (210) als Ausgangsgröße (160, 170) auszugeben.
  9. Die Vorrichtung (100) gemäß Anspruch 8, bei der der Klassifizierer (140) ausgebildet ist, um unter Verwendung von Zuständen (160, 170) von benachbarten Fenstern (123, 126, 129, 226, 229) zusammenhängende Bereiche aus mehreren nebeneinander angeordneten Fenstern (123, 126, 129, 226, 229) blockweise zu klassifizieren.
  10. Die Vorrichtung (100) gemäß einem der Ansprüche 1 bis 9, bei der der Parameterberechner (130) ausgebildet ist, um wenigstens zwei Parameter aus der Gruppe Absorptionskontrastparameter, Polarisationskontrastparameter und Reflexionsintensitätsparameter zu berechnen.
  11. Die Vorrichtung (100) gemäß einem der Ansprüche 1 bis 10, bei der der Parameterberechner (130) ausgebildet ist, um den Absorptionskontrastparameter derart zu berechnen, dass der Wert des Absorptionskontrastparameters eine Zahl innerhalb von ±20% eines Ergebnisses der folgenden Formel aufweist: a b s c o n t r a s t = 1 n i = 1 n I 850 ( i ) I 950 ( i ) I 850 ( i ) + I 950 ( i ) ,
    Figure DE102022201522A1_0007
    dabei sind: abscontrast das Ergebnis; n Bildelementanzahl im Fenster (123, 126, 129, 226, 229); i Index eines Bildelements im Fenster (123, 126, 129, 226, 229); I850(i) Intensitätswert der ersten Sensoraufnahme des i-ten Bildelements (135) im Fenster (123, 126, 129, 226, 229), und I950(i) Intensitätswert der zweiten Sensoraufnahme des i-ten Bildelements (135) im Fenster (123, 126, 129, 226, 229).
  12. Die Vorrichtung (100) gemäß einem der Ansprüche 1 bis 11, bei der der Parameterberechner (130) ausgebildet ist, um den Polarisationskontrastparameter derart zu berechnen, dass der Wert des Absorptionskontrastparameters eine Zahl innerhalb von ±20% eines Ergebnisses der folgenden Formel aufweist: p o l c o n t r a s t = 1 n i = 1 n I p o l 1 ( i ) I p o l 2 ( i ) I p o l 1 ( i ) + I p o l 2 ( i ) ,
    Figure DE102022201522A1_0008
    dabei sind: polcontrast das Ergebnis; n Bildelementanzahl im Fenster (123, 126, 129, 226, 229); i Index eines Bildelements im Fenster (123, 126, 129, 226, 229); Ipol1(i) Intensitätswert der dritten Sensoraufnahme des i-ten Bildelements (135) im Fenster (123, 126, 129, 226, 229), und Ipol2(i) Intensitätswert der vierten Sensoraufnahme des i-ten Bildelements (135) im Fenster (123, 126, 129, 226, 229).
  13. Die Vorrichtung (100) gemäß einem der Ansprüche 1 bis 12, bei der der Parameter-berechner (130) ausgebildet ist, um den Reflexionsintensitätsparameter derart zu berechnen, dass der Wert des Reflexionsintensitätsparameters eine Zahl innerhalb von ±20% eines Ergebnisses der folgenden Formel aufweist: r e f m e a n = 1 n i = 1 n I p o l 1 ( i ) + I p o l 2 ( i ) + I 850 ( i ) 3 ,
    Figure DE102022201522A1_0009
    dabei sind: refmean das Ergebnis; n Bildelementanzahl im Fenster (123, 126, 129, 226, 229); i Index eines Bildelements im Fenster (123, 126, 129, 226, 229); Ipol1(i) Intensitätswert der dritten Sensoraufnahme des i-ten Bildelements (135) im Fenster (123, 126, 129, 226, 229), Ipol2(i) Intensitätswert der vierten Sensoraufnahme des i-ten Bildelements (135) im Fenster (123, 126, 129, 226, 229), und I850(i) Intensitätswert der ersten Sensoraufnahme des i-ten Bildelements (135) im Fenster (123, 126, 129, 226, 229).
  14. Die Vorrichtung (100) gemäß einem der Ansprüche 1 bis 13, bei der der Bildteiler (120) ausgebildet ist, um die Aufnahmeinformation (150, 220) in eine Mehrzahl von nicht überlappenden Fenstern (123, 126, 129, 226, 229) aufzuteilen.
  15. Die Vorrichtung (100) gemäß einem der Ansprüche 1 bis 14, bei der der Bildteiler (120) ausgebildet ist, um die Aufnahmeinformation (150, 220) in eine Mehrzahl von Fenstern (123, 126, 129, 226, 229) mit positionsabhängiger Fenstergröße aufzuteilen, wobei das Fenster (123, 126, 129, 226, 229), das einen nahen Fahrbahnoberflächenteil repräsentiert größer ist als das Fenster, das einen fernen Fahrbahnoberflächenteil repräsentiert.
  16. Die Vorrichtung (100) gemäß einem der Ansprüche 1 bis 15, bei der der Parameterberechner (130) ausgebildet ist, um eine Winkelkorrektur auf die einzelnen Fenster (123, 126, 129, 226, 229) der Aufnahmeinformation (150, 220) vor der Berechnung der Parameter anzuwenden, wobei jedes Bildelement (135) des Fensters (123, 126, 129, 226, 229) abhängig von einem Winkel des eintreffendes Lichtes zur Fahrbahnoberfläche (210) korrigiert wird, und wobei eine Korrektur für das Fenster (123, 126, 129, 226, 229), das einen nahen Fahrbahnoberflächenteil repräsentiert, sich von einer Korrektur für ein Fenster unterscheidet, das einen fernen Fahrbahnoberflächenteil repräsentiert.
  17. Die Vorrichtung (100) gemäß einem der Ansprüche 1 bis 16, bei der der Klassifizierer (140) ausgebildet ist, um jedes Tupel (143) einem Zustand (160, 170) abhängig von einem Winkel des eintreffendes Lichtes zur Fahrbahnoberfläche (210) zuzuordnen.
  18. Ein Fortbewegungsmittel mit der Vorrichtung (100) gemäß einem der Ansprüche 1 bis 17, und einer Schnittstelle, wobei die Schnittstelle ausgebildet ist, um einen Fahrer des Fortbewegungsmittels zu alarmieren und/oder um eine Steuerung des Fortbewegungsmittels zu beeinflussen, falls die Vorrichtung einen festen Zustand des Wassers detektiert.
  19. Ein Verfahren zum Erkennen eines Zustands (160, 170) einer Fahrbahnoberfläche (210) mit folgenden Schritten: Erhalten einer Aufnahmeinformation (150, 220) der Fahrbahnoberfläche (210); Aufteilen der Aufnahmeinformation (150, 220) in eine Mehrzahl von Fenstern (123, 126, 129, 226, 229), wobei jedes Fenster (123, 126, 129, 226, 229) eine Mehrzahl von Bildelementen (135) aufweist, wobei jedes Bildelement (135) wenigstens zwei verschiedene Informationen aufweist; Berechnen von wenigstens zwei Parametern pro Fenster (123, 126, 129, 226, 229) unter Verwendung der wenigstens zwei verschiedenen Informationen jedes Bildelementes in dem Fenster (123, 126, 129, 226, 229); und Klassifizieren des Fensters (123, 126, 129, 226, 229) anhand eines Tupels (143) aus den wenigstens zwei Parametern des Fensters (123, 126, 129, 226, 229), um anhand des Tupels (143) aus den wenigstens zwei Parametern des Fensters (123, 126, 129, 226, 229) einen Zustand (160, 170) des Fensters (123, 126, 129, 226, 229) zu erhalten.
  20. Ein Computerprogramm zur Durchführung des Verfahrens gemäß Anspruch 19, wenn das Computerprogramm auf einem Computer oder einem Prozessor abläuft.
DE102022201522.3A 2021-09-10 2022-02-14 Eine Vorrichtung und ein Verfahren zum Erkennen eines Zustands einer Fahrbahnoberfläche Pending DE102022201522A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP22194388.9A EP4148683A1 (de) 2021-09-10 2022-09-07 Eine vorrichtung und ein verfahren zum erkennen eines zustands einer fahrbahnoberfläche
US17/930,651 US20230079037A1 (en) 2021-09-10 2022-09-08 Apparatus and method for detecting a state of a road surface
JP2022143927A JP2023041051A (ja) 2021-09-10 2022-09-09 路面の状態を検出するための装置および方法
CN202211108971.9A CN116030291A (zh) 2021-09-10 2022-09-13 用于检测路面的状态的设备和方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021210047 2021-09-10
DE102021210047.3 2021-09-10

Publications (1)

Publication Number Publication Date
DE102022201522A1 true DE102022201522A1 (de) 2023-03-16

Family

ID=85284510

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022201522.3A Pending DE102022201522A1 (de) 2021-09-10 2022-02-14 Eine Vorrichtung und ein Verfahren zum Erkennen eines Zustands einer Fahrbahnoberfläche

Country Status (1)

Country Link
DE (1) DE102022201522A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013173911A1 (en) 2012-05-23 2013-11-28 Omer Raqib Road surface condition classification method and system
DE102014224857A1 (de) 2014-12-04 2016-06-09 Conti Temic Microelectronic Gmbh Sensorsystem und Verfahren zur Klassifikation von Fahrbahnoberflächen
WO2020198134A1 (en) 2019-03-22 2020-10-01 Vergence Automation, Inc. Lighting-invariant sensor system for object detection, recognition, and assessment
DE102019205903A1 (de) 2019-04-25 2020-10-29 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln einer festen Zustandsform von Wasser auf einer Fahrbahnoberfläche
JP2020180924A (ja) 2019-04-26 2020-11-05 パナソニックIpマネジメント株式会社 路面状態推定装置、車両制御システム及び路面状態推定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013173911A1 (en) 2012-05-23 2013-11-28 Omer Raqib Road surface condition classification method and system
DE102014224857A1 (de) 2014-12-04 2016-06-09 Conti Temic Microelectronic Gmbh Sensorsystem und Verfahren zur Klassifikation von Fahrbahnoberflächen
WO2020198134A1 (en) 2019-03-22 2020-10-01 Vergence Automation, Inc. Lighting-invariant sensor system for object detection, recognition, and assessment
DE102019205903A1 (de) 2019-04-25 2020-10-29 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln einer festen Zustandsform von Wasser auf einer Fahrbahnoberfläche
JP2020180924A (ja) 2019-04-26 2020-11-05 パナソニックIpマネジメント株式会社 路面状態推定装置、車両制御システム及び路面状態推定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JONSSON, P.; CASSELGREN, J.; THÖRNBERG, B.: Road Surface Status Classification Using Spectral Analysis of NIR Camera Images. In: IEEE Sensors Journal, Vol. 15, No. 3, 2015, S. 1641 - 1656.

Similar Documents

Publication Publication Date Title
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
DE102013205950B4 (de) Verfahren zum Detektieren von Straßenrändern
DE102006057552B4 (de) System und Verfahren zur Messung des Abstands eines vorausfahrenden Fahrzeugs
DE102011106052B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild unter Verwendung eines nichtlinearen beleuchtungsinvarianten Kerns
DE102006005512B4 (de) System und Verfahren zur Messung der Entfernung eines vorausfahrenden Fahrzeugs
DE102011086512A1 (de) Verfahren zur Nebeldetektion
DE102014117102B4 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE102011055458A1 (de) Adaptierungstechnik zur Erkennung einer freien Fahrbahn mittels verlässlicher lokaler Modellkalibrierung
DE112011103690T5 (de) Erkennung und Verfolgung sich bewegender Objekte
DE102018129993A1 (de) Verfahren zur fahrzeugdetektion, verfahren zur fahrzeugdetektion bei nacht auf basis von dynamischer lichtintensität und system dafür
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
EP2028605A1 (de) Detektionsverfahren für symmetrische Muster
DE102011107458A1 (de) Verfahren zum Evaluieren einer Objekterkennungseinrichtung eines Kraftfahrzeugs
DE102011055459A1 (de) Adaptierungstechnik zur Erkennung einer freien Fahrbahn mit zusätzlichen Klassifikatoren
CN102175993A (zh) 基于卫星sar影像的雷达景象匹配特征参考图制备方法
DE102018008442A1 (de) Verfahren zur Wetter- und/oder Sichtweitenerkennung
DE102015207903A1 (de) Vorrichtung und Verfahren zum Erfassen eines Verkehrszeichens vom Balkentyp in einem Verkehrszeichen-Erkennungssystem
DE102019208733A1 (de) Verfahren und Generator zum Erzeugen von gestörten Eingangsdaten für ein neuronales Netz
WO2022069399A1 (de) Verfahren zur bestimmung eines sensor-degradations-status
DE102022201522A1 (de) Eine Vorrichtung und ein Verfahren zum Erkennen eines Zustands einer Fahrbahnoberfläche
EP4148683A1 (de) Eine vorrichtung und ein verfahren zum erkennen eines zustands einer fahrbahnoberfläche
DE102008050456B4 (de) Verfahren und Vorrichtung zur Fahrspurerkennung
DE102020204321A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems und Fahrerassistenzsystem für ein Fahrzeug
DE10326031B4 (de) Verfahren zur adaptiven Kantenerkennung
WO2020233961A1 (de) Verfahren zum beurteilen einer funktionsspezifischen robustheit eines neuronalen netzes

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: FRAUNHOFER-GESELLSCHAFT ZUR FOERDERUNG DER ANG, DE

Free format text: FORMER OWNERS: FRAUNHOFER-GESELLSCHAFT ZUR FOERDERUNG DER ANGEWANDTEN FORSCHUNG EINGETRAGENER VEREIN, 80686 MUENCHEN, DE; INTEL DEUTSCHLAND GMBH, 80336 MUENCHEN, DE