DE102020118067A1 - Erkennung von strassenoberflächenbedingungen - Google Patents

Erkennung von strassenoberflächenbedingungen Download PDF

Info

Publication number
DE102020118067A1
DE102020118067A1 DE102020118067.5A DE102020118067A DE102020118067A1 DE 102020118067 A1 DE102020118067 A1 DE 102020118067A1 DE 102020118067 A DE102020118067 A DE 102020118067A DE 102020118067 A1 DE102020118067 A1 DE 102020118067A1
Authority
DE
Germany
Prior art keywords
reflectivity
area
viewing angle
determining
wet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020118067.5A
Other languages
English (en)
Inventor
David Michael Herman
Ashwin Arunmozhi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102020118067A1 publication Critical patent/DE102020118067A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • B60W30/146Speed limiting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/064Degree of grip
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2754/00Output or target parameters relating to objects
    • B60W2754/10Spatial relation or speed relative to objects
    • B60W2754/30Longitudinal distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

Diese Offenbarung stellt eine Erkennung von Straßenoberflächenbedingungen bereit. Ein System beinhaltet Computer, der einen Prozessor und einen Speicher umfasst. Der Speicher speichert Anweisungen derart, dass der Prozessor dazu programmiert ist, basierend auf Fahrzeug-LIDAR-Sensordaten eine Reflektivität eines Bereiches einer Straßenoberfläche zu bestimmen und basierend auf der bestimmten Reflektivität des Bereiches, einem Reflektivitätsschwellenwert für trockene Bedingungen für den Bereich und einem Betrachtungswinkel des Bereiches von dem LIDAR-Sensor aus zu bestimmen, ob der Bereich nass ist.

Description

  • GEBIET DER TECHNIK
  • Die Offenbarung betrifft das Gebiet der Fahrzeugsensoren und insbesondere Fahrzeugsensoren, die Bedingungen einer Straßenoberfläche erkennen.
  • ALLGEMEINER STAND DER TECHNIK
  • Fahrzeuge können mit verschiedenen Arten von Objekterkennungssensoren ausgestattet sein, um Objekte in einem das Fahrzeug umgebenden Bereich zu erkennen. Fahrzeugcomputer können verschiedene Fahrzeugvorgänge basierend auf Daten steuern, die von den Sensoren empfangen werden. Wetterbedingungen, wie etwa Regen, können Sensordaten und/oder Fahrdynamik des Fahrzeugs, z. B. Bremsweg, beeinflussen.
  • KURZDARSTELLUNG
  • Ein System umfasst einen Computer, der einen Prozessor und einen Speicher beinhaltet. Der Speicher speichert Anweisungen derart, dass der Prozessor dazu programmiert ist, basierend auf Fahrzeuglidsarsensordaten eine Reflektivität eines Bereiches einer Straßenoberfläche zu bestimmen und basierend auf der bestimmten Reflektivität des Bereiches, einem Reflektivitätsschwellenwert für trockene Bedingungen für den Bereich und einem Betrachtungswinkel des Bereiches von dem LIDAR-Sensor aus zu bestimmen, ob der Bereich nass ist.
  • Die Anweisungen können nur dann weitere Anweisungen zum Identifizieren des Bereiches basierend auf Daten beinhalten, die von mindestens einem von einer Fahrzeugkamera und dem Fahrzeug-LIDAR-Sensor empfangen werden, wenn bestimmt wird, dass die Straßenoberfläche für den LIDAR-Sensor sichtbar ist.
  • Die Anweisungen können weitere Anweisungen zum Bestimmen, dass die Straßenoberfläche in dem Bereich sichtbar ist, basierend auf LIDAR-Kartendaten und einer Position eines erkannten Objektes auf der Straßenoberfläche beinhalten.
  • Die Anweisungen können weitere Anweisungen zum Bestimmen der Reflektivität basierend auf LIDAR-Kartendaten, zum Bestimmen des Reflektivitätsschwellenwertes für trockene Bedingungen mindestens teilweise basierend auf dem Betrachtungswinkel des Bereiches und zum Bestimmen, dass der Bereich nass ist, basierend auf dem Reflektivitätsschwellenwert für trockene Bedingungen beinhalten.
  • Die Anweisungen können weitere Anweisungen zum Bestimmen einer zweiten Reflektivität des Bereiches anhand eines zweiten Betrachtungswinkels und zum Bestimmen, dass der Bereich nass ist, ferner basierend auf der zweiten Reflektivität und dem zweiten Betrachtungswinkel beinhalten.
  • Die Anweisungen können weitere Anweisungen zum Bestimmen eines Betrachtungswinkelschwellenwertes für den Bereich und zum Bestimmen, dass der Bereich nass ist, wenn bestimmt wird, dass der Betrachtungswinkelschwellenwert unter dem zweiten Betrachtungswinkel und über dem Betrachtungswinkel liegt, die Reflektivität unter dem für den Betrachtungswinkel eingestellten Reflektivitätsschwellenwert für trockene Bedingungen liegt und die zweite Reflektivität über dem für den zweiten Betrachtungswinkel eingestellten Reflektivitätsschwellenwert für trockene Bedingungen liegt, beinhalten.
  • Die Anweisungen können weitere Anweisungen zum Bestimmen der Reflektivität anhand des Betrachtungswinkels basierend auf von dem LIDAR-Sensor empfangenen Daten und der zweiten Reflektivität anhand des zweiten Betrachtungswinkels basierend auf von einem zweiten LIDAR-Sensor empfangenen Daten beinhalten.
  • Die Anweisungen beinhalten weitere Anweisungen zum Klassifizieren des Bereiches anhand eines ersten Materials basierend auf mindestens einem von Kartendaten und Kameradaten, zum Klassifizieren des Bereiches anhand eines zweiten Materials mindestens teilweise basierend auf der bestimmten Reflektivität und zum Bestimmen, dass der Bereich ist nass, wenn bestimmt wird, dass das erste und das zweite Material.
  • Die Anweisungen können weitere Anweisungen zum Bestimmen einer uneindeutigen Nässeerkennung beinhalten, wenn basierend auf Fahrzeugkameradaten bestimmt wird, dass den LIDAR-Kartendaten Daten fehlen, einschließlich einer an der Straßenoberfläche vorgenommenen Änderung, wobei es sich bei der Änderung um mindestens eines von Erneuerung des Straßenbelags und Aufbringen einer neuen Fahrbahnmarkierung handelt.
  • In dieser Schrift wird ferner ein System offenbart, das Mittel zum Bestimmen, basierend auf Fahrzeuglidsarsensordaten, einer Reflektivität eines Bereiches einer Straßenoberfläche und Mittel zum Bestimmen, ob der identifizierte Bereich nass ist, basierend auf der bestimmten Reflektivität des Bereiches, einem Reflektivitätsschwellenwert für trockene Bedingungen für den Bereich und einem Betrachtungswinkel des Bereiches von dem LIDAR-Sensor umfasst.
  • In dieser Schrift wird ferner ein Verfahren offenbart, umfassend das Bestimmen, basierend auf Fahrzeuglidsarsensordaten, einer Reflektivität eines Bereiches einer Straßenoberfläche und das Bestimmen, ob der identifizierte Bereich nass ist, basierend auf der bestimmten Reflektivität des Bereiches, einem Reflektivitätsschwellenwert für trockene Bedingungen für den Bereich und einem Betrachtungswinkel des Bereiches von dem LIDAR-Sensor.
  • Figurenliste
    • 1 zeigt ein beispielhaftes Fahrzeug mit einem oder mehreren LIDAR-Sensoren.
    • 2A zeigt Lichtreflexionsmuster von Licht, das aus unterschiedlichen Winkeln auf eine trockene Oberfläche trifft.
    • 2B zeigt Lichtreflexionsmuster von Licht, das aus unterschiedlichen Winkeln auf eine nasse Oberfläche trifft.
    • 3 zeigt ein Diagramm eines Lichtreflexionsmusters mit größtenteils diffusen Reflexionen.
    • 4 zeigt ein Diagramm eines Lichtreflexionsmusters mit gemischten diffusen und spiegelnden Reflexionen.
    • 5 zeigt ein Diagramm eines Lichtreflexionsmusters mit größtenteils spiegelnden Reflexionen.
    • 6 zeigt ein Diagramm eines Lichtreflexionsmusters einer nassen Straßenoberfläche.
    • 7 zeigt ein Diagramm der Reflektivität gegenüber dem Betrachtungswinkel für die Lichtreflexionsmuster aus den 3-6.
    • 8 zeigt Graphen der Änderung der Reflektivität verschiedener Materialien basierend auf der Wellenlänge.
    • 9 veranschaulicht ein Ablaufdiagramm eines beispielhaften Prozesses zum Erkennen einer nassen Oberfläche.
  • DETAILLIERTE BESCHREIBUNG
  • 1 veranschaulicht ein beispielhaftes Fahrzeug 100, das einen Computer 110, (einen) Aktor(en) 120, (einen) Sensor(en) 130 und andere Komponenten beinhaltet, die nachstehend in dieser Schrift erörtert sind. Das Fahrzeug 100 kann auf eine Vielzahl von Arten angetrieben sein, z. B. einschließlich mit einem Elektromotor und/oder einer Brennkraftmaschine.
  • Der Computer 110 beinhaltet einen Prozessor und einen Speicher, wie sie bekannt sind. Der Speicher beinhaltet eine oder mehrere Formen von computerlesbaren Medien und speichert Anweisungen, die durch den Computer 110 ausführbar sind, zum Durchführen von verschiedenen Vorgängen, einschließlich der in dieser Schrift offenbarten.
  • Der Computer 110 kann das Fahrzeug 100 in einem autonomen oder halbautonomen Modus betreiben. Zum Zwecke dieser Offenbarung ist ein autonomer Modus als einer definiert, in dem jedes von Antrieb, Bremsung und Lenkung des Fahrzeugs 100 durch den Computer 110 gesteuert wird; in einem halbautonomen Modus steuert der Computer 110 eines oder zwei von Antrieb, Bremsung und Lenkung des Fahrzeugs 100; in einem nicht autonomen Modus steuert ein menschlicher Fahrzeugführer den Antrieb, die Bremsung und die Lenkung des Fahrzeugs.
  • Der Computer 110 kann eine Programmierung beinhalten, um eines oder mehrere von Bremsung, Antrieb (z. B. Steuerung der Beschleunigung des Fahrzeugs durch Steuern von einem oder mehreren von einer Brennkraftmaschine, einem Elektromotor, Hybridmotor usw.), Lenkung, Klimasteuerung, Innen- und/oder Außenbeleuchtung usw. des Fahrzeugs zu betreiben, sowie um zu bestimmen, ob und wann der Computer 110 derartige Vorgänge anstelle eines menschlichen Fahrzeugführers steuern soll.
  • Der Computer 110 kann mehr als einen Prozessor, z. B. Steuerungen oder dergleichen, die in dem Fahrzeug zum Überwachen und/oder Steuern verschiedener Fahrzeugsteuerungen, z. B. einer Antriebsstrangsteuerung, einer Bremssteuerung, einer Lenksteuerung usw., enthalten sind, beinhalten oder kommunikativ daran gekoppelt sein, z. B. über einen Kommunikationsbus des Fahrzeugs, wie nachstehend ausführlicher beschrieben. Der Computer 110 ist im Allgemeinen zur Kommunikation über ein Fahrzeugkommunikationsnetzwerk ausgelegt, wie etwa einen Bus in dem Fahrzeug, wie etwa ein Controller Area Network (CAN) oder dergleichen.
  • Über das Fahrzeugnetzwerk kann der Computer 110 Nachrichten an verschiedene Vorrichtungen in dem Fahrzeug übertragen und/oder Nachrichten von den verschiedenen Vorrichtungen, z. B. dem/den Sensor(en) 130, dem/den Aktor(en) 120 usw., empfangen. Alternativ oder zusätzlich dazu kann in den Fällen, in denen der Computer 110 tatsächlich mehrere Vorrichtungen umfasst, das Fahrzeugkommunikationsnetzwerk für Kommunikationen zwischen Vorrichtungen verwendet werden, die in dieser Offenbarung als der Computer 110 dargestellt sind. Ferner können, wie nachstehend erwähnt, verschiedene Steuerungen und/oder Sensoren dem Computer 110 Daten über das Fahrzeugkommunikationsnetzwerk bereitstellen.
  • Die Aktoren 120 des Fahrzeugs 100 können über Schaltungen, Chips oder andere elektronische Komponenten umgesetzt sein, die verschiedene Fahrzeugteilsysteme gemäß geeigneten Steuersignalen, wie bekannt, betätigen können. Die Aktoren 120 können verwendet werden, um Bremsung, Beschleunigung und Lenkung des ersten Fahrzeugs 100 zu steuern. Als ein Beispiel kann der Computer 110 des Fahrzeugs 100 Steueranweisungen ausgeben, um die Aktoren 120 zu steuern.
  • Ein Computer, z.B. der Computer 110, ein entfernter Computer, ein Computer eines Kartierungsfahrzeugs usw., kann dazu programmiert sein, eine dreidimensionale (3D-) Karte eines Bereiches 160 zu erzeugen. Ein Bereich 160 kann einen Abschnitt der Bodenfläche (d. h. der Erdoberfläche) beinhalten, z. B. eine Nachbarschaft, eine Stadt usw.
  • Bei einer 3D-Karte eines Bereiches 160 handelt es sich im Kontext der vorliegenden Offenbarung um eine digitale Karte, die 3D-Standortkoordinaten von Punkten auf Oberflächen, z. B. einer Straßenoberfläche 150, Verkehrszeichen, Gebäuden, Vegetation usw., innerhalb des kartierten Bereiches 160 beinhaltet. Die Kartendaten können ferner eine entsprechende Reflektivität R der Flächen 150 beinhalten, wie nachstehend erörtert. Zum Beispiel zeigt 1 Punkte 170 an verschiedenen Stellen auf der beispielhaften Straßenoberfläche 150. Im vorliegenden Zusammenhang kann es sich bei einem Punkt 170 um einen beliebigen Punkt auf einer Oberfläche 150 innerhalb des Bereiches 160 handeln, wie etwa der Straßenoberfläche 150. Die 3D-Standortkoordinaten können in einem kartesischen 3D-Koordinatensystem mit einem Ursprungspunkt spezifiziert werden. Zum Beispiel können Standortkoordinaten eines Punktes 170 auf der Straßenoberfläche 150 durch X-, Y- und Z-Koordinaten spezifiziert werden. X- und Y-Koordinaten, d. h. horizontale Koordinaten, können Koordinaten des globalen Positionierungssystems (GPS) (d. h. Breitengrad- und Längengradkoordinaten) oder dergleichen sein, wohingegen eine Z-Koordinate eine vertikale Komponente zu einem Standort, d. h. eine Höhe (oder Höhenlage) eines Punktes 170 von z. B. einem Meeresspiegel aus spezifizieren kann. Eine 3D-Karte kann basierend auf Daten erzeugt werden, die von einem LIDAR-Sensor 130 empfangen werden, der den Bereich 160 mit Lichtstrahlen überstreicht und Reflexionen der ausgesendeten Lichtstrahlen von Außenflächen der Objekte empfängt. Im vorliegenden Zusammenhang ist der Bereich 160 ein 3D-Volumen über dem Boden, wobei eine Unterseite die Bodenfläche berührt und sich eine Oberseite über der Bodenfläche, z. B. bei 50 Metern von der Bodenfläche entfernt, befindet. Somit kann eine derartige 3D-Karte Standortkoordinaten der Punkte 170 auf Außenflächen von Objekten beinhalten, die eine Reflexion der emittierten Lichtstrahlen verursachen. Typischerweise werden derartige 3D-Karten als „Punktwolke“ bezeichnet. Somit beinhalten Punktwolkendaten 3D-Standortkoordinaten von Punkten 170 auf Oberflächen von Objekten, wie etwa der Straßenoberfläche und/oder Außenflächen von Objekten, innerhalb des kartierten Bereiches 160. Anders ausgedrückt beinhaltet der Satz von Punktwolkendaten 3D-Standortkoordinaten einer Vielzahl von Punkten 170 innerhalb des physischen Bereiches 160, der durch den Satz von Punktwolkendaten abgedeckt ist. Unter Verwendung von Interpolationstechniken kann ein 3D-Netz von (einer) Fläche(n) 150 basierend auf Punktwolkendaten erzeugt werden. Darüber hinaus können Kartendaten Klassifizierungen von Materialeigenschaften beinhalten, z. B. Vegetation, Asphalt, Beton, Metallplatte, bemalte Straßenoberfläche, Betoneinfahrt, retroreflektierende Oberflächen usw. Die Reflektivität der Oberflächen 150 kann mindestens teilweise basierend auf Materialdaten bestimmt werden, die in Kartendaten beinhaltet sind.
  • Das Fahrzeug 100 kann einen oder mehrere Lidarsensor(en) 130 (lidar - light detection and ranging) beinhalten, z. B. einen Festkörper-Flash-Lidarsensor 130, der Daten bereitstellt, die mindestens einen Teil des Außenbereichs des Fahrzeugs 100, z. B. den Bereich 160, umfassen, wie in 1 gezeigt. In einem derartigen Beispiel emittiert der Lidarsensor 130 Lichtimpulse in ein Beleuchtungsfeld des Sensors 130 und erkennt Flächen, wie etwa die Straßenoberfläche 150, basierend auf empfangenen Lichtreflexionen in einem Sichtfeld des Lidarsensors 130. Gemäß mindestens dem veranschaulichten Beispiel beinhaltet der LIDAR-Sensor 130 einen oder mehrere Sender (oder Emitter) und einen oder mehrere Empfänger. Alternativ dazu kann ein Sensor 130 einen Sendeempfänger anstelle eines getrennten Senders und Empfängers beinhalten. Das durch den Lichtemitter emittierte Licht kann zum Beispiel Infrarotlicht, Laser und/oder Licht mit einer beliebigen anderen geeigneten Wellenlänge sein.
  • Der LIDAR-Sensor 130 kann einen Computer beinhalten, der dazu programmiert ist, den Sender zu betätigen, um Licht, d. h. (einen) Lichtstrahl(en) 135, zu emittieren und Oberflächenpunkte 170 basierend auf empfangenen Reflexionen des emittierten Lichts zu erkennen. Die LIDAR-Daten können durch den Computer 110 des Fahrzeugs 100 von Lidarsensoren 130 auf bekannte Weise, z. B. über ein Netzwerk des Fahrzeugs 100, empfangen werden. Die LIDAR-Daten können Koordinaten beinhalten, z. B. in einem dreidimensionalen (3D-) oder kartesischen Koordinatensystem. LIDAR-Daten können ferner andere Daten beinhalten, die sich auf andere Objekte beziehen, wie etwa Größe, relative Geschwindigkeit in Bezug auf das Fahrzeug 100, Polarisation usw.
  • Der Computer des LIDAR-Sensors 130 und/oder der Computer 110 können dazu programmiert sein, eine erfasste Intensität is(x, y, z) des reflektierten Lichtstrahls 135 von einem Punkt 170 an Standortkoordinaten (x, y, z) zu bestimmen. Ein Wert für die Intensität is kann in einem Bereich von 0 (null) bis 100 liegen, wobei 0 (null) keine Reflexion und 100 die volle Intensität darstellt. In einem anderen Beispiel kann eine Intensität is in Lichtstrom pro Flächeneinheit oder Lux (lx) spezifiziert werden. Die erfasste Intensität is(x, y, z) des reflektierten Lichtstrahls 135 basiert mindestens teilweise auf einer Reflektivität R der Oberfläche 150 an dem Punkt 170 mit den Koordinaten (x, y, z).
  • Die Reflektivität (oder der Reflexionsgrad) R einer Oberfläche 150 ist ein Maß für ihre Effektivität beim Reflektieren von Strahlungsenergie. Die Reflektivität R einer Oberfläche wird als ein Bruchteil der einfallenden elektromagnetischen Leistung gemessen, die an der jeweiligen Oberfläche 150 reflektiert wird, z. B. spezifiziert in einem Prozentsatz, einer Zahl zwischen 0 (null) und 1. Somit können stärker reflektierende, hellere Oberflächen Intensitätswerten näher bei 100 zugeordnet sein, während weniger reflektierende, dunklere Flächen Intensitätswerten näher bei 0 (null) zugeordnet sein können. Wie nachstehend erörtert, z.B. unter Bezugnahme auf 8, kann eine Reflektivität R einer Oberfläche 150 mindestens teilweise auf einem Material basieren, aus dem die Oberfläche 150 gebildet ist. Ferner ändert sich eine Reflektivität R einer Oberfläche 150 basierend auf einer Menge an Feuchtigkeit, Flüssigkeit usw., welche die jeweilige Oberfläche 150 bedeckt. Wie nachstehend erörtert, kann ein Lichtstrahl 135, der auf eine Oberfläche 150 trifft, unter Bezugnahme auf die 2A-2B eine diffuse und/oder spiegelnde Reflexion aufweisen. Die erfasste Intensität is(x, y, z) des reflektierten Lichtstrahls 135 entspricht typischerweise einem Teil von gestreutem Licht, der an dem Empfänger des Sensors 130 empfangen wird. In einem Beispiel mit einem Betrachtungswinkel Φ um 90°, z. B. zwischen 80° und 110°, kann die erfasste Intensität is(x, y, z) sowohl einen Teil des gestreuten Lichtes als auch die spiegelnden Reflexionen des Lichtstrahls 135 beinhalten.
  • Unter Bezugnahme auf Gleichung (1) basiert eine erfasste Intensität is(x, y, z) eines reflektierten Lichtstrahls 135 von einem Punkt 170 an den Standortkoordinaten (x, y, z) mindestens teilweise auf Folgendem: (i) einer Reflektivität R(x, y, z) der Oberfläche 150 an dem Punkt 170, (ii) einem Betrachtungswinkel Φ des Punktes 170 auf der Oberfläche 150, (iii) einer Intensität ie des Lichtstrahls 135, der auf den Punkt 170 an dem Standort (x, y, z) trifft, und einem Abstand d von dem Sensor 130 des Fahrzeugs 100 zu dem Standort(x, y, z). Der Vorgang f ist eine Funktion, welche die erfasste Intensität basierend auf den Eingaben der Reflektivität R, des Betrachtungswinkels Φ, der Intensität ie und des Abstands d bestimmt. Der Vorgang f kann basierend auf empirischen Verfahren abgeleitet werden, z. B. Messen der Intensität is(x, y, z) für eine Vielzahl von verschiedenen Eingabewerten für den Betrachtungswinkel Φ, den Abstand d usw. und Bestimmen des Vorgangs f unter Verwendung numerischer Techniken basierend auf den Ergebnissen empirischer Verfahren. Zusätzlich oder alternativ dazu kann Gleichung (6) basierend auf bekannten Techniken aus der Optikphysik bestimmt werden. In einem Beispiel kann Gleichung (1) basierend auf empirischen Verfahren abgeleitet werden. Die erfasste Intensität is(x, y, z) kann basierend auf einer Vielzahl von unterschiedlichen Testszenarien gemessen werden, d. h. Kombinationen aus Intensität ie, Abstand d, Reflektivität R. Dann kann eine beispielhafte Gleichung (1) unter Verwendung numerischer Verfahren unter Verwendung der Messungen der Testszenarien erstellt werden. i s ( x , y , z ) = f ( R ( x , y , z ) , Φ ( x , y , z ) , i e ( x , y , z ) , d ( x , y , z ) )
    Figure DE102020118067A1_0001
  • Bei dem Betrachtungswinkel Φ handelt es sich um einen Winkel zwischen dem gesendeten Lichtstrahl 135 und der Oberfläche 150 an dem Standort (x, y, z), an dem der Lichtstrahl 135 auf die Oberfläche 150 trifft. 1 zeigt mehrere Punkte 170 mit jeweils entsprechenden Betrachtungswinkeln Φ und Abständen d. Die Oberfläche 150 kann einen Neigungswinkel α aufweisen (oder ist flach, wenn α= 0). Bei dem Neigungswinkel α handelt es sich um einen Winkel zwischen der Oberfläche 150 und einer horizontalen ebenen Fläche (d. h. einer ebenen Fläche, die als 0 Grad definiert ist, d. h. parallel zum Horizont). Somit kann der Betrachtungswinkel Φ mindestens teilweise auf dem Neigungswinkel α an den Standortkoordinaten (x, y, z) basieren. Es ist zu beachten, dass der Winkel Φ der Einfachheit halber als eindimensional gezeigt ist, sich jedoch ein Punkt 170 an einer beliebigen Stelle auf der Oberfläche 150 befindet. Anders ausgedrückt liegt der Winkel Φ zwischen einer Linie, die sich von dem Sensor 130 zu dem Punkt 170 erstreckt, und der Oberfläche 150.
  • Der Computer 110 kann dazu programmiert sein, den Betrachtungswinkel Φ des Punktes 170 basierend auf empfangenen Kartendaten zu bestimmen, einschließlich eines Neigungswinkels α an den Koordinaten (x, y, z) und eines Abstands d von dem Sensor 130 des Fahrzeugs 100 zum Standort (x, y, z). Zusätzlich oder alternativ dazu kann der Computer 110 dazu programmiert sein, den Betrachtungswinkel Φ basierend auf dem Abtasten des Bereiches 160 und dem Identifizieren der Oberfläche 150 und dem Bestimmen des Neigungswinkels α und des Betrachtungswinkels Φ basierend auf der erkannten Oberfläche 150 zu bestimmen.
  • Der Computer 110 kann dazu programmiert sein, die Intensität ie des Lichtstrahls 135, der auf den Punkt 170 an dem Standort (x, y, z) trifft, basierend auf (i) technischen Eigenschaften des Senders des Sensors 130, z. B. einer ausgegebenen Strahlungsenergieleistung des Senders, (ii) einer Anweisung des Computers 110 an den Sender, z. B. einem Betätigungsbefehl, der eine abzustrahlende Leistungsmenge definiert, und/oder (iii) einem Abstand d von dem Sensor 130 zu den Koordinaten (x, y, z) des Punktes 170 zu bestimmen. Zusätzlich dazu kann, wie in Gleichung (1) gezeigt, eine erfasste Intensität is auf dem Abstand d von dem Sensor 130 zu dem Punkt 170 basieren, da der reflektierte Strahl über einen längeren Abstand d aufgrund von Strahldivergenz und atmosphärischer Absorption gedämpft (abgeschwächt) werden kann, bis er an dem Empfänger des Sensors 130 ankommt.
  • Wie vorstehend erörtert, können die 3D-Kartendaten Koordinaten (x, y, z) von Punkten 170 beinhalten. Die 3D-Karten des Bereiches 160 können ferner eine kartenbasierte Reflektivität Rm eines Punktes 170 auf einer Oberfläche 150 beinhalten, z.B. eine Reflektivität Rm(x, y, z), die eine Reflektivität Rm einer Oberfläche 150 an den Standortkoordinaten (x, y, z) eines Punktes 170 spezifiziert. In dieser Schrift bezieht sich ein Index m bei einer Reflektivität Rm auf eine Reflektivität, die basierend auf Kartendaten bestimmt wird oder in den Kartendaten beinhaltet ist. Stark reflektierende Oberflächen, wie etwa Fahrbahnmarkierungen, können mit einem Wert für die Reflektivität R assoziiert sein, der größer ist als weniger reflektierende Flächen, wie etwa Asphalt, Zement oder andere Fahrbahnflächen. Ebenso können dunklere Farben (schwarz, dunkelblau, braun, dunkelgrau, sehr dunkles Grau usw.), die mehr Licht absorbieren, mit einem niedrigeren Intensitätswert assoziiert sein als hellere Objekte, die mehr Licht reflektieren können (weiß, cremefarben, silbern, usw.). Somit kann der Computer 110 dazu programmiert sein, die Reflektivität Rm zu bestimmen, indem eine Oberfläche 150 an einem Punkt 170 identifiziert wird und eine Lookup-Tabelle oder dergleichen konsultiert wird, die in dem Speicher des Computers 110 gespeichert ist (oder über das Netzwerk empfangen wird) und eine Reflektivität der Oberfläche 150 und/oder eines Materials spezifiziert, das für die Oberfläche 150 angegeben ist, wobei spiegelnde, diffuse und/oder retroreflektierende Reflexionen berücksichtigt werden. Das heißt, die 3D-Kartendaten können Materialinformationen für jeden Punkt 170 und/oder jedes Objekt, z. B. einen Pfosten, eine Straßenoberfläche 150, ein Verkehrszeichen usw., beinhalten. (Siehe 8 und deren nachfolgende Erörterung.)
  • Wie vorstehend erörtert, kann sich eine Reflektivität R einer Oberfläche 150 basierend auf einer Menge an Feuchtigkeit oder Flüssigkeit auf der Oberfläche 150 ändern. Zum Beispiel ändert sich eine Reflektivität R(x, y, z) der Straßenoberfläche 150 an den Standortkoordinaten (x, y, z) typischerweise, wenn sich die Straßenoberfläche 150 von einer trockenen Bedingung zu nass oder feucht ändert. Typischerweise werden Lidar-Kartendaten basierend auf gesammelten Lidar-Daten unter guten Wetterbedingungen erzeugt, d. h. ohne eine schlechte Wetterbedingung, wie etwa Regen, Schnee usw. Somit beinhalten die Lidar-Kartendaten typischerweise Reflektivitäten R von Oberflächen 150 in dem Bereich 160 unter trockenen Bedingungen, d.h. Oberflächen 150, die zu einem Zeitpunkt der Erfassung von Kartendaten trocken waren. Zusätzlich oder alternativ dazu kann der Computer 110 dazu programmiert sein, die Reflektivität R der Oberfläche 150 basierend auf den Punktwolkendaten zu bestimmen, z. B. einer Intensität der Reflexionen, die von einem entsprechenden Punkt 170 der Oberfläche 150 in der Punktwolke gespeichert sind.
  • 2A zeigt Lichtreflexionsmuster 200 eines Lichtstrahls 135, der aus verschiedenen Betrachtungswinkeln Φ1, Φ2 auf eine trockene Oberfläche 150 trifft. Zum Beispiel kann ein erster Lichtstrahl 135 mit einem Winkel Φ1 an einem ersten Punkt 170 auf die Oberfläche 150 treffen, der weiter von dem Sensor 130 entfernt ist als ein zweiter Punkt 170, der durch einen zweiten Strahl 135 in einem zweiten Winkel Φ2 getroffen wird. Ein Lichtreflexionsmuster ist eine Vielzahl von Reflexionen von einem Punkt 170 beim Beleuchten des Punktes 170 mit einem Lichtstrahl 135.
  • Ein Lichtstrahl 135, der auf eine Oberfläche 150 trifft, kann zu einer diffusen Reflexion und/oder einer spiegelnden Reflexion führen. Bei diffuser Reflexion handelt es sich um Reflexion von Licht oder anderen Wellen oder Partikeln von einer Oberfläche 150 derart, dass ein Strahl 135, der auf die Oberfläche 150 einfällt, in vielen Winkeln gestreut wird, anstatt nur in einem Winkel, wie im Fall der spiegelnden Reflexion. Viele gebräuchliche Materialien, z. B. Beton, Asphalt usw., zeigen eine Mischung aus spiegelnder und diffuser Reflexion. 2A zeigt beispielhafte Reflexionsmuster 210, 220 auf einer trockenen Straßenoberfläche 150, die im Wesentlichen diffuse Reflexionen beinhalten. Somit können die Reflexionsmuster 210, 220 symmetrisch sein, d. h., Licht wird in viele Richtungen gestreut. Wie 2A zeigt, kann der Lichtstrahl 135, der mit dem Betrachtungswinkel Φ1, auf die trockene Oberfläche 150 trifft, und der Lichtstrahl 135, der mit dem Betrachtungswinkel Φ2 auf die trockene Oberfläche 150 trifft, gleichermaßen zu im Wesentlichen streuenden Mustern 210, 220 führen.
  • 2B zeigt Lichtreflexionsmuster 230, 240 eines Lichtstrahls 135, der aus unterschiedlichen Betrachtungswinkeln Φ1, Φ2 auf eine trockene Oberfläche 150 trifft. Im Gegensatz zu 2A veranschaulichen die Reflexionsmuster 230, 240 in 2B eine im Wesentlichen spiegelnde Reflexion. Die spiegelnde Reflexion ist eine Art von Lichtreflexion, die oft als eine spiegelartige Reflexion von Licht von der Oberfläche beschrieben wird, bei der das einfallende Licht, z. B. der Lichtstrahl 135, in eine einzelne Ausgangsrichtung reflektiert wird. Eine Richtung einer spiegelnden Reflexion ist symmetrisch zu dem einfallenden Lichtstrahl 135 in Bezug auf eine vertikale Linie an dem Punkt 170, z. B. weist eine spiegelnde Reflexion eines Lichtstrahls 135 mit einem Winkel von 80° einen Winkel von 110° auf Änderungen des Reflexionsmusters 210, 220, 230, 240 basierend auf dem Feuchtigkeitsniveaus oder der Nässe der Oberfläche 150 werden unter Bezugnahme auf die 3-6 nachstehend erörtert.
  • Die 3-6 zeigen jeweilige Diagramme 300, 400, 500, 600 der Lichtreflexion auf trockenen, leicht feuchten, feuchten bzw. nassen Oberflächen 150. Die Ausdrücke leicht feucht, feucht und nass spezifizieren in dieser Schrift ein Feuchtigkeitsniveau auf einer Oberfläche 150 und können qualitative Ausdrücke sein oder können alternativ dazu basierend auf einer Wassermenge auf der Oberfläche 150 definiert sein, z. B. basierend auf einer Dicke einer Wasserschicht auf der Oberfläche 150. In einem Beispiel ist eine Oberfläche 150 „leicht feucht“, wenn eine Wasserschichtdicke weniger als 100 Mikrometer beträgt; ist eine Oberfläche 150 „feucht“, wenn eine Wasserschichtdicke zwischen 100 und 500 Mikrometer beträgt; und ist eine Oberfläche 150 „nass“, wenn eine Wasserschichtdicke mehr als 500 Mikrometer beträgt. Alternativ dazu können Feuchtigkeit oder Nässe durch andere Flüssigkeiten allein oder in Kombination miteinander und/oder Wasser, z. B. Öl usw., und/oder Dämpfe verursacht werden.
  • Jedes der Diagramme 300, 400, 500, 600 zeigt Folgendes: (i) eine Bodenebene, die eine Seitenansicht einer Oberfläche 150 darstellt (z. B. wie in den 1 und 2A-2B zu sehen), (ii) einen LIDAR-Strahl, der die Bodenebene trifft, (iii) eine Spiegelreflexion, d. h. eine Reflexion in einem gleichen Winkel wie der Lichtstrahl, der die Bodenebene trifft, (iv) eine diffuse Reflexionskurve, die ein Ergebnis einer Vielzahl von diffusen Reflexionen von der Bodenebene ist, (v) eine Spiegelreflexionskurve, die ein Ergebnis einer oder mehrerer Spiegelreflexionen ist, und (vi) eine Summe (z. B. resultierende Vektorsumme) von Spiegelreflexionen und diffusen Reflexionen. Eine empirische Technik kann verwendet werden, um ein Reflexionsmodell diffusiv, umgebend (falls erforderlich basierend auf 3D-Kartendaten für externe Lichtquellen oder einen Lichtsensor) und/oder spiegelnd zu machen.
  • Das Diagramm 300 aus 3 zeigt die Reflexion des Lichtstrahls von der Bodenebene (d. h., die eine Oberfläche 150 darstellt) unter einer trockenen Bedingung. Wie die diffuse Reflexionskurve zeigt, kann ein Lichtstrahl symmetrisch gestreut werden, wenn er auf eine trockene Oberfläche 150 trifft. Somit kann, wie in dem Diagramm 300 gezeigt, die Summe aus diffusen und spiegelnden Reflexionen eine im Wesentlichen symmetrische Form, z. B. rund, aufweisen. Anders ausgedrückt wird das Licht im Wesentlichen gestreut, anstatt spiegelnde Reflexionen zu verursachen.
  • Das Diagramm 400 aus 4 zeigt Reflexionen von Licht von der Bodenebene, wenn die Oberfläche 150 leicht feucht ist, und das Diagramm 500 zeigt Reflexionen von Licht von der Bodenebene, wenn die Bodenebene (welche die Oberfläche 150 darstellt) feucht ist. Durch Vergleichen der Diagramme 300, 400 und 500 ist ersichtlich, wie eine Erhöhung eines Feuchtigkeitsniveaus (das von trocken zu leicht feucht und von leicht feucht zu feucht wechselt) eine Zunahme der spiegelnden Reflexion im Vergleich zur diffusen Reflexion bewirkt. Das Diagramm 600 aus 6 zeigt Reflexionen des Lichtstrahls von der Bodenebene, wenn die Oberfläche 150 nass ist (z. B. stehendes Wasser). Wie im Diagramm 600 gezeigt, kann eine Reflexion von Licht von einer nassen Oberfläche 150 im Wesentlichen eine spiegelnde Reflexion beinhalten.
  • Wie vorstehend unter Bezugnahme auf Gleichung (1) erörtert, basiert eine erfasste Intensitätis an dem Sensor 130 mindestens teilweise auf einem Betrachtungswinkel Φ. 7 zeigt ein Diagramm 710-740 der erfassten Intensität is gegenüber dem Betrachtungswinkel Φ. Unter zusätzlicher Bezugnahme auf das Diagramm 300 zeigt das Diagramm 710 Änderungen der erfassten Intensität is gegenüber dem Betrachtungswinkel Φ auf einer trockenen Bodenebene. Unter zusätzlicher Bezugnahme auf das Diagramm 400 zeigt das Diagramm 720 Änderungen der erfassten Intensität is gegenüber dem Betrachtungswinkel Φ auf einer leicht feuchten Bodenebene. Unter zusätzlicher Bezugnahme auf das Diagramm 500 zeigt das Diagramm 730 Änderungen der erfassten Intensität is gegenüber dem Betrachtungswinkel Φ auf einer feuchten Bodenebene. Unter zusätzlicher Bezugnahme auf das Diagramm 600 zeigt das Diagramm 740 Änderungen der erfassten Intensität is gegenüber dem Betrachtungswinkel Φ auf einer nassen Bodenebene.
  • Wie in den Diagrammen 710-740 gezeigt, ändert sich eine Reflektivität R der Oberfläche 150, wenn sich ein Feuchtigkeitsniveau auf einer Oberfläche 150 ändert. Zum Beispiel kann der Sensor 130 unter Bezugnahme auf die Gleichungen (2)-(3) und 7 bei einem Betrachtungswinkel 60° eine erste erfasste Intensität ist von einer feuchten Oberfläche 150 basierend auf einer eingestellten ersten Reflektivität Ri der feuchten Oberfläche 150 empfangen und kann eine zweite erfasste Intensität is2 von einer nassen Oberfläche 150 basierend auf einer eingestellten zweiten Reflektivität R2 der nassen Oberfläche 150 empfangen. Gleichung (2) zeigt, wie die erste erfasste Intensität ist unter Verwendung von Gleichung (1) basierend auf der Reflektivität Ri der feuchten Oberfläche 150, dem Abstand d und der Intensität ie des emittierten Lichtstrahls 135 mit einem Betrachtungswinkel von 60° bestimmt wird. Gleichung (3) zeigt, wie die zweite erfasste Intensität is2 unter Verwendung von Gleichung (1) basierend auf der Reflektivität R2 der feuchten Oberfläche 150, dem Abstand d und der Intensität ie des emittierten Lichtstrahls 135 mit einem Betrachtungswinkel von 60° bestimmt wird. i s 1 ( x , y , z ) = f ( R 1 ( x , y , z ) ,60 ° , i e ( x , y , z ) , d ( x , y , z ) )
    Figure DE102020118067A1_0002
    i s 2 ( x , y , z ) = f ( R 2 ( x , y , z ) ,60 ° , i e ( x , y , z ) , d ( x , y , z ) )
    Figure DE102020118067A1_0003
  • Unter Bezugnahme auf die Diagramme 710-740 ist anzumerken, dass eine Reflektivität R der nassen Oberfläche 150 größer sein kann als einer trockenen oder leicht feuchten Oberfläche 150, wenn der Betrachtungswinkel Φ über einem Winkelschwellenwert Φtr liegt. Wenn der Betrachtungswinkel Φ den Winkelschwellenwert Φtr überschreitet, dann überschreitet eine Reflektivität R der nassen oder feuchter Oberfläche 150 eine Reflektivität R der Oberfläche 150 mit einem Feuchtigkeitsgehalt von einer trockenen Bedingung oder leicht feucht.
  • Ein Reflektivitätsschwellenwert Rt für eine trockene Bedingung kann definiert sein, um eine nasse Oberfläche 150 zu erkennen. Mit Bezug auf die Diagramme 710-740 und die nachstehende Gleichung (4) bei einem Betrachtungswinkel 60°, kann eine erfasste Intensität is unter dem erfassten Intensitätsschwellenwert ist eine Nässe der Oberfläche 150 an den Standortkoordinaten (x, y, z). In einem Beispiel kann unter Bezugnahme auf Gleichung (4) der erfasste Intensitätsschwellenwert ist basierend auf der ersten und der zweiten Intensität is1, is2 definiert werden. In einem anderen Beispiel kann ein erfasster Intensitätsschwellenwert ist basierend auf der zweiten erfassten Intensität is2 definiert werden, z. B. kann es sich bei dem Schwellenwert um eine Intensität handeln, die 10 % größer als die zweite erfasste Intensität is2 ist. In noch einem weiteren Beispiel kann der Intensitätsschwellenwert ist im Wesentlichen gleich einer dritten erfassten Intensität is3 sein, die einer erfassten Intensität von einer leicht feuchten Oberfläche 150 entspricht. Anders ausgedrückt kann der Reflektivitätsschwellenwert Rt eingestellt werden, um zu definieren, bis zu welchem Feuchtigkeitsniveau auf der Oberfläche 150 als trocken angesehen werden kann.
  • Unter Bezugnahme auf Gleichung (1) kann eine erfasste Schwellenintensität ist basierend auf der Lichtintensität ie bestimmt werden, die von der Oberfläche 150 mit dem Reflektivitätsschwellenwert Rt in einem Abstand d von dem Sensor 130 reflektiert wird. Somit zeigt Gleichung (5) eine Beziehung des Reflektivitätsschwellenwerts Rt, des Betrachtungswinkels Φ, z. B. 60°, der emittierten Intensität ie, des Abstands d und des erfassten Intensitätsschwellenwerts ist. Gleichung (6) spezifiziert die Reflektivität R basierend auf dem erfassten Intensitätsschwellenwert is, dem Betrachtungswinkel Φ, der emittierten Intensität ie und dem Abstand d. Der Vorgang g ist eine Funktion, welche den Reflektivitätsschwellenwert R basierend auf den Eingaben: eines Betrachtungswinkels Φ, z. B. 60°, der emittierten Intensität ie, des Abstands d und der erfassten Intensität is bestimmt. Anders ausgedrückt kann basierend auf einer erfassten Intensität is und einem bestimmten Betrachtungswinkel Φ sowie dem Abstand d die Reflektivität R der Oberfläche 150 an den Standortkoordinaten (x, y, z) bestimmt werden. Zum Beispiel kann basierend auf Gleichung (6) der Reflektivitätsschwellenwert Rt basierend auf dem erfassten Intensitätsschwellenwert ist, dem Betrachtungswinkel Φusw. bestimmt werden. Gleichung (6) kann basierend auf empirischen Verfahren abgeleitet werden, z. B. basierend auf Ergebnissen von iterativen Experimenten mit verschiedenen emittierten Lichtintensitäten ie, Betrachtungswinkeln Φ, erfassten Intensitäten is. Zusätzlich oder alternativ dazu kann Gleichung (6) basierend auf bekannten Techniken aus der Optikphysik bestimmt werden. i s t = i s 1 + i s 2 2
    Figure DE102020118067A1_0004
    i s t ( x , y , z ) = f ( R t ( x , y , z ) ,60 ° , i e ( x , y , z ) , d ( x , y , z ) )
    Figure DE102020118067A1_0005
    R ( x , y , z ) = g ( i s ( x , y , z ) , Φ , i e ( x , y , z ) , d ( x , y , z ) )
    Figure DE102020118067A1_0006
  • In einem Beispiel kann der Computer 110 dazu programmiert sein, basierend auf einer Reflektivität R der Oberfläche 150 zu bestimmen, ob eine Oberfläche 150 z. B. an einem Punkt 170 mit den Standortkoordinaten (x, y, z) nass ist. Der Computer 110 kann basierend auf Gleichung (6) dazu programmiert sein, basierend auf Daten des LIDAR-Sensors 130 eine Reflektivität R eines Abschnitts (oder Bereiches) einer Straßenoberfläche 150 zu bestimmen und basierend auf der bestimmten Reflektivität R des Abschnitts, einem Reflektivitätsschwellenwert Rt bei trockenen Bedingungen für den Abschnitt und einem Betrachtungswinkel Φ des Abschnitts von dem LIDAR-Sensor 130 zu bestimmen, ob der identifizierte Abschnitt nass ist. Wie vorstehend erörtert, kann eine kartenbasierte Reflektivität Rm der Oberfläche 150 basierend auf Kartendaten bestimmt werden, die z. B. in den Punktwolkendaten beinhaltet sind. Unter Bezugnahme auf Gleichung (7) kann ein Reflektivitätsschwellenwert Rt für Standortkoordinaten (x, y, z) basierend auf der Reflektivität Rm (basierend auf Kartendaten bestimmt oder in den Kartendaten beinhaltet), dem Betrachtungswinkel und dem Abstand d von dem Sensor 130 des Fahrzeugs 100 zu den Standortkoordinaten (x, y, z) bestimmt werden. Der Vorgang h ist eine Funktion, die den Reflektivitätsschwellenwert basierend auf der Reflektivität Rm, dem Winkel Φ und dem Abstand d bestimmt. R t ( x , y , z ) = h ( R m ( x , y , z ) , Φ , d ( x , y , z ) )
    Figure DE102020118067A1_0007
  • Im vorliegenden Zusammenhang ist ein „Abschnitt der Straßenoberfläche“ oder ein „Bereich der Straßenoberfläche“ ein durchgehender Oberflächenbereich, der einen oder mehrere Punkte 170 auf der Oberfläche 150 innerhalb des Bereiches 160 beinhaltet. Der Abschnitt der Oberfläche 150 kann ein geometrisch geformter, z. B. kreisförmiger, rechteckiger usw. oder nicht geometrisch geformter Abschnitt auf der Oberfläche 150 sein, der eine Vielzahl von Punkten 170 beinhaltet. Zum Beispiel kann ein Abschnitt der Oberfläche 150 einen quadratischen Abschnitt der Straßenoberfläche 150 von 1 Meter mal 1 Meter beinhalten. Der Computer 110 kann dazu programmiert sein, zu bestimmen, dass ein Abschnitt der Oberfläche nass ist, wenn bestimmt wird, dass die Oberfläche 150 in mindestens einer Mindestanzahl, z. B. 5, von Punkten 170 innerhalb des identifizierten Abschnitts nass ist.
  • Um zu bestimmen, ob die Oberfläche 150 an einem Punkt 170 nass ist, muss sich der Punkt 170 innerhalb eines Sichtfelds des Sensors 130 befinden, da der Computer 110 die Reflektivität R an dem Punkt 170 basierend auf Reflexionen bestimmt, die von dem Punkt 170 auf der Oberfläche 150 empfangen werden. Der Computer 110 kann dazu programmiert sein, einen Punkt 170 basierend auf von Daten, die von dem Sensor 130 des Fahrzeugs 100 empfangen werden, nur dann zu identifizieren, wenn bestimmt wird, dass die Straßenoberfläche 150 für den LIDAR-Sensor 130 sichtbar ist. Zum Beispiel kann der Computer 110 ferner dazu programmiert sein, basierend auf den LIDAR-Kartendaten und einem Standort eines erkannten Objektes, z. B. eines zweiten Fahrzeugs, eines Fahrrads usw., auf der Straßenoberfläche 150 zu bestimmen, dass die Straßenoberfläche 150 an einem Punkt 170 mit den Standortkoordinaten (x, y, z) sichtbar ist. Der Computer 110 kann ein Objekt basierend auf Daten erkennen, die von einem Objekterkennungssensor 130 des Fahrzeugs 100, z. B. einer Kamera, einem LIDAR, einem Radar usw., empfangen werden, und basierend auf einem Standort und Abmessungen des erkannten Objektes einen Bereich der Oberfläche 150 identifizieren, der für den LIDAR-Sensor 130 unsichtbar ist.
  • Wie vorstehend erörtert, können die Kartendaten eine Reflektivität R eines Punktes 170 und/oder eines Materials, aus dem die Oberfläche 150 an dem Punkt 170 gebildet ist, beinhalten. Der Computer 110 kann dazu programmiert sein, den Reflektivitätsschwellenwert Rt für trockene Bedingungen basierend auf den LIDAR-Kartendaten zu bestimmen, den Reflektivitätsschwellenwert Rt basierend auf dem Betrachtungswinkel Φ des Bereiches einzustellen und basierend auf dem eingestellten Reflektivitätsschwellenwert Rt zu bestimmen, dass der Bereich nass ist.
  • Wie unter Bezugnahme auf die Diagramme 710, 720, 730, 740 ersichtlich ist, kann eine Reflektivität R der nassen Oberfläche 150 größer sein als die einer trockenen oder leicht feuchten Oberfläche 150, wenn der Betrachtungswinkel Φ über einem Winkelschwellenwert Φtr liegt. Anders ausgedrückt, wenn der Betrachtungswinkel Φ den Winkelschwellenwert Φtr überschreitet, dann überschreitet eine Reflektivität R der nassen oder feuchter Oberfläche 150 eine Reflektivität R der Oberfläche 150 mit einem Feuchtigkeitsgehalt von einer trockenen Bedingung oder leicht feucht.
  • Der Computer 110 kann dazu programmiert sein, den Winkelschwellenwert Φtr für die Oberfläche 150 zu bestimmen, z. B. in einem Speicher des Computers 110 gespeichert, und einen erfassten Intensitätsschwellenwert ist basierend auf der Reflektivität R der Oberfläche 150 an dem Punkt 170, dem Betrachtungswinkel Φ und dem Abstand d zu bestimmen. Der Computer 110 kann dann dazu programmiert sein, zu bestimmen, dass die Oberfläche 150 an dem Punkt 170 nass ist, wenn eines von Folgendem bestimmt wird: (i) dass die erfasste Intensität is unter dem Intensitätsschwellenwert ist liegt und der Betrachtungswinkel Φ unter dem Betrachtungswinkelschwellenwert Φtr, liegt oder (ii) dass die erfasste Intensität is über dem Intensitätsschwellenwert ist liegt und der Betrachtungswinkel Φ über dem Betrachtungswinkelschwellenwert Φtr. liegt.
  • In einem Beispiel, um z. B. die Genauigkeit beim Bestimmen, ob die Oberfläche 150 nass ist, zu verbessern, kann der Computer 110 dazu programmiert sein, die erfasste Intensität is eines Punktes 170 aus verschiedenen Betrachtungswinkeln Φ zu bestimmen. Zum Beispiel kann der Computer 110 unter Bezugnahme auf 1 dazu programmiert sein, eine erste erfasste Intensität is mit einem ersten Betrachtungswinkel Φ an dem Punkt 170 zu bestimmen und dann bei einer weiteren Bewegung des Fahrzeugs 100 in Richtung des Punktes 170 eine zweite erfasste Intensität is mit einem zweiten Betrachtungswinkel Φ zu bestimmen. In einem Beispiel kann der Computer 110 dazu programmiert sein, zu bestimmen, dass der Punkt 170 nass ist, wenn basierend auf jeder der Messungen der erfassten Intensität is mit dem ersten und dem zweiten Betrachtungswinkel Φ bestimmt wird, dass die Oberfläche 150 an dem Punkt 170 nass ist. Wenn sich das Fahrzeug 100 zum Beispiel auf einer Straße bewegt, kann der Computer 110 zum Beispiel mehrmals bestimmen, ob ein Punkt 170 auf der Straßenoberfläche 150 nass ist, während sich das Fahrzeug 100 dem Punkt 170 auf der Straßenoberfläche 150 nähert. In einem Beispiel kann der Computer 110 bestimmen, dass die Oberfläche 150 an dem Punkt 170 nass ist, wenn bestimmt wird, dass aus mindestens ein Prozentsatz, z. B. 70 %, von Bestimmungen hervorging, dass die Oberfläche 150 an dem Punkt 170 nass ist.
  • In einem Beispiel kann der Computer 110 die erste erfasste Intensität is anhand des ersten Betrachtungswinkels Φ basierend auf Daten, die von einem ersten Sensor 130, z. B. einem LIDAR-Sensor 130 auf einem Dach des Fahrzeugs 100, empfangen werden, und die zweite erfasste Intensität is basierend auf Daten bestimmen, die von einem zweiten LIDAR-Sensor 130 des Fahrzeugs 100 empfangen werden, der an einem Stoßfänger des Fahrzeugs 100 montiert ist.
  • In einem Beispiel kann der Computer 110 dazu programmiert sein, einen Betrachtungswinkelschwellenwert Φtr für den identifizierten Bereich, z. B. einen Punkt 170, zu bestimmen, und zu bestimmen, dass die Oberfläche 150 an dem Punkt 170 nass ist, wenn bestimmt wird, dass (i) mit Betrachtung aus einem ersten Betrachtungswinkel Φ1 unter dem Betrachtungswinkelschwellenwert Φtr die erfasste Intensität is unter einem ersten Intensitätsschwellenwert ist für den ersten Betrachtungswinkel Φ1 liegt und (ii) unter Betrachtung aus einem zweiten Betrachtungswinkel Φ2 über dem Betrachtungswinkelschwellenwert Φtr eine erfasste Intensität is über einem zweiten Intensitätsschwellenwert ist für den zweiten Betrachtungswinkel Φ2 liegt.
  • 8 zeigt beispielhafte Diagramme 810, 820, 830, 840, welche die Änderung der Reflektivität R verschiedener Materialien, z. B. Beton und Messing, basierend auf der Wellenlänge des Lichts, das auf eine aus einem entsprechenden Material gebildete Oberfläche 150 trifft, und basierend darauf, dass sie nass oder trocken ist, veranschaulichen. Der Computer 110 kann dazu programmiert sein, eine nasse Oberfläche 150 basierend auf einem bekannten Material der Oberfläche 150 zu identifizieren, z. B. basierend auf Kartendaten bestimmt, und das Material basierend auf Daten zu bestimmen, die von dem LIDAR-Sensor 130 empfangen werden. Der Computer 110 kann Daten speichern, die eine Reflektivität R verschiedener Materialien beinhalten, wie etwa Daten, die in den Diagrammen 810 und 840 veranschaulicht sind. Somit kann der Computer 110 eine Reflektivität R der Oberfläche 150 bestimmen, z. B. basierend auf Gleichung (6), und dann das Material basierend auf der bestimmten Reflektivität R klassifizieren.
  • In einem Beispiel kann der Computer 110 ein erstes Material der Oberfläche 150, z. B. Beton, basierend auf Bilddaten bestimmen, die von einem Kamerasensor 130 des Fahrzeugs 100 empfangen werden. Somit kann der Computer 110 ein Material der Oberfläche 150 unter Verwendung von Bildverarbeitungstechniken identifizieren. In einem anderen Beispiel kann der Computer 110 dazu programmiert sein, ein zweites Material der Oberfläche 150 basierend auf den empfangenen Kartendaten zu identifizieren (z. B. können Kartendaten eine Materialkennung für jeden Punkt 170 beinhalten). Der Computer 110 kann dazu programmiert sein, ein zweites Material an der Oberfläche 150 basierend auf der Reflektivität R der Oberfläche 150 zu klassifizieren, die basierend auf dem Betrachtungswinkel Φ, dem Abstand d, der emittierten Intensität ie und der erfassten Intensität is bestimmt wird. Der Computer 110 kann bestimmen, dass die Oberfläche 150 bei Punkt 170 nass ist, wenn bestimmt wird, dass das Material der Oberfläche 150 falsch klassifiziert ist (d. h., das bestimmte erste und zweite Material sind unterschiedlich). Zum Beispiel kann der Computer 110 unter Bezugnahme auf die Diagramme 810-840 eine nasse Betonoberfläche 150 als Messing falsch klassifizieren. Es ist anzumerken, dass die Reflektivität von nassem Beton (Diagramm 820) im Wesentlichen gleich der Reflektivität R von trockenem Messing (Diagramm 840) in einem Wellenlängenbereich wie etwa 1400 bis 1600 Nanometer (nm) ist.
  • Wie vorstehend erörtert, basiert eine Bestimmung, ob eine Oberfläche 150 nass ist, teilweise auf empfangenen Kartendaten. Jedoch kann sich ein Straßenbelag 150 kürzlich geändert haben (d. h. nach dem Erzeugen der empfangenen Kartendaten), z. B. infolge einer Erneuerung der Straßenoberfläche 150, des Aufbringens neuer Fahrbahnmarkierungen auf der Straßenoberfläche 150 usw. Der Computer 110 kann dazu programmiert sein, eine uneindeutige Nässeerkennung zu bestimmen, wenn basierend auf Daten des Kamerasensors 130 des Fahrzeugs 100 bestimmt wird, dass den LIDAR-Kartendaten Daten fehlen, einschließlich einer an der Straßenoberfläche 150 vorgenommenen Änderung.
  • 9 ist ein Ablaufdiagramm, das einen beispielhaften Prozess 900 zum Erkennen einer nassen Oberfläche 150 veranschaulicht. Der Computer 110 kann dazu programmiert sein, Blöcke des Prozesses 900 auszuführen.
  • Unter Bezugnahme auf 9 beginnt der Prozess 900 in einem Block 910, in dem der Computer 110 eine LIDAR-Karte (oder Punktwolkendaten) für einen Bereich 160 empfängt. Die empfangenen Kartendaten können eine Reflektivität R und/oder eine Intensität von Licht beinhalten, das von jedem Punkt 170 auf einer Oberfläche 150 innerhalb des Bereiches 160 empfangen wird.
  • Als Nächstes identifiziert der Computer 110 in einem Entscheidungsblock 915 eine sichtbare Oberfläche 150 zum Bestimmen, ob die Oberfläche 150 nass ist. Zum Beispiel kann der Computer 110 dazu programmiert sein, Objekte, wie etwa andere Fahrzeuge, Fahrräder, Lastwagen usw., zu erkennen und Oberflächen 150 zu identifizieren, die nicht sichtbar sind, da das jeweilige Objekt eine Sicht des Sensors 130 blockiert. Zum Beispiel kann der Computer 110 einen Punkt 170 auf der Straßenoberfläche 150 identifizieren, der für den LIDAR-Sensor 130 sichtbar ist. Wenn der Computer 110 einen sichtbaren Punkt 170 auf einer Oberfläche 150 innerhalb des Sichtfeldes des Sensors 130 identifiziert, geht der Prozess 900 zu einem Block 920 über; andernfalls kehrt der Prozess 900 zu dem Entscheidungsblock 915 zurück.
  • In dem Block 920 bestimmt der Computer 110 einen Reflektivitätsschwellenwert Rt für trockene Bedingungen und den Betrachtungswinkelschwellenwert Φtr für die Oberfläche 150 an den Koordinaten (x, y, z) des Punktes 170. Der Computer 110 kann dazu programmiert sein, basierend auf Gleichung (7) den Reflektivitätsschwellenwert Rt basierend auf dem Betrachtungswinkel Φ, dem Abstand d zu den Standortkoordinaten (x, y, z) und der kartenbasierten Reflektivität Rm der Standortkoordinaten (x, y, z) zu bestimmen. Der Computer 110 kann dazu programmiert sein, den Betrachtungswinkelschwellenwert Φtr basierend auf im Speicher des Computers 110 gespeicherten Daten zu bestimmen. Zum Beispiel können die Kartendaten den Betrachtungswinkelschwellenwert Φtr beinhalten.
  • Als Nächstes bestimmt der Computer 110 in einem Block 930 eine erfasste Intensität is von Reflexionen, die von den Standortkoordinaten (x, y, z) empfangen werden, basierend auf Daten, die von dem Sensor 130 des Fahrzeugs 100 empfangen werden.
  • Als Nächstes bestimmt der Computer 110 in einem Entscheidungsblock 935, ob die Oberfläche 150 an den Standortkoordinaten (x, y, z) nass ist. Der Computer 110 kann dazu programmiert sein, basierend auf der erfassten Intensität is, dem Reflektivitätsschwellenwert Rt und dem Betrachtungswinkelschwellenwert Φtr zu bestimmen, ob die Oberfläche 150 nass ist, wie vorstehend erörtert. Zusätzlich oder alternativ dazu kann der Computer 110, wie vorstehend erörtert, dazu programmiert sein, eine erfasste Intensität is aus mehreren Betrachtungswinkeln Φ zu bestimmen. Wenn der Computer 110 bestimmt, dass die Oberfläche 150 nass ist, geht der Prozess 900 zu einem Block 940 über; andernfalls endet der Prozess 900 oder kehrt alternativ dazu zu dem Block 910 zurück.
  • In dem Block 940 stellt der Computer 110 den Betrieb des Fahrzeugs 100 basierend auf der bestimmten nassen Oberfläche 150 ein. In einem Beispiel kann der Computer 110 des Fahrzeugs 100 dazu programmiert sein, eine Geschwindigkeit des Fahrzeugs 100 zu reduzieren, wenn bestimmt wird, dass sich die nasse Oberfläche 150 innerhalb einer Route des Fahrzeugs 100 befindet. Der Computer 110 kann dazu programmiert sein, einen Aktor 120 des Fahrzeugs 100 zu betätigen, um eine Geschwindigkeit des Fahrzeugs 100 zu reduzieren. In einem Beispiel kann der Computer 110 dazu programmiert sein, die Geschwindigkeit des Fahrzeugs 100 basierend auf einem Feuchtigkeitsniveaus der Straßenoberfläche 150 innerhalb der Route des Fahrzeugs 100 unter einen Geschwindigkeitsschwellenwert zu reduzieren. Der Computer 110 kann dazu programmiert sein, die Geschwindigkeit des Fahrzeugs 100 auf 80 Kilometer pro Stunde (km/h) zu begrenzen, wenn bestimmt wird, dass die Straßenoberfläche 150 innerhalb der Route des Fahrzeugs 100 nass ist. Der Computer 110 kann dazu programmiert sein, die Geschwindigkeit des Fahrzeugs 100 auf 100 km/h zu begrenzen, wenn bestimmt wird, dass die Straßenoberfläche 150 feucht ist. Der Computer 110 kann dazu programmiert sein, die Geschwindigkeit des Fahrzeugs 100 durch Betätigen der Aktoren 120 des Fahrzeugs 100, wie etwa Brems- und Antriebsaktoren 120, zu begrenzen.
  • Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, basierend auf einem erkannten Feuchtigkeitsniveau der Straßenoberfläche 150 den Betrieb des Fahrzeugs 100 in Bezug auf einen erwarteten Bremsweg einzustellen (d. h., den Sicherheitsabstand des Fahrzeugs einzustellen). Somit kann der Computer 110 einen erwarteten Bremsweg vergrößern und einen Abstand des Fahrzeugs 100 zu anderen Objekten, z. B. einem zweiten Fahrzeug vor dem Fahrzeug 100, basierend auf dem eingestellten Bremsweg einstellen. In einem Beispiel kann der Computer 110 dazu programmiert sein, den erwarteten Bremsweg um einen Faktor zu erhöhen, der basierend auf dem Feuchtigkeitsniveau bestimmt wird, z. B. einen Faktor von 2 für die nasse Oberfläche 150, einen Faktor von 1,5 für die feuchte Oberfläche 150 usw. In einem Beispiel kann der Computer 110 dazu programmiert sein, eine Bewegungsbahn eines zweiten Fahrzeugs vor oder hinter dem Fahrzeug 100 im Falle einer Bremsbetätigung basierend auf dem erkannten Feuchtigkeitsniveaus auf der Straßenoberfläche 150 vorherzusagen. Der Computer 110 kann dazu programmiert sein, den Betrieb des Fahrzeugs 100 basierend auf der vorhergesagten Bewegungsbahn des zweiten Fahrzeugs einzustellen, z. B. einen Mindestabstand, einen Sicherheitsabstand, eine verlängerte Zeit bis zur Kollision usw. einzustellen.
  • Nach dem Block 940 endet der Prozess 900 oder kehrt alternativ zu dem Block 910 zurück.
  • Rechenvorrichtungen, wie sie in dieser Schrift erörtert wurden, beinhalten im Allgemeinen jeweils Anweisungen, die durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend identifizierten, und zum Ausführen vorstehend beschriebener Blöcke oder Schritte von Prozessen ausgeführt werden können. Computerausführbare Anweisungen können von Computerprogrammen zusammengestellt oder interpretiert werden, die unter Verwendung vielfältiger Programmiersprachen und/oder -technologien erstellt worden sind, einschließlich unter anderem, entweder allein oder in Kombination, Java™, C, C++, Visual Basic, Java Script, Perl, HTML usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch er einen oder mehrere Prozesse durchführt, einschließlich eines oder mehrerer der in dieser Schrift beschriebenen Prozesse. Derartige Anweisungen und anderen Daten können unter Verwendung vielfältiger computerlesbarer Medien gespeichert und übertragen werden. Eine Datei in der Rechenvorrichtung ist allgemein eine Sammlung von Daten, die auf einem computerlesbaren Medium, wie etwa einem Speichermedium, einem Direktzugriffsspeicher usw., gespeichert sind.
  • Ein computerlesbares Medium beinhaltet jedes beliebige Medium, das am Bereitstellen von Daten (z. B. Anweisungen) beteiligt ist, die durch einen Computer gelesen werden können. Ein derartiges Medium kann viele Formen annehmen, einschließlich unter anderem nichtflüchtiger Medien, flüchtiger Medien usw. Nicht flüchtige Medien beinhalten beispielsweise optische oder magnetische Platten und andere Dauerspeicher. Flüchtige Medien beinhalten einen dynamischen Direktzugriffsspeicher (dynamic random access memory - DRAM), der typischerweise einen Hauptspeicher darstellt. Gängige Formen computerlesbarer Medien beinhalten beispielsweise eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physisches Medium mit Lochmustern, einen RAM, einen PROM, einen EPROM, einen FLASH-EEPROM, einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, das von einem Computer ausgelesen werden kann.
  • Hinsichtlich der in dieser Schrift beschriebenen Medien, Prozesse, Systeme, Verfahren usw. sollte es sich verstehen, dass, obwohl die Schritte derartiger Prozesse usw. als in einer bestimmten geordneten Sequenz erfolgend beschrieben worden sind, die beschriebenen Schritte bei der Ausführung derartiger Prozesse in einer Reihenfolge durchgeführt werden könnten, bei der es sich nicht um die in dieser Schrift beschriebene Reihenfolge handelt. Es sollte sich zudem verstehen, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte in dieser Schrift beschriebene Schritte weggelassen werden könnten. Mit anderen Worten sind die Beschreibungen von Systemen und/oder Prozessen in dieser Schrift zu Zwecken der Veranschaulichung bestimmter Ausführungsformen bereitgestellt und sollten keineswegs dahingehend ausgelegt werden, dass sie den offenbarten Gegenstand einschränken.
  • Dementsprechend versteht es sich, dass die vorliegende Offenbarung, einschließlich der vorstehenden Beschreibung und der beigefügten Figuren und nachstehenden Patentansprüche, veranschaulichend und nicht einschränkend sein soll. Viele Ausführungsformen und Anwendungen, bei denen es sich nicht um die bereitgestellten Beispiele handelt, sollten dem Fachmann nach der Lektüre der vorstehenden Beschreibung offensichtlich sein. Der Umfang der Erfindung sollte nicht unter Bezugnahme auf die vorstehende Beschreibung bestimmt werden, sondern stattdessen unter Bezugnahme auf die Patentansprüche, die dieser Schrift beigefügt sind und/oder in einer hierauf beruhenden, nicht vorläufigen Patentanmeldung enthalten sind, gemeinsam mit dem vollständigen Umfang von Äquivalenten, zu denen derartige Patentansprüche berechtigen. Es ist zu erwarten und beabsichtigt, dass es zukünftige Entwicklungen im in dieser Schrift erörterten Stand der Technik geben wird und dass die offenbarten Systeme und Verfahren in derartige zukünftige Ausführungsformen aufgenommen werden. Zusammenfassend versteht es sich, dass der offenbarte Gegenstand modifiziert und variiert werden kann.
  • Gemäß der vorliegenden Erfindung ist ein System bereitgestellt, das einen Computer aufweist, umfassend einen Prozessor und einen Speicher, wobei der Speicher Anweisungen derart speichert, dass der Prozessor zu Folgendem programmiert ist: Bestimmen, basierend auf Fahrzeuglidsarsensordaten, einer Reflektivität eines Bereiches einer Straßenoberfläche; und Bestimmen, ob der Bereich nass ist, basierend auf der bestimmten Reflektivität des Bereiches, einem Reflektivitätsschwellenwert für trockene Bedingungen für den Bereich und einem Betrachtungswinkel des Bereiches von dem LIDAR-Sensor aus.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen Anweisungen zum Identifizieren des Bereiches basierend auf Daten, die von mindestens einem von einer Fahrzeugkamera und dem Fahrzeug-LIDAR-Sensor empfangen werden, wenn bestimmt wird, dass die Straßenoberfläche für den LIDAR-Sensor sichtbar ist.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen Anweisungen zum Bestimmen, dass die Straßenoberfläche in dem Bereich sichtbar ist, basierend auf LIDAR-Kartendaten und einer Position eines erkannten Objektes auf der Straßenoberfläche.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen Anweisungen zu Folgendem: Bestimmen der Reflektivität basierend auf LIDAR-Kartendaten; Bestimmen des Reflektivitätsschwellenwertes für trockene Bedingungen mindestens teilweise basierend auf dem Betrachtungswinkel des Bereiches; und Bestimmen, dass der Bereich nass ist, basierend auf dem Reflektivitätsschwellenwert für trockene Bedingungen.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen Anweisungen zu Folgendem: Bestimmen einer zweiten Reflektivität des Bereiches anhand eines zweiten Betrachtungswinkels und Bestimmen, dass der Bereich nass ist, ferner basierend auf der zweiten Reflektivität und dem zweiten Betrachtungswinkel.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen Anweisungen zu Folgendem: Bestimmen eines Betrachtungswinkelschwellenwertes für den Bereich; und Bestimmen, dass der Bereich nass ist, wenn bestimmt wird, dass der Betrachtungswinkelschwellenwert unter dem zweiten Betrachtungswinkel und über dem Betrachtungswinkel liegt; die Reflektivität unter dem für den Betrachtungswinkel eingestellten Reflektivitätsschwellenwert für trockene Bedingungen liegt; und die zweite Reflektivität über dem für den zweiten Betrachtungswinkel eingestellten Reflektivitätsschwellenwert für trockene Bedingungen liegt.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen Anweisungen zum Bestimmen der Reflektivität anhand des Betrachtungswinkels basierend auf von dem LIDAR-Sensor empfangenen Daten und der zweiten Reflektivität anhand des zweiten Betrachtungswinkels basierend auf von einem zweiten LIDAR-Sensor empfangenen Daten.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen Anweisungen zu Folgendem: Klassifizieren des Bereiches anhand eines ersten Materials basierend auf mindestens einem von Kartendaten und Kameradaten; Klassifizieren des Bereiches anhand eines zweiten Materials mindestens teilweise basierend auf der bestimmten Reflektivität; und Bestimmen, dass der Bereich nass ist, wenn bestimmt wird, dass das erste und das zweite Material.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen Anweisungen zum Bestimmen einer uneindeutigen Nässeerkennung, wenn basierend auf Fahrzeugkameradaten bestimmt wird, dass den LIDAR-Kartendaten Daten fehlen, einschließlich einer an der Straßenoberfläche vorgenommenen Änderung, wobei es sich bei der Änderung um mindestens eines von Erneuerung des Straßenbelags und Aufbringen einer neuen Fahrbahnmarkierung handelt.
  • Gemäß der vorliegenden Erfindung ist ein System bereitgestellt aufweisend: Mittel zum Bestimmen, basierend auf Fahrzeuglidsarsensordaten, einer Reflektivität eines Bereiches einer Straßenoberfläche; und Mittel zum Bestimmen, ob der identifizierte Bereich nass ist, basierend auf der bestimmten Reflektivität des Bereiches, einem Reflektivitätsschwellenwert für trockene Bedingungen für den Bereich und einem Betrachtungswinkel des Bereiches von dem LIDAR-Sensor aus.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren Folgendes: Bestimmen, basierend auf Fahrzeuglidsarsensordaten, einer Reflektivität eines Bereiches einer Straßenoberfläche; und Bestimmen, ob der identifizierte Bereich nass ist, basierend auf der bestimmten Reflektivität des Bereiches, einem Reflektivitätsschwellenwert für trockene Bedingungen für den Bereich und einem Betrachtungswinkel des Bereiches von dem LIDAR-Sensor aus.

Claims (12)

  1. Verfahren, umfassend: Bestimmen einer Reflektivität einer Straßenoberfläche basierend auf Fahrzeug-LIDAR-Sensordaten; und Bestimmen, ob der Bereich nass ist, basierend auf der bestimmten Reflektivität des Bereiches, einem Reflektivitätsschwellenwert für trockene Bedingungen für den Bereich und einem Betrachtungswinkel des Bereiches von dem LIDAR-Sensor.
  2. Verfahren nach Anspruch 1, ferner umfassend das Identifizieren des Bereiches basierend auf Daten, die von mindestens einem von einer Fahrzeugkamera und dem Fahrzeug-LIDAR-Sensor empfangen werden, wenn bestimmt wird, dass die Straßenoberfläche für den LIDAR-Sensor sichtbar ist.
  3. Verfahren nach Anspruch 1, ferner umfassend das Bestimmen, dass die Straßenoberfläche in dem Bereich sichtbar ist, basierend auf LIDAR-Kartendaten und einer Position eines erkannten Objektes auf der Straßenoberfläche.
  4. Verfahren nach Anspruch 1, ferner umfassend: Bestimmen der Reflektivität basierend auf LIDAR-Kartendaten; Bestimmen des Reflektivitätsschwellenwerts für trockene Bedingungen mindestens teilweise basierend auf dem Betrachtungswinkel des Bereiches; und Bestimmen, dass der Bereich nass ist, basierend auf dem Reflektivitätsschwellenwert für trockene Bedingungen.
  5. Verfahren nach Anspruch 4, ferner umfassend: Bestimmen einer zweiten Reflektivität des Bereiches anhand eines zweiten Betrachtungswinkels, und Bestimmen, dass der Bereich nass ist, ferner basierend auf der zweiten Reflektivität und dem zweiten Betrachtungswinkel.
  6. Verfahren nach Anspruch 5, ferner umfassend: Bestimmen eines Betrachtungswinkelschwellenwerts für den Bereich; und Bestimmen, dass der Bereich nass ist, wenn bestimmt wird, dass (i) der Betrachtungswinkelschwellenwert unter dem zweite Betrachtungswinkel und über dem Betrachtungswinkel liegt; (ii) die Reflektivität unter dem für den Betrachtungswinkel eingestellten Reflektivitätsschwellenwert für trockene Bedingungen liegt; und (iii) die zweite Reflektivität über dem für den zweiten Betrachtungswinkel eingestellten Reflektivitätsschwellenwert für trockene Bedingungen liegt.
  7. Verfahren nach Anspruch 5, ferner umfassend das Bestimmen der Reflektivität anhand des Betrachtungswinkels basierend auf von dem LIDAR-Sensor empfangenen Daten und der zweiten Reflektivität anhand des zweiten Betrachtungswinkels basierend auf von einem zweiten LIDAR-Sensor empfangenen Daten.
  8. Verfahren nach Anspruch 1, ferner umfassend: Klassifizieren des Bereiches mit einem ersten Material basierend auf mindestens einem von Kartendaten und Kameradaten; Klassifizieren des Bereiches mit einem zweiten Material mindestens teilweise basierend auf der bestimmten Reflektivität; und Bestimmen, dass der Bereich nass ist, wenn bestimmt wird, dass das erste und das zweite Material.
  9. Verfahren nach Anspruch 1, ferner umfassend das Bestimmen einer uneindeutigen Nässeerkennung, wenn basierend auf Fahrzeugkameradaten bestimmt wird, dass den LIDAR-Kartendaten Daten fehlen, einschließlich einer an der Straßenoberfläche vorgenommenen Änderung, wobei es sich bei der Änderung um mindestens eines von Erneuerung des Straßenbelags und Aufbringen einer neuen Fahrbahnmarkierung handelt.
  10. Rechenvorrichtung, die zum Ausführen des Verfahrens nach einem der Ansprüche 1-9 programmiert ist.
  11. Computerprogrammprodukt, das ein computerlesbares Medium umfasst, auf dem durch einen Computerprozessor ausführbare Anweisungen zum Ausführen des Verfahrens nach einem der Ansprüche 1-9 gespeichert sind.
  12. System, umfassend: Mittel zum Bestimmen einer Reflektivität einer Straßenoberfläche basierend auf LIDAR-Sensordaten; und Mittel zum Bestimmen, ob der identifizierte Bereich nass ist, basierend auf der bestimmten Reflektivität des Bereiches, einem Reflektivitätsschwellenwert für trockene Bedingungen für den Bereich und einem Betrachtungswinkel des Bereiches von dem LIDAR-Sensor.
DE102020118067.5A 2019-07-10 2020-07-08 Erkennung von strassenoberflächenbedingungen Pending DE102020118067A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/508,153 US11021159B2 (en) 2019-07-10 2019-07-10 Road surface condition detection
US16/508,153 2019-07-10

Publications (1)

Publication Number Publication Date
DE102020118067A1 true DE102020118067A1 (de) 2021-01-14

Family

ID=74059409

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020118067.5A Pending DE102020118067A1 (de) 2019-07-10 2020-07-08 Erkennung von strassenoberflächenbedingungen

Country Status (3)

Country Link
US (1) US11021159B2 (de)
CN (1) CN112208540A (de)
DE (1) DE102020118067A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7264086B2 (ja) * 2020-02-27 2023-04-25 トヨタ自動車株式会社 車両制御装置及び車両制御方法
US11673581B2 (en) * 2020-12-11 2023-06-13 Waymo Llc Puddle occupancy grid for autonomous vehicles
SE2150236A1 (en) * 2021-03-02 2022-09-03 Klimator Ab Method and arrangement for determining a condition of a road surface
CN113031010B (zh) * 2021-03-31 2023-04-28 小马易行科技(上海)有限公司 检测天气的方法、装置、计算机可读存储介质与处理器
DE102022206404A1 (de) * 2021-07-19 2023-01-19 Robert Bosch Engineering And Business Solutions Private Limited Ein System, das dazu angepasst ist, einen Straßenzustand in einem Fahrzeug zu erkennen, und ein Verfahren dafür

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8306672B2 (en) * 2009-09-09 2012-11-06 GM Global Technology Operations LLC Vehicular terrain detection system and method
EP2557414B1 (de) 2009-12-21 2015-03-25 C.R.F. Società Consortile per Azioni Optisches Detektionssystem für Kraftfahrzeuge mit mehreren Funktionen, einschließlich Detektion des Fahrbahnzustands
KR101326991B1 (ko) 2011-12-01 2013-11-13 현대자동차주식회사 노면의 성질 감지 장치 및 그 방법
US9207323B2 (en) 2013-04-11 2015-12-08 Google Inc. Methods and systems for detecting weather conditions including wet surfaces using vehicle onboard sensors
US9453941B2 (en) * 2014-12-22 2016-09-27 GM Global Technology Operations LLC Road surface reflectivity detection by lidar sensor
US10160447B2 (en) 2015-10-20 2018-12-25 Ford Global Technologies, Llc Systems and methods for abrupt road change assist and active suspension control
DE102016009928A1 (de) 2016-08-16 2017-02-02 Daimler Ag Verfahren zum Erfassen von Nässe auf einer Fahrbahn
CN110402399B (zh) * 2017-01-03 2023-07-18 应诺维思科技有限公司 用于检测和分类物体的激光雷达系统和方法
US11333740B2 (en) * 2018-06-04 2022-05-17 Uatc, Llc Determining specular reflectivity characteristics using Lidar

Also Published As

Publication number Publication date
US20210009137A1 (en) 2021-01-14
CN112208540A (zh) 2021-01-12
US11021159B2 (en) 2021-06-01

Similar Documents

Publication Publication Date Title
DE102020118067A1 (de) Erkennung von strassenoberflächenbedingungen
DE102014223363B4 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE102015121270B4 (de) Verfahren zum Ermitteln eines Oberflächenzustands einer Fahrstraße
DE102009006113B4 (de) Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
DE102012024874B4 (de) Verfahren und Vorrichtung zum prädikativen Ermitteln eines Parameterwertes einer von einem Fahrzeug befahrbaren Oberfläche
DE102019125303A1 (de) Reinigung des fahrzeugsensors
DE202018100323U1 (de) LIDAR-Sensorfensterkonfiguration für verbesserte Datenintegrität
DE102020112314A1 (de) Verifizierung von fahrzeugbildern
EP3408685A1 (de) Verfahren und vorrichtung zur reichweitenbestimmung eines sensors für ein kraftfahrzeug
DE102013226631A1 (de) Verfahren und Vorrichtung zur Ermittlung von lokalen Wetterverhältnissen und eines lokalen Fahrbahnzustands
LU93431B1 (en) Polarimetric Radar System and Method for Object Classification and Road Condition Estimation in Stationary Applications
DE112019000801T5 (de) Fahrunterstützungsvorrichtung und Fahrunterstützungsverfahren
DE102021103777A1 (de) Strassenmarkierungserkennung
DE102018124538A1 (de) Systeme und Verfahren zur Messung einer Brückendurchfahrtshöhe
DE102019125166A1 (de) Sensorverschmutzungserkennung
DE102015207026A1 (de) Verfahren und Vorrichtung zum Steuern eines Erfassungssystems zum Erfassen eines Umfelds eines Fahrzeugs
DE102017221784A1 (de) Verfahren zum Betreiben eines Lidar-Sensors, Lidar-Sensor und Fortbewegungsmittel
DE102021103012A1 (de) Lidar-polarisation für fahrzeuge
DE102017122969A1 (de) Fahrzeug mit umfeldkontextanalyse
DE102021124810A1 (de) Neuronales fahrzeugnetzwerk
DE102016015405A1 (de) Umfassende Umgebungserfassung für einen Kraftwagen mittels Radar
DE102018203242A1 (de) Messung von Fahrzeugabmessungen aus einem Schattenwurf
DE102021128727A1 (de) Geisterpunktfilterung
DE102020100885A1 (de) Objekterkennung
DE102018103969A1 (de) Computer-implementiertes Verfahren zur Erzeugung von Sensordaten

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE