DE102018008442A1 - Method for weather and / or visibility detection - Google Patents

Method for weather and / or visibility detection Download PDF

Info

Publication number
DE102018008442A1
DE102018008442A1 DE102018008442.7A DE102018008442A DE102018008442A1 DE 102018008442 A1 DE102018008442 A1 DE 102018008442A1 DE 102018008442 A DE102018008442 A DE 102018008442A DE 102018008442 A1 DE102018008442 A1 DE 102018008442A1
Authority
DE
Germany
Prior art keywords
sensor
echo
fog
rain
weather
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018008442.7A
Other languages
German (de)
Inventor
Robin Heinzler
Philipp Schindler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102018008442.7A priority Critical patent/DE102018008442A1/en
Publication of DE102018008442A1 publication Critical patent/DE102018008442A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/95Lidar systems specially adapted for specific applications for meteorological use
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Wetter- und/oder Sichtweitenerkennung.Erfindungsgemäß werden Rohdaten mindestens eines Lidarsensors eines Fahrzeugs mittels maschinellem Lernen ausgewertet, um Sichtverhältnisse in einer Fahrzeugumgebung zu bestimmen, wobei ausgewertete Ergebnisse mit Ergebnissen anderer Arten von Umgebungserfassungssensoren des Fahrzeugs fusioniert werden, wobei für jeden Umgebungserfassungssensor eine Leistungsfähigkeit bestimmt und/oder klassifiziert wird, welche bei einer Sensorfusion berücksichtigt wird.The invention relates to a method for weather and / or visibility detection. According to the invention, raw data from at least one lidar sensor of a vehicle is evaluated by machine learning to determine visibility in a vehicle environment, where evaluated results are fused to results from other types of vehicle environment sensing sensors, wherein Each environment detection sensor determines and / or classifies a performance that is taken into account in a sensor fusion.

Description

Die Erfindung betrifft ein Verfahren zur Wetter- und/oder Sichtweitenerkennung.The invention relates to a method for weather and / or visibility detection.

Aus dem Stand der Technik ist, wie in der US 8,983,705 B2 beschrieben, ein Verfahren zur Erkennung von Wetterbedingungen, einschließlich Nebel, mittels Fahrzeugsensoren bekannt. Das Verfahren umfasst das Empfangen von Laserdaten, die durch Scannen einer Umgebung des Fahrzeugs gesammelt werden, und das Zuordnen von Laserdatenpunkten von einem oder mehreren Objekten in der Umgebung durch eine Computervorrichtung. Das Verfahren umfasst auch das Vergleichen von Laserdatenpunkten, die nicht mit dem einen oder den mehreren Objekten in der Umgebung assoziiert sind, mit gespeicherten Laserdatenpunkten, die für ein Muster aufgrund von Nebel repräsentativ sind, und basierend auf dem Vergleich das Identifizieren eines Hinweises, dass eine Wetterbedingung der Umgebung des Fahrzeugs Nebel enthält.From the prior art, as in the US 8,983,705 B2 described a method for detecting weather conditions, including fog, known by vehicle sensors. The method includes receiving laser data collected by scanning an environment of the vehicle and associating laser data points of one or more objects in the environment with a computing device. The method also includes comparing laser data points that are not associated with the one or more objects in the environment with stored laser data points that are representative of a pattern due to fog, and based on the comparison, identifying an indication that a Weather condition surrounding the vehicle contains fog.

Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Wetter- und/oder Sichtweitenerkennung anzugeben.The invention is based on the object to provide a comparison with the prior art improved method for weather and / or visibility detection.

Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Wetter- und/oder Sichtweitenerkennung mit den Merkmalen des Anspruchs 1.The object is achieved by a method for weather and / or visibility detection with the features of claim 1.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the dependent claims.

In einem erfindungsgemäßen Verfahren zur Wetter- und/oder Sichtweitenerkennung, insbesondere mittels Lidar, werden Rohdaten mindestens eines Lidarsensors eines Fahrzeugs mittels maschinellem Lernen ausgewertet, um Sichtverhältnisse, beispielsweise Regen, Nebel oder klare Sicht, in einer Fahrzeugumgebung zu bestimmen. In a method according to the invention for weather and / or visibility detection, in particular by means of lidar, raw data of at least one lidar sensor of a vehicle is evaluated by means of machine learning in order to determine visibility conditions, for example rain, fog or clear vision, in a vehicle environment.

Ausgewertete Ergebnisse werden mit Ergebnissen anderer Arten von Umgebungserfassungssensoren des Fahrzeugs, zum Beispiel Radar, fusioniert, wobei für jeden Umgebungserfassungssensor eine Performance, d. h. eine Leistungsfähigkeit, bestimmt und/oder klassifiziert wird, welche bei einer Sensorfusion berücksichtigt wird.Evaluated results are fused to results from other types of vehicle's environmental detection sensors, for example radar, with performance, e.g. H. a performance, determined and / or classified, which is taken into account in a sensor fusion.

Umgebungserfassungssensoren werden von äußeren Einflüssen, beispielsweise Witterungseinflüssen, unterschiedlich stark gestört. Bei einer Fusion von Sensordaten ist eine aktuelle Beeinträchtigung der einzelnen Unterkomponenten, insbesondere der einzelnen Umgebungserfassungssensoren, eine sehr wichtige Information.Environmental detection sensors are disturbed to different degrees by external influences, for example weather conditions. In the case of a fusion of sensor data, an actual impairment of the individual subcomponents, in particular of the individual environment detection sensors, is a very important information.

Mittels des erfindungsgemäßen Verfahrens kann durch lernbasierte Verfahren anhand von Merkmalen der Sensorrohdaten auf den Zustand der Umgebung geschlossen werden, beispielsweise ob Regen, Nebel oder klare Sicht vorliegt.By means of the method according to the invention can be closed by learning-based method based on features of the sensor raw data on the state of the environment, for example, whether rain, fog or clear view is present.

Erkennt jeder einzelne Umgebungserfassungssensor seinen aktuellen Performancestatus, d. h. seine aktuelle Leistungsfähigkeit, selbst, so kann dies bei der Sensorfusion gezielt verwendet werden. Somit können zum Beispiel Detektionen des Lidarsensors von lokalem Nebel, beispielsweise durch Abgase eines Vorausfahrenden, anhand der Radardaten gefiltert werden.Each individual environment detection sensor recognizes its current performance status, d. H. its current performance, even, this can be used specifically in the sensor fusion. Thus, for example, detections of the lidar sensor from local fog, for example, by exhaust gases from a vehicle in front, may be filtered based on the radar data.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand einer Zeichnung näher erläutert.Embodiments of the invention will be explained in more detail below with reference to a drawing.

Dabei zeigt:

  • 1 schematisch eine Analyse der Umwelteinflüsse auf Lidar-Punktwolken.
Showing:
  • 1 schematically an analysis of the environmental influences on lidar point clouds.

Umgebungswahrnehmung ist eine wesentliche Herausforderung beim autonomen Fahren und der wichtigste Beschränkungsfaktor für die Verfügbarkeit und Leistungsfähigkeit des Systems. Um sowohl den Automatisierungsgrad als auch die Verfügbarkeit des Systems zu verbessern müssen verschiedene Umgebungsbedingungen beachtet und durch das System erkannt werden und es muss auf diese reagiert werden. Um eine robuste Erkennung und Sensorfusion zu entwickeln ist es von höchster Wichtigkeit, die potentielle Verschlechterung verschiedener Sensortypen zu kennen und deren Einfluss zu verringern. Um ein tatsächlich autonomes Fahrzeug zu entwickeln, müssen Systembeschränkungen ohne externe Intervention erkannt werden und es muss entsprechend reagiert werden um Umgebungsbeeinträchtigungen zu beherrschen. Entsprechend der Definition von Automatisierungsgraden der SAE benötigen Systeme der Level 3 und 4 die Detektion von Systembeschränkungen um an einen Fahrer übergeben zu können (Level 3) oder um das System in einen sicheren Zustand zu bringen (Level 4). Für eine volle Automatisierung (Level 5) ist die Beherrschung aller Umweltbedingungen erforderlich.Environmental awareness is a major challenge in autonomous driving and the major constraint on system availability and performance. In order to improve both the degree of automation and the availability of the system, different environmental conditions must be observed and recognized by the system and it must be responded to. In order to develop a robust detection and sensor fusion, it is of utmost importance to know the potential degradation of different sensor types and to reduce their influence. In order to develop a truly autonomous vehicle, system constraints need to be recognized without external intervention, and it is necessary to respond accordingly to control environmental impairments. According to the definition of SAE automation levels, Level 3 and 4 systems require the detection of system constraints to pass to a driver (Level 3) or to the system in to bring a safe state (level 4). Full automation (level 5) requires mastery of all environmental conditions.

Daher ist die Untersuchung von Umwelteinflüssen auf die Sensorleistung ein wichtiges Forschungsgebiet für das autonome Fahren. Sensoren sind mit ständig wechselnden und stets einzigartigen Wetterbedingungen konfrontiert. Insbesondere, da Sensoren ständig während des gesamten Fahrzeugbetriebs durch das Wetter beeinflusst werden.Therefore, the study of environmental influences on sensor performance is an important research area for autonomous driving. Sensors are confronted with ever-changing and always unique weather conditions. In particular, since sensors are constantly influenced by the weather during the entire vehicle operation.

Für Lidarsensoren sind die schwierigsten Umweltbedingungen: heller Sonnenschein, dichter Nebel, Regen, Schmutz und Sprühregen. In dieser Arbeit wird der Einfluss von Regen und dichtem Nebel auf verfügbare Lidarsensoren untersucht.For lidar sensors, the toughest environmental conditions are bright sunshine, heavy fog, rain, dirt and drizzle. In this work the influence of rain and dense fog on available lidar sensors is investigated.

Es ist wichtig, den Einfluss des Wetters auf die Leistungsfähigkeit des Lidars zu erkennen und zu quantifizieren, um robuste Erkennungs- und Fusionsalgorithmen zu entwickeln. Zunächst ist es für die Fusion und Verhaltensplanung des autonomen Fahrzeugs wichtig, zuverlässig die gegenwärtige Sensorleistung zu klassifizieren um die Modalitäten des Sensors optimal zu gewichten. Daher ist die Bewertung der Eigenschaften verschiedener Umweltbedingungen für ein spezifisches Sensorsystem wichtig. Der Hauptbeitrag dieser Arbeit besteht in der detaillierten Analyse des Einflusses verschiedener Wetterbedingungen auf die Punktwolke verschiedener Lidarsensoren. Der aufgezeichnete Datensatz stellt kontrollierte Nebeldichte im meteorologischen Sichtbereich von 10m bis - 90m zur Verfügung.It is important to recognize and quantify the impact of weather on lidar performance in order to develop robust recognition and fusion algorithms. First, it is important for the fusion and behavioral planning of the autonomous vehicle to reliably classify the current sensor performance to optimally weight the modalities of the sensor. Therefore, the evaluation of the characteristics of different environmental conditions is important for a specific sensor system. The main contribution of this work is the detailed analysis of the influence of different weather conditions on the point cloud of different lidar sensors. The recorded data set provides controlled fog density in the meteorological field of view from 10m to - 90m.

Neben der Bestimmung der Verschlechterung der Sensorleistung selbst ist auch wichtig, Umweltbedingungen mit dem Sensor selbst verlässlich zu detektieren und klassifizieren. In dieser Arbeit wird ein neuer Ansatz zur Detektion von Wetterbedingungen nur durch Auswertung von Ausgabedaten eines Lidarsensors entwickelt. Daher bestimmt der Sensor selbst seine aktuelle Leistung und liefert wichtige Informationen für jede Art von Sensor-Fusions-Algorithmus. Daher kann der Fusions-Algorithmus diese Information nutzen um zwei verschiedene Arten von Sensoren zu kombinieren, um spezifische Nachteile eines Sensors auszufiltern.In addition to determining the deterioration of the sensor performance itself, it is also important to reliably detect and classify environmental conditions with the sensor itself. In this thesis, a new approach to the detection of weather conditions is developed only by evaluating the output data of a lidar sensor. Therefore, the sensor itself determines its current performance and provides important information for each type of sensor fusion algorithm. Therefore, the fusion algorithm can use this information to combine two different types of sensors to filter out specific disadvantages of a sensor.

Der Ansatz wurde auf einem Datensatz in kontrollierter Umgebung mit verschiedenen Nebel-Sichtweiten, verschiedenen Arten von Nebel und einer Art stabilisiertem Regen mit 55 mm/h validiert. Der vorgeschlagene Algorithmus für die Umgebungsklassifikation wurde auch mit einem Datensatz verifiziert, der in verschiedenen Szenarien auf einem Testgelände und auf Straßen in echten Verkehrssituationen bei klaren Wetterbedingungen aufgenommen wurdeThe approach was validated on a data set in a controlled environment with different fog visibility, different types of fog and a kind of stabilized rain at 55 mm / h. The proposed algorithm for environmental classification was also verified with a dataset taken in different scenarios on a test site and on roads in real traffic situations in clear weather conditions

Experimentaler AufbauExperimental construction

Definierte und reproduzierbare Wetterbedingungen sind wichtig, um einen aussagekräftigen Datensatz von Erkennungssensoren in verschiedenen Wetterbedingungen zu gewinnen. In Europa ist nach Kenntnis des Autors die CEREMA Klimakammer in Clermont-Ferrand (Frankreich) die einzige Klimakammer, die homogene Advektion und radiationalen Nebel mit einem kontrollierten und konstanten Sichtbarkeitsbereich erzeugen kann. Die Kammer verfügt auch über einen Regensimulator mit einer stabilisierten Regenfall-Rate von 55mm/h.Defined and reproducible weather conditions are important in order to obtain a meaningful record of detection sensors in different weather conditions. In Europe, to the knowledge of the author, the CEREMA climatic chamber in Clermont-Ferrand (France) is the only climatic chamber capable of producing homogeneous advection and radiative fog with a controlled and constant visibility range. The chamber also has a rain simulator with a stabilized rainfall rate of 55mm / h.

Auf Basis des Datensatzes in der Klimakammer wurde eine detaillierte Bewertung der Sensor-Ausgabedaten bei klaren, nebligen und regnerischen Bedingungen durchgeführt. Außerdem wurde ein Klassifikationsverfahren entwickelt, um Informationen über die Wetterbedingungen aus der Punktwolke des Laserscanners zu gewinnen. Vier verschiedene Konfigurationen wurden mit statischen und dynamischen Szenarien aufgenommen um die Zeitkorrelation des Datensatzes zu verringern. Die Konfiguration für dynamische Szenarien umfasst Fußgänger, Radfahrer und Autos. Als statische Objekte waren reflektierende Straßenbegrenzungspfähle, Spurmarkierungen, erhabene Markierungsknöpfe auf der Fahrbahn, Puppen zur Darstellung eines Kindes und einer Frau, ein Auto sowie eine Puppe zur Darstellung eines Mannes mit einer reflektierenden Weste vorgesehen.On the basis of the data set in the climatic chamber, a detailed evaluation of the sensor output data was carried out in clear, foggy and rainy conditions. In addition, a classification method was developed to obtain information about the weather conditions from the point cloud of the laser scanner. Four different configurations were included with static and dynamic scenarios to reduce the time correlation of the data set. The dynamic scenario configuration includes pedestrians, cyclists, and cars. As static objects reflective road boundary posts, lane markers, raised mark buttons on the roadway, dolls to represent a child and a woman, a car and a doll for displaying a man with a reflective vest were provided.

Das statische Setup kann retroreflektive und diffus reflektierende Objekte mit 5%, 50% und 90% Reflektivität beinhalten. Ein erstes dynamisches Setup kann typische Szenen echter Verkehrssituationen (beispielsweise kreuzende Fußgänger oder Radfahrer, sich annähernde oder sich entfernende Fahrzeuge, etc.) mit verschiedenen Varianten und Kombinationen repräsentieren. Beispielsweise kann ein sich entfernendes Fahrzeug in der eigenen Fahrspur und mehrere statische Objekte vorgesehen sein, wie es für echte Verkehrssituationen typisch ist. Ein zweites dynamisches Setup kann diffus reflektierende Ziele umfassen, die das Sichtfeld des Sensors verlassen. Dementsprechend kann der Einfluss sich ändernder Wetterbedingungen und wechselnder Szenarien separat analysiert werden.The static setup may include retroreflective and diffuse reflective objects with 5%, 50%, and 90% reflectivity. A first dynamic setup may represent typical scenes of real traffic situations (e.g., pedestrian or cyclist crossing, approaching or departing vehicles, etc.) with different variants and combinations. For example, a departing vehicle may be provided in its own lane and multiple static objects, as is typical of real traffic situations. A second dynamic setup may include diffuse reflective targets that leave the field of view of the sensor. Accordingly, the impact of changing weather conditions and changing scenarios can be analyzed separately.

Der in der Klimakammer aufgenommene Datensatz umfasst etwa 274000 Bilder des VLP16-Sensors und 105000 Bilder des Scala-Sensors. Der Straßen-Datensatz umfasst fünf Aufnahmen ohne jeden Regen (vier bei Tage und einer bei Nacht), drei mit gelegentlichem Regen und vier mit annähernd ständigem Regen (drei bei Tage und einer bei Nacht) und wurde mit dem VLP16-Sensor aufgenommen (270000 Bilder). The data set recorded in the climate chamber contains about 274,000 images of the VLP16 sensor and 105,000 images of the Scala sensor. The road record included five shots without any rain (four in the day and one at night), three with occasional rain and four with almost constant rain (three in the day and one at night) and was recorded with the VLP16 sensor (270000 images ).

Verfahrenmethod

Zunächst wurden die Rohdaten des Laserscanners evaluiert. Die Verzerrung der Punktwolke durch Nebel und Regen ist die Basis für die Merkmalsextraktion und für das Trainieren eines Klassifikationsalgorithmus. Zu diesem Zweck wurde die Punktwolke zur Zeit k als Matrix P∈ℝ2 repräsentiert, wobei jede Reihe i=(1, ..., n) einen Punkt mit einer Anzahl j=(1, ..., m) von Attributen enthält. P ( k ) n × m = ( p 11 ( k ) p 12 ( k ) p 1 m ( k ) p 21 ( k ) p 22 ( k ) p 2 m ( k ) p n ( k ) p n 2 ( k ) p n m ( k ) ) .

Figure DE102018008442A1_0001
First, the raw data of the laser scanner was evaluated. The distortion of the point cloud by fog and rain is the basis for the feature extraction and for training a classification algorithm. For this purpose, the point cloud at time k has been represented as matrix P∈ℝ 2 , where each row i = (1, ..., n) contains a point with a number j = (1, ..., m) of attributes , P ( k ) n × m = ( p 11 ( k ) p 12 ( k ) ... p 1 m ( k ) p 21 ( k ) p 22 ( k ) ... p 2 m ( k ) p n ( k ) p n 2 ( k ) ... p n m ( k ) ) ,
Figure DE102018008442A1_0001

Die Anzahl von Attributen eines Punktes ist über alle Frames konstant und sensorspezifisch. Um eine universale Struktur sicherzustellen, ist die Vereinigung über alle sensorspezifischen Signale repräsentiert in p i j = ( p i 1,..., p i j ,..., p i m )

Figure DE102018008442A1_0002
wobei jede Spalte ein Attribut repräsentiert. Um eine klare Notation zu erhalten, ist der Spaltenindex einer Punktwolke nicht explizit notiert, sondern mit einer Variable je Spalte markiert. p i = ( x 1 , y i , z i , r i , θ i , φ i , c i , I i , c p w i ) .
Figure DE102018008442A1_0003
The number of attributes of a point is constant over all frames and sensor specific. To ensure a universal structure, the union is represented by all sensor specific signals in p i j = ( p i 1,..., p i j , ..., p i m )
Figure DE102018008442A1_0002
where each column represents an attribute. To get a clear notation, the column index of a point cloud is not explicitly noted, but marked with a variable per column. p i = ( x 1 . y i . z i . r i . θ i . φ i . c i . I i . c p w i ) ,
Figure DE102018008442A1_0003

Die korrespondierende Notation ist (x, y, z) für die kartesischen und (r, θ, φ) für sphärische Koordinaten, e für die Echozahl, I für die Intensität und epw für die Echopulsbreite.The corresponding notation is (x, y, z) for the Cartesian and (r, θ, φ) for spherical coordinates, e for the echo number, I for the intensity and epw for the echo pulse width.

Die Anzahl gültiger Punkte i = (1,...,n) variiert von Frame zu Frame und hängt von der Umgebung des Laserscanners ab. Der Einfluss von Nebel und Regen auf die Attribute der Punktwolke wurde durch die folgenden berechneten Signale evaluiert.The number of valid points i = (1, ..., n) varies from frame to frame and depends on the environment of the laser scanner. The influence of fog and rain on the attributes of the point cloud was evaluated by the following calculated signals.

Eine Unterscheidung durch die Echozahl t∈ℕ, die das erste, zweite oder dritte Echosignal eines gesendeten Lichtimpulses repräsentiert, ist vernünftig, da die Anzahl der Echos pro Scanrichtung mit der Anzahl an Partikeln und damit möglichen Streupunkten zusammenhängt. Daher ist die Menge Mt definiert als Mt := {ei|ei = t} mit der maximalen Anzahl an Echos t ∈ {1, 2, 3}. Für die Anzahl von Punkten für ein spezifisches Echo wird das Signal Nt(k) abgeleitet: N t ( k ) = | e i ( k ) |   e i M t .

Figure DE102018008442A1_0004
A distinction by the echo number t∈ℕ, which represents the first, second or third echo signal of a transmitted light pulse, is reasonable, since the number of echoes per scanning direction is related to the number of particles and thus possible scattering points. Therefore, the set M t is defined as M t : = {e i | e i = t} with the maximum number of echoes t ∈ {1, 2, 3}. For the number of points for a specific echo, the signal Nt (k) is derived: N t ( k ) = | e i ( k ) | e i M t ,
Figure DE102018008442A1_0004

Folglich ist die Anzahl aller Punkte N(k) in einem Frame die Summe aller Nt(k):
Der Mittelwert und die Varianz eines Attributs pj wird für jedes Frame berechnet durch: p j ¯ ( k ) = 1 n i = 1 n p i j ( k )  var ( p j ( k ) ) = 1 n i = 1 n ( p i j p i j ¯ ( k ) ) 2 .

Figure DE102018008442A1_0005
Consequently, the number of all points N (k) in a frame is the sum of all N t (k):
The mean and variance of an attribute p j is calculated for each frame by: p j ¯ ( k ) = 1 n Σ i = 1 n p i j ( k ) var ( p j ( k ) ) = 1 n Σ i = 1 n ( p i j - p i j ¯ ( k ) ) 2 ,
Figure DE102018008442A1_0005

Beispielsweise ist der mittlere Abstand aller Punkte korrespondierend zu einem spezifischen Echo gegeben durch: r t ¯ ( k ) = r i ¯ ( k )   c i M t .

Figure DE102018008442A1_0006
For example, the average distance of all points corresponding to a specific echo is given by: r t ¯ ( k ) = r i ¯ ( k ) c i M t ,
Figure DE102018008442A1_0006

Die Zuordnung des resultierenden Merkmalsvektors f = (f1, ...,f16)T für eine Umgebungsklassifikation basierend aus Punktwolken-Daten ist in Tabelle I gezeigt. Im Merkmals-Set des VLP16-Sensors wird die Echo-Pulsweite epw durch die Intensität I ersetzt. Tabelle I f1 N1 f2 N2 f3 N3 f4 r1 f5 r2 f6 r3 f7 eig(cov(x)) f8 eig(cov(y)) f9 eig(cov(z)) f10 var(epw) f11 var(e) f12 mean(r) f13 mean(θ) f14 mean(φ) f15 mean(epw) f16 mean(e) The assignment of the resulting feature vector f = (f 1 ,..., F 16 ) T for an environmental classification based on point cloud data is shown in Table I. In the feature set of the VLP16 sensor, the echo pulse width epw is replaced by the intensity I. Table I f 1 N 1 f 2 N 2 f 3 N 3 f 4 r 1 f 5 r 2 f 6 r 3 f 7 eig (cov (x)) f 8 eig (cov (y)) f 9 eig (cov (z)) f 10 var (EPW) f 11 var (e) f 12 mean (r) f 13 mean (θ) f 14 mean (φ) f 15 mean (EPW) f 16 mean (e)

Zusätzlich wird eine Dichtemessung der Punktwolke in Mittelwert und Varianz der sphärischen Koordinaten (r, θy, φi) repräsentiert. Entsprechend werden die Variablen r̃ und θ̃ für spezifische Bereichs- oder Winkelabschnitte abgeleitet. Die räumliche Verteilung der Punkte wird durch die Eigenwerte der Kovarianz-Matrizen von x, y und z repräsentiert. Da der größte Einfluss der Umgebungsbedingungen im Nahbereich erwartet wird, wurde die Punktwolke in einem Vorverarbeitungsschritt räumlich gefiltert.In addition, a density measurement of the point cloud in mean and variance of the spherical coordinates (r, θ y , φ i ) is represented. Accordingly, the variables r and θ are derived for specific range or angle sections. The spatial distribution of the points is represented by the eigenvalues of the covariance matrices of x, y and z. Since the greatest influence of ambient conditions in the near range is expected, the point cloud was spatially filtered in a preprocessing step.

Ausgehend von diesen Ableitungen wurde der Merkmals-Vektor f geführt, um ein Frame des Laserscanners zu beschreiben. Der Einfluss der Merkmale wurde durch eine Nachbarschafts-Komponenten-Analyse analysiert, um nur signifikante Merkmale zu berücksichtigen. Trotzdem müssen Merkmale, die nur wegen der lokalen Umgebung signifikant sind, identifiziert werden. Beispielsweise wurde die absolute Anzahl an Punkten nicht als Merkmal für die Wetterklassifikation verwendet, da sie im hohen Maße abhängig vom Szenario ist (leere Straße gegenüber Stau in der Innenstadt). Für eine robuste Beschreibung der Umgebung und um eine Überanpassung an lokale Merkmale zu vermeiden, wurden verschiedene Szenarien bei der Analyse wesentlicher Eigenschaften berücksichtigt.Based on these derivatives, the feature vector f was passed to describe a frame of the laser scanner. The influence of the features was analyzed by neighborhood component analysis to take into account only significant features. Nevertheless, features that are significant only because of the local environment need to be identified. For example, the absolute number of points was not used as a feature for the weather classification because it is highly dependent on the scenario (empty road versus congestion in the city center). For a robust description of the environment and to avoid over-fitting to local features, several scenarios have been taken into account when analyzing significant properties.

Die Zuordnung des resultierenden Merkmalsvektors f=(f1,...,f20) mit 20 Merkmalen ist in Tabelle II gezeigt.The assignment of the resulting feature vector f = (f 1 , ..., f 20 ) with 20 features is shown in Table II.

Tabelle II. Merkmals-Vektor für eine Umgebungsklassifikation basierend auf Punktwolken-Daten. Der Einfluss der Merkmale wurde durch eine Analyse benachbarter Komponenten nachgewiesen. Für eine einfachere Repräsentation wird nur die Echopulsbreite epw aufgeführt, die durch die Intensität I abhängig vom Sensortyp ersetzt werden könnte. f1 N1 f5 r2 f9 eig(cov(z)) f13 mean(θ) f17 mean(r̃) f2 N2 f6 r3 f10 var(epw) f14 mean(φ) f18 mean(θ̃) f3 N3 f7 eig(cov(x)) f11 var(e) f15 mean(epw) f19 var(r̃) f4 r1 f8 eig(cov(y)) f12 mean(r) f16 mean(e) f20 var(θ̃) Table II. Feature vector for environment classification based on point cloud data. The influence of the features was demonstrated by an analysis of neighboring components. For ease of representation, only the echo pulse width epw is listed, which could be replaced by the intensity I depending on the sensor type. f 1 N 1 f 5 r 2 f 9 eig (cov (z)) f 13 mean (θ) f 17 mean (r) f 2 N 2 f 6 r 3 f 10 var (EPW) f 14 mean (φ) f 18 mean (θ) f 3 N 3 f 7 eig (cov (x)) f 11 var (e) f 15 mean (EPW) f 19 var (r) f 4 r 1 f 8 eig (cov (y)) f 12 mean (r) f 16 mean (e) f 20 var (θ)

Experimentalergebnisseexperimental results

Die abgeleiteten Signale des vorherigen Abschnitts werden zunächst für unterschiedliche Wetterbedingungen diskutiert. Anschließend wird ein Klassifikationsverfahren präsentiert, um die Wetterbedingungen aus der Punktwolke des Laserscanners abzuleiten. Hierfür werden die drei Klassen ,klar‘, ,Nebel‘ und , Regen‘ definiert. Die Ground-Truth-Messungen für die meteorologische Sichtbarkeit V in m und die Regenfall-Rate R in mm/h wurden durch die Klimakammer bereitgestellt.The derived signals of the previous section are first discussed for different weather conditions. Subsequently, a classification method is presented to derive the weather conditions from the point cloud of the laser scanner. For this the three classes 'clear', 'fog' and 'rain' are defined. The ground truth measurements for the meteorological visibility V in m and the rainfall rate R in mm / h were provided by the climate chamber.

Wettereinfluss auf PunktwolkenWeather influence on point clouds

Beim Vergleich der Punktwolke bei klaren Wetterverhältnissen mit Regen bei 55 mm/h zeigt sich, dass der Bereich des Sensors limitiert ist, da die Anzahl an Punkten am Ende der Klimakammer abnimmt. Ein interessanter Punkt ist die Wahrnehmung von Objekten und das entsprechende Antwort-Echo. Beispielsweise kann ein Auto in einer Entfernung von etwa 18 m durch den Sensor in allen Szenarien detektiert werden. Während bei Nebel und Regen das zweite und dritte Echo N2, N3 den Großteil der Detektion liefert, wurde bei klaren Verhältnissen nur das erste Echo N1 vom Auto empfangen. Dementsprechend kann das Vorkommen zweiter Echos N2 an Objekten eine Indikation für Nebel oder Regen sein.Comparing the point cloud in clear weather conditions with rain at 55 mm / h shows that the range of the sensor is limited, as the number of points at the end of the climate chamber decreases. An interesting point is the perception of objects and the corresponding response echo. For example, a car may be detected at a distance of about 18 m by the sensor in all scenarios. While in fog and rain the second and third echoes N 2 , N 3 provide the bulk of the detection was at Clear conditions only the first echo N 1 received from the car. Accordingly, the presence of second echoes N 2 on objects may be an indication of fog or rain.

In dichtem Nebel bei einer Sichtweite von 50 m bis 60 m wurde eine große Anzahl erster Echos N1 durch Nebelreflektionen mit sehr kurzem Abstand verursacht. Die Umgebungswahrnehmung und die Reichweite des Sensors sind begrenzt. Betreffend das zweite Echo N2 wurden nur wenige Reflexionen direkt vor dem Sensor infolge von Nebel detektiert. Die Mehrzahl der Reflexionen wurde durch Objekte verursacht. In dichtem Nebel (Sichtweite 20 m bis 40 m) ist die Umgebungswahrnehmung sehr limitiert. Das erste Echo N1 wurde praktisch immer vom Nebel verursacht. Trotzdem sind hochreflektierende Ziele wie zum Beispiel die Rücklichter eines Autos noch im zweiten oder dritten Echo N2, N3 sichtbar.In dense fog with a visibility of 50 m to 60 m, a large number of first echoes N 1 was caused by fog reflections with a very short distance. The environmental perception and the range of the sensor are limited. Concerning the second echo N 2 , only a few reflections were detected directly in front of the sensor due to fog. The majority of the reflections were caused by objects. In dense fog (visibility 20 m to 40 m), the environmental perception is very limited. The first echo N 1 was almost always caused by the fog. Nevertheless, highly reflective targets such as the taillights of a car are still visible in the second or third echo N 2 , N 3 .

Wenn man alle Nebel- und Regen-Messungen im Vergleich zu den Messungen bei klaren Wetterverhältnissen berücksichtigt, erhöht sich die Anzahl für die zweiten und dritten Echos N2, N3. Außerdem wird aufgrund der Tatsache, dass es keine Reflexionen an Objekten mit dem ersten Echo N1, sondern nur mit dem zweiten oder dritten Echo N2, N3 gibt, deutlich, dass ein Multi-Echo-Wahrnehmungs-Sensor robuster bei Nebel und Regen ist.Taking into account all the fog and rain measurements compared to the measurements in clear weather conditions, the number for the second and third echoes N 2 , N 3 increases . In addition, due to the fact that there are no reflections on objects with the first echo N 1 but only with the second or third echo N 2 , N 3 , it becomes clear that a multi-echo-sensing sensor is more robust in fog and rain is.

1 zeigt schematisch eine Analyse der Umwelteinflüsse auf Lidar-Punktwolken. Die Intensität I stammt von einem VLP16-Lidar-Sensor. Alle anderen Signale stammen von einem Scala-Sensor. 1 schematically shows an analysis of the environmental influences on lidar point clouds. Intensity I is from a VLP16 lidar sensor. All other signals come from a Scala sensor.

Unter Berücksichtigung der Anzahl von Punkten für jedes Echo Nt(k), wie in 1 gezeigt, kann erwartet werden, dass die Anzahl zweiter und dritter Echos N2, N3 bei Nebel und Regen infolge multipler Reflexionen ansteigen wird. In 1 sind die verschiedenen Wetterbedingungen direkt im Signal Nt(k) sichtbar. Es gibt einen signifikanten Anstieg für das zweite Echo N2 bei nebligen und regnerischen Bedingungen. Interessant ist auch, dass es keinen ausgeprägten Unterschied in der Anzahl der dritten Echos N3 für Nebel und Regen gibt.Taking into account the number of points for each echo N t (k), as in 1 It can be expected that the number of second and third echoes N 2 , N 3 in fog and rain will increase due to multiple reflections. In 1 the different weather conditions are directly visible in the signal Nt (k). There is a significant increase for the second echo N 2 in foggy and rainy conditions. It is also interesting that there is no marked difference in the number of third echoes N 3 for fog and rain.

Der gesamte mittlere Abstand der Punktwolke hängt hochgradig vom Szenario ab. Trotzdem scheint unter Berücksichtigung der Punktwolke in 1 der mittlere Abstand r t, der räumlich gefiltert und für jedes Echo N1, N2, N3 separat berechnet wurde, ein gutes Maß für die Schätzung der Anwesenheit von Nebel oder Regen zu sein. Das beschriebene Signal ist in 1 gezeigt und zeigt einen starken Abfall für r 1 bei Nebel. Außerdem erhöht sich der mittlere Abstand r 2,3 bei Regen und Nebel im Vergleich zu klaren Bedingungen.The total mean distance of the point cloud depends heavily on the scenario. Nevertheless, considering the point cloud in 1 the mean distance r t , which was spatially filtered and calculated separately for each echo N 1 , N 2 , N 3 , to be a good measure of the estimation of the presence of fog or rain. The signal described is in 1 shown and shows a strong drop for r 1 in fog. In addition, the average distance increases r 2,3 in rain and fog compared to clear conditions.

Zusammenfassend kann festgestellt werden, dass die Fähigkeit, multiple Reflexionen zu empfangen, sehr wichtig für robuste Umgebungswahrnehmung ist, insbesondere bei rauen Wetterbedingungen.In summary, the ability to receive multiple reflections is very important for robust environmental perception, especially in harsh weather conditions.

Eine resultierende niedrigere Intensität I des reflektierten Signals erfolgt bei einer gleichzeitigen Erhöhung der Echopulsbreite epw infolge multipler Reflexionen an gleichförmig verteilten Nebelpartikeln. In 1 ist die Echopulsbreite epw des Scala-Lidarsensors als Mittelwert epw für alle Punkte in einem Frame dargestellt. Die entsprechende Intensität I des Velodyne VLP16 ist in 1 gezeigt. Für beide Darstellungen wurde die Punktwolke für jede Wetterbedingung über eine ähnliche Zeitspanne aufgenommen.A resulting lower intensity I of the reflected signal occurs with a simultaneous increase in the echo pulse width epw due to multiple reflections on uniformly distributed mist particles. In 1 is the echo pulse width epw of the Scala lidar sensor as an average epw represented for all points in a frame. The corresponding intensity I of the Velodyne VLP16 is in 1 shown. For both representations, the point cloud was recorded for each weather condition over a similar period of time.

1 bestätigt, dass epw bei nebligen Bedingungen ansteigt und annähernd umgekehrt proportional zur Nebeldichte ist. Außerdem zeigen Reflexionen an Regentropfen einen kleineren epw, da die Wassertropfen im Regen größer und weniger dicht im Vergleich mit Nebel sind. Daher ist die Echopulsweite epw klar vom Wetter beeinflusst und kann als Signal benutzt werden, um Informationen über die lokalen Umgebungsbedingungen zu erhalten. 1 confirmed that epw increases in foggy conditions and is approximately inversely proportional to the fog density. In addition, reflections on raindrops show a smaller one epw because the drops of water in the rain are larger and less dense compared to fog. Therefore, the echo pulse width epw is clearly influenced by the weather and can be used as a signal to obtain information about the local environmental conditions.

Betreffend die Intensität I des Velodyne-Sensors gibt es nur einen geringen Abfall der Intensität I bei dichtem Nebel. Trotzdem gibt es keinen eindeutigen Wechsel in der Intensität I zwischen den verschiedenen Sichtbarkeitsbereichen bei Nebel oder Regen bei 55 mm/h.Concerning the intensity I of the Velodyne sensor, there is only a small drop of intensity I in dense fog. Nevertheless, there is no clear change in the intensity I between the different visibility ranges in fog or rain at 55 mm / h.

Wetterdetektion mittels Lidar-SensorenWeather detection using lidar sensors

Tabelle III. Nachweis-Wahrheitsmatrix für trainierte kNN-Klassifikatoren. Die Konfiguration 1-3 wurde für das Training benutzt, Konfiguration 4 für den Nachweis. In der ersten Zeile ist die Anzahl der Proben und in der zweiten Zeile die prozentuale Anzahl angegeben. Die Gesamt-Genauigkeit ist 96,4 %.

Figure DE102018008442A1_0007
Table III. Proof truth matrix for trained kNN classifiers. Configuration 1-3 was used for training, configuration 4 for detection. The number of samples is given in the first line and the percentage in the second line. The overall accuracy is 96.4%.
Figure DE102018008442A1_0007

Für die Entwicklung eines Wetter-Detektions-Algorithmus wurden eine Support Vector Machine (SVM) und ein k Nächste-Nachbarn-Klassifikator angewandt. Der Vorhersage-Merkmals-Vektor ist in Tabelle II angegeben. Die Antwort des Klassifikators ist: „klar“, „Nebel“ oder „Regen“. Die verschiedenen Sichtbarkeits-Bereiche des Nebels wurden für die Klassifikator-Antwort nicht berücksichtigt.For the development of a weather detection algorithm, a Support Vector Machine (SVM) and a k Next Neighbor Classifier were used. The predictive feature vector is given in Table II. The answer of the classifier is "clear", "fog" or "rain". The various visibility areas of the fog have not been considered for the classifier response.

Die Klassifikatoren wurden am Datensatz in der Klimakammer für Nebel, Regen und klares Wetter trainiert. Zusätzlich wurden echte Straßen-Szenarien bei klaren Bedingungen für das Training benutzt, um eine Überanpassung an die spezifischen Bedingungen in der Kammer zu vermeiden. Darüber hinaus wurden verschiedene Konfigurationen in der Kammer verwendet, um die Zeitkorrelation des Datensatzes zu reduzieren. Daher wurde nur die Konfiguration 1-3 für das Training benutzt, während die Konfiguration 4 für den Nachweis verwendet wurde. Die Nachweis-Ergebnisse sind als eine Wahrheitsmatrix in Tabelle III mit außerordentlich zufriedenstellenden Ergebnissen dargestellt.The classifiers were trained on the data set in the climate chamber for fog, rain and clear weather. In addition, real road scenarios were used in clear conditions for training to avoid over-fitting to the specific conditions in the chamber. In addition, various configurations were used in the chamber to reduce the time correlation of the data set. Therefore, only configuration 1-3 was used for training while configuration 4 was used for detection. The detection results are presented as a truth matrix in Table III with extremely satisfactory results.

Zusätzlich wurden Aufnahmen auf einer Landstraße, einer Fernstraße und einem Testgelände bei klaren und regnerischen Bedingungen für den Nachweis und die Analyse verwendet, ob der trainierte Klassifikator basierend auf den Daten der Klimakammer auf reale Straßendaten angewandt werden kann. Die resultierende Gesamtgenauigkeit des Nachweises mit realen Szenarien ist über 73,4 % und zeigt daher einen signifikanten Anstieg, was darauf hindeutet dass der Merkmalsraum lokale Abhängigkeiten aufweist. Trotzdem ist es wichtig zu berücksichtigen, dass die Wetterbedingungen bei Straßenaufnahmen nicht konstant, nicht reproduzierbar und nicht identisch mit den Bedingungen in der Klimakammer sind. Dies ist einer der Gründe warum die Nebel-Klasse nicht unter Verwendung von Straßendaten nachgewiesen werden konnte.In addition, recordings on a country road, a highway, and a test site in clear and rainy conditions were used for the detection and analysis of whether the trained classifier can be applied to real road data based on climate chamber data. The resulting overall accuracy of detection with real scenarios is above 73.4% and therefore shows a significant increase, indicating that the feature space has local dependencies. Nevertheless, it is important to keep in mind that the weather conditions in road shots are not constant, not reproducible and not identical to the conditions in the climatic chamber. This is one of the reasons why the fog class could not be detected using road data.

Tabelle IV zeigt die Gesamt-Klassifikations-Testergebnisse für die Klimakammer und Straßendaten. Die Anzahl der für den Test verwendeten Samples wird in jeder Spalte pro Klasse angegeben. Als Klassifikationsmaße werden die richtig positive Rate (TPR), die falsch positive Rate (FPR) und die Genauigkeit (ACC) angegeben. Der Klassifikator mit der größten Leistung bezüglich der Genauigkeit (ACC) ist fett gedruckt.

Figure DE102018008442A1_0008
Table IV shows the total classification test results for the climate chamber and road data. The number of samples used for the test is given in each column per class. The classification measures are the true positive rate (TPR), the false positive rate (FPR) and the accuracy (ACC). The classifier with the highest performance in terms of accuracy (ACC) is printed in bold.
Figure DE102018008442A1_0008

Die verschiedenen Setups in der Kammer wurden verwendet um die Zeitkorrelation des Datensatzes zu verringern. Daher wurden die Setups A und B zum Training verwendet, während Setup C zum Testen verwendet wurde. Die Verifizierungsergebnisse sind in Tabelle IV mit einer Gesamtgenauigkeit von 99,49% für den VLP16-Sensor und somit außerordentlich zufriedenstellenden Ergebnissen dargestellt. Das Klassifikations-Ergebnis für den Scala-Sensor ist 89,53% und somit erheblich niedriger als die Resultate für den VLP16-Sensor. Dies kann durch das signifikant kleinere vertikale Sichtfeld und somit die Anzahl der Punkte pro Bild bedingt sein.The various setups in the chamber were used to reduce the time correlation of the data set. Therefore, Setups A and B were used for training while Setup C was used for testing. The verification results are presented in Table IV with an overall accuracy of 99.49% for the VLP16 sensor and thus extremely satisfactory results. The classification result for the Scala sensor is 89.53% and thus considerably lower than the results for the VLP16 sensor. This may be due to the significantly smaller vertical field of view and thus the number of dots per image.

Da die Wetterbedingungen der realen Bedingungen und der Klimakammer unterschiedlich sind, wurden sie separat betrachtet. Die Aufteilung für Training und Verifizierung der Straßendaten erfolgte in ähnlicher Weise. Daher wurden vier Aufnahmen für klare Bedingungen, drei mit gelegentlichem Regen und zwei mit Dauerregen für das Testen vorbehalten (eine Aufnahme bei klaren Bedingungen, zwei mit Regen nachts und tagsüber). Die Unterteilung des Datensatzes wurde so gewählt, dass jeder Datensatz Samples jeder Verkehrssituation und jeder Wetterbedingung enthält und gleichzeitig wurde eine Unterteilung von 80% zu 20% zwischen Training und Test vorgegeben. Auf diese Weise konnten Zeitreihen-Effekte vermieden werden. Die erzielte Gesamt-Genauigkeit für den VLP16-Sensor ist 97,08% mit dem kNN-Klassifikator. Dennoch ist die falsch positive Rate (FPR) von 17,62% nicht vernachlässigbar.Since the weather conditions of the real conditions and the climatic chamber are different, they were considered separately. The breakdown for training and verification of road data was done in a similar way. Therefore, four shots were reserved for clear conditions, three with occasional rain and two with continuous rain for testing (one shot in clear conditions, two with rain at night and during the day). The subdivision of the dataset was chosen so that each dataset contains samples of each traffic situation and weather condition and at the same time a subdivision of 80% to 20% was specified between training and test. In this way, time-series effects could be avoided. The overall accuracy achieved for the VLP16 sensor is 97.08% with the kNN classifier. Nevertheless, the false positive rate (FPR) of 17.62% is not negligible.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

epwepw
EchopulsbreiteEcho pulse width
II
Intensitätintensity
N1 N 1
erstes Echofirst echo
N2 N 2
zweites Echosecond echo
N3 N 3
drittes Echothird echo
r1 r 1
Abstand für erstes EchoDistance for first echo
r2 r 2
Abstand für zweites EchoDistance for second echo
r3 r 3
Abstand für drittes EchoDistance for third echo

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 8983705 B2 [0002]US 8983705 B2 [0002]

Claims (5)

Verfahren zur Wetter- und/oder Sichtweitenerkennung, dadurch gekennzeichnet, dass Rohdaten mindestens eines Lidarsensors eines Fahrzeugs mittels maschinellem Lernen ausgewertet werden, um Sichtverhältnisse in einer Fahrzeugumgebung zu bestimmen, wobei ausgewertete Ergebnisse mit Ergebnissen anderer Arten von Umgebungserfassungssensoren des Fahrzeugs fusioniert werden, wobei für jeden Umgebungserfassungssensor eine Leistungsfähigkeit bestimmt und/oder klassifiziert wird, welche bei einer Sensorfusion berücksichtigt wird.A method of weather and / or visibility detection, characterized in that raw data from at least one lidar sensor of a vehicle is evaluated by machine learning to determine visibility in a vehicle environment, where evaluated results are fused to results from other types of vehicle environment sensing sensors, each for each Environmental detection sensor, a performance is determined and / or classified, which is taken into account in a sensor fusion. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Bestimmung der Leistungsfähigkeit des Lidarsensors Aufnahmen des Lidarsensors bei klaren, nebligen und regnerischen Wetterbedingungen erstellt werden, wobei eine Anzahl Frames umfassende Rohdaten des Lidarsensors evaluiert werden, wobei eine Punktwolke der Aufnahme als zweidimensionale Matrix repräsentiert wird, wobei jede Reihe der Matrix einen Punkt mit einer Anzahl von Attributen, umfassend kartesische Koordinaten, sphärische Koordinaten, eine Echozahl, eine Intensität (I) und eine Echopulsbreite (epw), umfasst, wobei die Echozahl nach ersten, zweiten und dritten Echos (N1, N2, N3) unterscheidet, wobei ein Mittelwert und eine Varianz des Attributs für jedes Frame berechnet wird, wobei die Punktwolke in einem Vorverarbeitungsschritt räumlich gefiltert wird, wobei eine Nachbarschafts-Komponenten-Analyse durchgeführt wird, um nur signifikante Merkmale zu berücksichtigen.Method according to Claim 1 characterized in that to determine the performance of the lidar sensor, images of the lidar sensor in clear, foggy and rainy weather conditions are made, evaluating raw data of the lidar sensor comprising a number of frames, wherein a point cloud of the photograph is represented as a two-dimensional matrix, each row of the lidar Matrix comprises a point having a number of attributes comprising Cartesian coordinates, spherical coordinates, an echo number, an intensity (I) and an echo pulse width (epw), the echo number being divided into first, second and third echoes (N 1 , N 2 , N 3 ), wherein an average and a variance of the attribute is calculated for each frame, wherein the point cloud is spatially filtered in a preprocessing step, wherein a neighborhood component analysis is performed to account for only significant features. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Aufnahmen des Lidarsensors bei verschiedenen Konfigurationen des aufzunehmenden Umfelds mit statischen und dynamischen Szenarien durchgeführt werden.Method according to Claim 2 , characterized in that the images of the Lidarsensors are performed in various configurations of the male environment with static and dynamic scenarios. Verfahren nach einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, dass ein mittlerer Abstand (r1, r2, r3) der Punktwolke für das erste, zweite und dritte Echo (N1, N2, N3) separat berechnet und für die Schätzung der Anwesenheit von Nebel oder Regen verwendet wird.Method according to one of Claims 2 or 3 , characterized in that a mean distance (r 1 , r 2 , r 3 ) of the point cloud for the first, second and third echo (N 1 , N 2 , N 3 ) is calculated separately and for the estimation of the presence of fog or rain is used. Verfahren nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass ein Mittelwert der Echopulsbreite (epw) zur Unterscheidung zwischen Nebel und Regen verwendet wird.Method according to one of Claims 2 to 4 , characterized in that an average value of the echo pulse width (epw) is used to distinguish between fog and rain.
DE102018008442.7A 2018-10-26 2018-10-26 Method for weather and / or visibility detection Withdrawn DE102018008442A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018008442.7A DE102018008442A1 (en) 2018-10-26 2018-10-26 Method for weather and / or visibility detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018008442.7A DE102018008442A1 (en) 2018-10-26 2018-10-26 Method for weather and / or visibility detection

Publications (1)

Publication Number Publication Date
DE102018008442A1 true DE102018008442A1 (en) 2019-03-28

Family

ID=65638758

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018008442.7A Withdrawn DE102018008442A1 (en) 2018-10-26 2018-10-26 Method for weather and / or visibility detection

Country Status (1)

Country Link
DE (1) DE102018008442A1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020210269A1 (en) 2020-08-13 2022-02-17 Robert Bosch Gesellschaft mit beschränkter Haftung Method of determining roadway conditions
CN115034324A (en) * 2022-06-21 2022-09-09 同济大学 Multi-sensor fusion perception efficiency enhancement method
US20220340162A1 (en) * 2021-04-27 2022-10-27 Toyota Motor Engineering & Manufacturing North America, Inc. Method and System for On-Demand Roadside AI Service
DE102021204904A1 (en) 2021-05-14 2022-12-01 Robert Bosch Gesellschaft mit beschränkter Haftung LiDAR system and method for detecting contamination of a beam path of a LiDAR system
DE102021205750A1 (en) 2021-06-08 2022-12-08 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for determining a range of a sensor
DE102021208192A1 (en) 2021-07-29 2023-02-02 Robert Bosch Gesellschaft mit beschränkter Haftung Method and system for controlling a vehicle by an operator
CN115909728A (en) * 2022-11-02 2023-04-04 智道网联科技(北京)有限公司 Road side sensing method and device, electronic equipment and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8983705B2 (en) 2013-04-30 2015-03-17 Google Inc. Methods and systems for detecting weather conditions including fog using vehicle onboard sensors

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8983705B2 (en) 2013-04-30 2015-03-17 Google Inc. Methods and systems for detecting weather conditions including fog using vehicle onboard sensors

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020210269A1 (en) 2020-08-13 2022-02-17 Robert Bosch Gesellschaft mit beschränkter Haftung Method of determining roadway conditions
US20220340162A1 (en) * 2021-04-27 2022-10-27 Toyota Motor Engineering & Manufacturing North America, Inc. Method and System for On-Demand Roadside AI Service
US11661077B2 (en) * 2021-04-27 2023-05-30 Toyota Motor Engineering & Manufacturing North America. Inc. Method and system for on-demand roadside AI service
DE102021204904A1 (en) 2021-05-14 2022-12-01 Robert Bosch Gesellschaft mit beschränkter Haftung LiDAR system and method for detecting contamination of a beam path of a LiDAR system
DE102021205750A1 (en) 2021-06-08 2022-12-08 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for determining a range of a sensor
WO2022258444A1 (en) * 2021-06-08 2022-12-15 Robert Bosch Gmbh Method and device for determining a range of a sensor
DE102021208192A1 (en) 2021-07-29 2023-02-02 Robert Bosch Gesellschaft mit beschränkter Haftung Method and system for controlling a vehicle by an operator
CN115034324A (en) * 2022-06-21 2022-09-09 同济大学 Multi-sensor fusion perception efficiency enhancement method
CN115034324B (en) * 2022-06-21 2023-05-02 同济大学 Multi-sensor fusion perception efficiency enhancement method
CN115909728A (en) * 2022-11-02 2023-04-04 智道网联科技(北京)有限公司 Road side sensing method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
DE102018008442A1 (en) Method for weather and / or visibility detection
DE102006057552B4 (en) System and method for measuring the distance of a preceding vehicle
DE102009006113B4 (en) Device and method for sensor fusion with dynamic objects
DE102011086512B4 (en) fog detection
DE102014223363B4 (en) Method and device for localizing a motor vehicle in a fixed reference map
DE102006012914B4 (en) System and method for determining the distance to a preceding vehicle
DE102011117585B4 (en) Systems and methods for tracking objects
DE102006005512B4 (en) System and method for measuring the distance of a preceding vehicle
DE102013205952B4 (en) Reconfigurable system and method for the detection of a free path
EP1612580A1 (en) Object recognition method for vehicles
DE102011111440A1 (en) Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment
DE112017008149B4 (en) Device for communication from a vehicle, method for communicating from a vehicle to the outside, information processing device and computer-readable medium
DE102018104243B3 (en) Method and system for detecting parking spaces suitable for a vehicle
DE102006036402A1 (en) System and method for measuring the distance of a preceding vehicle
DE102018129993A1 (en) METHOD FOR DETECTING VEHICLES, METHOD FOR DETECTING VEHICLES AT NIGHT ON THE BASIS OF DYNAMIC LIGHT INTENSITY AND SYSTEM THEREFOR
DE102019209846A1 (en) Method of operating a 3D distance sensor device
DE10328814B3 (en) Object recognition improvement method for camera-processor system e.g. for traffic monitoring, providing correction of color data values for reflection component
WO2022069399A1 (en) Method for determining a sensor degradation status
DE102008050456B4 (en) Method and apparatus for lane detection
DE102019001041A1 (en) Method and device for recognizing at least one manipulated traffic sign with a laser scanner
DE102018119632A1 (en) Method for determining the detection range of an environmental sensor
DE102017216802A1 (en) METHOD AND DEVICE FOR DETECTING LICENSES, DRIVER ASSISTANCE SYSTEM AND VEHICLE
DE102019118106B4 (en) Method for determining a visibility
DE102019107396A1 (en) Detection and classification of raised road markings using LIDAR
DE102020206771A1 (en) Method for estimating an airspeed

Legal Events

Date Code Title Description
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: DAIMLER AG, DE

Free format text: FORMER OWNER: DAIMLER AG, 70327 STUTTGART, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee