WO2021001171A1 - Method for operating a 3d distance sensor device - Google Patents

Method for operating a 3d distance sensor device Download PDF

Info

Publication number
WO2021001171A1
WO2021001171A1 PCT/EP2020/067110 EP2020067110W WO2021001171A1 WO 2021001171 A1 WO2021001171 A1 WO 2021001171A1 EP 2020067110 W EP2020067110 W EP 2020067110W WO 2021001171 A1 WO2021001171 A1 WO 2021001171A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor device
distance sensor
threshold value
measurement points
distance
Prior art date
Application number
PCT/EP2020/067110
Other languages
German (de)
French (fr)
Inventor
Simon Bell
Karl Christoph Goedel
Johannes Richter
Holger Maris Gilbergs
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2021001171A1 publication Critical patent/WO2021001171A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4039Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S2007/4975Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4082Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
    • G01S7/4091Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation

Definitions

  • the invention relates to a method for operating a 3D distance sensor device.
  • the invention also relates to a 3D distance sensor device.
  • the invention also relates to a computer program.
  • the invention also relates to a machine-readable storage medium.
  • DE 199 31 825 A1 discloses a device for measuring visibility, especially for motor vehicles, which has at least one optical transmitting element, at least one optical receiving element and a measurement signal evaluation unit which determines a current visibility from the light reflected at one or more different spatial zones.
  • DE 10 2016 014 549 A1 discloses an autonomous vehicle that contains both a LiDAR sensor and a camera.
  • the LiDAR sensor can work in the range of visible light, in the IR range or another wavelength range. If signs have an IR-reflective print, the IR range can be used.
  • DE 10 2016 014 549 A1 discloses a method for determining the visual range from a vehicle by means of a LiDAR sensor.
  • EP 2 101 193 A1 discloses a safety sensor and a method for the contactless measurement of positions, distances and / or speeds.
  • US Pat. No. 6,362,773 B1 discloses a combination of several sensors or an adapted, complex evaluation of raw sensor data. However, these raw data are not available in many sensor architectures of the central sensor fusion and evaluation unit.
  • the invention creates a method for operating a 3D distance sensor device, comprising the steps:
  • the proposed method advantageously represents a method at the system level, i.e. that an already evaluated 3D point cloud of measuring points is used and raw sensor data is therefore not required.
  • the object is achieved with a 3D distance sensor device which is designed to carry out the proposed method.
  • the object is achieved with a computer program.
  • the object is achieved with a machine-readable storage medium.
  • An advantageous further development of the method is characterized in that measurement points of a geometrically lowest level of the 3D distance sensor device are analyzed, the number of detected measurement points being compared with a defined first threshold value. It is expected that all scan or measurement points of the geometrically lowest level are always available, because a road is arranged in this level, on which the vehicle with the 3D distance sensor device is located, whereby the road is usually only approx. 10m far from the 3D distance sensor device. If this is not the case, appropriate conclusions can be drawn from it.
  • a further advantageous development of the method is characterized in that in the event that the proportion of the detected measurement points is defined below the first threshold value, a cover glass of the 3D distance sensor device is covered. In this case, a cleaning process of the 3D distance sensor device can be triggered, for example, in order to establish the full range of vision.
  • Another advantageous development of the method provides that in the event that the proportion of detected measuring points is defined above the first threshold value, an evaluation of a defined, calibrated distance histogram of the measuring points is carried out, a decay rate of the frequency of the measuring points being determined over the distance .
  • the distance histogram is evaluated in this way in order to be able to make more precise statements about the visual range. For example, reduced visibility due to fog or rain can be determined in the distance histogram.
  • Another advantageous development of the method provides that in the event that the proportion of the detected measuring points is defined below a second threshold value of the decay rate, a defined high visual range of the 3D distance sensor device is detected. This is determined by the fact that the distance histogram slowly declines at a high visibility range.
  • Another advantageous development of the method is characterized in that in the event that the proportion of the detected measuring points is defined below a second threshold value of the decay rate, an evaluation of a total number of the measuring points is carried out.
  • the influence of fog on the visibility is determined, which is particularly irrelevant for short distances, in which case the total number of measurement points is evaluated.
  • Another advantageous embodiment of the method is characterized in that when the total number of measurement points falls below a third threshold value, a defined low visual range of the 3D distance sensor device is determined and, when the third threshold value of the total number of measurement points is exceeded, the 3D distance sensor device is blocked from sight is detected.
  • a third threshold value of the total number of measurement points is exceeded, the 3D distance sensor device is blocked from sight is detected.
  • the distance histogram declines quickly, but there are a large number of measurement points in the 3D point cloud, which can be an indication of a blockage in the view of the 3D sensor device.
  • a further advantageous embodiment of the method is characterized in that a driving function of a vehicle is adapted from the estimated visual range and / or cleaning of the 3D distance sensor device is initiated. As a result, suitable measures can be taken to adapt to the reduced visibility of the 3D distance sensor device.
  • Another advantageous embodiment of the method is characterized in that the method is carried out in normal operation of the 3D distance sensor device. In this way, it is advantageously possible to determine the visual range of the 3D distance sensor device in quasi real time.
  • Another advantageous embodiment of the method is characterized in that the method is carried out within the 3D distance sensor device or on an external computer device. That way one can "Intelligent 3D distance sensor" can be implemented or the computing power required for this can be suitably outsourced.
  • Fig. 1 is a basic flowchart of a proposed method for operating a 3D distance sensor device
  • a core idea of the present invention is in particular to provide an improved method for operating or analyzing a 3D distance sensor device.
  • One advantage of the proposed method is that, for example, a central evaluation unit of a 3D distance sensor can determine or estimate the visual range, with additional sensors advantageously not being required for this.
  • the speed must be adjusted to the current field of vision of the sensors.
  • the range of vision of a sensor can be severely impaired by various atmospheric weather influences such as rain, fog, snowfall, etc.
  • a distinction must be made as to whether the performance of the sensor is based on such atmospheric influences or due to statistically distributed blockages on the sensor cover, such as raindrops, dirt, etc. is impaired.
  • the proposed method also makes it possible to identify situations in which the view of the 3D distance sensor is blocked by one or more objects (e.g. a vehicle parked in a garage) and therefore no statement is made about the current visibility of the 3D distance sensor can be.
  • a 3D point cloud is understood to be a three-dimensional cluster of measurement points that are recorded using a three-dimensional distance sensor (e.g. LiDAR, radar sensor, etc.).
  • a three-dimensional distance sensor e.g. LiDAR, radar sensor, etc.
  • the number of points in the environment detected by the 3D distance sensor is primarily used.
  • the method is described below by way of example for a 3D LiDAR distance sensor arranged on a vehicle, but is advantageously also suitable for improved operation of a radar sensor.
  • the 3D distance sensor device provides a 3D point cloud with a defined number of measurement points in the environment.
  • a step 101 an analysis of the number of points of the measurement points of a geometrically lowest level of the 3D distance sensor device is carried out.
  • the geometrically lowest level of a 3D distance sensor device typically covers a road at a short distance from the vehicle, measurement data provided in this way therefore often also being used to identify open spaces.
  • the short distance means that all measuring points of this plane should be present in the 3D point cloud even if the visibility is limited.
  • This parameter therefore does not represent a measure of the visual range of the 3D distance sensor device, but it does allow, for example, a blockage of vision on the cover of the 3D distance sensor device to be recognized.
  • a step 102 a total number of measuring points of the geometrically lowest level is checked, with the case that the total number of measuring points defines one falls below the first threshold value SW1 defined, it is determined that a blockage of a cover of the 3D distance sensor device is present. For example, this can be caused by a deposit (eg dirt, snow, ice, etc.) on the sensor cover, which is why a cleaning process of the 3D distance sensor device is initiated in this case.
  • a deposit eg dirt, snow, ice, etc.
  • the distance histogram represents a graph that shows the frequency of the measurement points of the 3D point cloud as a function of distance.
  • a suitable mathematical function can be provided for this data, an exponentially decreasing function being selected in the present case, which is characterized by the two parameters amplitude and decay rate.
  • the amplitude is influenced by blockages on the sensor cover of the 3D distance sensor device.
  • the rate of decay is influenced by the atmospheric visibility, since a small visibility only affects the detection of objects that are far away, but not the detection of objects arranged close to the 3D distance sensor device.
  • the decay rate is influenced by the structure of the landscape or by a blockage of the 3D distance sensor device's view by other objects (e.g. a garage, location behind a truck, etc.).
  • the distance histogram allows a value for the visual range of the 3D distance sensor device to be specified based on the decay rate.
  • a step 111 it is checked whether the decay rate of the measuring points of the distance histogram has a certain second threshold value SW2, in which case in the case that this is less than the defined second threshold value SW2 in In a step 112, a defined high visibility range for the 3D distance sensor device is determined.
  • the decay rate of the distance histogram is greater than the second threshold value SW2
  • An analysis of the total number of points of the measuring points of the 3D point cloud is carried out in step 121.
  • a step 122 it is determined that the total number of points mentioned for the measurement points of the 3D point cloud is less than a defined third threshold value SW3, whereby a low visibility range (e.g. due to fog, rain, snowfall, etc.) is determined for the 3D distance sensor device .
  • a low visibility range e.g. due to fog, rain, snowfall, etc.
  • This can be the case, for example, in fog, in which case there is hardly any restriction in the field of view of the 3D sensor device for short distances, but a total number of measuring points can be considerably reduced for greater distances.
  • a step 123 it is established that the named total number of points of the measurement points of the 3D point cloud is greater than the defined third threshold value SW3, in which case a visual blockage of the 3D distance sensor device is established.
  • This situation can exist, for example, when the vehicle equipped with the 3D distance sensor device is parked in front of a wall.
  • the distance histograms are each suitably pre-calibrated for a specific type of 3D distance sensor device, whereby a specific decay rate is assigned to a visual range of the 3D distance sensor device. Due to the large number of different types of 3D sensor devices, it is not possible to specify generally valid numerical values for visibility, distances, numbers of measuring points of the 3D point cloud and threshold values SW1, SW2, SW3.
  • the second threshold value SW2 corresponds to the decay rate or the slope of the curves A, B.
  • the proposed 3D distance sensor device can advantageously be used to detect the environment in highly and fully automated vehicles (level 3-5).
  • the proposed method can preferably be carried out in a defined time pattern of the 3D distance sensor device, quasi in real time (eg with a cycle time of approx. 10 frames / s, ie with approx. 10 Hz) in a background operation. It can be provided that the proposed method is implemented as software running in the 3D distance sensor device. Alternatively, it can also be provided that the software for executing the proposed method runs on an external computer device, which can be arranged in the cloud, for example.
  • Suitable measures can be derived from the determined visibility, e.g. an adaptation of one or more driver assistance functions of the
  • the proposed method is preferably carried out in normal operation of the 3D distance sensor device, in which the 3D distance sensor device is arranged in or on a highly or fully automated vehicle and is used to detect the surroundings when the vehicle is in operation.
  • the 3D distance sensor device is arranged in or on a highly or fully automated vehicle and is used to detect the surroundings when the vehicle is in operation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

The invention relates to a method for operating a 3D distance sensor device, comprising the steps of: - providing a defined number of detected measurement points; - evaluating the detected measurement points with the aid of at least one defined criterion; and - estimating a visibility of the 3D distance sensor device from the evaluated measurement points.

Description

Beschreibung description
Titel title
Verfahren zum Betreiben einer 3D-Distanzsensorvorrichtung Method of operating a 3D distance sensor device
Die Erfindung betrifft ein Verfahren zum Betreiben einer 3D-Distanzsensorvor- richtung. Die Erfindung betrifft ferner eine 3D-Distanzsensorvorrichtung. Die The invention relates to a method for operating a 3D distance sensor device. The invention also relates to a 3D distance sensor device. The
Erfindung betrifft ferner ein Computerprogramm. Die Erfindung betrifft ferner maschinenlesbares Speichermedium. The invention also relates to a computer program. The invention also relates to a machine-readable storage medium.
Hoch- und vollautomatisierte Fahrzeuge (Stufe 3-5) werden in den nächsten Highly and fully automated vehicles (level 3-5) will be in the next
Jahren immer öfter auf unseren Straßen vorzufinden sein. Es existieren verschie dene Konzepte, wie ein solches automatisiertes Fahrzeug realisiert werden kann. Years to be found on our streets more and more often. There are various concepts of how such an automated vehicle can be implemented.
Alle diese Ansätze benötigen verschiedenste Sensoren (z.B. Videokameras, All of these approaches require a wide variety of sensors (e.g. video cameras,
□DAR-, Radar-, Ultraschallsensoren, usw.). Für ein sicheres Fahren in allen □ DAR, radar, ultrasonic sensors, etc.). For safe driving in all
Wetterlagen ist es erforderlich, dass alle Sensoren unabhängig voneinander eine Schätzung ihrer aktuellen Sichtweite abgeben. Weather conditions require that all sensors independently provide an estimate of their current visibility.
DE 199 31 825 A1 offenbart eine Vorrichtung zur Sichtweitenmessung, insbesondere für Kraftfahrzeuge, welche mindestens ein optisches Sendeelement, mindestens ein optisches Empfangselement und eine Meßsignal-Auswerteeinheit aufweist, die aus dem an einer oder mehreren unterschiedlich weit entfernten Raumzonen reflektierten Licht eine aktuelle Sichtweite ermittelt. DE 199 31 825 A1 discloses a device for measuring visibility, especially for motor vehicles, which has at least one optical transmitting element, at least one optical receiving element and a measurement signal evaluation unit which determines a current visibility from the light reflected at one or more different spatial zones.
DE 10 2016 014 549 A1 offenbart ein autonomes Fahrzeug, das sowohl einen LiDAR- Sensor als auch eine Kamera beinhaltet. Der LiDAR-Sensor kann im Bereich des sichtbaren Lichts, im IR-Bereich oder einem anderen Wellenlängenbereich arbeiten. Wenn Schilder zum einen IR-reflektierenden Aufdruck aufweisen, kann der IR-Bereich verwendet werden. DE 10 2016 014 549 A1 discloses an autonomous vehicle that contains both a LiDAR sensor and a camera. The LiDAR sensor can work in the range of visible light, in the IR range or another wavelength range. If signs have an IR-reflective print, the IR range can be used.
DE 10 2016 014 549 A1 offenbart ein Verfahren zur Bestimmung der Sichtweite aus einem Fahrzeug mittels eines LiDAR-Sensors. EP 2 101 193 A1 offenbart einen Sicherheitssensor sowie ein Verfahren zur berührungslosen Messung von Positionen, Wegen und/oder Geschwindigkeiten. DE 10 2016 014 549 A1 discloses a method for determining the visual range from a vehicle by means of a LiDAR sensor. EP 2 101 193 A1 discloses a safety sensor and a method for the contactless measurement of positions, distances and / or speeds.
US 6 362 773 B1 offenbart eine Kombination mehrerer Sensoren oder eine angepasste, aufwendige Auswertung von Sensor-Rohdaten. Diese Rohdaten stehen jedoch in vielen Sensor-Architekturen der zentralen Sensorfusions- und Auswerteeinheit nicht zur Verfügung. US Pat. No. 6,362,773 B1 discloses a combination of several sensors or an adapted, complex evaluation of raw sensor data. However, these raw data are not available in many sensor architectures of the central sensor fusion and evaluation unit.
Offenbarung der Erfindung Disclosure of the invention
Es ist eine Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren zum Betreiben einer 3D-Distanzsensorvorrichtung bereit zu stellen. It is an object of the present invention to provide an improved method for operating a 3D distance sensor device.
Gemäß einem ersten Aspekt schafft die Erfindung ein Verfahren zum Betreiben einer 3D-Distanzsensorvorrichtung, aufweisend die Schritte: According to a first aspect, the invention creates a method for operating a 3D distance sensor device, comprising the steps:
Bereitstellen einer definierten Anzahl von detektieren Messpunkten; Providing a defined number of detected measuring points;
- Auswerten der detektierten Messpunkte mit Hilfe von wenigstens einem definierten Kriterium; und - Evaluation of the detected measuring points with the aid of at least one defined criterion; and
Schätzen einer Sichtweite der 3D-Distanzsensorvorrichtung aus den aus gewerteten Messpunkten. Estimating a visual range of the 3D distance sensor device from the measured points evaluated.
Vorteilhaft kann auf diese Weise erkannt werden, ob für die 3D-Distanzsensor- vorrichtung eine Beeinträchtigung der Sichtweite vorliegt. Vorteilhaft kann da durch quantifiziert werden, wie stark die Sichtweite reduziert ist, wobei eine re duzierte Sichtweite von einer Sichtblockade unterschieden werden kann. Vorteil haft stellt das vorgeschlagene Verfahren ein Verfahren auf Systemebene dar, d.h. dass eine bereits ausgewertete 3D-Punktwolke von Messpunkten benutzt wird und Sensor-Rohdaten somit nicht erforderlich sind. In this way, it can advantageously be recognized whether the range of vision is impaired for the 3D distance sensor device. In this way it can advantageously be quantified how much the visibility is reduced, it being possible to distinguish a reduced visibility from a blockage. The proposed method advantageously represents a method at the system level, i.e. that an already evaluated 3D point cloud of measuring points is used and raw sensor data is therefore not required.
Gemäß einem zweiten Aspekt wird die Aufgabe gelöst mit einer 3D-Distanz- sensorvorrichtung, die ausgebildet ist, das vorgeschlagene Verfahren auszu führen. According to a second aspect, the object is achieved with a 3D distance sensor device which is designed to carry out the proposed method.
Gemäß einem dritten Aspekt wird die Aufgabe gelöst mit einem Computerpro gramm. Gemäß einem vierten Aspekt wird die Aufgabe gelöst mit einem maschinenles baren Speichermedium. According to a third aspect, the object is achieved with a computer program. According to a fourth aspect, the object is achieved with a machine-readable storage medium.
Bevorzugte Ausführungsformen des vorgeschlagenen Verfahrens sind Gegen stand von jeweils abhängigen Ansprüchen. Preferred embodiments of the proposed method are the subject of the respective dependent claims.
Eine vorteilhafte Weiterbildung des Verfahrens ist dadurch gekennzeichnet, dass Messpunkte einer geometrisch untersten Ebene der 3D-Distanzsensorvorrich- tung analysiert werden, wobei die Anzahl der detektierten Messpunkte mit einem definierten ersten Schwellwert verglichen wird. Erwartet wird, dass immer alle Scan- bzw. Messpunkte der geometrisch untersten Ebene vorhanden sind, weil in dieser Ebene eine Straße angeordnet ist, auf der sich das Fahrzeug mit der 3D-Distanzsensorvorrichtung befindet, wobei die Straße in der Regel nur ca. 5m- 10m weit von der 3D-Distanzsensorvorrichtung beabstandet ist. Falls dies nicht zutrifft, können daraus geeignete Schlüsse gezogen werden. An advantageous further development of the method is characterized in that measurement points of a geometrically lowest level of the 3D distance sensor device are analyzed, the number of detected measurement points being compared with a defined first threshold value. It is expected that all scan or measurement points of the geometrically lowest level are always available, because a road is arranged in this level, on which the vehicle with the 3D distance sensor device is located, whereby the road is usually only approx. 10m far from the 3D distance sensor device. If this is not the case, appropriate conclusions can be drawn from it.
Eine weitere vorteilhafte Weiterbildung des Verfahrens ist dadurch gekennzeich net, dass im Falle, dass der Anteil der erkannten Messpunkte definiert unterhalb des ersten Schwellwerts liegt, eine Verdeckung eines Deckglases der 3D- Distanzsensorvorrichtung festgestellt wird. In diesem Fall kann z.B. zum Herstel len der vollen Sichtweite ein Auslösen eines Reinigungsvorgangs der 3D- Distanzsensorvorrichtung vorgenommen werden. A further advantageous development of the method is characterized in that in the event that the proportion of the detected measurement points is defined below the first threshold value, a cover glass of the 3D distance sensor device is covered. In this case, a cleaning process of the 3D distance sensor device can be triggered, for example, in order to establish the full range of vision.
Eine weitere vorteilhafte Weiterbildung des Verfahrens sieht vor, dass im Falle, dass der Anteil der erkannten Messpunkte definiert oberhalb des ersten Schwell werts, eine Auswertung eines definiert kalibrierten Distanzhistogramms der Messpunkte durchgeführt wird, wobei eine Abklingrate der Häufigkeit der Mess punkte über die Distanz ermittelt wird. Das Distanzhistogramm wird auf diese Weise ausgewertet, um genauere Aussagen über die Sichtweite machen zu können. Zum Beispiel kann im Distanzhistogramm eine aufgrund von Nebel oder Regen reduzierte Sichtweite festgestellt werden. Another advantageous development of the method provides that in the event that the proportion of detected measuring points is defined above the first threshold value, an evaluation of a defined, calibrated distance histogram of the measuring points is carried out, a decay rate of the frequency of the measuring points being determined over the distance . The distance histogram is evaluated in this way in order to be able to make more precise statements about the visual range. For example, reduced visibility due to fog or rain can be determined in the distance histogram.
Eine weitere vorteilhafte Weiterbildung des Verfahrens sieht vor, dass im Falle, dass der Anteil der erkannten Messpunkte definiert unterhalb eines zweiten Schwellwerts der Abklingrate liegt, eine definiert hohe Sichtweite der 3D-Distanz- sensorvorrichtung festgestellt wird. Festgestellt wird dies dadurch, dass das Distanzhistogramm bei einer hohen Sichtweite langsam abfallend ist. Another advantageous development of the method provides that in the event that the proportion of the detected measuring points is defined below a second threshold value of the decay rate, a defined high visual range of the 3D distance sensor device is detected. This is determined by the fact that the distance histogram slowly declines at a high visibility range.
Eine weitere vorteilhafte Weiterbildung des Verfahrens ist dadurch gekenn zeichnet, dass im Falle, dass der Anteil der erkannten Messpunkte definiert unterhalb eines zweiten Schwellwerts der Abklingrate liegt, eine Auswertung einer Gesamtzahl der Messpunkte durchgeführt wird. Hier wird insbesondere der Einfluss von Nebel auf die Sichtweite festgestellt, der vor allem bei kurzen Distanzen keine Rolle spielt, wobei in diesem Fall vor allem die Gesamtzahl der Messpunkte ausgewertet wird. Another advantageous development of the method is characterized in that in the event that the proportion of the detected measuring points is defined below a second threshold value of the decay rate, an evaluation of a total number of the measuring points is carried out. Here, in particular, the influence of fog on the visibility is determined, which is particularly irrelevant for short distances, in which case the total number of measurement points is evaluated.
Eine weitere vorteilhafte Ausführungsform des Verfahrens zeichnet sich dadurch aus, dass bei Unterschreiten eines dritten Schwellwerts der Gesamtzahl der Messpunkte eine definiert niedrige Sichtweite der 3D-Distanzsensorvorrichtung festgestellt wird und wobei bei Überschreiten des dritten Schwellwerts der Gesamtzahl der Messpunkte eine Sichtblockade der 3D-Distanzsensorvorrich- tung festgestellt wird. Dadurch können je nach Anzahl der Messpunkte geeignete Erkenntnisse gewonnen werden. Das Distanzhistogramm ist dabei schnell abfal lend, aber es liegen sehr viele Messpunkte der 3D-Punktwolke vor, was ein Hin weis auf eine Sichtblockade der 3D-Sensorvorrichtung sein kann. Another advantageous embodiment of the method is characterized in that when the total number of measurement points falls below a third threshold value, a defined low visual range of the 3D distance sensor device is determined and, when the third threshold value of the total number of measurement points is exceeded, the 3D distance sensor device is blocked from sight is detected. In this way, suitable knowledge can be obtained depending on the number of measuring points. The distance histogram declines quickly, but there are a large number of measurement points in the 3D point cloud, which can be an indication of a blockage in the view of the 3D sensor device.
Eine weitere vorteilhafte Ausführungsform des Verfahrens zeichnet sich dadurch aus, dass aus der geschätzten Sichtweite eine Fahrfunktion eines Fahrzeugs an gepasst und/oder eine Reinigung der 3D-Distanzsensorvorrichtung initiiert wird. Dadurch können geeignete Maßnahmen zur Anpassung an die reduzierte Sicht weite der 3D-Distanzsensorvorrichtung getroffen werden. A further advantageous embodiment of the method is characterized in that a driving function of a vehicle is adapted from the estimated visual range and / or cleaning of the 3D distance sensor device is initiated. As a result, suitable measures can be taken to adapt to the reduced visibility of the 3D distance sensor device.
Eine weitere vorteilhafte Ausführungsform des Verfahrens zeichnet sich dadurch aus, dass das Verfahren in einem Normalbetrieb der 3D-Distanzsensorvorrich- tung durchgeführt wird. Vorteilhaft lässt sich dadurch eine Ermittlung der Sicht weite der 3D-Distanzsensorvorrichtung quasi in Echtzeit realisieren. Another advantageous embodiment of the method is characterized in that the method is carried out in normal operation of the 3D distance sensor device. In this way, it is advantageously possible to determine the visual range of the 3D distance sensor device in quasi real time.
Eine weitere vorteilhafte Ausführungsform des Verfahrens zeichnet sich dadurch aus, dass das Verfahren innerhalb der 3D-Distanzsensorvorrichtung oder auf einer externen Rechnervorrichtung durchgeführt wird. Auf diese Weise kann ein „intelligenter 3D-Distanzsensor“ realisiert oder dazu erforderliche Rechenleistung geeignet ausgelagert werden. Another advantageous embodiment of the method is characterized in that the method is carried out within the 3D distance sensor device or on an external computer device. That way one can "Intelligent 3D distance sensor" can be implemented or the computing power required for this can be suitably outsourced.
Die Erfindung wird im Folgenden mit weiteren Merkmalen und Vorteilen anhand von zwei Figuren im Detail beschrieben. Die Figuren sind insbesondere dazu gedacht, die erfindungswesentlichen Prinzipien zu verdeutlichen und sind nicht unbedingt maßstabsgetreu ausgeführt. The invention is described in detail below with further features and advantages using two figures. The figures are intended in particular to clarify the principles essential to the invention and are not necessarily drawn to scale.
In den Figuren zeigt: In the figures shows:
Fig. 1 ein prinzipielles Ablaufdiagramm eines vorgeschlagenen Ver fahrens zum Betreiben einer 3D-Distanzsensorvorrichtung; und Fig. 1 is a basic flowchart of a proposed method for operating a 3D distance sensor device; and
Fig. 2 ein beispielhaftes Distanzhistogramm, welches im Rahmen des vorgeschlagenen Verfahrens analysiert werden kann. 2 shows an exemplary distance histogram which can be analyzed within the framework of the proposed method.
Beschreibung von Ausführungsformen Description of embodiments
Ein Kerngedanke der vorliegenden Erfindung besteht insbesondere darin, ein verbessertes Verfahren zum Betreiben bzw. Analysieren einer 3D-Distanzsen- sorvorrichtung bereitzustellen. A core idea of the present invention is in particular to provide an improved method for operating or analyzing a 3D distance sensor device.
Ein Vorteil des vorgeschlagenen Verfahrens besteht darin, dass z.B. eine zen trale Auswerteeinheit eines 3D-Distanzsensors die Sichtweite bestimmen bzw. abschätzen kann, wobei dazu zusätzliche Sensorik vorteilhaft nicht erforderlich ist. One advantage of the proposed method is that, for example, a central evaluation unit of a 3D distance sensor can determine or estimate the visual range, with additional sensors advantageously not being required for this.
Die Abschätzung der Sichtweite eines Sensors bei jeder Wetterlage ist erforder lich, um ein sicheres Fahren eines teil- oder vollautonomen Fahrzeugs zu ermög lichen. Estimating the visibility of a sensor in all weather conditions is necessary in order to enable a partially or fully autonomous vehicle to be driven safely.
So ist zum Beispiel eine Anpassung der Geschwindigkeit an die aktuelle Sicht weite der Sensoren erforderlich. Die Sichtweite eines Sensors kann allerdings durch verschiedene atmosphärische Wettereinflüsse wie beispielsweise Regen, Nebel, Schneefall, usw. unter Umständen stark beeinträchtigt werden. Dabei muss unterschieden werden, ob die Performance des Sensors aufgrund solcher atmosphärischen Einflüsse oder aufgrund von statistisch verteilten Blockierungen auf der Sensorabdeckung, wie z.B. Regentropfen, Schmutz, usw. beeinträchtigt ist. Ferner ist es mittels des vorgeschlagenen Verfahrens auch möglich Situa tionen zu erkennen, in denen die Sicht des 3D-Distanzsensors von einem oder mehreren Objekten blockiert ist (z.B. in einer Garage geparktes Fahrzeug) und daher keine Aussage über die aktuelle Sichtweite des 3D-Distanzsensors getroffen werden kann. For example, the speed must be adjusted to the current field of vision of the sensors. However, the range of vision of a sensor can be severely impaired by various atmospheric weather influences such as rain, fog, snowfall, etc. A distinction must be made as to whether the performance of the sensor is based on such atmospheric influences or due to statistically distributed blockages on the sensor cover, such as raindrops, dirt, etc. is impaired. The proposed method also makes it possible to identify situations in which the view of the 3D distance sensor is blocked by one or more objects (e.g. a vehicle parked in a garage) and therefore no statement is made about the current visibility of the 3D distance sensor can be.
Das vorgeschlagene Verfahren zum Betreiben einer 3D-Distanzsensorvorrich- tung auf Basis einer 3D-Punktwolke beruht auf einer Kombination aus mehreren nutzbaren Parametern. Unter einer 3D-Punktwolke wird im Folgenden eine drei dimensionale Anhäufung von Messpunkten verstanden, die mittels eines dreidi mensionalen Distanzsensors (z.B. LiDAR-, Radarsensor, usw.) erfasst werden. Dabei wird vor allem die Anzahl der vom 3D-Distanzsensor detektierten Punkte der Umgebung genutzt. Das Verfahren wird nachfolgend exemplarisch für einen auf einem Fahrzeug angeordneten 3D-LiDAR-Distanzsensor beschrieben, ist vorteilhaft aber auch zum verbesserten Betreiben eines Radarsensors geeignet. The proposed method for operating a 3D distance sensor device based on a 3D point cloud is based on a combination of several usable parameters. In the following, a 3D point cloud is understood to be a three-dimensional cluster of measurement points that are recorded using a three-dimensional distance sensor (e.g. LiDAR, radar sensor, etc.). The number of points in the environment detected by the 3D distance sensor is primarily used. The method is described below by way of example for a 3D LiDAR distance sensor arranged on a vehicle, but is advantageously also suitable for improved operation of a radar sensor.
Fig.1 zeigt einen prinzipiellen Ablauf eines vorgeschlagenen Verfahrens. In einem Schritt 100 wird von der 3D-Distanzsensorvorrichtung eine 3D-Punktwolke mit einer definierten Anzahl an Messpunkten der Umgebung bereitgestellt. 1 shows a basic sequence of a proposed method. In a step 100, the 3D distance sensor device provides a 3D point cloud with a defined number of measurement points in the environment.
In einem Schritt 101 wird eine Analyse der Punktanzahl der Messpunkte einer geometrisch untersten Ebene der 3D-Distanzsensorvorrichtung vorgenommen. Die geometrisch unterste Ebene einer 3D-Distanzsensorvorrichtung deckt typischerweise eine Straße in einer kurzen Entfernung zum Fahrzeug ab, wobei derart bereitgestellte Messdaten daher auch oftmals zur Freiflächenerkennung genutzt werden. Die kurze Entfernung hat zur Folge, dass auch bei geringer Sichtweite alle Messpunkte dieser Ebene in der 3D-Punktwolke präsent sein sollten. In a step 101, an analysis of the number of points of the measurement points of a geometrically lowest level of the 3D distance sensor device is carried out. The geometrically lowest level of a 3D distance sensor device typically covers a road at a short distance from the vehicle, measurement data provided in this way therefore often also being used to identify open spaces. The short distance means that all measuring points of this plane should be present in the 3D point cloud even if the visibility is limited.
Dieser Parameter stellt daher kein Maß für eine Sichtweite der 3D-Distanzsen- sorvorrichtung dar, erlaubt es jedoch, z.B. eine Sichtblockierung auf der Ab deckung der 3D-Distanzsensorvorrichtung zu erkennen. Geprüft wird in einem Schritt 102 eine Gesamtanzahl der Messpunkte der geometrisch untersten Ebene, wobei im Falle, dass die Gesamtanzahl der Messpunkte einen definierten ersten Schwellwert SW1 definiert unterschreitet, festgestellt wird, dass eine Blockierung einer Abdeckung der 3D-Distanzsensorvorrichtung vorliegt. Bei spielsweise kann dies durch einen Belag (z.B. Schmutz, Schnee, Eis, usw.) auf der Sensorabdeckung verursacht sein, weshalb in diesem Fall ein Reini gungsvorgang der 3D-Distanzsensorvorrichtung initiiert wird. This parameter therefore does not represent a measure of the visual range of the 3D distance sensor device, but it does allow, for example, a blockage of vision on the cover of the 3D distance sensor device to be recognized. In a step 102, a total number of measuring points of the geometrically lowest level is checked, with the case that the total number of measuring points defines one falls below the first threshold value SW1 defined, it is determined that a blockage of a cover of the 3D distance sensor device is present. For example, this can be caused by a deposit (eg dirt, snow, ice, etc.) on the sensor cover, which is why a cleaning process of the 3D distance sensor device is initiated in this case.
Falls die Gesamtanzahl der Messpunkte der geometrisch untersten Ebene der 3D-Punktwolke den ersten Schwellwert SW1 definiert übersteigt, wird in einem Schritt 110 eine Analyse einer Abklingrate eines in Zusammenhang mit Fig. 2 näher erläuterten Distanzhistogramms der gesamten 3D-Punktwolke durchge führt. If the total number of measurement points of the geometrically lowest level of the 3D point cloud exceeds the first threshold value SW1 in a defined manner, an analysis of a decay rate of a distance histogram of the entire 3D point cloud explained in more detail in connection with FIG. 2 is carried out in a step 110.
Zum Analysieren des Distanzhistogramms der gesamten 3D-Punktwolke werden alle Punkte der 3D-Punktwolke im Distanzhistogramm dargestellt, welches einen Graph repräsentiert, der eine Häufigkeit der Messpunkte der 3D-Punktwolke distanzabhängig darstellt. Für diese Daten kann eine geeignete mathematische Funktion bereitgestellt werden, wobei im vorliegenden Fall eine exponentiell ab fallende Funktion gewählt wird, die durch die zwei Parameter Amplitude und Abklingrate gekennzeichnet ist. To analyze the distance histogram of the entire 3D point cloud, all points of the 3D point cloud are shown in the distance histogram, which represents a graph that shows the frequency of the measurement points of the 3D point cloud as a function of distance. A suitable mathematical function can be provided for this data, an exponentially decreasing function being selected in the present case, which is characterized by the two parameters amplitude and decay rate.
Diese beiden Parameter werden von unterschiedlichen Prozessen beeinflusst. Die Amplitude wird von Blockierungen auf der Sensorabdeckung der 3D-Distanz- sensorvorrichtung beeinflusst. Die Abklingrate wird von der atmosphärischen Sichtweite beeinflusst, da eine geringe Sichtweite lediglich die Detektion weit entfernter Objekte beeinträchtigt, nicht jedoch die Detektion von nahe an der 3D- Distanzsensorvorrichtung angeordneten Objekten. Ferner wird die Abklingrate von der Landschaftsstruktur bzw. von einer Sichtblockierung der 3D-Distanzsen- sorvorrichtung durch andere Objekte (z.B. eine Garage, Standort hinter einem LKW, usw.) beeinflusst. Das Distanzhistogramm erlaubt es im Ergebnis, anhand der Abklingrate einen Wert für Sichtweite der 3D-Distanzsensorvorrichtung anzugeben. These two parameters are influenced by different processes. The amplitude is influenced by blockages on the sensor cover of the 3D distance sensor device. The rate of decay is influenced by the atmospheric visibility, since a small visibility only affects the detection of objects that are far away, but not the detection of objects arranged close to the 3D distance sensor device. Furthermore, the decay rate is influenced by the structure of the landscape or by a blockage of the 3D distance sensor device's view by other objects (e.g. a garage, location behind a truck, etc.). As a result, the distance histogram allows a value for the visual range of the 3D distance sensor device to be specified based on the decay rate.
In einem Schritt 111 wird geprüft, ob die Abklingrate der Messpunkte des Distanzhistogramms einen bestimmten zweiten Schwellwert SW2 aufweist, wo bei im Falle, dass dieser kleiner als der definierte zweite Schwellwert SW2 ist, in einem Schritt 112 eine definiert hohe Sichtweite für die 3D-Distanzsensorvor- richtung festgestellt wird. In a step 111 it is checked whether the decay rate of the measuring points of the distance histogram has a certain second threshold value SW2, in which case in the case that this is less than the defined second threshold value SW2 in In a step 112, a defined high visibility range for the 3D distance sensor device is determined.
Falls die Abklingrate des Distanzhistogramms hingegen größer als der zweite Schwellwert SW2 ist, bedeutet dies, dass beispielsweise eine niedrige Sichtweite oder eine Objektblockade der 3D-Distanzsensorvorrichtung vorliegen kann, was nachfolgend in einem Schritt 120 näher untersucht wird. Dabei wird im Schritt 121 eine Analyse der Gesamtpunkteanzahl der Messpunkte der 3D-Punktwolke durchgeführt. If, on the other hand, the decay rate of the distance histogram is greater than the second threshold value SW2, this means that, for example, the 3D distance sensor device may have a low visibility or an object blockage, which is examined in more detail below in a step 120. An analysis of the total number of points of the measuring points of the 3D point cloud is carried out in step 121.
In einem Schritt 122 wird festgestellt, dass die genannte Gesamtpunkteanzahl der Messpunkte der 3D-Punktwolke kleiner als ein definierter dritter Schwellwert SW3 ist, wodurch eine niedrige Sichtweite (z.B. aufgrund von Nebel, Regen, Schneefall, usw.) für die 3D-Distanzsensorvorrichtung festgestellt wird. Dies kann z.B. bei Nebel der Fall sein, wobei in diesem Fall eine Einschränkung der Sicht weite der 3D-Sensorvorrichtung für niedrige Distanzen kaum vorliegt, eine Gesamtzahl der Messpunkte für größere Distanzen jedoch erheblich reduziert sein kann. In a step 122 it is determined that the total number of points mentioned for the measurement points of the 3D point cloud is less than a defined third threshold value SW3, whereby a low visibility range (e.g. due to fog, rain, snowfall, etc.) is determined for the 3D distance sensor device . This can be the case, for example, in fog, in which case there is hardly any restriction in the field of view of the 3D sensor device for short distances, but a total number of measuring points can be considerably reduced for greater distances.
In einem Schritt 123 wird festgestellt, dass die genannte Gesamtpunkteanzahl der Messpunkte der 3D-Punktwolke größer als der definierte dritte Schwellwert SW3 ist, wobei in diesem Fall eine Sichtblockade der 3D-Distanzsensorvorrich- tung festgestellt wird. Diese Situation kann z.B. dann vorliegen, wenn das mit der 3D-Distanzsensorvorrichtung ausgerüstete Fahrzeug vor einer Wand geparkt ist. In a step 123 it is established that the named total number of points of the measurement points of the 3D point cloud is greater than the defined third threshold value SW3, in which case a visual blockage of the 3D distance sensor device is established. This situation can exist, for example, when the vehicle equipped with the 3D distance sensor device is parked in front of a wall.
Für eine vollständige Entscheidungsfindung betreffend Sichtweitenabschätzung der 3D-Distanzsensorvorrichtung ist somit eine Auswertung aller vorgenannten drei Schwellwerte SW1 , SW2 und SW3 erforderlich, weshalb zu diesem Zweck in den Schritten 101 , 110 und 120 jeweils eigene Detailanalysen durchgeführt werden. Die Entscheidung kann dabei anhand des Entscheidungsbaums von Fig. 1 getroffen werden. Ein quantitativer Wert der Sichtweite kann durch eine mittels Kalibriervorgangs quantifizierte Abklingrate des Distanzhistogramms bestimmt werden. Vorteilhaft kann auf diese Weise das Distanzhistogramm auch ohne die anderen beiden Schwellwerte genutzt werden. Vorteilhaft kann für die Schätzung der Sichtweite auch nur das Distanzhisto gramm ausgewertet werden, wodurch die Detailanalysen der Schritte 101 , 120 auch entfallen können. Vorteilhaft lässt sich dadurch Rechenzeit einsparen und es können auf diese Weise ausgesuchte oder auch alle vorgeschlagenen Kriterien zur Überprüfung der Sichtweite des 3D-Distanzsensorvorrichtung geprüft werden. For a complete decision-making regarding the visual range estimation of the 3D distance sensor device, an evaluation of all of the aforementioned three threshold values SW1, SW2 and SW3 is necessary, which is why separate detailed analyzes are carried out in steps 101, 110 and 120 for this purpose. The decision can be made using the decision tree from FIG. 1. A quantitative value of the visual range can be determined by a decay rate of the distance histogram that is quantified by means of a calibration process. In this way, the distance histogram can advantageously also be used without the other two threshold values. Advantageously, only the distance histogram can be evaluated for the estimation of the visual range, so that the detailed analyzes of steps 101, 120 can also be omitted. This advantageously saves computing time and in this way selected criteria or all of the proposed criteria for checking the visual range of the 3D distance sensor device can be checked.
Die Distanzhistogramme werden jeweils für einen spezifischen Typ der 3D- Distanzsensorvorrichtung geeignet vorkalibriert, wodurch eine spezifische Ab klingrate jeweils einer Sichtweite der 3D-Distanzsensorvorrichtung zugeordnet wird. Aufgrund der Vielzahl an unterschiedlichen Typen von 3D-Sensorvorrich- tungen ist es nicht möglich, allgemein gültige Zahlenwerte für Sichtweiten, Distanzen, Anzahlen der Messpunkte der 3D-Punktwolke und Schwellwerte SW1 , SW2, SW3 anzugeben. The distance histograms are each suitably pre-calibrated for a specific type of 3D distance sensor device, whereby a specific decay rate is assigned to a visual range of the 3D distance sensor device. Due to the large number of different types of 3D sensor devices, it is not possible to specify generally valid numerical values for visibility, distances, numbers of measuring points of the 3D point cloud and threshold values SW1, SW2, SW3.
Fig. 2 zeigt ein exemplarisches Distanzhistogramm, wobei auf der x-Achse die Distanz d aufgetragen ist und auf der y-Achse eine logarithmische Häufigkeit H der Messpunkte der 3D-Punktwolke. Man erkennt zwei Verläufe A, B von Mess punkten einer 3D-Punktwolke. Dabei repräsentiert der Verlauf A eine hohe Sicht weite mit einer niedrigen exponentiellen Abklingrate der Anzahl der Messpunkte über der Distanz d und der Verlauf B eine niedrige Sichtweite mit einer hohen exponentiellen Abklingrate der Anzahl der Messpunkte über der Distanz d. Der zweite Schwellwert SW2 entspricht dabei der Abklingrate bzw. der Steigung der Verläufe A, B. 2 shows an exemplary distance histogram, the distance d being plotted on the x-axis and a logarithmic frequency H of the measuring points of the 3D point cloud on the y-axis. You can see two courses A, B of measuring points of a 3D point cloud. The course A represents a high visibility range with a low exponential decay rate of the number of measuring points over the distance d and the course B a low visibility range with a high exponential decay rate of the number of measuring points over the distance d. The second threshold value SW2 corresponds to the decay rate or the slope of the curves A, B.
Vorteilhaft kann die vorgeschlagene 3D-Distanzsensorvorrichtung zur Detektion der Umgebung in hoch- und vollautomatisierten Fahrzeugen (Level 3-5) einge setzt werden. The proposed 3D distance sensor device can advantageously be used to detect the environment in highly and fully automated vehicles (level 3-5).
Vorzugsweise kann das vorgeschlagene Verfahren in einem definierten Zeit raster der 3D-Distanzsensorvorrichtung quasi in Echtzeit (z.B. mit einer Zyklus zeit von ca. 10 Frames/s d.h. mit ca. 10 Hz) in einem Hintergrundbetrieb durch geführt werden. Dabei kann vorgesehen sein, das vorgeschlagene Verfahren als eine in der 3D-Distantzsensorvorrichtung ablaufende Software auszubilden. Alternativ kann auch vorgesehen sein, dass die Software zur Ausführung des vorgeschlagenen Verfahrens auf einer externen Rechnervorrichtung abläuft, die z.B. in der Cloud angeordnet sein kann. The proposed method can preferably be carried out in a defined time pattern of the 3D distance sensor device, quasi in real time (eg with a cycle time of approx. 10 frames / s, ie with approx. 10 Hz) in a background operation. It can be provided that the proposed method is implemented as software running in the 3D distance sensor device. Alternatively, it can also be provided that the software for executing the proposed method runs on an external computer device, which can be arranged in the cloud, for example.
Aus der ermittelten Sichtweite können geeignete Maßnahmen abgeleitet werden, z.B. eine Anpassung einer oder mehrerer Fahrassistenzfunktionen des Suitable measures can be derived from the determined visibility, e.g. an adaptation of one or more driver assistance functions of the
Fahrzeugs, eine Geschwindigkeit des Fahrzeugs, usw. Vehicle, a speed of the vehicle, etc.
Das vorgeschlagene Verfahren wird vorzugsweise in einem Normalbetrieb der 3D-Distanzsensorvorrichtung durchgeführt, bei dem die 3D-Distanzsensorvor- richtung in bzw. auf einem hoch- bzw. vollautomatisierten Fahrzeug angeordnet ist und zur Umgebungserfassung im Fährbetrieb des Fahrzeugs verwendet wird. Durch die Ermittlung der Sichtweite der 3D-Distanzsensorvorrichtung quasi in Echtzeit ist ein Nutzwert der 3D-Distanzsensorvorrichtung bedeutsam erhöht. Obwohl die Erfindung im Zusammenhang mit einem optoelektronischen 3D-The proposed method is preferably carried out in normal operation of the 3D distance sensor device, in which the 3D distance sensor device is arranged in or on a highly or fully automated vehicle and is used to detect the surroundings when the vehicle is in operation. By determining the visual range of the 3D distance sensor device quasi in real time, a useful value of the 3D distance sensor device is significantly increased. Although the invention in connection with an optoelectronic 3D-
Scanner in Form eines LiDAR-Sensors für ein Kraftfahrzeug erläutert wurde, ist es beispielsweise auch denkbar, das vorgeschlagene Verfahren für andere 3D- Distanzsensorvorrichtungen zu verwenden, z.B. für einen Radarsensor. Der Fachmann erkennt somit, dass eine Vielzahl von Abwandlungen möglich ist, ohne vom Kern der Erfindung abzuweichen. Scanner in the form of a LiDAR sensor for a motor vehicle was explained, it is for example also conceivable to use the proposed method for other 3D distance sensor devices, e.g. for a radar sensor. The person skilled in the art will thus recognize that a large number of modifications are possible without departing from the essence of the invention.

Claims

Ansprüche Expectations
1. Verfahren zum Betreiben einer 3D-Distanzsensorvorrichtung, aufweisend die Schritte: 1. A method for operating a 3D distance sensor device, comprising the steps:
Bereitstellen einer definierten Anzahl von detektieren Messpunkten; Providing a defined number of detected measuring points;
- Auswerten der detektierten Messpunkte mit Hilfe von wenigstens einem definierten Kriterium; und - Evaluation of the detected measuring points with the aid of at least one defined criterion; and
Schätzen einer Sichtweite der 3D-Distanzsensorvorrichtung aus den ausgewerteten Messpunkten. Estimating a visual range of the 3D distance sensor device from the evaluated measuring points.
2. Verfahren nach Anspruch 1 , wobei Messpunkte einer geometrisch untersten Ebene der 3D-Distanzsensorvorrichtung analysiert werden, wobei die Anzahl der detektierten Messpunkte mit einem definierten ersten Schwellwert (SW1) verglichen wird. 2. The method according to claim 1, wherein measuring points of a geometrically lowest level of the 3D distance sensor device are analyzed, the number of detected measuring points being compared with a defined first threshold value (SW1).
3. Verfahren nach Anspruch 2, wobei im Falle, dass der Anteil der erkannten Messpunkte definiert unterhalb des ersten Schwellwerts (SW1) liegt, eine Verdeckung eines Deckglases der 3D-Distanzsensorvorrichtung festgestellt wird. 3. The method according to claim 2, wherein in the event that the proportion of the detected measurement points is defined below the first threshold value (SW1), an obscuration of a cover glass of the 3D distance sensor device is determined.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Auswer tung eines definiert kalibrierten Distanzhistogramms der Messpunkte durch geführt wird, wobei eine Abklingrate einer Häufigkeit der Messpunkte über die Distanz ermittelt wird. 4. The method according to any one of the preceding claims, wherein an evaluation of a defined calibrated distance histogram of the measurement points is performed, wherein a decay rate of a frequency of the measurement points is determined over the distance.
5. Verfahren nach einem der vorhergehenden Ansprüche, wobei im Falle, dass der Anteil der erkannten Messpunkte definiert unterhalb eines zweiten Schwellwerts (SW2) der Abklingrate liegt, eine definiert hohe Sichtweite der 3D-Distanzsensorvorrichtung festgestellt wird. 5. The method according to any one of the preceding claims, wherein in the event that the proportion of the detected measurement points is defined below a second threshold value (SW2) of the decay rate, a defined high visibility of the 3D distance sensor device is determined.
6. Verfahren nach Anspruch 5, wobei im Falle, dass der Anteil der erkannten Messpunkte definiert unterhalb eines zweiten Schwellwerts (SW2) der Abklingrate liegt, eine Auswertung einer Gesamtzahl der Messpunkte durchgeführt wird. 6. The method according to claim 5, wherein in the case that the proportion of the detected measurement points is defined below a second threshold value (SW2) Decay rate is, an evaluation of a total number of the measuring points is carried out.
7. Verfahren nach Anspruch 6, wobei bei Unterschreiten eines dritten Schwell werts (SW3) der Gesamtzahl der Messpunkte eine definiert niedrige Sicht weite der 3D-Distanzsensorvorrichtung festgestellt wird und wobei bei Über schreiten des dritten Schwellwerts (SW3) der Gesamtzahl der Messpunkte eine Sichtblockade der 3D-Distanzsensorvorrichtung festgestellt wird. 7. The method according to claim 6, wherein when falling below a third threshold value (SW3) of the total number of measurement points, a defined low visibility range of the 3D distance sensor device is determined and when exceeding the third threshold value (SW3) of the total number of measurement points, a blockage of vision 3D distance sensor device is detected.
8. Verfahren nach einem der vorhergehenden Ansprüche, wobei aus der 8. The method according to any one of the preceding claims, wherein from the
geschätzten Sichtweite eine Fahrfunktion eines Fahrzeugs angepasst und/oder eine Reinigung der 3D-Distanzsensorvorrichtung initiiert wird. estimated visual range a driving function of a vehicle is adapted and / or cleaning of the 3D distance sensor device is initiated.
9. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Verfahren in einem Normalbetrieb der 3D-Distanzsensorvorrichtung durchgeführt wird. 9. The method according to any one of the preceding claims, wherein the method is carried out in normal operation of the 3D distance sensor device.
10. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Verfahren innerhalb der 3D-Distanzsensorvorrichtung oder auf einer externen Rechner vorrichtung durchgeführt wird. 10. The method according to any one of the preceding claims, wherein the method is carried out within the 3D distance sensor device or on an external computer device.
11. 3D-Distanzsensorvorrichtung die eingerichtet ist, ein Verfahren gemäß einem der Ansprüche 1 bis 10 auszuführen. 11. 3D distance sensor device that is set up to carry out a method according to one of claims 1 to 10.
12. Computerprogramm umfassend Befehle, die bei der Ausführung des 12. Computer program comprising instructions that are used in the execution of the
Computerprogramms durch einen Computer diesen veranlassen, ein Verfahren gemäß einem der Ansprüche 1 bis 10 auszuführen. Computer program causing a computer to execute a method according to one of claims 1 to 10.
13. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 12 gespeichert ist. 13. Machine-readable storage medium on which the computer program according to claim 12 is stored.
PCT/EP2020/067110 2019-07-04 2020-06-19 Method for operating a 3d distance sensor device WO2021001171A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019209846.0A DE102019209846A1 (en) 2019-07-04 2019-07-04 Method of operating a 3D distance sensor device
DE102019209846.0 2019-07-04

Publications (1)

Publication Number Publication Date
WO2021001171A1 true WO2021001171A1 (en) 2021-01-07

Family

ID=71111440

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/067110 WO2021001171A1 (en) 2019-07-04 2020-06-19 Method for operating a 3d distance sensor device

Country Status (2)

Country Link
DE (1) DE102019209846A1 (en)
WO (1) WO2021001171A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022005358A1 (en) * 2020-06-29 2022-01-06 Epiroc Rock Drills Aktiebolag Self-test method for a ranging sensor-arrangement of a work machine
WO2022005357A1 (en) * 2020-06-29 2022-01-06 Epiroc Rock Drills Aktiebolag Self-test method for a ranging sensor-arrangement of a work machine

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021202878A1 (en) 2021-03-24 2022-09-29 Robert Bosch Gesellschaft mit beschränkter Haftung Method for determining the range for a LiDAR sensor
DE102021204904A1 (en) 2021-05-14 2022-12-01 Robert Bosch Gesellschaft mit beschränkter Haftung LiDAR system and method for detecting contamination of a beam path of a LiDAR system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19931825A1 (en) 1999-07-08 2001-01-25 Bosch Gmbh Robert Visibility measurement device
DE10055457A1 (en) * 1999-11-10 2001-07-05 Denso Corp Determining radar characteristic involves evaluating variation in distribution of repeatedly stored object distance data and associated radar signal level
US6362773B1 (en) 1999-06-24 2002-03-26 Robert Bosch Gmbh Method for determining range of vision
DE102005059902A1 (en) * 2005-12-15 2007-06-28 Robert Bosch Gmbh Distance sensor condition detecting method for measuring motor vehicle distance, involves determining distance values from sensor signals and producing sensor condition signals that correlates with result of statistical evaluation of values
EP2000826A1 (en) * 2007-06-04 2008-12-10 Audi Ag Method for recording ice on one of the radar sensors used to record objects in a driver assistance system in a motor vehicle
EP2101193A1 (en) 2008-03-10 2009-09-16 Sick Ag Security system for contactless measurement of positions, paths and speeds
DE102016014549A1 (en) 2016-12-07 2017-07-06 Daimler Ag Method for determining the visibility from a vehicle
EP3299839A1 (en) * 2016-09-26 2018-03-28 Continental Automotive GmbH Method, monitoring unit, and radar sensor

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4005919C2 (en) * 1990-02-24 1996-12-19 Eltro Gmbh Method and arrangement for determining the visibility for motorists when fog occurs
DE10149768A1 (en) * 2001-10-09 2003-04-17 Ibeo Automobile Sensor Gmbh Visibility determination
EP2306217B1 (en) * 2009-09-30 2017-04-19 Sick Ag Environment recording
DE102017117162A1 (en) * 2017-07-28 2019-01-31 Sick Ag Sensor and method for detection and distance determination of objects

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6362773B1 (en) 1999-06-24 2002-03-26 Robert Bosch Gmbh Method for determining range of vision
DE19931825A1 (en) 1999-07-08 2001-01-25 Bosch Gmbh Robert Visibility measurement device
DE10055457A1 (en) * 1999-11-10 2001-07-05 Denso Corp Determining radar characteristic involves evaluating variation in distribution of repeatedly stored object distance data and associated radar signal level
DE102005059902A1 (en) * 2005-12-15 2007-06-28 Robert Bosch Gmbh Distance sensor condition detecting method for measuring motor vehicle distance, involves determining distance values from sensor signals and producing sensor condition signals that correlates with result of statistical evaluation of values
EP2000826A1 (en) * 2007-06-04 2008-12-10 Audi Ag Method for recording ice on one of the radar sensors used to record objects in a driver assistance system in a motor vehicle
EP2101193A1 (en) 2008-03-10 2009-09-16 Sick Ag Security system for contactless measurement of positions, paths and speeds
EP3299839A1 (en) * 2016-09-26 2018-03-28 Continental Automotive GmbH Method, monitoring unit, and radar sensor
DE102016014549A1 (en) 2016-12-07 2017-07-06 Daimler Ag Method for determining the visibility from a vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022005358A1 (en) * 2020-06-29 2022-01-06 Epiroc Rock Drills Aktiebolag Self-test method for a ranging sensor-arrangement of a work machine
WO2022005357A1 (en) * 2020-06-29 2022-01-06 Epiroc Rock Drills Aktiebolag Self-test method for a ranging sensor-arrangement of a work machine

Also Published As

Publication number Publication date
DE102019209846A1 (en) 2021-01-07

Similar Documents

Publication Publication Date Title
WO2021001171A1 (en) Method for operating a 3d distance sensor device
EP3121620B1 (en) Method for segmenting the data of a 3d sensor, produced in the presence of aerosol clouds, for increasing situational awareness and the detection of the position of obstacles
DE102009009815B4 (en) Method and device for detecting parking spaces
EP0897545B1 (en) Process for detecting the road conditions ahead for motor vehicles
DE102018104243B3 (en) Method and system for detecting parking spaces suitable for a vehicle
DE102013202915A1 (en) Method for measuring parking space for parking assistance system of motor vehicle, involves determining free parking area within parking space depending on positions of two corners and detection of obstacles within two blind ranges
WO2019038174A1 (en) Avoidance of blind spot warnings as a result of spray
DE102019205565A1 (en) Method and device for evaluating an object height by means of ultrasonic signals received from an ultrasonic sensor attached to a vehicle
DE102017217072B4 (en) Method for detecting a weather condition in an area surrounding a motor vehicle, and control device and motor vehicle
WO2008074314A1 (en) Method for assessing the functionality of a sensor system
DE10328814B3 (en) Object recognition improvement method for camera-processor system e.g. for traffic monitoring, providing correction of color data values for reflection component
EP3663881B1 (en) Method for controlling an autonomous vehicle on the basis of estimated movement vectors
DE102014208272A1 (en) Method and apparatus for tracking-based visibility estimation
DE102018119632B4 (en) Method for determining the detection range of an environment sensor
DE102018121158A1 (en) Ground sensing point method and driver support system configured to perform such a method
DE102018109645A1 (en) Park Place size correction
DE102009042476B4 (en) Determining conditions in the area surrounding a motor vehicle using a stereo camera
EP0710927A2 (en) Method for object-oriented recognition of moving objects
DE102019210128A1 (en) Method for evaluating recorded sensor data from a sensor
EP3871006A1 (en) Rain detection by means of an environment sensor for capturing the environment of a vehicle point by point, in particular by means of a lidar-based environment sensor
EP3289520B1 (en) Improved gesture recognition for a vehicle
DE102019108998A1 (en) Driving assistance procedures
DE102021002910B3 (en) Method and device for evaluating the performance of at least one environmental sensor of a vehicle and vehicle with such a device
DE102021210738A1 (en) Method for radar-based surveillance of a rear space
WO2023148053A1 (en) Method and device for ascertaining a visibility degradation of a lidar system, computer program, and machine-readable storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20733984

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20733984

Country of ref document: EP

Kind code of ref document: A1