DE102019209846A1 - Method of operating a 3D distance sensor device - Google Patents
Method of operating a 3D distance sensor device Download PDFInfo
- Publication number
- DE102019209846A1 DE102019209846A1 DE102019209846.0A DE102019209846A DE102019209846A1 DE 102019209846 A1 DE102019209846 A1 DE 102019209846A1 DE 102019209846 A DE102019209846 A DE 102019209846A DE 102019209846 A1 DE102019209846 A1 DE 102019209846A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor device
- distance sensor
- measuring points
- threshold value
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
- G01S7/4039—Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
- G01S2007/4975—Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4052—Means for monitoring or calibrating by simulation of echoes
- G01S7/4082—Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
- G01S7/4091—Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Verfahren zum Betreiben einer 3D-Distanzsensorvorrichtung, aufweisend die Schritte:- Bereitstellen einer definierten Anzahl von detektieren Messpunkten;- Auswerten der detektierten Messpunkte mit Hilfe von wenigstens einem definierten Kriterium; und- Schätzen einer Sichtweite der 3D-Distanzsensorvorrichtung aus den ausgewerteten Messpunkten.A method for operating a 3D distance sensor device, comprising the steps: - providing a defined number of detected measuring points; - evaluating the detected measuring points with the aid of at least one defined criterion; and estimating a visual range of the 3D distance sensor device from the evaluated measurement points.
Description
Die Erfindung betrifft ein Verfahren zum Betreiben einer 3D-Distanzsensorvorrichtung. Die Erfindung betrifft ferner eine 3D-Distanzsensorvorrichtung. Die Erfindung betrifft ferner ein Computerprogramm. Die Erfindung betrifft ferner maschinenlesbares Speichermedium.The invention relates to a method for operating a 3D distance sensor device. The invention also relates to a 3D distance sensor device. The invention also relates to a computer program. The invention also relates to a machine-readable storage medium.
Hoch- und vollautomatisierte Fahrzeuge (Stufe 3-5) werden in den nächsten Jahren immer öfter auf unseren Straßen vorzufinden sein. Es existieren verschiedene Konzepte, wie ein solches automatisiertes Fahrzeug realisiert werden kann. Alle diese Ansätze benötigen verschiedenste Sensoren (z.B. Videokameras, LiDAR-, Radar-, Ultraschallsensoren, usw.). Für ein sicheres Fahren in allen Wetterlagen ist es erforderlich, dass alle Sensoren unabhängig voneinander eine Schätzung ihrer aktuellen Sichtweite abgeben.Highly and fully automated vehicles (level 3-5) will be found more and more often on our roads in the next few years. There are various concepts of how such an automated vehicle can be implemented. All of these approaches require a wide variety of sensors (e.g. video cameras, LiDAR, radar, ultrasonic sensors, etc.). For safe driving in all weather conditions, it is necessary that all sensors independently provide an estimate of their current range of vision.
Offenbarung der ErfindungDisclosure of the invention
Es ist eine Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren zum Betreiben einer 3D-Distanzsensorvorrichtung bereit zu stellen.It is an object of the present invention to provide an improved method for operating a 3D distance sensor device.
Gemäß einem ersten Aspekt schafft die Erfindung ein Verfahren zum Betreiben einer 3D-Distanzsensorvorrichtung, aufweisend die Schritte:
- - Bereitstellen einer definierten Anzahl von detektieren Messpunkten;
- - Auswerten der detektierten Messpunkte mit Hilfe von wenigstens einem definierten Kriterium; und
- - Schätzen einer Sichtweite der 3D-Distanzsensorvorrichtung aus den ausgewerteten Messpunkten.
- - Provision of a defined number of detected measuring points;
- - Evaluation of the detected measuring points with the aid of at least one defined criterion; and
- - Estimating a visual range of the 3D distance sensor device from the evaluated measuring points.
Vorteilhaft kann auf diese Weise erkannt werden, ob für die 3D-Distanzsensorvorrichtung eine Beeinträchtigung der Sichtweite vorliegt. Vorteilhaft kann dadurch quantifiziert werden, wie stark die Sichtweite reduziert ist, wobei eine reduzierte Sichtweite von einer Sichtblockade unterschieden werden kann. Vorteilhaft stellt das vorgeschlagene Verfahren ein Verfahren auf Systemebene dar, d.h. dass eine bereits ausgewertete 3D-Punktwolke von Messpunkten benutzt wird und Sensor-Rohdaten somit nicht erforderlich sind.In this way it can advantageously be recognized whether there is an impairment of the visual range for the 3D distance sensor device. This advantageously makes it possible to quantify how much the visibility is reduced, it being possible to distinguish a reduced visibility from a blockage. The proposed method advantageously represents a method at the system level, i.e. that an already evaluated 3D point cloud of measuring points is used and raw sensor data is therefore not required.
Gemäß einem zweiten Aspekt wird die Aufgabe gelöst mit einer 3D-Distanzsensorvorrichtung, die ausgebildet ist, das vorgeschlagene Verfahren auszuführen.According to a second aspect, the object is achieved with a 3D distance sensor device which is designed to carry out the proposed method.
Gemäß einem dritten Aspekt wird die Aufgabe gelöst mit einem Computerprogramm.According to a third aspect, the object is achieved with a computer program.
Gemäß einem vierten Aspekt wird die Aufgabe gelöst mit einem maschinenlesbaren Speichermedium.According to a fourth aspect, the object is achieved with a machine-readable storage medium.
Bevorzugte Ausführungsformen des vorgeschlagenen Verfahrens sind Gegenstand von jeweils abhängigen Ansprüchen.Preferred embodiments of the proposed method are the subject of the respective dependent claims.
Eine vorteilhafte Weiterbildung des Verfahrens ist dadurch gekennzeichnet, dass Messpunkte einer geometrisch untersten Ebene der 3D-Distanzsensorvorrichtung analysiert werden, wobei die Anzahl der detektierten Messpunkte mit einem definierten ersten Schwellwert verglichen wird. Erwartet wird, dass immer alle Scan- bzw. Messpunkte der geometrisch untersten Ebene vorhanden sind, weil in dieser Ebene eine Straße angeordnet ist, auf der sich das Fahrzeug mit der 3D-Distanzsensorvorrichtung befindet, wobei die Straße in der Regel nur ca. 5m-10m weit von der 3D-Distanzsensorvorrichtung beabstandet ist. Falls dies nicht zutrifft, können daraus geeignete Schlüsse gezogen werden.An advantageous further development of the method is characterized in that measuring points of a geometrically lowest level of the 3D distance sensor device are analyzed, the number of detected measuring points being compared with a defined first threshold value. It is expected that all scan or measurement points of the geometrically lowest level are always available, because a road is arranged in this level, on which the vehicle with the 3D distance sensor device is located, whereby the road is usually only approx. 10m far from the 3D distance sensor device. If this is not the case, appropriate conclusions can be drawn from it.
Eine weitere vorteilhafte Weiterbildung des Verfahrens ist dadurch gekennzeichnet, dass im Falle, dass der Anteil der erkannten Messpunkte definiert unterhalb des ersten Schwellwerts liegt, eine Verdeckung eines Deckglases der 3D-Distanzsensorvorrichtung festgestellt wird. In diesem Fall kann z.B. zum Herstellen der vollen Sichtweite ein Auslösen eines Reinigungsvorgangs der 3D-Distanzsensorvorrichtung vorgenommen werden.A further advantageous development of the method is characterized in that in the event that the proportion of the detected measurement points is defined below the first threshold value, one Occlusion of a cover glass of the 3D distance sensor device is determined. In this case, a cleaning process of the 3D distance sensor device can be triggered, for example, to produce the full range of vision.
Eine weitere vorteilhafte Weiterbildung des Verfahrens sieht vor, dass im Falle, dass der Anteil der erkannten Messpunkte definiert oberhalb des ersten Schwellwerts, eine Auswertung eines definiert kalibrierten Distanzhistogramms der Messpunkte durchgeführt wird, wobei eine Abklingrate der Häufigkeit der Messpunkte über die Distanz ermittelt wird. Das Distanzhistogramm wird auf diese Weise ausgewertet, um genauere Aussagen über die Sichtweite machen zu können. Zum Beispiel kann im Distanzhistogramm eine aufgrund von Nebel oder Regen reduzierte Sichtweite festgestellt werden.A further advantageous development of the method provides that in the event that the proportion of detected measuring points is defined above the first threshold value, an evaluation of a defined, calibrated distance histogram of the measuring points is carried out, a decay rate of the frequency of the measuring points being determined over the distance. The distance histogram is evaluated in this way in order to be able to make more precise statements about the visual range. For example, reduced visibility due to fog or rain can be determined in the distance histogram.
Eine weitere vorteilhafte Weiterbildung des Verfahrens sieht vor, dass im Falle, dass der Anteil der erkannten Messpunkte definiert unterhalb eines zweiten Schwellwerts der Abklingrate liegt, eine definiert hohe Sichtweite der 3D-Distanzsensorvorrichtung festgestellt wird. Festgestellt wird dies dadurch, dass das Distanzhistogramm bei einer hohen Sichtweite langsam abfallend ist.A further advantageous development of the method provides that in the event that the proportion of the detected measuring points is defined below a second threshold value of the decay rate, a defined high visual range of the 3D distance sensor device is determined. This is determined by the fact that the distance histogram slowly declines at a high visibility range.
Eine weitere vorteilhafte Weiterbildung des Verfahrens ist dadurch gekennzeichnet, dass im Falle, dass der Anteil der erkannten Messpunkte definiert unterhalb eines zweiten Schwellwerts der Abklingrate liegt, eine Auswertung einer Gesamtzahl der Messpunkte durchgeführt wird. Hier wird insbesondere der Einfluss von Nebel auf die Sichtweite festgestellt, der vor allem bei kurzen Distanzen keine Rolle spielt, wobei in diesem Fall vor allem die Gesamtzahl der Messpunkte ausgewertet wird.Another advantageous development of the method is characterized in that, in the event that the proportion of the detected measuring points is defined below a second threshold value of the decay rate, an evaluation of a total number of the measuring points is carried out. Here, in particular, the influence of fog on the visibility is determined, which is particularly irrelevant for short distances, in which case the total number of measurement points is evaluated.
Eine weitere vorteilhafte Ausführungsform des Verfahrens zeichnet sich dadurch aus, dass bei Unterschreiten eines dritten Schwellwerts der Gesamtzahl der Messpunkte eine definiert niedrige Sichtweite der 3D-Distanzsensorvorrichtung festgestellt wird und wobei bei Überschreiten des dritten Schwellwerts der Gesamtzahl der Messpunkte eine Sichtblockade der 3D-Distanzsensorvorrichtung festgestellt wird. Dadurch können je nach Anzahl der Messpunkte geeignete Erkenntnisse gewonnen werden. Das Distanzhistogramm ist dabei schnell abfallend, aber es liegen sehr viele Messpunkte der 3D-Punktwolke vor, was ein Hinweis auf eine Sichtblockade der 3D-Sensorvorrichtung sein kann.A further advantageous embodiment of the method is characterized in that when the total number of measurement points falls below a third threshold value, a defined low visual range of the 3D distance sensor device is determined and, when the third threshold value of the total number of measurement points is exceeded, a blockage of the 3D distance sensor device is determined . In this way, suitable knowledge can be obtained depending on the number of measuring points. The distance histogram drops rapidly, but there are a large number of measurement points in the 3D point cloud, which can be an indication of a blockage in the view of the 3D sensor device.
Eine weitere vorteilhafte Ausführungsform des Verfahrens zeichnet sich dadurch aus, dass aus der geschätzten Sichtweite eine Fahrfunktion eines Fahrzeugs angepasst und/oder eine Reinigung der 3D-Distanzsensorvorrichtung initiiert wird. Dadurch können geeignete Maßnahmen zur Anpassung an die reduzierte Sichtweite der 3D-Distanzsensorvorrichtung getroffen werden.Another advantageous embodiment of the method is characterized in that a driving function of a vehicle is adapted from the estimated visual range and / or cleaning of the 3D distance sensor device is initiated. As a result, suitable measures can be taken to adapt to the reduced visibility of the 3D distance sensor device.
Eine weitere vorteilhafte Ausführungsform des Verfahrens zeichnet sich dadurch aus, dass das Verfahren in einem Normalbetrieb der 3D-Distanzsensorvorrichtung durchgeführt wird. Vorteilhaft lässt sich dadurch eine Ermittlung der Sichtweite der 3D-Distanzsensorvorrichtung quasi in Echtzeit realisieren.Another advantageous embodiment of the method is characterized in that the method is carried out in normal operation of the 3D distance sensor device. As a result, the visual range of the 3D distance sensor device can advantageously be determined in real time.
Eine weitere vorteilhafte Ausführungsform des Verfahrens zeichnet sich dadurch aus, dass das Verfahren innerhalb der 3D-Distanzsensorvorrichtung oder auf einer externen Rechnervorrichtung durchgeführt wird. Auf diese Weise kann ein „intelligenter 3D-Distanzsensor“ realisiert oder dazu erforderliche Rechenleistung geeignet ausgelagert werden.Another advantageous embodiment of the method is characterized in that the method is carried out within the 3D distance sensor device or on an external computer device. In this way, an “intelligent 3D distance sensor” can be implemented or the computing power required for this can be suitably outsourced.
Die Erfindung wird im Folgenden mit weiteren Merkmalen und Vorteilen anhand von zwei Figuren im Detail beschrieben. Die Figuren sind insbesondere dazu gedacht, die erfindungswesentlichen Prinzipien zu verdeutlichen und sind nicht unbedingt maßstabsgetreu ausgeführt.The invention is described in detail below with further features and advantages using two figures. The figures are intended in particular to clarify the principles essential to the invention and are not necessarily drawn to scale.
In den Figuren zeigt:
-
1 ein prinzipielles Ablaufdiagramm eines vorgeschlagenen Verfahrens zum Betreiben einer 3D-Distanzsensorvorrichtung; und -
2 ein beispielhaftes Distanzhistogramm, welches im Rahmen des vorgeschlagenen Verfahrens analysiert werden kann.
-
1 a basic flowchart of a proposed method for operating a 3D distance sensor device; and -
2 an exemplary distance histogram that can be analyzed within the framework of the proposed method.
Beschreibung von AusführungsformenDescription of embodiments
Ein Kerngedanke der vorliegenden Erfindung besteht insbesondere darin, ein verbessertes Verfahren zum Betreiben bzw. Analysieren einer 3D-Distanzsensorvorrichtung bereitzustellen.A core idea of the present invention is in particular to provide an improved method for operating or analyzing a 3D distance sensor device.
Ein Vorteil des vorgeschlagenen Verfahrens besteht darin, dass z.B. eine zentrale Auswerteeinheit eines 3D-Distanzsensors die Sichtweite bestimmen bzw. abschätzen kann, wobei dazu zusätzliche Sensorik vorteilhaft nicht erforderlich ist.One advantage of the proposed method is that, for example, a central evaluation unit of a 3D distance sensor can determine or estimate the visual range, with additional sensors advantageously not being required for this.
Die Abschätzung der Sichtweite eines Sensors bei jeder Wetterlage ist erforderlich, um ein sicheres Fahren eines teil- oder vollautonomen Fahrzeugs zu ermöglichen.Estimating the range of vision of a sensor in all weather conditions is necessary to enable safe driving of a partially or fully autonomous vehicle.
So ist zum Beispiel eine Anpassung der Geschwindigkeit an die aktuelle Sichtweite der Sensoren erforderlich. Die Sichtweite eines Sensors kann allerdings durch verschiedene atmosphärische Wettereinflüsse wie beispielsweise Regen, Nebel, Schneefall, usw. unter Umständen stark beeinträchtigt werden. Dabei muss unterschieden werden, ob die Performance des Sensors aufgrund solcher atmosphärischen Einflüsse oder aufgrund von statistisch verteilten Blockierungen auf der Sensorabdeckung, wie z.B. Regentropfen, Schmutz, usw. beeinträchtigt ist. Ferner ist es mittels des vorgeschlagenen Verfahrens auch möglich Situationen zu erkennen, in denen die Sicht des 3D-Distanzsensors von einem oder mehreren Objekten blockiert ist (z.B. in einer Garage geparktes Fahrzeug) und daher keine Aussage über die aktuelle Sichtweite des 3D-Distanzsensors getroffen werden kann.For example, it is necessary to adjust the speed to the current visibility of the sensors. However, the range of vision of a sensor can under certain circumstances be great due to various atmospheric weather influences such as rain, fog, snowfall, etc. be affected. A distinction must be made as to whether the performance of the sensor is impaired due to such atmospheric influences or due to statistically distributed blockages on the sensor cover, such as raindrops, dirt, etc. The proposed method also makes it possible to recognize situations in which the view of the 3D distance sensor is blocked by one or more objects (e.g. a vehicle parked in a garage) and therefore no statement is made about the current view of the 3D distance sensor can.
Das vorgeschlagene Verfahren zum Betreiben einer 3D-Distanzsensorvorrichtung auf Basis einer 3D-Punktwolke beruht auf einer Kombination aus mehreren nutzbaren Parametern. Unter einer 3D-Punktwolke wird im Folgenden eine dreidimensionale Anhäufung von Messpunkten verstanden, die mittels eines dreidimensionalen Distanzsensors (z.B. LiDAR-, Radarsensor, usw.) erfasst werden. Dabei wird vor allem die Anzahl der vom 3D-Distanzsensor detektierten Punkte der Umgebung genutzt. Das Verfahren wird nachfolgend exemplarisch für einen auf einem Fahrzeug angeordneten 3D-LiDAR-Distanzsensor beschrieben, ist vorteilhaft aber auch zum verbesserten Betreiben eines Radarsensors geeignet.The proposed method for operating a 3D distance sensor device based on a 3D point cloud is based on a combination of several usable parameters. In the following, a 3D point cloud is understood to be a three-dimensional accumulation of measuring points that are recorded by means of a three-dimensional distance sensor (e.g. LiDAR, radar sensor, etc.). The number of points in the environment detected by the 3D distance sensor is primarily used. The method is described below by way of example for a 3D LiDAR distance sensor arranged on a vehicle, but is advantageously also suitable for improved operation of a radar sensor.
In einem Schritt
Dieser Parameter stellt daher kein Maß für eine Sichtweite der 3D-Distanzsensorvorrichtung dar, erlaubt es jedoch, z.B. eine Sichtblockierung auf der Abdeckung der 3D-Distanzsensorvorrichtung zu erkennen. Geprüft wird in einem Schritt
Falls die Gesamtanzahl der Messpunkte der geometrisch untersten Ebene der 3D-Punktwolke den ersten Schwellwert SW1 definiert übersteigt, wird in einem Schritt
Zum Analysieren des Distanzhistogramms der gesamten 3D-Punktwolke werden alle Punkte der 3D-Punktwolke im Distanzhistogramm dargestellt, welches einen Graph repräsentiert, der eine Häufigkeit der Messpunkte der 3D-Punktwolke distanzabhängig darstellt. Für diese Daten kann eine geeignete mathematische Funktion bereitgestellt werden, wobei im vorliegenden Fall eine exponentiell abfallende Funktion gewählt wird, die durch die zwei Parameter Amplitude und Abklingrate gekennzeichnet ist.To analyze the distance histogram of the entire 3D point cloud, all points of the 3D point cloud are shown in the distance histogram, which represents a graph that shows the frequency of the measurement points of the 3D point cloud as a function of distance. A suitable mathematical function can be provided for this data, in which case an exponentially decreasing function is selected which is characterized by the two parameters amplitude and decay rate.
Diese beiden Parameter werden von unterschiedlichen Prozessen beeinflusst. Die Amplitude wird von Blockierungen auf der Sensorabdeckung der 3D-Distanzsensorvorrichtung beeinflusst. Die Abklingrate wird von der atmosphärischen Sichtweite beeinflusst, da eine geringe Sichtweite lediglich die Detektion weit entfernter Objekte beeinträchtigt, nicht jedoch die Detektion von nahe an der 3D-Distanzsensorvorrichtung angeordneten Objekten. Ferner wird die Abklingrate von der Landschaftsstruktur bzw. von einer Sichtblockierung der 3D-Distanzsensorvorrichtung durch andere Objekte (z.B. eine Garage, Standort hinter einem LKW, usw.) beeinflusst. Das Distanzhistogramm erlaubt es im Ergebnis, anhand der Abklingrate einen Wert für Sichtweite der 3D-Distanzsensorvorrichtung anzugeben.These two parameters are influenced by different processes. The amplitude is influenced by blockages on the sensor cover of the 3D distance sensor device. The decay rate is influenced by the atmospheric visibility, since a short visibility only affects the detection of objects that are far away, but not the detection of objects arranged close to the 3D distance sensor device. Furthermore, the decay rate is influenced by the landscape structure or by a blockage of the 3D distance sensor device's view by other objects (e.g. a garage, location behind a truck, etc.). As a result, the distance histogram allows a value for the visual range of the 3D distance sensor device to be specified based on the decay rate.
In einem Schritt
Falls die Abklingrate des Distanzhistogramms hingegen größer als der zweite Schwellwert SW2 ist, bedeutet dies, dass beispielsweise eine niedrige Sichtweite oder eine Objektblockade der 3D-Distanzsensorvorrichtung vorliegen kann, was nachfolgend in einem Schritt
In einem Schritt
In einem Schritt
Für eine vollständige Entscheidungsfindung betreffend Sichtweitenabschätzung der 3D-Distanzsensorvorrichtung ist somit eine Auswertung aller vorgenannten drei Schwellwerte SW1, SW2 und SW3 erforderlich, weshalb zu diesem Zweck in den Schritten
Vorteilhaft kann für die Schätzung der Sichtweite auch nur das Distanzhistogramm ausgewertet werden, wodurch die Detailanalysen der Schritte
Die Distanzhistogramme werden jeweils für einen spezifischen Typ der 3D-Distanzsensorvorrichtung geeignet vorkalibriert, wodurch eine spezifische Abklingrate jeweils einer Sichtweite der 3D-Distanzsensorvorrichtung zugeordnet wird. Aufgrund der Vielzahl an unterschiedlichen Typen von 3D-Sensorvorrichtungen ist es nicht möglich, allgemein gültige Zahlenwerte für Sichtweiten, Distanzen, Anzahlen der Messpunkte der 3D-Punktwolke und Schwellwerte SW1, SW2, SW3 anzugeben.The distance histograms are each suitably pre-calibrated for a specific type of 3D distance sensor device, whereby a specific decay rate is assigned to a visual range of the 3D distance sensor device. Due to the large number of different types of 3D sensor devices, it is not possible to specify generally valid numerical values for visual ranges, distances, numbers of measuring points of the 3D point cloud and threshold values SW1, SW2, SW3.
Vorteilhaft kann die vorgeschlagene 3D-Distanzsensorvorrichtung zur Detektion der Umgebung in hoch- und vollautomatisierten Fahrzeugen (Level 3-5) eingesetzt werden.The proposed 3D distance sensor device can advantageously be used to detect the surroundings in highly and fully automated vehicles (level 3-5).
Vorzugsweise kann das vorgeschlagene Verfahren in einem definierten Zeitraster der 3D-Distanzsensorvorrichtung quasi in Echtzeit (z.B. mit einer Zykluszeit von ca. 10 Frames/s d.h. mit ca. 10 Hz) in einem Hintergrundbetrieb durchgeführt werden. Dabei kann vorgesehen sein, das vorgeschlagene Verfahren als eine in der 3D-Distantzsensorvorrichtung ablaufende Software auszubilden. Alternativ kann auch vorgesehen sein, dass die Software zur Ausführung des vorgeschlagenen Verfahrens auf einer externen Rechnervorrichtung abläuft, die z.B. in der Cloud angeordnet sein kann.The proposed method can preferably be carried out in a defined time pattern of the 3D distance sensor device, quasi in real time (e.g. with a cycle time of approx. 10 frames / s, i.e. approx. 10 Hz) in a background operation. It can be provided that the proposed method is implemented as software running in the 3D distance sensor device. Alternatively, it can also be provided that the software for executing the proposed method runs on an external computer device, which can be arranged in the cloud, for example.
Aus der ermittelten Sichtweite können geeignete Maßnahmen abgeleitet werden, z.B. eine Anpassung einer oder mehrerer Fahrassistenzfunktionen des Fahrzeugs, eine Geschwindigkeit des Fahrzeugs, usw.Suitable measures can be derived from the determined visibility, e.g. an adaptation of one or more driver assistance functions of the vehicle, a speed of the vehicle, etc.
Das vorgeschlagene Verfahren wird vorzugsweise in einem Normalbetrieb der 3D-Distanzsensorvorrichtung durchgeführt, bei dem die 3D-Distanzsensorvorrichtung in bzw. auf einem hoch- bzw. vollautomatisierten Fahrzeug angeordnet ist und zur Umgebungserfassung im Fahrbetrieb des Fahrzeugs verwendet wird. Durch die Ermittlung der Sichtweite der 3D-Distanzsensorvorrichtung quasi in Echtzeit ist ein Nutzwert der 3D-Distanzsensorvorrichtung bedeutsam erhöht.The proposed method is preferably carried out in normal operation of the 3D distance sensor device, in which the 3D distance sensor device is arranged in or on a highly or fully automated vehicle and is used to detect the surroundings while the vehicle is in motion. By determining the visual range of the 3D distance sensor device quasi in real time, a useful value of the 3D distance sensor device is significantly increased.
Obwohl die Erfindung im Zusammenhang mit einem optoelektronischen 3D-Scanner in Form eines LiDAR-Sensors für ein Kraftfahrzeug erläutert wurde, ist es beispielsweise auch denkbar, das vorgeschlagene Verfahren für andere 3D-Distanzsensorvorrichtungen zu verwenden, z.B. für einen Radarsensor.Although the invention was explained in connection with an optoelectronic 3D scanner in the form of a LiDAR sensor for a motor vehicle, it is also conceivable, for example, to use the proposed method for other 3D distance sensor devices, e.g. for a radar sensor.
Der Fachmann erkennt somit, dass eine Vielzahl von Abwandlungen möglich ist, ohne vom Kern der Erfindung abzuweichen.The person skilled in the art will thus recognize that a large number of modifications are possible without departing from the essence of the invention.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 19931825 A1 [0003]DE 19931825 A1 [0003]
- DE 102016014549 A1 [0004, 0005]DE 102016014549 A1 [0004, 0005]
- EP 2101193 A1 [0006]EP 2101193 A1 [0006]
- US 6362773 B1 [0007]US 6362773 B1 [0007]
Claims (13)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019209846.0A DE102019209846A1 (en) | 2019-07-04 | 2019-07-04 | Method of operating a 3D distance sensor device |
PCT/EP2020/067110 WO2021001171A1 (en) | 2019-07-04 | 2020-06-19 | Method for operating a 3d distance sensor device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019209846.0A DE102019209846A1 (en) | 2019-07-04 | 2019-07-04 | Method of operating a 3D distance sensor device |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019209846A1 true DE102019209846A1 (en) | 2021-01-07 |
Family
ID=71111440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019209846.0A Pending DE102019209846A1 (en) | 2019-07-04 | 2019-07-04 | Method of operating a 3D distance sensor device |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102019209846A1 (en) |
WO (1) | WO2021001171A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021202878A1 (en) | 2021-03-24 | 2022-09-29 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for determining the range for a LiDAR sensor |
DE102021204904A1 (en) | 2021-05-14 | 2022-12-01 | Robert Bosch Gesellschaft mit beschränkter Haftung | LiDAR system and method for detecting contamination of a beam path of a LiDAR system |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE2030214A1 (en) * | 2020-06-29 | 2021-12-30 | Epiroc Rock Drills Ab | Method and arrangement for a work machine |
SE2030215A1 (en) * | 2020-06-29 | 2021-12-30 | Epiroc Rock Drills Ab | Method and arrangement for a work machine |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4005919C1 (en) * | 1990-02-24 | 1991-04-04 | Eltro Gmbh, Gesellschaft Fuer Strahlungstechnik, 6900 Heidelberg, De | Ascertaining range of vision of car driver in fog - using range finder transmitting signals and receiving those reflected from road surface not covered by fog |
DE19931825A1 (en) * | 1999-07-08 | 2001-01-25 | Bosch Gmbh Robert | Visibility measurement device |
US6362773B1 (en) * | 1999-06-24 | 2002-03-26 | Robert Bosch Gmbh | Method for determining range of vision |
DE10149768A1 (en) * | 2001-10-09 | 2003-04-17 | Ibeo Automobile Sensor Gmbh | Visibility determination |
EP2101193A1 (en) * | 2008-03-10 | 2009-09-16 | Sick Ag | Security system for contactless measurement of positions, paths and speeds |
EP2306217A1 (en) * | 2009-09-30 | 2011-04-06 | Sick Ag | Environment recording |
DE102016014549A1 (en) * | 2016-12-07 | 2017-07-06 | Daimler Ag | Method for determining the visibility from a vehicle |
DE102017117162A1 (en) * | 2017-07-28 | 2019-01-31 | Sick Ag | Sensor and method for detection and distance determination of objects |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3562408B2 (en) * | 1999-11-10 | 2004-09-08 | 株式会社デンソー | Radar device characteristic detecting device and recording medium |
DE102005059902A1 (en) * | 2005-12-15 | 2007-06-28 | Robert Bosch Gmbh | Distance sensor condition detecting method for measuring motor vehicle distance, involves determining distance values from sensor signals and producing sensor condition signals that correlates with result of statistical evaluation of values |
DE102007026033A1 (en) * | 2007-06-04 | 2008-12-11 | Audi Ag | Method for detecting icing of a radar sensor serving to detect objects of a driver assistance system provided in a motor vehicle |
EP3299839B1 (en) * | 2016-09-26 | 2022-08-17 | Continental Autonomous Mobility Germany GmbH | Method, monitoring unit, and radar sensor |
-
2019
- 2019-07-04 DE DE102019209846.0A patent/DE102019209846A1/en active Pending
-
2020
- 2020-06-19 WO PCT/EP2020/067110 patent/WO2021001171A1/en active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4005919C1 (en) * | 1990-02-24 | 1991-04-04 | Eltro Gmbh, Gesellschaft Fuer Strahlungstechnik, 6900 Heidelberg, De | Ascertaining range of vision of car driver in fog - using range finder transmitting signals and receiving those reflected from road surface not covered by fog |
US6362773B1 (en) * | 1999-06-24 | 2002-03-26 | Robert Bosch Gmbh | Method for determining range of vision |
DE19931825A1 (en) * | 1999-07-08 | 2001-01-25 | Bosch Gmbh Robert | Visibility measurement device |
DE10149768A1 (en) * | 2001-10-09 | 2003-04-17 | Ibeo Automobile Sensor Gmbh | Visibility determination |
EP2101193A1 (en) * | 2008-03-10 | 2009-09-16 | Sick Ag | Security system for contactless measurement of positions, paths and speeds |
EP2306217A1 (en) * | 2009-09-30 | 2011-04-06 | Sick Ag | Environment recording |
DE102016014549A1 (en) * | 2016-12-07 | 2017-07-06 | Daimler Ag | Method for determining the visibility from a vehicle |
DE102017117162A1 (en) * | 2017-07-28 | 2019-01-31 | Sick Ag | Sensor and method for detection and distance determination of objects |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021202878A1 (en) | 2021-03-24 | 2022-09-29 | Robert Bosch Gesellschaft mit beschränkter Haftung | Method for determining the range for a LiDAR sensor |
DE102021204904A1 (en) | 2021-05-14 | 2022-12-01 | Robert Bosch Gesellschaft mit beschränkter Haftung | LiDAR system and method for detecting contamination of a beam path of a LiDAR system |
Also Published As
Publication number | Publication date |
---|---|
WO2021001171A1 (en) | 2021-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102019209846A1 (en) | Method of operating a 3D distance sensor device | |
DE102010027647A1 (en) | Laser-based method for friction coefficient classification in motor vehicles | |
EP3332400A1 (en) | Method and device in a motor vehicle for improved data fusion in an environment detection | |
DE102018008442A1 (en) | Method for weather and / or visibility detection | |
DE102013202915A1 (en) | Method for measuring parking space for parking assistance system of motor vehicle, involves determining free parking area within parking space depending on positions of two corners and detection of obstacles within two blind ranges | |
DE102019205565A1 (en) | Method and device for evaluating an object height by means of ultrasonic signals received from an ultrasonic sensor attached to a vehicle | |
DE102019207688A1 (en) | Method and driver assistance system for classifying objects in the vicinity of a vehicle | |
DE10328814B3 (en) | Object recognition improvement method for camera-processor system e.g. for traffic monitoring, providing correction of color data values for reflection component | |
DE102020119954A1 (en) | Method for generating an occupancy grid map for at least one static object, computer program product, computer-readable storage medium and assistance system | |
DE102020201837A1 (en) | LiDAR arrangement, LiDAR system, vehicle and procedure | |
DE102014208272A1 (en) | Method and apparatus for tracking-based visibility estimation | |
DE102018119632B4 (en) | Method for determining the detection range of an environment sensor | |
DE102018121158A1 (en) | Ground sensing point method and driver support system configured to perform such a method | |
DE102021133977A1 (en) | Method and system for classifying virtual test scenarios and training methods | |
DE102009042476B4 (en) | Determining conditions in the area surrounding a motor vehicle using a stereo camera | |
DE102021106633A1 (en) | Method for operating an ultrasonic sensor device for monitoring an underbody area of a motor vehicle, computer program product, computer-readable storage medium and ultrasonic sensor device | |
DE112020001528T5 (en) | DETECTION DEVICE AND DETECTION METHOD | |
DE102018126506A1 (en) | Rain detection with an environment sensor for point-by-point detection of an environment of a vehicle, in particular with a LiDAR-based environment sensor | |
DE102019211557A1 (en) | Railway signal detection for autonomous rail vehicles | |
DE102019107396A1 (en) | Detection and classification of raised road markings using LIDAR | |
DE102019211459A1 (en) | Method and device for checking a calibration of environmental sensors | |
DE102021002910B3 (en) | Method and device for evaluating the performance of at least one environmental sensor of a vehicle and vehicle with such a device | |
DE102022201123A1 (en) | Method and device for determining a visibility degradation of a LiDAR system and computer program and machine-readable storage medium | |
DE102021200652A1 (en) | Procedure for classifying precipitation using a LiDAR system | |
WO2020249375A1 (en) | Method for classifying the height of objects in the area surrounding a vehicle, and driver assistance system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |