WO2022002678A1 - Method for determining a point cloud representing an environment of a lidar sensor - Google Patents

Method for determining a point cloud representing an environment of a lidar sensor Download PDF

Info

Publication number
WO2022002678A1
WO2022002678A1 PCT/EP2021/066904 EP2021066904W WO2022002678A1 WO 2022002678 A1 WO2022002678 A1 WO 2022002678A1 EP 2021066904 W EP2021066904 W EP 2021066904W WO 2022002678 A1 WO2022002678 A1 WO 2022002678A1
Authority
WO
WIPO (PCT)
Prior art keywords
lidar sensor
lidar
pixels
distance
echoes
Prior art date
Application number
PCT/EP2021/066904
Other languages
German (de)
French (fr)
Inventor
Jasmine Richter
Johannes Richter
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2022002678A1 publication Critical patent/WO2022002678A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/34Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • G01S7/4876Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/493Extracting wanted echo signals

Definitions

  • the invention relates to a method for determining a point cloud representing an environment of a LiDAR sensor.
  • the invention also relates to a LiDAR sensor.
  • the invention further relates to a motor vehicle, a computer program and a machine-readable storage medium.
  • the laid-open specification JP 2017-166846 discloses a motor vehicle with a LiDAR sensor.
  • the laid-open specification CN 109191553 discloses a LiDAR sensor. Disclosure of the invention
  • the object on which the invention is based is to be seen in providing a concept for efficiently determining a point cloud representing the surroundings of a LiDAR sensor.
  • a method for determining a point cloud representing an environment of a LiDAR sensor comprising the following steps: Carrying out a transit time measurement using the LiDAR sensor,
  • a point cloud which represents an area around the LiDAR sensor, based on the transit time measurement, the point cloud having a higher angular resolution for objects that are at least at a first distance from the LiDAR sensor than for objects that are in one
  • the distance to the LiDAR sensor is less than or less than or equal to the first distance.
  • a LiDAR sensor is provided which is set up to carry out all steps of the method according to the first aspect.
  • the LiDAR sensor is a LiDAR sensor for a motor vehicle. According to one embodiment it is provided that the LiDAR sensor comprises several pixels.
  • a motor vehicle which comprises the Li DAR sensor according to the second aspect.
  • a computer program which comprises commands which, when the computer program is executed by a computer, for example by the LiDAR sensor according to the second aspect, cause the latter to carry out a method according to the first aspect.
  • a machine-readable storage medium is provided on which the computer program according to the fourth aspect is stored.
  • the invention is based on and includes the knowledge that the above-mentioned tasks can be achieved in that the LiDAR sensor determines and provides a point cloud based on the transit time measurement, the point cloud having a higher angular resolution for objects that are at least one another are at a first distance from the LiDAR sensor than for objects that are at a distance from the LiDAR sensor that is less than or less than or equal to the first distance.
  • This has the technical advantage, for example, that the storage requirement for the point cloud can be efficiently reduced - compared to the case in which the point cloud has the higher angular resolution over the entire range of the LiDAR sensor.
  • Previous LiDAR sensors which can detect objects at a long distance, for example at least 50 meters, in particular at least 100 meters, relative to the LiDAR sensor, usually have a high angular resolution in order to also detect small objects or obstacles on a road to be able to detect.
  • such LiDAR sensors usually have a large field of view in order to be able to capture even complex driving situations, for example a situation where there is a right of way.
  • Large fields of view in combination with a high angular resolution usually lead to a considerable storage requirement for a corresponding point cloud.
  • this increases a data rate with regard to the transmission or sending of the point cloud to, for example, an evaluation device, generally a data processing device, for example a central control unit of the motor vehicle.
  • Such data rates can be, for example, up to 100 Mbit / s or greater than 1 Gbit / s, whereby values in between are of course also possible. This makes it difficult to transmit a corresponding point cloud in real time to an evaluation device, so that a situation analysis based on the point cloud in real time is difficult or even impossible.
  • a lower angular resolution is selected for objects that are located at a distance from the LiDAR sensor that is less than or equal to the first distance than for objects that are located at a distance from the LiDAR -Sensor are located, which is greater than or greater than or equal to the first distance, a storage requirement for the point cloud is efficiently reduced.
  • a data rate with regard to the transmission of the point clouds to an evaluation unit for example a central control unit of a motor vehicle, can be efficiently reduced.
  • a first distance is established relative to the LiDAR sensor. The first distance depends, for example, on a range of the LiDAR sensor. For example, the first distance is half the range.
  • a second distance is established relative to the LiDAR sensor.
  • the second distance is, for example, less than or less than or equal to the first distance.
  • the second distance is, for example, 25% of the range.
  • some pixels of the LiDAR sensor are defined as first pixels, the execution of the transit time measurement including that LiDAR echoes are measured only from objects in the vicinity of the LiDAR sensor, which are located in the vicinity of the LiDAR sensor at least in the first distance to the LiDAR sensor, wherein the point cloud is determined based on the LiDAR echoes measured by means of the first pixels.
  • the first pixels only provide data for the point cloud when a LiDAR echo was measured from an object that is at least the first distance from the LiDAR sensor. This means that objects that are at a distance from the LiDAR sensor that is smaller than the first distance are not detected by the first pixel.
  • some pixels of the LiDAR sensor are defined as second pixels, the execution of the transit time measurement including that by means of the second pixels, LiDAR echoes are measured only from objects in the vicinity of the LiDAR sensor that are at least are located at a second distance from the LiDAR sensor, the second distance being smaller than the first distance, the point cloud being determined based on the LiDAR echoes measured by means of the second pixels.
  • the second pixels only capture objects that are at a distance from the LiDAR sensor that is greater or greater than or equal to the second distance.
  • the distance-dependent angular resolution of the point cloud can advantageously be refined even further.
  • This has the technical advantage, for example, that the angle resolution can be efficiently adapted to a specific traffic situation.
  • some of the pixels of the LiDAR sensor are defined as third pixels, the implementation of the transit time measurement including that LiDAR echoes of objects in the vicinity of the LiDAR sensor are measured by means of the third pixels are within the range of the LiDAR sensor, the point cloud being determined based on the LiDAR echoes measured by means of the third pixels.
  • LiDAR echoes are measured only from corresponding objects in the vicinity of the LiDAR sensor by setting a start time for measuring LiDAR echoes by means of the first or second pixel is shifted by a respective delay time, which depends on the first or second distance and the speed of light.
  • the shifting of the start time is defined relative to a start time of a measurement by means of the third pixels.
  • a start time of a measurement by means of the third pixels can be referred to as a start time zero point, for example.
  • the start time zero depends, for example, on the start of a transit time measurement or is defined, for example, as the start of the transit time measurement.
  • the start of the transit time measurement is defined, for example, by the emission of a LiDAR pulse, i.e. a laser pulse.
  • the starting time for measuring LiDAR echoes is shifted by a first delay time by means of the first pixels, which delay time depends on the first distance and the speed of light.
  • a start time for measuring LiDAR echoes is shifted by a second delay time using the second pixels, which depends on the second distance and the speed of light.
  • the first delay time is, for example, equal to the first distance divided by the speed of light times 2, because the light has to travel the distance in both directions.
  • the second delay time is, for example, equal to the second distance divided by the speed of light times 2, because the light has to travel the distance in both directions.
  • the respective shifting of the start time by the first and / or the second delay time can be carried out, for example, at the raw data processing level and / or at the detector level (for example in a detector ASIC of the LiDAR sensor).
  • some pixels of the LiDAR sensor are defined as the first pixel, the execution of the transit time measurement including that LiDAR echoes of objects in an environment of the LiDAR sensor are measured by means of the first pixels, wherein LiDAR- Echoes of objects are filtered out which are at a distance from the LiDAR sensor that is less than or less than or equal to the first distance to the LiDAR sensor, the point cloud being determined based on the LiDAR echoes remaining after the filtering out will.
  • some pixels of the LiDAR sensor are defined as second pixels, the execution of the transit time measurement including that LiDAR echoes of objects in the vicinity of the LiDAR sensor are measured by means of the second pixels, wherein LiDAR- Echoes of objects are filtered out that are at a distance from the LiDAR sensor that is less than or less than or equal to a second distance to the LiDAR sensor, the second distance being less than the first distance where the point cloud is based on the lines remaining after filtering out DAR echoes is determined.
  • the first pixels in the sense of the description can be referred to as long-distance pixels, for example, insofar as they only detect objects from a certain distance, the first distance, or insofar LiDAR echoes that were measured by means of the first pixels are filtered out if the Associated objects are at a distance from the LiDAR sensor that is less than or less than or equal to the first distance to the LiDAR sensor.
  • the second pixels in the context of this description can be referred to, for example, as combined long- and medium-range pixels, insofar as these objects detect from the second distance (medium-range) and thus also from the first distance (long-range) or, in this respect, LiDAR echoes that are generated by means of of the second pixels were measured, are filtered out if the associated objects are at a distance from the LiDAR sensor that is less than or less than or equal to the second distance to the LiDAR sensor.
  • the third pixels in the sense of the description can be referred to as full-range pixels, for example, insofar as they can detect objects that are within the range of the LiDAR sensor, or if LiDAR echoes that are generated by means of the third pixel measured cannot be filtered out.
  • the filtering out is implemented, for example, in digital processing of the LiDAR echoes, for example implemented as one or more filters in the digital processing of the LiDAR echoes.
  • the corresponding respective (first and / or second and / or third) pixels are each determined in accordance with a predetermined pattern and / or are each determined based on randomness.
  • the Li DAR sensor can be operated efficiently.
  • the respective defined (first and / or second and / or third) pixels are defined again for a renewed execution of the transit time measurement, the respective new definition differing from the previous definition. This has the technical advantage, for example, that the individual pixels can always capture objects at different distances, just like the objects.
  • the method according to the first aspect is implemented or carried out by means of the LiDAR sensor according to the second aspect.
  • Technical functionalities of the method according to the first aspect result analogously from corresponding technical functionalities of the LiDAR sensor according to the second aspect and vice versa.
  • the method features result from the features of the LiDAR sensor and that features of the LiDAR sensor result from the method.
  • the LiDAR sensor is set up to emit laser radiation, in particular laser pulses and / or continuous wave radiation, in particular frequency-modulated (in English: FMCW ("frequency modulated continuous wave interferometry) continuous wave radiation, to scan the environment in different spatial directions (deflection directions) and To determine a distance to the scattering, in particular reflective, surface via a transit time measurement of the radiation reflected back in each case (LiDAR echoes), that is to say to carry out a transit time measurement.
  • laser radiation in particular laser pulses and / or continuous wave radiation
  • frequency-modulated in English: FMCW (“frequency modulated continuous wave interferometry) continuous wave radiation
  • the method according to the first aspect is a computer-implemented method.
  • FIG. 1 shows a flow chart of a method for determining a point cloud representing an environment of a LiDAR sensor
  • FIG. 2 shows a LiDAR sensor
  • FIG. 3 shows a computer program
  • FIG. 4 schematically shows a LiDAR scan of the surroundings of a LiDAR sensor and a corresponding point cloud
  • 5 to 8 each show a pattern for defining corresponding pixels of a LiDAR sensor.
  • FIG. 1 shows a flow chart of a method for determining a point cloud representing an environment of a LiDAR sensor, comprising the following steps:
  • Determining 103 a point cloud, which presents the surroundings of the LiDAR sensor, based on the transit time measurement, the point cloud having a higher angular resolution for objects that are at least a first distance from the LiDAR sensor than for objects that are are at a distance from the LiDAR sensor that is less than or less than or equal to the first distance.
  • the method comprises outputting point cloud signals which represent the point cloud determined.
  • the output includes, for example, sending the point cloud signals to a data processing device.
  • the data processing device is included in the motor vehicle, for example.
  • the data processing device includes, for example, a control unit of the motor vehicle.
  • FIG. 2 shows a LiDAR sensor 201 which is set up to carry out all steps of the method according to the first aspect.
  • 3 shows a computer program 301.
  • the computer program 301 comprises commands which, when the computer program 301 is executed by a computer, cause the computer to execute a method according to the first aspect.
  • 4 shows a LiDAR sensor 401.
  • a first object 403 and a second object 405 are located in the vicinity of the LiDAR sensor 401.
  • the first object 403 is less spaced from the LiDAR sensor 401 than the second object 405.
  • the LiDAR sensor 401 has several pixels 406. These pixels 406 are symbolically drawn in the vicinity of the LiDAR sensor 401 in order to show which of the pixels 406 can scan or detect which location or which position in the vicinity of the LiDAR sensor 401.
  • the pixels 406 thus partially cover the two objects 403, 405.
  • Some of the pixels 406 are set as the first pixels 409. These first pixels 409 are only intended to measure LiDAR echoes from objects in the vicinity of the LiDAR sensor 401, which are located at least at the first distance from the LiDAR sensor 401.
  • the first pixels 409 are shown as dashed circles.
  • the remaining pixels 406 are shown as filled circles and are additionally identified with the reference numeral 407.
  • These pixels 407 are intended to detect LiDAR echoes from objects in the vicinity of the LiDAR sensor 401 over the entire range of the LiDAR sensor 401.
  • These pixels 407 are therefore third pixels in the sense of the description.
  • a dashed line with the reference numeral 410 identifies the first distance from the LiDAR sensor 401. Since the first object 403 is located at a distance from the LiDAR sensor 401 that is smaller than the first distance 410, it captures the first pixels 409 not the first object 403. Only the remaining pixels with the reference number 407 capture the first object 403.
  • both the first pixels 409 and the remaining pixels 407 capture the LiDAR echoes reflected by the second object 405, insofar as the second object 405 is mutually exclusive is at a distance from the LiDAR sensor 401 which is greater than the first distance 410.
  • a corresponding point cloud 411 which represents the surroundings detected by means of the LiDAR sensor 401, is drawn in FIG. 4 to the right next to an arrow with the reference number 413.
  • the arrow with the reference numeral 413 is intended to symbolize which point cloud results from the detection of the surroundings of the LiDAR sensor 401 by means of the LiDAR sensor 401.
  • the point cloud 411 for the first object 403 has a lower angular resolution. Solution than for the second object 405.
  • the first distance 410 corresponds, for example, to half the range of the LiDAR sensor 401.
  • FIG. 5 shows a first predetermined pattern according to which the first pixels 409 and the third pixels 407 are determined.
  • Fig. 6 shows a corre sponding second pattern.
  • 7 and 8 show corresponding third and fourth patterns, with some of the pixels 406 being defined as second pixels 701 in FIGS. 7 and 8, which only measure LiDAR echoes from objects in the vicinity of the LiDAR sensor 401 are located at least at a second distance from the LiDAR sensor 401, the second distance being smaller than the first distance 410.
  • the second pixels 701 are shown graphically as circles with hatching.
  • the data rate can be reduced further by reducing a number of bits of distance information in the point cloud.
  • a bit length can be reduced by 1 bit per LiDAR echo if, for example, the first distance is equal to half the maximum range of the LiDAR sensor.
  • certain pixels measure only a reduced distance range (based on the range of the LiDAR sensor), the corresponding measured values being encoded in particular by a smaller number of bits (based on the number of bits through which Measured values of pixels are coded, which measure the distance range over the entire range of the LiDAR sensor).
  • a proportion of first pixels in the total number of pixels of the LiDAR sensor can be 75%, for example.
  • the remaining pixels can, for example, make up 25% of the total number of pixels of the LiDAR sensor.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

The invention relates to a method for determining a point cloud representing an environment of a LIDAR sensor, comprising the following steps: - performing a time-of-flight measurement by means of the LIDAR sensor; - determining a point cloud, which represents an environment of the LIDAR sensor, on the basis of the time-of-flight measurement, the point cloud having a higher angular resolution for objects located at least at a first distance from the LIDAR sensor than for objects located at a distance from the LIDAR sensor which is less than, or less than or equal to, the first distance. The invention also relates to a LIDAR sensor and to a computer program.

Description

Beschreibung description
Titel title
Verfahren zum Ermitteln einer eine Umgebung eines LiDAR-Sensors repräsen tierenden Punktwolke Method for determining a point cloud representing the surroundings of a LiDAR sensor
Die Erfindung betrifft ein Verfahren zum Ermitteln einer eine Umgebung eines LiDAR-Sensors repräsentierenden Punktwolke. Die Erfindung betrifft weiter einen LiDAR-Sensor. Die Erfindung betrifft weiter ein Kraftfahrzeug, ein Computerpro gramm und ein maschinenlesbares Speichermedium. The invention relates to a method for determining a point cloud representing an environment of a LiDAR sensor. The invention also relates to a LiDAR sensor. The invention further relates to a motor vehicle, a computer program and a machine-readable storage medium.
Stand der Technik State of the art
Die Offenlegungsschrift JP 2017-166846 offenbart ein Kraftfahrzeug mit einem LiDAR-Sensor. The laid-open specification JP 2017-166846 discloses a motor vehicle with a LiDAR sensor.
Die Offenlegungsschrift CN 109191553 offenbart einen LiDAR-Sensor. Offenbarung der Erfindung The laid-open specification CN 109191553 discloses a LiDAR sensor. Disclosure of the invention
Die der Erfindung zugrunde liegende Aufgabe ist darin zu sehen, ein Konzept zum effizienten Ermitteln einer eine Umgebung eines LiDAR-Sensors repräsen tierenden Punktwolke bereitzustellen. The object on which the invention is based is to be seen in providing a concept for efficiently determining a point cloud representing the surroundings of a LiDAR sensor.
Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen An sprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen. This object is achieved by means of the respective subject matter of the independent claims. Advantageous refinements of the invention are the subject matter of the respective dependent subclaims.
Nach einem ersten Aspekt wird ein Verfahren zum Ermitteln einer eine Umge bung eines LiDAR-Sensors repräsentierenden Punktwolke bereitgestellt, umfas send die folgenden Schritte: Durchführen einer Laufzeitmessung mittels des LiDAR-Sensors, According to a first aspect, a method for determining a point cloud representing an environment of a LiDAR sensor is provided, comprising the following steps: Carrying out a transit time measurement using the LiDAR sensor,
Ermitteln einer Punktwolke, welche eine Umgebung des LiDAR-Sensors reprä sentiert, basierend auf der Laufzeitmessung, wobei die Punktwolke eine höhere Winkelauflösung für Objekte aufweist, welche sich mindestens in einer ersten Distanz zum LiDAR-Sensor befinden, als für Objekte, welche sich in einer Dis tanz zum LiDAR-Sensor befinden, welche kleiner oder kleiner-gleich als die erste Distanz ist. Determining a point cloud, which represents an area around the LiDAR sensor, based on the transit time measurement, the point cloud having a higher angular resolution for objects that are at least at a first distance from the LiDAR sensor than for objects that are in one The distance to the LiDAR sensor is less than or less than or equal to the first distance.
Nach einem zweiten Aspekt wird ein LiDAR-Sensor bereitgestellt, welcher einge richtet ist, alle Schritte des Verfahrens nach dem ersten Aspekt auszuführen.According to a second aspect, a LiDAR sensor is provided which is set up to carry out all steps of the method according to the first aspect.
Der LiDAR-Sensor ist nach einer Ausführungsform ein LiDAR-Sensor für ein Kraftfahrzeug. Nach einer Ausführungsform ist vorgesehen, dass der LiDAR- Sensor mehrere Pixel umfasst. According to one embodiment, the LiDAR sensor is a LiDAR sensor for a motor vehicle. According to one embodiment it is provided that the LiDAR sensor comprises several pixels.
Nach einem dritten Aspekt wird ein Kraftfahrzeug bereitgestellt, welches den Li DAR-Sensor nach dem zweiten Aspekt umfasst. According to a third aspect, a motor vehicle is provided which comprises the Li DAR sensor according to the second aspect.
Nach einem vierten Aspekt wird ein Computerprogramm bereitgestellt, welches Befehle umfasst, die bei Ausführung des Computerprogramms durch einen Computer, beispielsweise durch den LiDAR-Sensor nach dem zweiten Aspekt, diesen veranlassen, ein Verfahren gemäß dem ersten Aspekt auszuführen. According to a fourth aspect, a computer program is provided which comprises commands which, when the computer program is executed by a computer, for example by the LiDAR sensor according to the second aspect, cause the latter to carry out a method according to the first aspect.
Nach einem fünften Aspekt wird ein maschinenlesbares Speichermedium bereit gestellt, auf dem das Computerprogramm nach dem vierten Aspekt gespeichert ist. According to a fifth aspect, a machine-readable storage medium is provided on which the computer program according to the fourth aspect is stored.
Die Erfindung basiert auf der Erkenntnis und schließt diese mit ein, dass die obi gen Aufgaben dadurch gelöst werden können, indem der LiDAR-Sensor eine Punktwolke basierend auf der Laufzeitmessung ermittelt und bereitstellt, wobei die Punktwolke eine höhere Winkelauflösung für Objekte aufweist, welche sich mindestens in einer ersten Distanz zum LiDAR-Sensor befinden, als für Objekte, welche sich in einer Distanz zum LiDAR-Sensor befinden, welche kleiner oder kleiner-gleich als die erste Distanz ist. Das heißt also, dass nähere Objekte in der Punktwolke eine geringere Winkelauflösung haben als Objekte weitere Objekte bezogen auf den LiDAR-Sensor und bezogen auf die erste Distanz als Schwell- wert für den Winkelauflösungsunterschied. Dadurch wird zum Beispiel der tech nische Vorteil bewirkt, dass ein Speicherbedarf für die Punktwolke effizient redu ziert werden kann - dies verglichen mit dem Fall, in welchem die Punktwolke über eine gesamte Reichweite des LiDAR-Sensors die höhere Winkelauflösung aufweist. The invention is based on and includes the knowledge that the above-mentioned tasks can be achieved in that the LiDAR sensor determines and provides a point cloud based on the transit time measurement, the point cloud having a higher angular resolution for objects that are at least one another are at a first distance from the LiDAR sensor than for objects that are at a distance from the LiDAR sensor that is less than or less than or equal to the first distance. This means that objects closer to the point cloud have a lower angular resolution than objects other objects in relation to the LiDAR sensor and in relation to the first distance as a threshold value for the difference in angular resolution. This has the technical advantage, for example, that the storage requirement for the point cloud can be efficiently reduced - compared to the case in which the point cloud has the higher angular resolution over the entire range of the LiDAR sensor.
Bisherige LiDAR-Sensoren, die Objekte auch in einer langen Distanz, beispiels weise mindestens 50 Meter, insbesondere mindestens 100 Meter, relativ zum LiDAR-Sensor detektieren können, weisen üblicherweise eine hohe Winkelauflö sung auf, um auch noch kleine Objekte oder Hindernisse auf einer Straße detek tieren zu können. Gleichzeitig weisen solche LiDAR-Sensoren in der Regel ein großes Sichtfeld auf, um auch komplexe Fahrsituationen erfassen zu können, zum Beispiel eine Vorfahrtssituation. Große Sichtfelder in Kombination mit einer hohen Winkelauflösung führen üblicherweise zu einem erheblichen Speicherbe darf einer entsprechenden Punktwolke. Gleichzeitig erhöht sich dadurch eine Da tenrate hinsichtlich eines Übermitteins bzw. Sendens der Punktwolke an zum Beispiel eine Auswerteeinrichtung, allgemein eine Datenverarbeitungseinrich tung, zum Beispiel ein zentrales Steuergerät des Kraftfahrzeugs. Solche Daten raten können zum Beispiel bis zu 100 Mbit/s oder größer als 1 Gbit/s betragen, wobei Werte dazwischen natürlich auch möglich sind. Dies erschwert es, eine entsprechende Punktwolke in Echtzeit zu einer Auswerteeinrichtung zu übermit teln, sodass eine Situationsanalyse basierend auf der Punktwolke in Echtzeit er schwert oder sogar nicht möglich ist. Previous LiDAR sensors, which can detect objects at a long distance, for example at least 50 meters, in particular at least 100 meters, relative to the LiDAR sensor, usually have a high angular resolution in order to also detect small objects or obstacles on a road to be able to detect. At the same time, such LiDAR sensors usually have a large field of view in order to be able to capture even complex driving situations, for example a situation where there is a right of way. Large fields of view in combination with a high angular resolution usually lead to a considerable storage requirement for a corresponding point cloud. At the same time, this increases a data rate with regard to the transmission or sending of the point cloud to, for example, an evaluation device, generally a data processing device, for example a central control unit of the motor vehicle. Such data rates can be, for example, up to 100 Mbit / s or greater than 1 Gbit / s, whereby values in between are of course also possible. This makes it difficult to transmit a corresponding point cloud in real time to an evaluation device, so that a situation analysis based on the point cloud in real time is difficult or even impossible.
Dadurch aber, dass gemäß dem hier beschriebenen Konzept für Objekte, welche sich in einer Distanz zum LiDAR-Sensor befinden, welche kleiner oder kleiner gleich als die erste Distanz ist, eine geringere Winkelauflösung gewählt wird als für Objekte, welche sich in einer Distanz zum LiDAR-Sensor befinden, welche größer oder größer-gleich der ersten Distanz ist, wird in effizienter Weise ein Speicherbedarf für die Punktwolke effizient reduziert. Dadurch wird weiter in vor teilhafter Weise der technische Vorteil bewirkt, dass eine Datenrate hinsichtlich eines Übertragens der Punktwolken an eine Auswerteeinheit, zum Beispiel ein zentrales Steuergerät eines Kraftfahrzeugs, effizient reduziert werden kann. In einer Ausführungsform wird eine erste Distanz relativ zum LiDAR-Sensor fest gelegt. Die erste Distanz ist zum Beispiel von einer Reichweite des LiDAR- Sensors abhängig. Zum Beispiel beträgt die erste Distanz die Hälfte der Reich weite. As a result, however, that according to the concept described here, a lower angular resolution is selected for objects that are located at a distance from the LiDAR sensor that is less than or equal to the first distance than for objects that are located at a distance from the LiDAR -Sensor are located, which is greater than or greater than or equal to the first distance, a storage requirement for the point cloud is efficiently reduced. This further advantageously brings about the technical advantage that a data rate with regard to the transmission of the point clouds to an evaluation unit, for example a central control unit of a motor vehicle, can be efficiently reduced. In one embodiment, a first distance is established relative to the LiDAR sensor. The first distance depends, for example, on a range of the LiDAR sensor. For example, the first distance is half the range.
In einer Ausführungsform wird eine zweite Distanz relativ zum LiDAR-Sensor festgelegt. Die zweite Distanz ist zum Beispiel kleiner oder kleiner-gleich der ers ten Distanz. Die zweite Distanz beträgt zum Beispiel 25 % der Reichweite. In one embodiment, a second distance is established relative to the LiDAR sensor. The second distance is, for example, less than or less than or equal to the first distance. The second distance is, for example, 25% of the range.
Nach einer Ausführungsform ist vorgesehen, dass einige Pixel des LiDAR- Sensors als erste Pixel festgelegt werden, wobei das Durchführen der Laufzeit messung umfasst, dass mittels der ersten Pixel LiDAR-Echos nur von Objekten in einer Umgebung des LiDAR-Sensors gemessen werden, welche sich mindes tens in der ersten Distanz zum LiDAR-Sensor befinden, wobei die Punktwolke basierend auf den mittels der ersten Pixel gemessenen LiDAR-Echos ermittelt wird. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die ersten Pixel nur dann Daten für die Punktwolke zur Verfügung stellen, wenn ein LiDAR- Echo von einem Objekt gemessen wurde, welches sich mindestens in der ersten Distanz zum LiDAR-Sensor befindet. Das heißt, dass Objekte, welche sich in ei ner Distanz zum LiDAR-Sensor befinden, welche kleiner als die erste Distanz ist, vom ersten Pixel nicht erfasst werden. Dadurch wird in vorteilhafter Weise der technische Vorteil bewirkt, dass die Winkelauflösung der Punktwolke für Objekte, welche sich in einer Distanz zum LiDAR-Sensor befinden, welche kleiner als die erste Distanz ist, effizient reduziert werden kann, sodass daraus wiederum in ef fizienter Weise ein Speicherbedarf für die Punktwolke reduziert werden kann. According to one embodiment, it is provided that some pixels of the LiDAR sensor are defined as first pixels, the execution of the transit time measurement including that LiDAR echoes are measured only from objects in the vicinity of the LiDAR sensor, which are located in the vicinity of the LiDAR sensor at least in the first distance to the LiDAR sensor, wherein the point cloud is determined based on the LiDAR echoes measured by means of the first pixels. This has the technical advantage, for example, that the first pixels only provide data for the point cloud when a LiDAR echo was measured from an object that is at least the first distance from the LiDAR sensor. This means that objects that are at a distance from the LiDAR sensor that is smaller than the first distance are not detected by the first pixel. This advantageously brings about the technical advantage that the angular resolution of the point cloud for objects that are located at a distance from the LiDAR sensor that is smaller than the first distance can be efficiently reduced, so that in turn an efficient way of doing this Storage requirements for the point cloud can be reduced.
In einer Ausführungsform ist vorgesehen, dass einige Pixel des LiDAR-Sensors als zweite Pixel festgelegt werden, wobei das Durchführen der Laufzeitmessung umfasst, dass mittels der zweiten Pixel LiDAR-Echos nur von Objekten in einer Umgebung des LiDAR-Sensors gemessen werden, welche sich mindestens in einer zweiten Distanz zum LiDAR-Sensor befinden, wobei die zweite Distanz kleiner ist als die erste Distanz, wobei die Punktwolke basierend auf den mittels der zweiten Pixel gemessenen LiDAR-Echos ermittelt wird. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die zweiten Pixel nur Objekte erfas sen, welche sich in einer Distanz zum LiDAR-Sensor befinden, welche größer oder größer-gleich als die zweite Distanz ist. Dadurch kann in vorteilhafter Weise die distanzabhängige Winkelauflösung der Punktwolke noch weiter verfeinert werden. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die Win kelauflösung effizient an eine konkret vorliegende Verkehrssituation angepasst werden kann. In one embodiment it is provided that some pixels of the LiDAR sensor are defined as second pixels, the execution of the transit time measurement including that by means of the second pixels, LiDAR echoes are measured only from objects in the vicinity of the LiDAR sensor that are at least are located at a second distance from the LiDAR sensor, the second distance being smaller than the first distance, the point cloud being determined based on the LiDAR echoes measured by means of the second pixels. This has the technical advantage, for example, that the second pixels only capture objects that are at a distance from the LiDAR sensor that is greater or greater than or equal to the second distance. As a result, the distance-dependent angular resolution of the point cloud can advantageously be refined even further. This has the technical advantage, for example, that the angle resolution can be efficiently adapted to a specific traffic situation.
In einer Ausführungsform ist vorgesehen, dass einige der Pixel des LiDAR- Sensors als dritte Pixel festgelegt werden, wobei das Durchführen der Laufzeit messung umfasst, dass mittels der dritten Pixel LiDAR-Echos von Objekten in ei ner Umgebung des LiDAR-Sensors gemessen werden, welche sich innerhalb der Reichweite des LiDAR-Sensors befinden, wobei die Punktwolke basierend auf den mittels der dritten Pixel gemessenen LiDAR-Echos ermittelt wird. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass eine Punktwolke ermittelt werden kann, welche Objekte, welche sich innerhalb der Reichweite des LiDAR- Sensors befinden, repräsentiert. In one embodiment it is provided that some of the pixels of the LiDAR sensor are defined as third pixels, the implementation of the transit time measurement including that LiDAR echoes of objects in the vicinity of the LiDAR sensor are measured by means of the third pixels are within the range of the LiDAR sensor, the point cloud being determined based on the LiDAR echoes measured by means of the third pixels. This has the technical advantage, for example, that a point cloud can be determined which represents objects that are within the range of the LiDAR sensor.
In einer Ausführungsform ist vorgesehen, dass mittels der jeweiligen festgelegten (ersten und/oder zweiten) Pixel LiDAR-Echos nur von entsprechenden Objekten in einer Umgebung des LiDAR-Sensors gemessen werden, indem ein Startzeit punkt für ein Messen von LiDAR-Echos mittels der ersten bzw. zweiten Pixel um eine jeweilige Verzögerungszeit verschoben wird, welche jeweils von der ersten bzw. zweiten Distanz und der Lichtgeschwindigkeit abhängt. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass effizient realisiert werden kann, dass die jeweiligen festgelegten Pixel nur LiDAR-Echos von entsprechend beabstan- deten Objekten relativ zum LiDAR-Sensor messen können. In one embodiment it is provided that by means of the respective fixed (first and / or second) pixels, LiDAR echoes are measured only from corresponding objects in the vicinity of the LiDAR sensor by setting a start time for measuring LiDAR echoes by means of the first or second pixel is shifted by a respective delay time, which depends on the first or second distance and the speed of light. This brings about the technical advantage, for example, that it can be efficiently realized that the respective defined pixels can only measure LiDAR echoes from objects that are appropriately spaced apart relative to the LiDAR sensor.
Das Verschieben des Startzeitpunkts ist relativ zu einem Startzeitpunkt einer Messung mittels der dritten Pixel definiert. Ein Startzeitpunkt einer Messung mit tels der dritten Pixel kann zum Beispiel als ein Startzeitnullpunkt bezeichnet wer den. Der Startzeitnullpunkt hängt zum Beispiel von einem Beginn einer Laufzeit messung bzw. ist zum Beispiel als der Beginn der Laufzeitmessung definiert. Ein Beginn der Laufzeitmessung ist zum Beispiel durch das Aussenden eines LiDAR- Impulses, also eines Laserimpulses, definiert. Zum Beispiel wird der Startzeitpunkt für ein Messen von LiDAR-Echos mittels der ersten Pixel um eine erste Verzögerungszeit verschoben, welche von der ersten Distanz und der Lichtgeschwindigkeit abhängt. Zum Beispiel wird ein Startzeit punkt für ein Messen von LiDAR-Echos mittels der zweiten Pixel um eine zweite Verzögerungszeit verschoben, welche von der zweiten Distanz und der Lichtge schwindigkeit abhängt. Die erste Verzögerungszeit ist zum Beispiel gleich der ersten Distanz geteilt durch die Lichtgeschwindigkeit mal 2, denn das Licht muss in beide Richtungen die Strecke zurücklegen. Die zweite Verzögerungszeit ist zum Beispiel gleich der zweiten Distanz geteilt durch die Lichtgeschwindigkeit mal 2, denn das Licht muss in beide Richtungen die Strecke zurücklegen. Das jeweilige Verschieben des Startzeitpunkts um die erste und/oder die zweite Ver zögerungszeit kann zum Beispiel auf Rohdatenverarbeitungsniveau und/oder auf Detektorniveau (,zum Beispiel in einem Detektor-ASIC des LiDAR-Sensors,) durchgeführt werden. The shifting of the start time is defined relative to a start time of a measurement by means of the third pixels. A start time of a measurement by means of the third pixels can be referred to as a start time zero point, for example. The start time zero depends, for example, on the start of a transit time measurement or is defined, for example, as the start of the transit time measurement. The start of the transit time measurement is defined, for example, by the emission of a LiDAR pulse, i.e. a laser pulse. For example, the starting time for measuring LiDAR echoes is shifted by a first delay time by means of the first pixels, which delay time depends on the first distance and the speed of light. For example, a start time for measuring LiDAR echoes is shifted by a second delay time using the second pixels, which depends on the second distance and the speed of light. The first delay time is, for example, equal to the first distance divided by the speed of light times 2, because the light has to travel the distance in both directions. The second delay time is, for example, equal to the second distance divided by the speed of light times 2, because the light has to travel the distance in both directions. The respective shifting of the start time by the first and / or the second delay time can be carried out, for example, at the raw data processing level and / or at the detector level (for example in a detector ASIC of the LiDAR sensor).
In einer Ausführungsform ist vorgesehen, dass einige Pixel des LiDAR-Sensors als erste Pixel festgelegt werden, wobei das Durchführen der Laufzeitmessung umfasst, dass mittels der ersten Pixel LiDAR-Echos von Objekten in einer Um gebung des LiDAR-Sensors gemessen werden, wobei LiDAR-Echos von Objek ten herausgefiltert werden, welche sich in einer Distanz zum LiDAR-Sensor be finden, welche kleiner oder kleiner-gleich als die erste Distanz zum LiDAR- Sensor ist, wobei die Punktwolke basierend auf den nach dem Herausfiltern ver bliebenen LiDAR-Echos ermittelt wird. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass ein Speicherbedarf für die Punktwolke effizient reduziert werden kann. In one embodiment it is provided that some pixels of the LiDAR sensor are defined as the first pixel, the execution of the transit time measurement including that LiDAR echoes of objects in an environment of the LiDAR sensor are measured by means of the first pixels, wherein LiDAR- Echoes of objects are filtered out which are at a distance from the LiDAR sensor that is less than or less than or equal to the first distance to the LiDAR sensor, the point cloud being determined based on the LiDAR echoes remaining after the filtering out will. This has the technical advantage, for example, that a memory requirement for the point cloud can be efficiently reduced.
Gemäß einer Ausführungsform ist vorgesehen, dass einige Pixel des LiDAR- Sensors als zweite Pixel festgelegt werden, wobei das Durchführen der Lauf zeitmessung umfasst, dass mittels der zweiten Pixel LiDAR-Echos von Objekten in einer Umgebung des LiDAR-Sensors gemessen werden, wobei LiDAR-Echos von Objekten herausgefiltert werden, welche sich in einer Distanz zum LiDAR- Sensor befinden, welche kleiner oder kleiner-gleich als eine zweite Distanz zum LiDAR-Sensor ist, wobei die zweite Distanz kleiner als die erste Distanz ist, wo bei die Punktwolke basierend auf den nach dem Herausfiltern verbliebenen Li- DAR-Echos ermittelt wird. Dadurch wird zum Beispiel der technische Vorteil be wirkt, dass ein Speicherbedarf für die Punktwolke effizient reduziert werden kann. According to one embodiment it is provided that some pixels of the LiDAR sensor are defined as second pixels, the execution of the transit time measurement including that LiDAR echoes of objects in the vicinity of the LiDAR sensor are measured by means of the second pixels, wherein LiDAR- Echoes of objects are filtered out that are at a distance from the LiDAR sensor that is less than or less than or equal to a second distance to the LiDAR sensor, the second distance being less than the first distance where the point cloud is based on the lines remaining after filtering out DAR echoes is determined. This has the technical advantage, for example, that a memory requirement for the point cloud can be efficiently reduced.
Die ersten Pixel im Sinne der Beschreibung können zum Beispiel als Langstre ckenpixel bezeichnet werden, insofern diese nur Objekte ab einer bestimmten Distanz, die erste Distanz, erfassen bzw. insofern LiDAR-Echos, welche mittels der ersten Pixel gemessen wurden, herausgefiltert werden, wenn die zugehöri gen Objekte sich in einer Distanz zum LiDAR-Sensor befinden, welche kleiner oder kleiner-gleich als die erste Distanz zum LiDAR-Sensor ist. The first pixels in the sense of the description can be referred to as long-distance pixels, for example, insofar as they only detect objects from a certain distance, the first distance, or insofar LiDAR echoes that were measured by means of the first pixels are filtered out if the Associated objects are at a distance from the LiDAR sensor that is less than or less than or equal to the first distance to the LiDAR sensor.
Die zweiten Pixel im Sinne dieser Beschreibung können zum Beispiel als kombi nierte Lang- und Mittelstreckenpixel bezeichnet werden, insofern diese Objekte ab der zweiten Distanz (Mittelstrecke) und somit auch ab der ersten Distanz (Langstrecke) erfassen bzw. insofern LiDAR-Echos, welche mittels der zweiten Pixel gemessen wurden, herausgefiltert werden, wenn die zugehörigen Objekte sich in einer Distanz zum LiDAR-Sensor befinden, welche kleiner oder kleiner gleich als die zweite Distanz zum LiDAR-Sensor ist. The second pixels in the context of this description can be referred to, for example, as combined long- and medium-range pixels, insofar as these objects detect from the second distance (medium-range) and thus also from the first distance (long-range) or, in this respect, LiDAR echoes that are generated by means of of the second pixels were measured, are filtered out if the associated objects are at a distance from the LiDAR sensor that is less than or less than or equal to the second distance to the LiDAR sensor.
Die dritten Pixel im Sinne der Beschreibung können zum Beispiel als vollständi- ge-Reichweiten-Pixel bezeichnet werden, insofern diese Objekte erfassen kön nen, welche sich innerhalb der Reichweite des LiDAR-Sensors befinden, bzw. in sofern LiDAR-Echos, welche mittels der dritten Pixel gemessen wurden, nicht herausgefiltert werden. The third pixels in the sense of the description can be referred to as full-range pixels, for example, insofar as they can detect objects that are within the range of the LiDAR sensor, or if LiDAR echoes that are generated by means of the third pixel measured cannot be filtered out.
Das Herausfiltern ist zum Beispiel in einer digitalen Verarbeitung der LiDAR- Echos implementiert, zum Beispiel als ein oder mehrere Filter in der digitalen Verarbeitung der LiDAR-Echos implementiert. The filtering out is implemented, for example, in digital processing of the LiDAR echoes, for example implemented as one or more filters in the digital processing of the LiDAR echoes.
Nach einer Ausführungsform ist vorgesehen, dass die entsprechenden jeweiligen (ersten und/oder zweiten und/oder dritten) Pixel jeweils einem vorbestimmten Muster entsprechend festgelegt werden und/oder jeweils zufallsbasiert festgelegt werden. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass der Li DAR-Sensor effizient betrieben werden kann. In einer Ausführungsform ist vorgesehen, dass die jeweiligen festgelegten (ers ten und/oder zweiten und/oder dritten) Pixel für eine erneute Durchführung der Laufzeitmessung jeweils erneut festgelegt werden, wobei sich die jeweilige er neute Festlegung von der vorherigen Festlegung unterscheidet. Dadurch wird zum Beispiel der technische Vorteil bewirkt, dass die einzelnen Pixel immer wie der Objekte in unterschiedlichen Distanzen erfassen können. According to one embodiment, it is provided that the corresponding respective (first and / or second and / or third) pixels are each determined in accordance with a predetermined pattern and / or are each determined based on randomness. This has the technical advantage, for example, that the Li DAR sensor can be operated efficiently. In one embodiment it is provided that the respective defined (first and / or second and / or third) pixels are defined again for a renewed execution of the transit time measurement, the respective new definition differing from the previous definition. This has the technical advantage, for example, that the individual pixels can always capture objects at different distances, just like the objects.
Nach einer Ausführungsform ist vorgesehen, dass das Verfahren nach dem ers ten Aspekt mittels des LiDAR-Sensors nach dem zweiten Aspekt aus- oder durchgeführt wird. Technische Funktionalitäten des Verfahrens nach dem ersten Aspekt ergeben sich analog aus entsprechenden technischen Funktionalitäten des LiDAR-Sensors nach dem zweiten Aspekt und umgekehrt. Das heißt also insbesondere, dass sich Verfahrensmerkmale aus dem Merkmalen des LiDAR- Sensors ergeben und dass sich Merkmale des LiDAR-Sensors aus dem Verfah ren ergeben. According to one embodiment, it is provided that the method according to the first aspect is implemented or carried out by means of the LiDAR sensor according to the second aspect. Technical functionalities of the method according to the first aspect result analogously from corresponding technical functionalities of the LiDAR sensor according to the second aspect and vice versa. This means in particular that the method features result from the features of the LiDAR sensor and that features of the LiDAR sensor result from the method.
Der LiDAR-Sensor ist nach einer Ausführungsform eingerichtet, Laserstrahlung, insbesondere Laserimpulse und/oder Dauerstrichstrahlung, insbesondere fre quenzmodulierte (auf Englisch: FMCW ("frequency modulated continuous wave interferometry) Dauerstrichstrahlung, zur Abtastung der Umgebung in unter schiedlichen Raumrichtungen (Ablenkungsrichtungen) auszusenden und über ei ne Laufzeitmessung der jeweils zurückreflektierten Strahlung (LiDAR-Echos) ei nen Abstand zur streuenden, insbesondere reflektierenden, Oberfläche zu be stimmen, also eine Laufzeitmessung durchzuführen. According to one embodiment, the LiDAR sensor is set up to emit laser radiation, in particular laser pulses and / or continuous wave radiation, in particular frequency-modulated (in English: FMCW ("frequency modulated continuous wave interferometry) continuous wave radiation, to scan the environment in different spatial directions (deflection directions) and To determine a distance to the scattering, in particular reflective, surface via a transit time measurement of the radiation reflected back in each case (LiDAR echoes), that is to say to carry out a transit time measurement.
In einer Ausführungsform ist das Verfahren nach dem ersten Aspekt ein compu terimplementiertes Verfahren. In one embodiment, the method according to the first aspect is a computer-implemented method.
Die Abkürzung "bzw." steht für "beziehungsweise". Der Begriff "beziehungswei se" steht für "respektive", was insbesondere für "und/oder" steht. The abbreviation "or" stands for "or". The term "or" stands for "respectively", which in particular stands for "and / or".
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigen: Fig. 1 ein Ablaufdiagramm eines Verfahrens zum Ermitteln einer eine Umgebung eines LiDAR-Sensors repräsentierenden Punktwolke,Embodiments of the invention are shown in the drawings and explained in more detail in the description below. Show it: 1 shows a flow chart of a method for determining a point cloud representing an environment of a LiDAR sensor,
Fig. 2 einen LiDAR-Sensor, Fig. 3 ein Computerprogramm, Fig. 4 schematisch einen LiDAR-Scan einer Umgebung eines LiDAR- Sensors und eine entsprechende Punktwolke undFIG. 2 shows a LiDAR sensor, FIG. 3 shows a computer program, FIG. 4 schematically shows a LiDAR scan of the surroundings of a LiDAR sensor and a corresponding point cloud
Fig. 5 bis 8 jeweils ein Muster für eine Festlegung von entsprechenden Pixeln eines LiDAR-Sensors. 5 to 8 each show a pattern for defining corresponding pixels of a LiDAR sensor.
Fig. 1 zeigt ein Ablaufdiagramm eines Verfahrens zum Ermitteln einer eine Um gebung eines LiDAR-Sensors repräsentierenden Punktwolke, umfassend die fol genden Schritte: 1 shows a flow chart of a method for determining a point cloud representing an environment of a LiDAR sensor, comprising the following steps:
Durchführen 101 einer Laufzeitmessung mittels des LiDAR-Sensors,Carrying out 101 a transit time measurement using the LiDAR sensor,
Ermitteln 103 einer Punktwolke, welche eine Umgebung des LiDAR-Sensors re präsentiert, basierend auf der Laufzeitmessung, wobei die Punktwolke eine hö here Winkelauflösung für Objekte aufweist, welche sich mindestens in einer ers ten Distanz zum LiDAR-Sensor befinden, als für Objekte, welche sich in einer Distanz zum LiDAR-Sensor befinden, welche kleiner oder kleiner-gleich als die erste Distanz ist. Determining 103 a point cloud, which presents the surroundings of the LiDAR sensor, based on the transit time measurement, the point cloud having a higher angular resolution for objects that are at least a first distance from the LiDAR sensor than for objects that are are at a distance from the LiDAR sensor that is less than or less than or equal to the first distance.
In einer Ausführungsform umfasst das Verfahren ein Ausgeben von Punktwolke signalen, welche die ermittelte Punktwolke repräsentieren. Das Ausgeben um fasst zum Beispiel ein Senden der Punktwolkesignale an eine Datenverarbei tungseinrichtung. Die Datenverarbeitungseinrichtung ist zum Beispiel von dem Kraftfahrzeug umfasst. Die Datenverarbeitungseinrichtung umfasst zum Beispiel ein Steuergerät des Kraftfahrzeugs. In one embodiment, the method comprises outputting point cloud signals which represent the point cloud determined. The output includes, for example, sending the point cloud signals to a data processing device. The data processing device is included in the motor vehicle, for example. The data processing device includes, for example, a control unit of the motor vehicle.
Fig. 2 zeigt einen LiDAR-Sensor 201 , welcher eingerichtet ist, alle Schritte des Verfahrens nach dem ersten Aspekt auszuführen. FIG. 2 shows a LiDAR sensor 201 which is set up to carry out all steps of the method according to the first aspect.
Fig. 3 zeigt ein Computerprogramm 301. 3 shows a computer program 301.
Das Computerprogramm 301 umfasst Befehle, die bei Ausführung des Compu terprogramms 301 durch einen Computer diesen veranlassen, ein Verfahren ge mäß dem ersten Aspekt auszuführen. Fig. 4 zeigt einen LiDAR-Sensor 401. The computer program 301 comprises commands which, when the computer program 301 is executed by a computer, cause the computer to execute a method according to the first aspect. 4 shows a LiDAR sensor 401.
In einer Umgebung des LiDAR-Sensors 401 befinden sich ein erstes Objekt 403 und ein zweites Objekt 405. Das erste Objekt 403 ist weniger beabstandet zum LiDAR-Sensor 401 als das zweite Objekt 405. Der LiDAR-Sensor 401 weist meh rere Pixel 406 auf. Diese Pixel 406 sind symbolisch in der Umgebung des LiDAR- Sensors 401 gezeichnet, um darzustellen, welcher der Pixel 406 welchen Ort bzw. welche Position in der Umgebung des LiDAR-Sensors 401 scannen bzw. erfassen kann. So decken also die Pixel 406 teilweise die beiden Objekte 403, 405 ab. Einige der Pixel 406 werden als erste Pixel 409 festgelegt. Diese ersten Pixel 409 sollen nur LiDAR-Echos von Objekten in einer Umgebung des LiDAR- Sensors 401 messen, welche sich mindestens in der ersten Distanz zum LiDAR- Sensor 401 befinden. Zur besseren Unterscheidung sind die ersten Pixel 409 als gestrichelte Kreise dargestellt. Die verbliebenen Pixel 406 sind als ausgefüllte Kreise dargestellt und sind zusätzlich mit dem Bezugszeichen 407 gekennzeich net. Diese Pixel 407 sollen LiDAR-Echos von Objekten in einer Umgebung des LiDAR-Sensors 401 erfassen über die gesamte Reichweite des LiDAR-Sensors 401. Diese Pixel 407 sind also dritte Pixel im Sinne der Beschreibung. Eine ge strichelt dargestellte Linie mit dem Bezugszeichen 410 kennzeichnet die erste Distanz zum LiDAR-Sensor 401. Da sich das erste Objekt 403 in einer Distanz zum LiDAR-Sensor 401 befindet, welche kleiner ist als die erste Distanz 410, er fassen die ersten Pixel 409 nicht das erste Objekt 403. Nur die übrigen Pixel mit dem Bezugszeichen 407 erfassen das erste Objekt 403. Hingegen erfassen so wohl die ersten Pixel 409 als auch die verbliebenen Pixel 407 die vom zweiten Objekt 405 reflektierten LiDAR-Echos, insofern sich das zweite Objekt 405 in ei ner Distanz zum LiDAR-Sensor 401 befindet, welche größer ist als die erste Dis tanz 410. A first object 403 and a second object 405 are located in the vicinity of the LiDAR sensor 401. The first object 403 is less spaced from the LiDAR sensor 401 than the second object 405. The LiDAR sensor 401 has several pixels 406. These pixels 406 are symbolically drawn in the vicinity of the LiDAR sensor 401 in order to show which of the pixels 406 can scan or detect which location or which position in the vicinity of the LiDAR sensor 401. The pixels 406 thus partially cover the two objects 403, 405. Some of the pixels 406 are set as the first pixels 409. These first pixels 409 are only intended to measure LiDAR echoes from objects in the vicinity of the LiDAR sensor 401, which are located at least at the first distance from the LiDAR sensor 401. For better differentiation, the first pixels 409 are shown as dashed circles. The remaining pixels 406 are shown as filled circles and are additionally identified with the reference numeral 407. These pixels 407 are intended to detect LiDAR echoes from objects in the vicinity of the LiDAR sensor 401 over the entire range of the LiDAR sensor 401. These pixels 407 are therefore third pixels in the sense of the description. A dashed line with the reference numeral 410 identifies the first distance from the LiDAR sensor 401. Since the first object 403 is located at a distance from the LiDAR sensor 401 that is smaller than the first distance 410, it captures the first pixels 409 not the first object 403. Only the remaining pixels with the reference number 407 capture the first object 403. In contrast, both the first pixels 409 and the remaining pixels 407 capture the LiDAR echoes reflected by the second object 405, insofar as the second object 405 is mutually exclusive is at a distance from the LiDAR sensor 401 which is greater than the first distance 410.
Eine entsprechende Punktwolke 411, welche die mittels des LiDAR-Sensors 401 erfasste Umgebung repräsentiert, ist in Fig. 4 rechts neben einem Pfeil mit dem Bezugszeichen 413 gezeichnet. Der Pfeil mit dem Bezugszeichen 413 soll sym bolisieren, welche Punktwolke sich aus der Erfassung der Umgebung des Li DAR-Sensors 401 mittels des LiDAR-Sensors 401 ergibt. Wie die Fig. 4 zeigt, weist die Punktwolke 411 für das erste Objekt 403 eine geringere Winkelauflö- sung auf als für das zweite Objekt 405. Die erste Distanz 410 entspricht zum Beispiel der halben Reichweite des LiDAR-Sensors 401. A corresponding point cloud 411, which represents the surroundings detected by means of the LiDAR sensor 401, is drawn in FIG. 4 to the right next to an arrow with the reference number 413. The arrow with the reference numeral 413 is intended to symbolize which point cloud results from the detection of the surroundings of the LiDAR sensor 401 by means of the LiDAR sensor 401. As FIG. 4 shows, the point cloud 411 for the first object 403 has a lower angular resolution. Solution than for the second object 405. The first distance 410 corresponds, for example, to half the range of the LiDAR sensor 401.
Fig. 5 zeigt ein erstes vorbestimmtes Muster, entsprechend welchem die ersten Pixel 409 und die dritten Pixel 407 festgelegt werden. Fig. 6 zeigt ein entspre chendes zweites Muster. Fig. 7 und Fig. 8 zeigen entsprechende dritte und vierte Muster, wobei in Fig. 7 und 8 einige der Pixel 406 als zweite Pixel 701 festgelegt sind, welche nur LiDAR-Echos von Objekten in der Umgebung des LiDAR- Sensors 401 messen, welche sich mindestens in einer zweiten Distanz zum Li- DAR-Sensor 401 befinden, wobei die zweite Distanz kleiner ist als die erste Dis tanz 410. Die zweiten Pixel 701 sind als Kreise mit einer Schraffur graphisch dargestellt. FIG. 5 shows a first predetermined pattern according to which the first pixels 409 and the third pixels 407 are determined. Fig. 6 shows a corre sponding second pattern. 7 and 8 show corresponding third and fourth patterns, with some of the pixels 406 being defined as second pixels 701 in FIGS. 7 and 8, which only measure LiDAR echoes from objects in the vicinity of the LiDAR sensor 401 are located at least at a second distance from the LiDAR sensor 401, the second distance being smaller than the first distance 410. The second pixels 701 are shown graphically as circles with hatching.
Die Datenrate kann gemäß einer Ausführungsform weiter reduziert werden, in dem eine Bitanzahl einer Distanzinformation der Punktwolke reduziert wird. Zum Beispiel kann eine Bitlänge um 1 Bit pro LiDAR-Echo reduziert werden, wenn zum Beispiel die erste Distanz gleich der Hälfte der maximalen Reichweite des LiDAR-Sensors ist. In einer Ausführungsform ist vorgesehen, dass bestimmte Pi xel nur einen verringerten Abstandsbereich vermessen (bezogen auf die Reich weite des LiDAR-Sensors), wobei die entsprechenden Messwerte insbesondere durch eine geringere Bit-Anzahl kodiert werden (bezogen auf die Bit-Anzahl, durch welche Messwerte von Pixeln kodiert werden, welche über die gesamte Reichweite des LiDAR-Sensors den Abstandsbereich vermessen). Ein Anteil an ersten Pixeln an der Gesamtpixelzahl des LiDAR-Sensors kann zum Beispiel 75 % betragen. Die verbliebenen Pixel können also zum Beispiel einen Anteil von 25 % bezogen auf die Gesamtpixelzahl des LiDAR-Sensors ausmachen. According to one embodiment, the data rate can be reduced further by reducing a number of bits of distance information in the point cloud. For example, a bit length can be reduced by 1 bit per LiDAR echo if, for example, the first distance is equal to half the maximum range of the LiDAR sensor. In one embodiment it is provided that certain pixels measure only a reduced distance range (based on the range of the LiDAR sensor), the corresponding measured values being encoded in particular by a smaller number of bits (based on the number of bits through which Measured values of pixels are coded, which measure the distance range over the entire range of the LiDAR sensor). A proportion of first pixels in the total number of pixels of the LiDAR sensor can be 75%, for example. The remaining pixels can, for example, make up 25% of the total number of pixels of the LiDAR sensor.

Claims

Ansprüche Expectations
1. Verfahren zum Ermitteln einer eine Umgebung eines LiDAR-Sensors (40) re präsentierenden Punktwolke, umfassend die folgenden Schritte: 1. A method for determining a point cloud representing an environment of a LiDAR sensor (40), comprising the following steps:
Durchführen (101) einer Laufzeitmessung mittels des LiDAR-Sensors (401), Ermitteln (103) einer Punktwolke, welche eine Umgebung des LiDAR-Sensors (401) repräsentiert, basierend auf der Laufzeitmessung, wobei die Punktwolke eine höhere Winkelauflösung für Objekte (403, 405) aufweist, welche sich min destens in einer ersten Distanz zum LiDAR-Sensor (401) befinden, als für Objek te (403, 405), welche sich in einer Distanz zum LiDAR-Sensor (401) befinden, welche kleiner oder kleiner-gleich als die erste Distanz ist. Carrying out (101) a transit time measurement by means of the LiDAR sensor (401), determining (103) a point cloud which represents the surroundings of the LiDAR sensor (401), based on the transit time measurement, the point cloud having a higher angular resolution for objects (403, 405) which are at least at a first distance from the LiDAR sensor (401) than for objects (403, 405) which are at a distance from the LiDAR sensor (401) which is smaller or smaller. is the same as the first distance.
2. Verfahren nach Anspruch 1, wobei einige Pixel (406) des LiDAR-Sensors (401) als erste Pixel (409) festgelegt werden, wobei das Durchführen der Lauf zeitmessung umfasst, dass mittels der ersten Pixel (409) LiDAR-Echos nur von Objekten (403, 405) in einer Umgebung des LiDAR-Sensors (401) gemessen werden, welche sich mindestens in der ersten Distanz zum LiDAR-Sensor (401) befinden, wobei die Punktwolke basierend auf den mittels der ersten Pixel (409) gemessenen LiDAR-Echos ermittelt wird. 2. The method according to claim 1, wherein some pixels (406) of the LiDAR sensor (401) are defined as first pixels (409), wherein performing the transit time measurement comprises that by means of the first pixels (409) LiDAR echoes only from Objects (403, 405) are measured in an environment of the LiDAR sensor (401) which are located at least at the first distance from the LiDAR sensor (401), the point cloud based on the LiDAR measured by means of the first pixels (409) -Echoes is determined.
3. Verfahren nach Anspruch 2, wobei einige Pixel (406) des LiDAR-Sensors (401) als zweite Pixel (701) festgelegt werden, wobei das Durchführen der Lauf zeitmessung umfasst, dass mittels der zweiten Pixel (701) LiDAR-Echos nur von Objekten (403, 405) in einer Umgebung des LiDAR-Sensors (401) gemessen werden, welche sich mindestens in einer zweiten Distanz zum LiDAR-Sensor (401) befinden, wobei die zweite Distanz kleiner ist als die erste Distanz, wobei die Punktwolke basierend auf den mittels der zweiten Pixel (701) gemessenen LiDAR-Echos ermittelt wird. 3. The method according to claim 2, wherein some pixels (406) of the LiDAR sensor (401) are defined as second pixels (701), wherein performing the transit time measurement comprises that by means of the second pixels (701) LiDAR echoes only from Objects (403, 405) in the vicinity of the LiDAR sensor (401) are measured, which are at least a second distance from the LiDAR sensor (401), the second distance being smaller than the first distance, based on the point cloud is determined on the LiDAR echoes measured by means of the second pixels (701).
4. Verfahren nach Anspruch 2 oder 3, wobei mittels der jeweiligen festgelegten Pixel LiDAR-Echos nur von entsprechenden Objekten (403, 405) in einer Umge bung des LiDAR-Sensors (401) gemessen werden, indem ein Startzeitpunkt für ein Messen von LiDAR-Echos mittels der ersten bzw. zweiten Pixel (701) um ei ne jeweilige Verzögerungszeit verschoben wird, welche jeweils von der ersten bzw. zweiten Distanz und der Lichtgeschwindigkeit abhängt. 4. The method according to claim 2 or 3, wherein by means of the respective fixed pixels LiDAR echoes only from corresponding objects (403, 405) in an environment of the LiDAR sensor (401) are measured by a start time for measuring LiDAR Echoes are shifted by a respective delay time by means of the first or second pixel (701), which delay time depends on the first or second distance and the speed of light.
5. Verfahren nach Anspruch 1, wobei einige Pixel (406) des LiDAR-Sensors (401) als erste Pixel (409) festgelegt werden, wobei das Durchführen der Lauf zeitmessung umfasst, dass mittels der ersten Pixel (409) LiDAR-Echos von Ob jekten (403, 405) in einer Umgebung des LiDAR-Sensors (401) gemessen wer den, wobei LiDAR-Echos von Objekten (403, 405) herausgefiltert werden, welche sich in einer Distanz zum LiDAR-Sensor (401) befinden, welche kleiner oder klei- ner-gleich als die erste Distanz zum LiDAR-Sensor (401) ist, wobei die Punktwol ke basierend auf den nach dem Herausfiltern verbliebenen LiDAR-Echos ermit telt wird. 5. The method according to claim 1, wherein some pixels (406) of the LiDAR sensor (401) are defined as first pixels (409), wherein performing the transit time measurement comprises that by means of the first pixels (409) LiDAR echoes from Ob jects (403, 405) in the vicinity of the LiDAR sensor (401) measured who, with LiDAR echoes from objects (403, 405) are filtered out, which are at a distance from the LiDAR sensor (401) which are smaller or less than or equal to the first distance to the LiDAR sensor (401), the point cloud being determined based on the LiDAR echoes remaining after the filtering out.
6. Verfahren nach Anspruch 5, wobei einige Pixel (406) des LiDAR-Sensors (401) als zweite Pixel (701) festgelegt werden, wobei das Durchführen der Lauf zeitmessung umfasst, dass mittels der zweiten Pixel (701) LiDAR-Echos von Ob jekten (403, 405) in einer Umgebung des LiDAR-Sensors (401) gemessen wer den, wobei LiDAR-Echos von Objekten (403, 405) herausgefiltert werden, welche sich in einer Distanz zum LiDAR-Sensor (401) befinden, welche kleiner oder klei- ner-gleich als eine zweite Distanz zum LiDAR-Sensor (401) ist, wobei die zweite Distanz kleiner als die erste Distanz ist, wobei die Punktwolke basierend auf den nach dem Herausfiltern verbliebenen LiDAR-Echos ermittelt wird. 6. The method according to claim 5, wherein some pixels (406) of the LiDAR sensor (401) are defined as second pixels (701), wherein performing the transit time measurement comprises that by means of the second pixels (701) LiDAR echoes from Ob jects (403, 405) in the vicinity of the LiDAR sensor (401) measured who, with LiDAR echoes from objects (403, 405) are filtered out, which are at a distance from the LiDAR sensor (401) which are smaller or less than or equal to a second distance to the LiDAR sensor (401), the second distance being less than the first distance, the point cloud being determined based on the LiDAR echoes remaining after the filtering out.
7. Verfahren nach einem der Ansprüche 2 bis 6, wobei die entsprechenden je weiligen Pixel einem vorbestimmten Muster entsprechend festgelegt werden oder zufallsbasiert festgelegt werden. 7. The method according to any one of claims 2 to 6, wherein the respective respective pixels are determined according to a predetermined pattern or are determined based on random.
8. Verfahren nach einem der Ansprüche 2 bis 7, wobei die jeweiligen festgeleg ten Pixel für eine erneute Durchführung der Laufzeitmessung erneut festgelegt werden, wobei sich die erneute Festlegung von der vorherigen Festlegung unter scheidet. 8. The method according to any one of claims 2 to 7, wherein the respective fixed th pixels are set again for a renewed implementation of the transit time measurement, the renewed definition differs from the previous definition.
9. LiDAR-Sensor (401), welcher eingerichtet ist, alle Schritte des Verfahrens nach einem der vorherigen Ansprüche auszuführen. 9. LiDAR sensor (401), which is set up to carry out all steps of the method according to one of the preceding claims.
10. Computerprogramm (301), umfassend Befehle, die bei Ausführung des10. Computer program (301), comprising instructions that are generated when the
Computerprogramms (301) durch einen Computer diesen veranlassen, ein Ver fahren gemäß einem der Ansprüche 1 bis 8 auszuführen. Computer program (301) causing a computer to execute a method according to one of claims 1 to 8.
PCT/EP2021/066904 2020-06-30 2021-06-22 Method for determining a point cloud representing an environment of a lidar sensor WO2022002678A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020208099.2 2020-06-30
DE102020208099.2A DE102020208099A1 (en) 2020-06-30 2020-06-30 Method for determining a point cloud representing an environment of a LiDAR sensor

Publications (1)

Publication Number Publication Date
WO2022002678A1 true WO2022002678A1 (en) 2022-01-06

Family

ID=76730529

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/066904 WO2022002678A1 (en) 2020-06-30 2021-06-22 Method for determining a point cloud representing an environment of a lidar sensor

Country Status (2)

Country Link
DE (1) DE102020208099A1 (en)
WO (1) WO2022002678A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017166846A (en) 2016-03-14 2017-09-21 株式会社デンソー Object recognition device
CN109191553A (en) 2018-08-29 2019-01-11 百度在线网络技术(北京)有限公司 point cloud rendering method, device, terminal and storage medium
US20190086931A1 (en) * 2012-09-26 2019-03-21 Waymo Llc Wide-View LIDAR with Areas of Special Attention
US20190107606A1 (en) * 2017-10-09 2019-04-11 Luminar Technologies, Inc. Lidar system with adjustable pulse period
US20190271769A1 (en) * 2016-09-20 2019-09-05 Innoviz Technologies Ltd. Deflector feedback control in lidar
US20200142069A1 (en) * 2018-11-01 2020-05-07 Waymo Llc Time-of-Flight Sensor with Structured Light Illuminator

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101071362B1 (en) 2011-03-25 2011-10-07 위재영 Vehicular object ranging system and method of operation
DE102019217627A1 (en) 2019-11-15 2021-05-20 Zf Friedrichshafen Ag Lidar with distance-dependent vertical resolution

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190086931A1 (en) * 2012-09-26 2019-03-21 Waymo Llc Wide-View LIDAR with Areas of Special Attention
JP2017166846A (en) 2016-03-14 2017-09-21 株式会社デンソー Object recognition device
US20190271769A1 (en) * 2016-09-20 2019-09-05 Innoviz Technologies Ltd. Deflector feedback control in lidar
US20190107606A1 (en) * 2017-10-09 2019-04-11 Luminar Technologies, Inc. Lidar system with adjustable pulse period
CN109191553A (en) 2018-08-29 2019-01-11 百度在线网络技术(北京)有限公司 point cloud rendering method, device, terminal and storage medium
US20200142069A1 (en) * 2018-11-01 2020-05-07 Waymo Llc Time-of-Flight Sensor with Structured Light Illuminator

Also Published As

Publication number Publication date
DE102020208099A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
DE112013004908B4 (en) Object detection device
EP2191293B1 (en) Object classification method, parking assistance method, and parking assistance system
DE102012107445B4 (en) 2Method for classifying moving vehicles
EP1797450B1 (en) Radar sensor and method for regulating the distance and speed
DE102009057191A1 (en) Method for uniquely determining a distance and / or a relative speed of an object, driver assistance device and motor vehicle
EP2867695B1 (en) Method for operating a surroundings detection system of a vehicle, and surroundings detection system
DE102007058242A1 (en) Method for measuring transverse movements in a driver assistance system
DE102005017422A1 (en) Driver assistance system with device for detecting stationary objects
DE102007018470A1 (en) Driver assistance system and method for object plausibility
DE102009047284B4 (en) Procedure for adjusting the sensitivity of ultrasonic sensors
WO2019038174A1 (en) Avoidance of blind spot warnings as a result of spray
DE10310214A1 (en) A method for acquiring environmental information and method for determining the location of a parking space
DE102008040631A1 (en) Method for distance and speed control of a motor vehicle and distance sensor
DE19529180C1 (en) Circuit arrangement with a radar device for determining a distance or a relative speed
DE102019210767A1 (en) Method and device for fusing a plurality of signals from an ultrasonic sensor system of a means of locomotion
WO2022002678A1 (en) Method for determining a point cloud representing an environment of a lidar sensor
DE102005003194A1 (en) Motor vehicle driver assistance system, has comparator to compare objects` absolute velocities and threshold values, which vary as function of factors that influences objects` relative velocities and vehicle velocity determination accuracy
DE102020206934A1 (en) Adjustment of a horizontal region of interest
DE112020000325T5 (en) Estimation of trailer properties with vehicle sensors
EP2087371A1 (en) Method for measuring a physical variable and device for said purpose
DE102016200656A1 (en) Method for evaluating an environment of a vehicle
WO2004059341A1 (en) Method for detecting environmental information and for determining the position of a parking space
DE102020204833B4 (en) Method and device for merging a plurality of signals from an ultrasonic sensor system of a means of transport
DE102020206152A1 (en) Device for determining whether a parking space in a lateral front area and / or rear area of a vehicle is suitable for the vehicle, a driver assistance system with such a device and a vehicle with such a driver assistance system
DE102004052347A1 (en) Environment information collecting method for motor vehicle, involves assigning evidence-histogram with matrix to sensors, and registering values rendering transverse-distance of object normal to vehicle moving direction in fields of matrix

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21736553

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21736553

Country of ref document: EP

Kind code of ref document: A1