DE102022115268A1 - Method for operating a flash LiDAR system for a vehicle, flash LiDAR system and vehicle - Google Patents

Method for operating a flash LiDAR system for a vehicle, flash LiDAR system and vehicle Download PDF

Info

Publication number
DE102022115268A1
DE102022115268A1 DE102022115268.5A DE102022115268A DE102022115268A1 DE 102022115268 A1 DE102022115268 A1 DE 102022115268A1 DE 102022115268 A DE102022115268 A DE 102022115268A DE 102022115268 A1 DE102022115268 A1 DE 102022115268A1
Authority
DE
Germany
Prior art keywords
reception
phase
variables
lidar system
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022115268.5A
Other languages
German (de)
Inventor
Hansjoerg Schmidt
Johannes Michael
Christoph Parl
Thorsten Beuth
Gerhard Schunk
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Detection Systems GmbH
Original Assignee
Valeo Detection Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Detection Systems GmbH filed Critical Valeo Detection Systems GmbH
Priority to DE102022115268.5A priority Critical patent/DE102022115268A1/en
Priority to PCT/EP2023/066536 priority patent/WO2023247475A1/en
Publication of DE102022115268A1 publication Critical patent/DE102022115268A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4918Controlling received signal intensity, gain or exposure of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/493Extracting wanted echo signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Es werden ein Verfahren zum Betreiben eines Flash-LiDAR-Systems für ein Fahrzeug nach einer indirekten Time-of-Flight Methode, ein Flash-LiDAR-System und ein Fahrzeug beschrieben. Bei dem Verfahren wird wenigstens ein amplitudenmoduliertes Sendelichtsignal mit wenigstens einer Sendeeinrichtung des Flash-LiDAR-Systems (12) in wenigstens einen Überwachungsbereich gesendet. Aus dem wenigstens einen Überwachungsbereich kommendes Licht wird mit wenigstens einem Teil der Empfangsbereiche einer Empfangsmatrix einer Empfangseinrichtung des Flash-LiDAR-Systems empfangen und in Empfangsgrößen (A0,k, A1,k, A2,k, A3,k) umgewandelt. Die Empfangsgrößen (A0,k, A1,k, A2,k, A3,k) sind den Empfangsbereichen jeweils zuordenbar, charakterisieren jeweils eine Menge des mit dem entsprechenden Empfangsbereich empfangenen Lichts und sind mit einer Prozessoreinrichtung des Flash-LiDAR-Systems verarbeitbar. Etwaige Streulichteffekte auf wenigstens einen Teil der Empfangsbereiche werden mit wenigstens einer Korrekturfunktion (42) korrigiert. Das aus dem wenigstens einen Überwachungsbereich kommende Licht wird mit den Empfangsbereichen während wenigstens zwei Aufnahmezeitbereichen in jeweilige Empfangsgrößen in Form von Phasengrößen (A0,k, A1,k, A2,k, A3,k) umgewandelt. Wenigstens zwei der Aufnahmezeitbereiche werden bezogen auf eine Modulationsperiode des wenigstens einen Sendelichtsignals phasenverschoben gestartet. Für wenigstens einen Teil der Phasengrößen (A0,k, A1,k, A2,k, A3,k) werden unter Verwendung der wenigstens einen Korrekturfunktion (42) korrigierte End-Phasengrößen ermittelt.A method for operating a flash LiDAR system for a vehicle using an indirect time-of-flight method, a flash LiDAR system and a vehicle are described. In the method, at least one amplitude-modulated transmitted light signal is sent into at least one monitoring area using at least one transmitting device of the Flash LiDAR system (12). Light coming from the at least one monitoring area is received with at least part of the reception areas of a reception matrix of a reception device of the Flash LiDAR system and converted into reception variables (A0,k, A1,k, A2,k, A3,k). The reception variables (A0,k, A1,k, A2,k, A3,k) can be assigned to the reception areas, each characterize a quantity of the light received with the corresponding reception area and can be processed with a processor device of the Flash LiDAR system. Any scattered light effects on at least some of the reception areas are corrected with at least one correction function (42). The light coming from the at least one monitoring area is converted into respective reception variables in the form of phase variables (A0,k, A1,k, A2,k, A3,k) by the reception areas during at least two recording time ranges. At least two of the recording time ranges are started out of phase with respect to a modulation period of the at least one transmitted light signal. Corrected final phase variables are determined for at least some of the phase variables (A0,k, A1,k, A2,k, A3,k) using the at least one correction function (42).

Description

Technisches GebietTechnical area

Die Erfindung betrifft ein Verfahren zum Betreiben eines Flash-LiDAR-Systems für ein Fahrzeug nach einer indirekten Time-of-Flight Methode, bei dem
wenigstens ein amplitudenmoduliertes Sendelichtsignal mit wenigstens einer Sendeeinrichtung des Flash-LiDAR-Systems in wenigstens einen Überwachungsbereich gesendet wird,
aus dem wenigstens einen Überwachungsbereich kommendes Licht mit wenigstens einem Teil der Empfangsbereiche einer Empfangsmatrix einer Empfangseinrichtung des Flash-LiDAR-Systems empfangen und in Empfangsgrößen umgewandelt wird, wobei die Empfangsgrößen den Empfangsbereichen jeweils zuordenbar sind, jeweils eine Menge des mit dem entsprechenden Empfangsbereich empfangenen Lichts charakterisieren und mit einer Prozessoreinrichtung des Flash-LiDAR-Systems verarbeitbar sind, und etwaige Streulichteffekte auf wenigstens einen Teil der Empfangsbereiche mit wenigstens einer Korrekturfunktion korrigiert werden.
The invention relates to a method for operating a flash LiDAR system for a vehicle using an indirect time-of-flight method, in which
at least one amplitude-modulated transmitted light signal is sent into at least one monitoring area using at least one transmitting device of the Flash LiDAR system,
Light coming from the at least one monitoring area is received with at least part of the reception areas of a reception matrix of a reception device of the Flash LiDAR system and converted into reception variables, the reception variables being assignable to the reception areas, each characterizing a quantity of the light received with the corresponding reception area and can be processed with a processor device of the Flash LiDAR system, and any scattered light effects on at least part of the reception areas are corrected with at least one correction function.

Ferner betrifft die Erfindung ein Flash-LiDAR-System für ein Fahrzeug, welches zur Durchführung einer indirekten Time-of-Flight Methode ausgestaltet ist,
mit wenigstens einer Sendeeinrichtung zum Senden von Sendelichtsignalen in wenigstens ein Überwachungsbereich,
mit wenigstens eine Empfangseinrichtung, die wenigstens eine Empfangsmatrix aufweist, welche mehrere Empfangsbereiche zum empfangen von aus dem wenigstens einen Überwachungsbereich kommenden Lichts und zum Umwandeln in jeweilige Empfangsgrößen umfasst,
und mit wenigstens einer Korrekturfunktion zum korrigieren etwaiger Streulichteffekte auf Empfangsbereiche.
The invention further relates to a flash LiDAR system for a vehicle, which is designed to carry out an indirect time-of-flight method,
with at least one transmitting device for sending transmitted light signals into at least one monitoring area,
with at least one receiving device which has at least one receiving matrix, which comprises a plurality of receiving areas for receiving light coming from the at least one monitoring area and for converting it into respective received quantities,
and with at least one correction function to correct any scattered light effects on reception areas.

Außerdem betrifft die Erfindung ein Fahrzeug mit wenigstens einem Flash-LiDAR-System welches zur Durchführung einer indirekten Time-of-Flight Methode ausgestaltet ist.The invention also relates to a vehicle with at least one flash LiDAR system which is designed to carry out an indirect time-of-flight method.

Stand der TechnikState of the art

Aus der US 2020/0072946 A1 ist ein Verfahren zum Betreiben einer LIDAR-Vorrichtung (Light Detection and Ranging) bekannt, wobei das Verfahren umfasst:

  • Durchführen von Operationen durch eine Schaltung der LIDAR-Vorrichtung, die Folgendes umfassen:
    • Empfangen von Erfassungssignalen, die von Detektorpixeln eines Detektorarrays ausgegeben werden, die auf Licht reagieren, das ihnen von einem oder mehreren optischen Elementen zugeführt wird, die so konfiguriert sind, dass sie einfallendes Licht in eine oder mehrere Richtungen lenken, wobei das Licht Streulicht umfasst, das relativ zu der einen oder den mehreren Richtungen umgelenkt wird; und Erzeugen korrigierter Bilddaten auf der Grundlage der Erfassungssignale und einer erwarteten Streufunktion für das Licht.
From the US 2020/0072946 A1 a method for operating a LIDAR (Light Detection and Ranging) device is known, the method comprising:
  • Performing operations by a circuit of the LIDAR device including:
    • receiving detection signals output from detector pixels of a detector array responsive to light supplied thereto by one or more optical elements configured to direct incident light in one or more directions, the light including scattered light, that is redirected relative to the one or more directions; and generating corrected image data based on the detection signals and an expected scattering function for the light.

Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren, ein Flash-LiDAR System und ein Fahrzeug der eingangs genannten Art zu gestalten, bei denen etwaige Streulichteffekte auf die Empfangsbereiche besser, insbesondere effizienter und/oder genauer, korrigiert werden können.The invention is based on the object of designing a method, a flash LiDAR system and a vehicle of the type mentioned at the outset, in which any scattered light effects on the reception areas can be corrected better, in particular more efficiently and/or more precisely.

Offenbarung der ErfindungDisclosure of the invention

Die Aufgabe wird bei dem Verfahren erfindungsgemäß dadurch gelöst, dass
das aus dem wenigstens einen Überwachungsbereich kommende Licht mit den Empfangsbereichen während wenigstens zwei Aufnahmezeitbereichen in jeweilige Empfangsgrößen in Form von Phasengrößen umgewandelt wird,
wobei wenigstens zwei der Aufnahmezeitbereiche bezogen auf eine Modulationsperiode des wenigstens einen Sendelichtsignals phasenverschoben gestartet werden,
für wenigstens einen Teil der Phasengrößen unter Verwendung der wenigstens einen Korrekturfunktion korrigierte End-Phasengrößen ermittelt werden.
The object is achieved in the method according to the invention in that
the light coming from the at least one monitoring area is converted into respective reception variables in the form of phase variables during at least two recording time ranges,
wherein at least two of the recording time ranges are started out of phase with respect to a modulation period of the at least one transmitted light signal,
Corrected final phase variables are determined for at least some of the phase variables using the at least one correction function.

Erfindungsgemäß werden etwaige Streulichteffekte auf Empfangsbereiche auf Basis der ermittelten Phasengrößen korrigiert. Das aus dem wenigstens einen Überwachungsbereich kommende Licht kann wenigstens ein von wenigstens einem in den wenigstens einen Überwachungsbereich reflektierten Sendesignal stammendes Empfangslichtsignal enthalten. Über die Position der mit dem Empfangslichtsignal getroffenen Empfangsbereiche innerhalb der Empfangsmatrix kann die Position des Objekts im Überwachungsbereich ermittelt werden. Mit der Empfangsmatrix ist so eine ortsaufgelöste LiDAR-Messung möglich.According to the invention, any scattered light effects on reception areas are corrected based on the determined phase sizes. The light coming from the at least one monitoring area can contain at least one received light signal originating from at least one transmission signal reflected into the at least one monitoring area. The position of the object in the monitoring area can be determined via the position of the reception areas within the reception matrix hit by the received light signal. With the reception matrix, a spatially resolved LiDAR measurement is possible.

Für wenigstens ein Teil der Empfangsbereiche wird eine jeweilige Phasengröße ermittelt. Hierbei wird das Licht, das auf den betreffenden Empfangsbereich trifft, während wenigstens zwei Aufnahmezeitbereichen zu der entsprechenden Phasengröße umgewandelt. Die wenigstens zwei Aufnahmezeitbereiche werden dabei bezüglich einer Modulationsperiode der Sendelichtsignale phasenverschoben gestartet. So werden für jeden der verwendeten Empfangsbereiche zwei Phasengrößen, nämlich für jeden der wenigstens zwei Aufnahmezeitbereiche, eine Phasengröße ermittelt.A respective phase size is determined for at least some of the reception areas. Here, the light that hits the relevant reception area is converted to the corresponding phase size during at least two recording time ranges. The at least two recording time ranges are started out of phase with respect to a modulation period of the transmitted light signals. Two phase variables are used for each of the reception areas used, namely, a phase size is determined for each of the at least two recording time ranges.

Für wenigstens ein Teil der Phasengrößen werden unter Verwendung der wenigstens einen Korrekturfunktion korrigierte End-Phasengrößen ermittelt. Dabei wird jede der verwendeten Phasengrößen mithilfe der wenigstens einen Korrekturfunktion separat zu einer entsprechenden End-Phasengröße verarbeitet.Corrected final phase variables are determined for at least some of the phase variables using the at least one correction function. Each of the phase variables used is processed separately into a corresponding final phase variable using the at least one correction function.

So werden für jeden verwendeten Empfangsbereich entsprechende Anzahl der Aufnahmezeitbereiche wenigstens zwei End-Phasengrößen ermittelt.In this way, at least two end phase variables are determined for each reception area used, corresponding number of recording time areas.

Aus den End-Phasengrößen kann für jeden verwendeten Empfangsbereich die Entfernungen des erfassten Objekts ermittelt werden, von welchem die Empfangslichtsignale stammen, die auf den entsprechenden Empfangsbereich treffen.From the final phase variables, the distances of the detected object from which the received light signals that hit the corresponding reception area come from can be determined for each reception area used.

Um in einem Überwachungsbereich auch schwach reflektierende Objekte erfassen zu können, werden bei Messungen mit einem Flash-LiDAR-System entsprechend lange Integrationsdauern bei der Erfassung des Lichts, insbesondere der reflektierten Empfangslichtsignale, mit den Empfangsbereichen verwendet. Je nach Ausgestaltung der Empfangseinrichtung können die Integrationsdauern durch entsprechende Verschlusszeiten erreicht werden. Die Verwendung von Flash-LiDAR-Systemen mit langen Integrationsdauern, insbesondere langen Verschlusszeiten, kann nicht nur zu einer Übersättigung von Empfangsbereichen führen, die von an stark reflektierenden Objekten stammenden Empfangslichtsignalen getroffen werden, sondern auch zu Verfälschungen ein Empfangsbereichen in der Nähe der mit den Empfangslichtsignalen von den stark reflektierenden Objekten getroffenen Empfangsbereiche. Diese Verfälschung wird als Blooming oder Blendung (glare) bezeichnet. Das Blooming im Signal führt zu einem Fehler bei der Bestimmung der Entfernung von Objekten in der Nähe stark reflektierender Objekte. Die Entfernung der Objekte wird in Richtung der Entfernung des hochreflektierenden Objekts verfälscht.In order to be able to detect weakly reflecting objects in a surveillance area, measurements with a Flash LiDAR system use correspondingly long integration times when detecting the light, in particular the reflected received light signals, with the receiving areas. Depending on the design of the receiving device, the integration times can be achieved using appropriate shutter speeds. The use of flash LiDAR systems with long integration times, especially long shutter speeds, can lead not only to oversaturation of reception areas hit by received light signals originating from highly reflective objects, but also to corruption of reception areas in the vicinity of those with the received light signals Reception areas hit by the highly reflective objects. This distortion is called blooming or glare. Blooming in the signal leads to an error in determining the distance of objects near highly reflective objects. The distance of the objects is distorted towards the distance of the highly reflective object.

Mit dem erfindungsgemäßen Verfahren können in Szenen insbesondere im Straßenverkehr stark reflektierende Objekte, wie beispielsweise Verkehrsschilder mit retroreflektiven Eigenschaften, und schwächer reflektierende Objekte, wie beispielsweise Fußgänger, Hindernisse, wie Wände, oder dergleichen, unterschieden werden und ihre jeweiligen Entfernungen genauer ermittelt werden. Ohne das erfindungsgemäße Verfahren können insbesondere aufgrund von internen Reflexionen insbesondere im optischen Empfangspfad und/oder durch optisches Übersprechen in der Empfangseinrichtung die Empfangslichtsignale von stark reflektierenden Objekten, insbesondere retroreflektiven Objekt, über die Empfangsmatrix verschmiert werden.With the method according to the invention, highly reflective objects, such as traffic signs with retroreflective properties, and weaker reflective objects, such as pedestrians, obstacles such as walls, or the like, can be distinguished in scenes, particularly in road traffic, and their respective distances can be determined more precisely. Without the method according to the invention, the received light signals from highly reflective objects, in particular retroreflective objects, can be smeared across the reception matrix, in particular due to internal reflections, in particular in the optical reception path and/or due to optical crosstalk in the reception device.

Das Flash-LiDAR-System arbeitet nach einer indirekten Time-of-Flight Methode (indirekte Flugzeitmethode). Bei einer indirekten Time-of-Flight Methode kann eine durch die Flugzeit des amplitudenmodulierten Sendelichtsignals und des entsprechenden Empfangslichtsignals bedingte Verschiebung des Empfangslichtsignals gegenüber dem Sendelichtsignal ermittelt werden. Aus der Verschiebung kann die Entfernung eines Objekts ermittelt werden, an dem das entsprechende Sendelichtsignal reflektiert wird.The Flash LiDAR system works according to an indirect time-of-flight method. With an indirect time-of-flight method, a shift in the received light signal relative to the transmitted light signal caused by the flight time of the amplitude-modulated transmitted light signal and the corresponding received light signal can be determined. From the displacement, the distance of an object on which the corresponding transmitted light signal is reflected can be determined.

Vorteilhafterweise können mit der wenigstens einen Sendeeinrichtung Lasersignale als Sendelichtsignale gesendet werden. Lasersignale können präzise definiert und mit gro-ßer Reichweite, insbesondere mehreren 100 m, ausgesendet werden.Advantageously, laser signals can be sent as transmitted light signals with the at least one transmitting device. Laser signals can be precisely defined and sent out over a long range, especially several hundred meters.

Ein Flash-LiDAR-System ist ein LiDAR-System, bei dem jedes gesendete Sendelichtsignal - ähnlich einem Blitz - den gesamten Überwachungsbereich ausleuchtet.A Flash LiDAR system is a LiDAR system in which each transmitted light signal - similar to a flash - illuminates the entire surveillance area.

Vorteilhafterweise kann das Flash-LiDAR-System als laserbasiertes Entfernungsmesssystem ausgestaltet sein. Ein laserbasiertes Entfernungsmesssystem kann als Lichtquelle einer Sendeeinrichtung wenigstens einen Laser, insbesondere einen Diodenlaser, aufweisen. Mit dem wenigstens einen Laser können insbesondere gepulste Sendelichtsignale gesendet werden. Mit dem Laser können Sendelichtsignale in für das menschliche Auge sichtbaren oder nicht sichtbaren Wellenlängenbereichen emittiert werden. Entsprechend kann die Empfangsmatrix der Empfangseinrichtung mit wenigstens einem für die Wellenlänge des ausgesendeten Lichtes ausgelegten Sensor, insbesondere einem CCD-Sensor, einem Active-Pixel-Sensor, insbesondere einen CMOS-Sensor oder dergleichen, realisiert werden. Derartige Sensoren weisen eine Mehrzahl von Empfangsbereichen, insbesondere Pixel oder Pixelgruppen, auf. Derartige Sensoren können so betrieben werden, dass die umgewandelten Phasengrößen den jeweiligen Empfangsbereichen zugeordnet werden könnenThe flash LiDAR system can advantageously be designed as a laser-based distance measuring system. A laser-based distance measuring system can have at least one laser, in particular a diode laser, as the light source of a transmitting device. In particular, pulsed transmitted light signals can be sent with the at least one laser. The laser can be used to emit light signals in wavelength ranges that are visible or invisible to the human eye. Accordingly, the receiving matrix of the receiving device can be implemented with at least one sensor designed for the wavelength of the emitted light, in particular a CCD sensor, an active pixel sensor, in particular a CMOS sensor or the like. Such sensors have a plurality of reception areas, in particular pixels or groups of pixels. Such sensors can be operated in such a way that the converted phase variables can be assigned to the respective reception areas

Vorteilhafterweise können das Verfahren und das Flash-LiDAR-System bei Fahrzeugen, insbesondere Kraftfahrzeugen, verwendet werden. Vorteilhafterweise können das Verfahren und das Flash-LiDAR-System bei Landfahrzeugen, insbesondere Personenkraftwagen, Lastkraftwagen, Bussen, Motorrädern oder dergleichen, Luftfahrzeugen, insbesondere Drohnen, und/oder Wasserfahrzeugen verwendet werden. Das Verfahren und das Flash-LiDAR-System können auch bei Fahrzeugen eingesetzt werden, die autonom oder wenigstens teilautonom betrieben werden können. Das Verfahren und das Flash-LiDAR-Systems sind jedoch nicht beschränkt auf Fahrzeuge. Sie können auch im stationären Betrieb, in der Robotik und/oder bei Maschinen, insbesondere Bau- oder Transportmaschinen, wie Kränen, Baggern oder dergleichen, eingesetzt werden.The method and the flash LiDAR system can advantageously be used in vehicles, in particular motor vehicles. The method and the flash LiDAR system can advantageously be used in land vehicles, in particular passenger cars, trucks, buses, motorcycles or the like, aircraft, in particular drones, and/or watercraft. The process and the Flash LiDAR system can also be used on vehicles that can be operated autonomously or at least partially autonomously. However, the method and the flash LiDAR system are not limited to vehicles. They can also be used in stationary operation, in robotics and/or in machines, in particular construction or transport machines, such as cranes, excavators or the like.

Das Flash-LiDAR-System weist eine Prozessoreinrichtung, insbesondere eine elektronische Steuer- und Auswerteeinrichtung, auf, mit der das Flash-LiDAR-System gesteuert und Empfangsgrößen, insbesondere Phasengrößen, verarbeitet werden können.The Flash LiDAR system has a processor device, in particular an electronic control and evaluation device, with which the Flash LiDAR system can be controlled and received variables, in particular phase variables, can be processed.

Das Flash-LiDAR-System kann vorteilhafterweise mit wenigstens einer elektronischen Steuervorrichtung eines Fahrzeugs oder einer Maschine, insbesondere einem Fahrerassistenzsystem und/oder einer Fahrwerksregelung und/oder einer Fahrer-Informationseinrichtung und/oder einem Parkassistenzsystem und/oder einer Gestenerkennung oder dergleichen, verbunden oder Teil einer solchen sein. Auf diese Weise kann wenigstens ein Teil der Funktionen des Fahrzeugs oder der Maschine autonom oder teilautonom betrieben werden.The Flash LiDAR system can advantageously be connected or part of at least one electronic control device of a vehicle or a machine, in particular a driver assistance system and/or a chassis control system and/or a driver information device and/or a parking assistance system and/or a gesture recognition or the like be one of those. In this way, at least some of the functions of the vehicle or machine can be operated autonomously or semi-autonomously.

Das Flash-LiDAR-System kann zur Erfassung von stehenden oder bewegten Objekten, insbesondere Fahrzeugen, Personen, Tieren, Pflanzen, Hindernissen, Fahrbahnunebenheiten, insbesondere Schlaglöchern oder Steinen, Fahrbahnbegrenzungen, Verkehrszeichen, Freiräumen, insbesondere Parklücken, Niederschlag oder dergleichen, und/oder von Bewegungen und/oder Gesten eingesetzt werden.The Flash LiDAR system can be used to detect stationary or moving objects, in particular vehicles, people, animals, plants, obstacles, uneven road surfaces, in particular potholes or stones, road boundaries, traffic signs, open spaces, in particular parking spaces, precipitation or the like, and/or Movements and/or gestures are used.

Bei einer vorteilhaften Ausgestaltung des Verfahrens kann
von der gleichen Szene in dem wenigstens einen Überwachungsbereich mit wenigstens einem Teil der Empfangsbereiche wenigstens eine Kurzmessung und wenigstens eine Langmessung durchgeführt werden,
wobei die wenigstens eine Kurzmessung mit einer Kurz-Integrationsdauer durchgeführt werden kann, während der das aus dem wenigstens einen Überwachungsbereich kommende Licht, insbesondere wenigstens ein von einem reflektierten Sendelichtsignal stammendes Empfangslichtsignal, mit den Empfangsbereichen in wenigstens zwei unterschiedlichen Aufnahmezeitbereichen empfangen und in entsprechende Kurz-Phasengrößen umgewandelt werden kann,
und wobei die wenigstens eine Langmessung mit einer Lang-Integrationsdauer, die größer ist als die Kurz-Integrationsdauer, durchgeführt werden kann, während der das dem wenigstens einen Überwachungsbereich kommende Licht, insbesondere wenigstens ein von einem reflektierten Sendelichtsignal stammendes Empfangslichtsignal, in den wenigstens zwei unterschiedlichen Aufnahmezeitbereichen empfangen und in entsprechende Lang-Phasengrößen umgewandelt werden kann,
für wenigstens einen Teil der Kurz-Phasengrößen mittels wenigstens einer mathematische Faltung mit der wenigstens einen Korrekturfunktion eine jeweilige Korrektur-Phasengröße erzeugt werden kann, welche dem Empfangsbereich und dem Aufnahmezeitbereich, welche der zur Faltung verwendeten Kurz-Phasengröße entsprechen, zugeordnet werden kann,
und für wenigstens einen Teil der Lang-Phasengrößen jeweils eine End-Phasengröße als Differenz aus der jeweiligen Lang-Phasengröße und der Korrektur-Phasengröße, welche dem Empfangsbereich und dem Aufnahmezeitbereich der Lang-Phasengröße entspricht, gebildet werden kann.
In an advantageous embodiment of the method,
at least one short measurement and at least one long measurement are carried out from the same scene in the at least one monitoring area with at least part of the reception areas,
wherein the at least one short measurement can be carried out with a short integration period, during which the light coming from the at least one monitoring area, in particular at least one received light signal originating from a reflected transmitted light signal, is received by the reception areas in at least two different recording time ranges and into corresponding short phase sizes can be converted,
and wherein the at least one long measurement can be carried out with a long integration period that is greater than the short integration period, during which the light coming to the at least one monitoring area, in particular at least one received light signal originating from a reflected transmitted light signal, in the at least two different ones Recording time ranges can be received and converted into corresponding long-phase variables,
For at least some of the short phase variables, a respective correction phase variable can be generated by means of at least one mathematical convolution with the at least one correction function, which can be assigned to the reception range and the recording time range, which correspond to the short phase variable used for convolution,
and for at least some of the long phase variables, an end phase variable can be formed as the difference between the respective long phase variable and the correction phase variable, which corresponds to the reception range and the recording time range of the long phase variable.

Bei den Kurzmessungen mit der Kurz-Integrationsdauer werden nur von denjenigen Empfangsbereichen, welche von starken Empfangslichtsignalen, insbesondere von Empfangslichtsignalen, die von retroreflektiven Objekten kommen, getroffen werden, Empfangsgrößen, welche im Folgenden der besseren Unterscheidbarkeit wegen als Kurz-Phasengrößen bezeichnet werden, ermittelt, die oberhalb des Rauschens liegen. Auf diese Weise können die Empfangsgrößen, insbesondere die Phasengrößen, für die von starken Empfangslichtsignalen getroffenen Empfangsbereichen, welche bei längeren Integrationsdauern übersättigt oder überbelichtet wären, ermittelt werden. Ferner können die Empfangsbereiche identifiziert werden, die von starken Empfangslichtsignalen getroffen werden.In the short measurements with the short integration period, reception variables, which are referred to below as short phase variables for better differentiation, are determined only from those reception areas which are hit by strong reception light signals, in particular by reception light signals that come from retroreflective objects, which are above the noise level. In this way, the reception variables, in particular the phase variables, can be determined for the reception areas hit by strong reception light signals, which would be oversaturated or overexposed with longer integration times. Furthermore, the reception areas that are hit by strong received light signals can be identified.

Bei den Langmessungen mit der längeren Lang-Integrationsdauer hingegen werden auch von denjenigen Empfangsbereichen, die von schwächeren Empfangslichtsignalen getroffen werden, Empfangsgrößen, welche im Folgenden der besseren Unterscheidbarkeit wegen als Lang-Phasengrößen bezeichnet werden, ermittelt, die oberhalb des Rauschens liegen.In the long measurements with the longer long integration period, however, reception variables, which are referred to below as long phase variables for better differentiation, are also determined from those reception areas that are hit by weaker received light signals, which are above the noise.

Die Langmessungen kann jedoch durch Streulichteffekte gestört werden. Die Störung durch die Streulichteffekte kann korrigiert werden, indem für wenigstens einen Teil der Empfangsbereiche jeweils eine End-Phasengröße als Differenz einer Lang-Phasengröße und einer im gleichen Empfangsbereich und dem gleichen Aufnahmezeitbereich entsprechenden Korrektur-Phasengröße ermittelt wird.However, the long measurements can be disturbed by scattered light effects. The interference caused by the scattered light effects can be corrected by determining a final phase size for at least some of the reception areas as the difference between a long phase size and a correction phase size corresponding to the same reception area and the same recording time range.

Die Korrektur-Phasengrößen werden durch mathematische Faltung der jeweiligen Kurz-Phasengrößen mit der wenigstens einen Korrekturfunktion ermittelt.The correction phase variables are determined by mathematical convolution of the respective short phase variables with the at least one correction function.

Die Kurzmessungen und die Langmessungen werden für die gleiche Szene im Überwachungsbereich durchgeführt. Die gleiche Szene kann nahezu dieselbe Szene bei einer geringen Geschwindigkeit des Flash-LiDAR-Systems, insbesondere des Fahrzeugs, sein.The short measurements and the long measurements are carried out for the same scene in the surveillance area. The same scene can be almost the same scene at a low speed of the Flash LiDAR system, especially the vehicle.

Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens können
die wenigstens zwei phasenverschobenen Aufnahmezeitbereiche mit einer jeweiligen Phasenverschiebung gegenüber einem Referenzereignis, insbesondere gegenüber einem Referenzereignis des wenigstens einen Sendelichtsignals, insbesondere gegenüber einem Intensitäts-Minimum des wenigstens einen Sendelichtsignals und/oder einem Nulldurchgang eines elektrischen Sendesignals, mit welchem eine Lichtquelle der Sendeeinrichtung zum Aussenden des wenigstens einen Sendelichtsignals angesteuert wird, gestartet werden
und/oder
vier Aufnahmezeitbereiche mit Phasenverschiebungen von 0°, 90°, 180° und 270° gegenüber einem Referenzereignis, insbesondere gegenüber einem Referenzereignis des wenigstens einen Sendelichtsignals, insbesondere gegenüber einem Intensitäts-Minimum des wenigstens einen Sendelichtsignals und/oder einem Nulldurchgang eines elektrischen Sendesignals, mit welchem eine Lichtquelle der Sendeeinrichtung zum Aussenden des wenigstens einen Sendelichtsignals angesteuert wird, gestartet werden. Auf diese Weise können die Aufnahmezeitbereiche gezielt gestartet werden.
In a further advantageous embodiment of the method,
the at least two phase-shifted recording time ranges with a respective phase shift relative to a reference event, in particular relative to a reference event of the at least one transmitted light signal, in particular relative to an intensity minimum of the at least one transmitted light signal and / or a zero crossing of an electrical transmission signal with which a light source of the transmitting device for emitting the at least one transmitted light signal is controlled
and or
four recording time ranges with phase shifts of 0°, 90°, 180° and 270° compared to a reference event, in particular compared to a reference event of the at least one transmitted light signal, in particular compared to an intensity minimum of the at least one transmitted light signal and / or a zero crossing of an electrical transmitted signal, with which a light source of the transmitting device is controlled to emit the at least one transmitting light signal. In this way, the recording time ranges can be started specifically.

Phasenverschiebungen gegenüber einem Referenzereignis des wenigstens einen Sendelichtsignals ermöglichen eine genauere Zuordnung des wenigstens einen Empfangslichtsignals zu dem wenigstens einen Sendelichtsignal. Ein Intensitäts-Minimum des wenigstens einen Sendelichtsignals und ein Nulldurchgang eines elektrischen Sendesignals können einfach definiert werden.Phase shifts compared to a reference event of the at least one transmitted light signal enable a more precise assignment of the at least one received light signal to the at least one transmitted light signal. An intensity minimum of the at least one transmitted light signal and a zero crossing of an electrical transmitted signal can be easily defined.

Mit vier Aufnahmezeitbereichen, deren Phasenverschiebungen sich jeweils um 90° unterscheiden, können insgesamt vier Phasengrößen, insbesondere Kurz-Phasengrößen und Lang-Phasengrößen, erzeugt werden, welche den zeitlichen Verlauf des Empfangslichtsignals jeweils charakterisieren. Auf diese Weise kann die Verschiebung des wenigstens einen Empfangslichtsignals gegenüber dem wenigstens einen Sendelichtsignal und damit die Flugzeit, welche die Entfernung charakterisiert, genauer ermittelt werden.With four recording time ranges, the phase shifts of which each differ by 90°, a total of four phase variables, in particular short phase variables and long phase variables, can be generated, which each characterize the time course of the received light signal. In this way, the displacement of the at least one received light signal relative to the at least one transmitted light signal and thus the flight time, which characterizes the distance, can be determined more precisely.

Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens können Streulichteffekte von Sendelichtsignalen korrigiert werden, die an stark reflektierenden Objekten, insbesondere retroreflektiven Objekten, in dem wenigstens Überwachungsbereich reflektiert werden. Auf diese Weise kann die Bestimmung von Entfernungen von Objekten, von denen Empfangslichtstrahlen auf Empfangsbereiche treffen, welche zu den Empfangsbereichen benachbart sind, auf die starke Empfangslichtstrahlen von stark reflektierenden Objekten, insbesondere retroreflektiven Objekten, treffen, verbessert werden. Durch die Streulichteffekte, welche durch Reflexionen an stark reflektierenden Objekt, insbesondere retroreflektiven Objekten, hervorgerufen werden, werden ohne die erfindungsgemäße Korrektur die Entfernungen von weniger stark reflektierenden Objekten fälschlicherweise zu den Entfernungen der stark reflektierenden, insbesondere retroreflektiven Objekte hin verschoben.In a further advantageous embodiment of the method, scattered light effects of transmitted light signals that are reflected on highly reflective objects, in particular retroreflective objects, in the at least monitoring area can be corrected. In this way, the determination of distances from objects from which received light rays hit reception areas which are adjacent to the reception areas which are hit by strong received light rays from highly reflective objects, in particular retroreflective objects, can be improved. Due to the scattered light effects, which are caused by reflections on highly reflective objects, in particular retroreflective objects, without the correction according to the invention, the distances from less strongly reflective objects are incorrectly shifted towards the distances from the highly reflective, in particular retroreflective objects.

Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens können die Kurz-Integrationsdauer so eingestellt werden, dass lediglich die am stärksten reflektierenden Objekte, insbesondere retroreflektiven Objekte, der Szene in wenigstens einem der Aufnahmezeitbereiche zu einer von einem Rauschen unterscheidbaren Kurz-Phasengröße führen. Auf diese Weise können diejenigen Empfangsbereiche identifiziert, welche von Streulichteffekten aufgrund von starken Empfangslichtsignalen betroffen sind, und die entsprechenden Phasengrößen korrigiert werden.In a further advantageous embodiment of the method, the short integration duration can be set so that only the most highly reflective objects, in particular retroreflective objects, in the scene lead to a short phase size that can be distinguished from noise in at least one of the recording time ranges. In this way, those reception areas that are affected by scattered light effects due to strong received light signals can be identified, and the corresponding phase variables can be corrected.

Vorteilhafterweise kann die Länge der Kurz-Integrationsdauer so gewählt werden, dass auch starke Empfangslichtsignale von retroreflektiven Objekten nicht zu einer Übersteuerung in der Empfangsmatrix führen. Vorteilhafterweise kann die Kurz-Integrationsdauer etwa auf 1 µs eingestellt werden.Advantageously, the length of the short integration period can be chosen so that even strong received light signals from retroreflective objects do not lead to overloading in the receiving matrix. The short integration period can advantageously be set to approximately 1 µs.

Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann die wenigstens eine Korrekturfunktion für eine Erfassung von retroreflektiven Objekten vorgegeben werden, die bei einem Betrieb des Flash-LiDAR-Systems, insbesondere des Flash-LiDAR-Systems des Fahrzeugs, üblicherweise in dem wenigstens einen Überwachungsbereich vorkommen können. Auf diese Weise kann das Flash-LiDAR-Systems für Szenen, die üblicherweise auftreten, optimiert werden.In a further advantageous embodiment of the method, the at least one correction function can be specified for a detection of retroreflective objects, which can usually occur in the at least one monitoring area during operation of the flash LiDAR system, in particular the flash LiDAR system of the vehicle . In this way, the Flash LiDAR system can be optimized for scenes that commonly occur.

Vorteilhafterweise kann die wenigstens eine Korrekturfunktion für eine Erfassung von retroreflektiven Straßenschildern oder Straßenmarkierungen vorgegeben werden. Auf diese Weise kann das Flash-LiDAR-System für eine Verwendung im Straßenverkehr, insbesondere für eine Verwendung bei einem Fahrzeug, eingestellt werden.Advantageously, the at least one correction function can be specified for detecting retroreflective road signs or road markings. In this way, the Flash LiDAR system can be set for use in road traffic, in particular for use in a vehicle.

Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann
für wenigstens ein Empfangsbereich aus wenigstens einem Teil der zu diesem Empfangsbereich gehörigen End-Phasengrößen eine jeweilige Entfernung eines mit dem wenigstens einen erfassten Objekts ermittelt werden,
und/oder
für wenigstens einen Empfangsbereich, welcher von Empfangslichtsignalen eines Objekts getroffen wird, aus einer Position des Empfangsbereichs innerhalb der Empfangsmatrix, eine die Richtung des reflektierenden Objekts relativ zu dem Flash-LiDAR-System charakterisierende Richtungsinformation ermittelt werden. Auf diese Weise können Entfernungen und/oder Richtungen von erfassten Objekts relativ zum Flash-LiDAR-System ermittelt werden.
In a further advantageous embodiment of the method,
for at least one reception area from at least a part of the end phase variables belonging to this reception area, a respective distance an object can be determined with the at least one detected object,
and or
For at least one reception area, which is hit by received light signals from an object, directional information characterizing the direction of the reflecting object relative to the flash LiDAR system can be determined from a position of the reception area within the reception matrix. In this way, distances and/or directions of detected objects can be determined relative to the Flash LiDAR system.

Mit Entfernungen und Richtungen von erfassten Objekten kann ein Entfernungsbild des Überwachungsbereichs realisiert werden, in dem die Entfernungen von Objekten ortsaufgelöst dargestellt werden können.With the distances and directions of detected objects, a distance image of the surveillance area can be created, in which the distances of objects can be displayed with spatial resolution.

Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann
das aus dem wenigstens einen Überwachungsbereich kommende Licht, insbesondere wenigstens ein Empfangslichtsignal, mit Empfangsbereichen einer eindimensionalen, insbesondere linienförmigen, Empfangsmatrix, oder mit Empfangsbereichen einer zweidimensionalen, insbesondere matrixförmigen, Empfangsmatrix empfangen werden
und/oder
wenigstens eine der Phasengrößen, insbesondere die wenigstens eine dem wenigstens einen Empfangsbereich zuordenbare Phasengröße und/oder wenigstens eine Kurz-Phasengröße und/oder wenigstens eine Lang-Phasengröße und/oder wenigstens eine Korrektur-Phasengröße und/oder wenigstens eine End-Phasengröße, eine entsprechenden eindimensionalen oder zweidimensionalen Phasengrößenmatrix, insbesondere einer Kurz-Phasengrößenmatrix und/oder einer Lang-Phasengrößenmatrix und/oder einer Korrektur-Phasengrößenmatrix und/oder einer End-Phasengrößenmatrix, zugewiesen werden
und/oder
die wenigstens eine Korrekturfunktion mit einer eindimensionalen oder einer zweidimensionalen Korrekturgrößenmatrix realisiert werden.
In a further advantageous embodiment of the method,
the light coming from the at least one monitoring area, in particular at least one received light signal, is received with reception areas of a one-dimensional, in particular line-shaped, reception matrix, or with reception areas of a two-dimensional, in particular matrix-shaped, reception matrix
and or
at least one of the phase variables, in particular the at least one phase variable that can be assigned to the at least one reception area and/or at least one short phase variable and/or at least one long phase variable and/or at least one correction phase variable and/or at least one final phase variable, a corresponding one one-dimensional or two-dimensional phase size matrix, in particular a short phase size matrix and / or a long phase size matrix and / or a correction phase size matrix and / or a final phase size matrix
and or
the at least one correction function is implemented with a one-dimensional or a two-dimensional correction variable matrix.

Vorteilhafterweise kann das Licht mit Empfangsbereichen einer eindimensionalen Empfangsmatrix empfangen werden. Auf diese Weise kann der wenigstens eine Überwachungsbereich mit etwaigen Objekten in einer Dimension ortsaufgelöst erfasst werden. Alternativ kann das Licht mit Empfangsbereichen einer zweidimensionalen Empfangsmatrix empfangen werden. So kann der wenigstens eine Überwachungsbereich in zwei Dimensionen ortsaufgelöst erfasst werden. Hilfe einer eindimensionalen oder zweidimensionalen Empfangsmatrix können Richtungen von erfassten Objekten relativ zu dem Flash-LiDAR-System ermittelt werden.The light can advantageously be received with reception areas of a one-dimensional reception matrix. In this way, the at least one monitoring area with any objects can be recorded in one dimension in a spatially resolved manner. Alternatively, the light can be received with reception areas of a two-dimensional reception matrix. In this way, the at least one monitoring area can be recorded in two dimensions with spatial resolution. With the help of a one-dimensional or two-dimensional reception matrix, directions of detected objects relative to the Flash LiDAR system can be determined.

Vorteilhafterweise kann alternativ oder zusätzlich wenigstens eine der Phasengrößen einer entsprechenden eindimensionalen Phasengrößenmatrix oder einer zweidimensionalen Phasengrößenmatrix zugewiesen werden. Auf diese Weise können die Phasengrößen einfacher den entsprechenden Empfangsbereichen zugeordnet werden.Alternatively or additionally, at least one of the phase sizes can advantageously be assigned to a corresponding one-dimensional phase size matrix or a two-dimensional phase size matrix. In this way, the phase variables can be more easily assigned to the corresponding reception areas.

Vorteilhafterweise kann wenigstens eine Phasengrößenmatrix eine Gruppe aus Tupeln sein, wobei jedes Tupel wenigstens einen Wert, insbesondere wenigstens eine Koordinatengröße, der einen jeweiligen Empfangsbereich identifiziert, und die dem Empfangsbereich zugeordnete Phasengröße enthalten kann.Advantageously, at least one phase size matrix can be a group of tuples, whereby each tuple can contain at least one value, in particular at least one coordinate size, which identifies a respective reception area, and the phase size assigned to the reception area.

Vorteilhafterweise kann alternativ oder zusätzlich wenigstens eine Korrekturfunktion mit einer eindimensionalen oder einer zweidimensionalen Korrekturgrößenmatrix realisiert werden. Auf diese Weise kann die Korrekturfunktion entsprechend der Dimensionen der Empfangsmatrix realisiert werden.Alternatively or additionally, at least one correction function can advantageously be implemented with a one-dimensional or a two-dimensional correction size matrix. In this way, the correction function can be implemented according to the dimensions of the receiving matrix.

Ferner wird die Aufgabe bei dem Flash-LiDAR-System dadurch gelöst, dass das Flash-LiDAR-System Mittel aufweist zur Durchführung des erfindungsgemäßen Verfahrens.Furthermore, the task in the flash LiDAR system is solved in that the flash LiDAR system has means for carrying out the method according to the invention.

Erfindungsgemäß weist das Flash-LiDAR-System Mittel auf, mit welchen
das aus dem wenigstens einen Überwachungsbereich kommende Licht mit den Empfangsbereichen während wenigstens zwei Aufnahmezeitbereichen in jeweilige Empfangsgrößen in Form von Phasengrößen umgewandelt werden kann,
wobei wenigstens zwei der Aufnahmezeitbereiche bezogen auf eine Modulationsperiode des wenigstens einen Sendelichtsignals phasenverschoben gestartet werden können,
für wenigstens einen Teil der Phasengrößen unter Verwendung der wenigstens einen Korrekturfunktion korrigierte End-Phasengrößen ermittelt werden können.
According to the invention, the Flash LiDAR system has means with which
the light coming from the at least one monitoring area can be converted into respective reception variables in the form of phase variables during at least two recording time ranges,
wherein at least two of the recording time ranges can be started out of phase with respect to a modulation period of the at least one transmitted light signal,
Corrected final phase variables can be determined for at least some of the phase variables using the at least one correction function.

Auf diese Weise können auch in Szenen mit stark reflektierenden Objekten, insbesondere retroreflektiven Objekten, wie insbesondere Straßenschildern, Fahrbahnmarkierungen oder dergleichen, auch Entfernungen von schwächer reflektierenden Objekten, wie Fußgängern, anderen Fahrzeugen, Radfahrern, Hindernissen oder dergleichen, genauer ermittelt werden.In this way, even in scenes with highly reflective objects, in particular retroreflective objects, such as street signs, road markings or the like, distances from weakly reflective objects, such as pedestrians, other vehicles, cyclists, obstacles or the like, can also be determined more precisely.

Außerdem wird die Aufgabe bei dem Fahrzeug dadurch gelöst, dass das Fahrzeug wenigstens ein erfindungsgemäßes Flash-LiDAR-System aufweist.In addition, the task in the vehicle is solved in that the vehicle has at least one flash LiDAR system according to the invention.

Mit einem Flash-LiDAR-System kann wenigstens ein Überwachungsbereich in der Umgebung des Fahrzeugs und/oder im Innenraum des Fahrzeugs auf Objekte hin überwacht werden. Mit dem Flash-LiDAR-System können Entfernungen zu erfassten Objekten ermittelt werden.With a Flash LiDAR system, at least one monitoring area in the surroundings of the vehicle and/or in the interior of the vehicle can be monitored for objects. The Flash LiDAR system can be used to determine distances to detected objects.

Vorteilhafterweise kann das Fahrzeug wenigstens ein Fahrassistenzsystem aufweisen. Mit dem Fahrerassistenzsystem kann das Fahrzeug autonom oder wenigstens teilweise autonom betrieben werden.Advantageously, the vehicle can have at least one driving assistance system. With the driver assistance system, the vehicle can be operated autonomously or at least partially autonomously.

Vorteilhafterweise kann wenigstens ein Flash-LiDAR-System mit wenigstens einem Fahrerassistenzsystem des Fahrzeugs funktional verbunden sein. Auf diese Weise können Informationen über den wenigstens einen Überwachungsbereich, insbesondere Entfernungsgrößen und/oder Richtungsgrößen, welche mit dem wenigstens einen Flash-LiDAR-System ermittelt werden können, an das wenigstens eine Fahrerassistenzsystem übermittelt werden. Mit dem wenigstens einen Fahrerassistenzsystem kann das Fahrzeug unter Berücksichtigung der Informationen über den wenigstens einen Überwachungsbereich autonom oder wenigstens teilweise autonom betrieben werden.Advantageously, at least one Flash LiDAR system can be functionally connected to at least one driver assistance system of the vehicle. In this way, information about the at least one monitoring area, in particular distance variables and/or directional variables, which can be determined with the at least one Flash LiDAR system, can be transmitted to the at least one driver assistance system. With the at least one driver assistance system, the vehicle can be operated autonomously or at least partially autonomously, taking into account the information about the at least one monitoring area.

Im Übrigen gelten die im Zusammenhang mit dem erfindungsgemäßen Verfahren, dem erfindungsgemäßen Flash-LiDAR-System und dem erfindungsgemäßen Fahrzeug und deren jeweiligen vorteilhaften Ausgestaltungen aufgezeigten Merkmale und Vorteile untereinander entsprechend und umgekehrt. Die einzelnen Merkmale und Vorteile können selbstverständlich untereinander kombiniert werden, wobei sich weitere vorteilhafte Wirkungen einstellen können, die über die Summe der Einzelwirkungen hinausgehen.Furthermore, the features and advantages shown in connection with the method according to the invention, the flash LiDAR system according to the invention and the vehicle according to the invention and their respective advantageous embodiments apply accordingly to one another and vice versa. The individual features and advantages can of course be combined with one another, which can result in further advantageous effects that go beyond the sum of the individual effects.

Kurze Beschreibung der ZeichnungenBrief description of the drawings

Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung, in der Ausführungsbeispiele der Erfindung anhand der Zeichnung näher erläutert werden. Der Fachmann wird die in der Zeichnung, der Beschreibung und den Ansprüchen in Kombination offenbarten Merkmale zweckmäßigerweise auch einzeln betrachten und zu sinnvollen weiteren Kombinationen zusammenfassen. Es zeigen schematisch

  • 1 ein Fahrzeug in der Vorderansicht mit einem Fahrerassistenzsystem und einem Flash-LiDAR-System zur Bestimmung von Entfernungen von Objekten zu dem Fahrzeug;
  • 2 eine Funktionsdarstellung eines Teils des Fahrzeugs mit dem Fahrerassistenzsystem und dem Flash-LiDAR-System aus der 1;
  • 3 eine Vorderansicht einer Empfangsmatrix einer Empfangseinrichtung des Flash-LiDAR-Systems aus den 1 und 2, wobei die Empfangsmatrix eine Vielzahl von Empfangsbereichen aufweist;
  • 4 ein Signalstärke-Zeit-Diagramm mit vier beispielhaften Phasenbildern DCS0 bis DCS3, welche mit jeweiligen Phasenverschiebungen von 90° aus einem Empfangslichtsignal eines reflektierten Sendelichtsignals des Flash-LiDAR-Systems aus den 1 und 2 ermittelt werden und deren Amplituden als Phasengrößen zur Ermittlung von Entfernungen von Objekten dienen;
  • 5 ein Entfernungsbild einer Szene mit mehreren Objekten in Graustufendarstellung, wobei eines der Objekte ein retroreflektives Straßenschild ist, welches hier abgedeckt ist;
  • 6 ein Entfernungsbild der Szene aus der 5, wobei hier das retroreflektive Straßenschild nicht abgedeckt ist und zu Streulichteffekten führt;
  • 7 ein Entfernungsbild der Szene aus der 5, wobei hier die Streulichteffekte korrigiert sind;
  • 8 eine Graustufen-Matrix-Darstellung eines Ablaufs zur Ermittlung von Korrektur-Phasengrößen mit einer Faltung von Kurz-Phasengrößen mit einer Korrekturfunktion;
  • 9 eine Graustufen-Matrix-Darstellung eines Ablaufs zur Ermittlung von End-Phasengrößen als Differenz aus Lang-Phasengrößen und den Korrektur-Phasengrößen aus 8;
  • 10 das Ablaufschema zum Ablauf der Ermittlung der Korrektur-Phasengrößen aus der 8 für die Kurz-Phasengrößen der Phasenbilder DCS0 und DCS1 für die Empfangsbereiche einer Zeile der Empfangsmatrix;
  • 11 das Ablaufschema zum Ablauf der Ermittlung der End-Phasengrößen aus der 9 für die Lang-Phasengrößen der Phasenbilder DCS0 und DCS1 für die Empfangsbereiche einer Zeile der Empfangsmatrix.
Further advantages, features and details of the invention result from the following description, in which exemplary embodiments of the invention are explained in more detail with reference to the drawing. The person skilled in the art will expediently also consider the features disclosed in combination in the drawing, the description and the claims individually and combine them into further sensible combinations. Show it schematically
  • 1 a front view of a vehicle with a driver assistance system and a flash LiDAR system for determining distances from objects to the vehicle;
  • 2 a functional representation of part of the vehicle with the driver assistance system and the flash LiDAR system from the 1 ;
  • 3 a front view of a reception matrix of a reception device of the Flash LiDAR system from the 1 and 2 , wherein the reception matrix has a plurality of reception areas;
  • 4 a signal strength-time diagram with four exemplary phase images DCS 0 to DCS 3 , which with respective phase shifts of 90 ° from a received light signal of a reflected transmitted light signal of the Flash LiDAR system 1 and 2 are determined and whose amplitudes serve as phase variables for determining distances from objects;
  • 5 a grayscale range image of a scene with multiple objects, one of the objects being a retroreflective street sign, which is covered here;
  • 6 a distance image of the scene from the 5 , whereby the retroreflective street sign is not covered here and leads to scattered light effects;
  • 7 a distance image of the scene from the 5 , where the scattered light effects are corrected;
  • 8th a grayscale matrix representation of a process for determining correction phase variables with a convolution of short phase variables with a correction function;
  • 9 a grayscale matrix representation of a process for determining final phase sizes as the difference between long phase sizes and the correction phase sizes 8th ;
  • 10 the flow chart for the process of determining the correction phase variables from the 8th for the short phase sizes of the phase images DCS 0 and DCS 1 for the reception areas of a row of the reception matrix;
  • 11 the flow chart for the process of determining the final phase variables from the 9 for the long phase sizes of the phase images DCS 0 and DCS 1 for the reception areas of a row of the reception matrix.

In den Figuren sind gleiche Bauteile mit gleichen Bezugszeichen versehen.In the figures, the same components are given the same reference numbers.

Ausführungsform(en) der ErfindungEmbodiment(s) of the invention

In der 1 ist ein Fahrzeug 10 beispielhaft in Form eines Personenkraftwagens in der Vorderansicht gezeigt. 2 zeigt eine Funktionsdarstellung eines Teils des Fahrzeugs 10.In the 1 a vehicle 10 is shown as an example in the form of a passenger car in the front view. 2 shows a functional representation of a part of the vehicle 10.

Das Fahrzeug 10 verfügt über ein LiDAR-System 12, das als Flash-LiDAR System ausgestaltet ist. Das LiDAR-System 12 ist beispielhaft in der vorderen Stoßstange des Fahrzeugs 10 angeordnet. Mit dem LiDAR-System 12 kann ein Überwachungsbereich 14 in Fahrtrichtung 16 vor dem Fahrzeug 10 auf Objekte 18 hin überwacht werden. Das LiDAR-System 12 kann auch an anderer Stelle am Fahrzeug 10 angeordnet und anders ausgerichtet sein. Mit dem LiDAR-System 12 können Objektinformationen, beispielsweise Entfernungen D, Richtungen und Geschwindigkeiten von Objekten 18 relativ zum Fahrzeug 10, respektive zum LiDAR-System 12, ermittelt werden.The vehicle 10 has a LiDAR system 12, which is designed as a flash LiDAR system tet is. The LiDAR system 12 is, for example, arranged in the front bumper of the vehicle 10. With the LiDAR system 12, a monitoring area 14 in the direction of travel 16 in front of the vehicle 10 can be monitored for objects 18. The LiDAR system 12 can also be arranged elsewhere on the vehicle 10 and aligned differently. With the LiDAR system 12, object information, for example distances D, directions and speeds of objects 18 relative to the vehicle 10 or to the LiDAR system 12, can be determined.

Bei den Objekten 18 kann es sich um stehende oder bewegte Objekte, beispielsweise um andere Fahrzeuge, Personen, Tiere, Pflanzen, Hindernisse, Fahrbahnunebenheiten, beispielsweise Schlaglöcher oder Steine, Fahrbahnbegrenzungen, Verkehrszeichen, Freiräume, beispielsweise Parklücken, Niederschlag oder dergleichen handeln.The objects 18 can be stationary or moving objects, for example other vehicles, people, animals, plants, obstacles, bumps in the road, for example potholes or stones, road boundaries, traffic signs, open spaces, for example parking spaces, precipitation or the like.

Im Folgenden wird der einfacheren Erläuterung wegen jedes Objekt 18 mit einem einzigen Objektziel gleichgesetzt. Ein Objektziel ist eine Stelle eines Objekts 18, an dem Sendelichtsignale 20, welche von dem LiDAR-System 12 in den Überwachungsbereich 14 gesendet werden, reflektiert werden können. Jedes Objekt 18 weist in der Regel mehrere solcher Objektziele auf.In the following, for the sake of easier explanation, each object 18 is equated with a single object target. An object target is a location on an object 18 at which transmitted light signals 20, which are sent from the LiDAR system 12 into the monitoring area 14, can be reflected. Each object 18 typically has several such object targets.

Das LiDAR-System 12 ist mit einem Fahrerassistenzsystem 22 verbunden. Mit dem Fahrerassistenzsystem 22 kann das Fahrzeug 10 autonom oder teilautonom betrieben werden.The LiDAR system 12 is connected to a driver assistance system 22. With the driver assistance system 22, the vehicle 10 can be operated autonomously or semi-autonomously.

Das LiDAR-System 12 umfasst beispielhaft eine Sendeeinrichtung 24, eine Empfangseinrichtung 26 und eine Steuer- und Auswerteeinrichtung 28.The LiDAR system 12 includes, for example, a transmitting device 24, a receiving device 26 and a control and evaluation device 28.

Bei der Steuer- und Auswerteeinrichtung 28 handelt es sich beispielhaft um eine elektronische Steuer- und Auswerteeinrichtung, beispielsweise in Form eines oder mehrere Prozessoren. Die Funktionen der Steuer- und Auswerteeinrichtung 28 können zentral oder dezentral auf softwaremäßigem und/oder hardwaremäßigem Wege realisiert sein. Teile der Funktionen der Steuer- und Auswerteeinrichtung 28 können auch in der Sendeeinrichtung 24 und/oder der Empfangseinrichtung 26 integriert sein.The control and evaluation device 28 is, for example, an electronic control and evaluation device, for example in the form of one or more processors. The functions of the control and evaluation device 28 can be implemented centrally or decentrally using software and/or hardware. Parts of the functions of the control and evaluation device 28 can also be integrated in the transmitting device 24 and/or the receiving device 26.

Mit der Steuer- und Auswerteeinrichtung 28 können elektrische Sendesignale erzeugt werden. Die Sendeeinrichtung 24 kann mit den elektrischen Sendesignalen angesteuert werden, sodass diese amplitudenmodulierte Sendelichtsignale 20 in Form von Lichtpulsen in den Überwachungsbereich 14 sendet.Electrical transmission signals can be generated with the control and evaluation device 28. The transmitting device 24 can be controlled with the electrical transmission signals so that it sends amplitude-modulated transmission light signals 20 in the form of light pulses into the monitoring area 14.

Die Sendeeinrichtung 24 weist als Lichtquelle beispielhaft einen Laser auf. Mit dem Laser können Sendelichtsignale 20 in Form von Laserpulsen erzeugt werden. Darüber hinaus weist die Sendeeinrichtung 24 eine optische Einrichtung auf, mit welcher die Sendelichtsignale 20 so aufgeweitet werden, dass sie sich - ähnlich einem Blitz - in den gesamten Überwachungsbereich 14 ausbreiten können. Auf diese Weise kann mit jedem Sendelichtsignal 20 der gesamte Überwachungsbereich 14 angeleuchtet werden.The transmitting device 24 has, for example, a laser as a light source. The laser can be used to generate transmitted light signals 20 in the form of laser pulses. In addition, the transmitting device 24 has an optical device with which the transmitted light signals 20 are expanded so that they can spread into the entire monitoring area 14 - similar to a flash. In this way, the entire monitoring area 14 can be illuminated with each transmitted light signal 20.

An einem Objekt 18 in Richtung der Empfangseinrichtung 26 reflektierte Sendelichtsignale 20, welche der besseren Unterscheidung wegen als Empfangslichtsignale 30 bezeichnet werden, können mit der Empfangseinrichtung 26 empfangen werden.Transmitted light signals 20 reflected on an object 18 in the direction of the receiving device 26, which are referred to as received light signals 30 for better distinction, can be received with the receiving device 26.

Die Empfangseinrichtung 26 kann optional eine Empfangslichtsignal-Umlenkeinrichtung aufweisen, mit der die Empfangslichtsignale 30 zu einer in der 3 gezeigten Empfangsmatrix 32 der Empfangseinrichtung 26 gelenkt werden.The receiving device 26 can optionally have a received light signal deflection device, with which the received light signals 30 to one in the 3 shown reception matrix 32 of the receiving device 26 are directed.

Die Empfangsmatrix 32 ist beispielsweise mit einem Flächensensor in Form eines CCD-Sensors mit einer Vielzahl von Empfangsbereichen 34 realisiert. Jeder Empfangsbereich 34 kann beispielsweise durch eine Gruppe von Pixeln realisiert werden. Die Empfangsmatrix 32 weist beispielhaft 320 x 240 Empfangsbereiche 34 auf. In der 3 sind der besseren Übersichtlichkeit wegen beispielhaft lediglich 7 x 7 der Empfangsbereiche 34 angedeutet.The reception matrix 32 is realized, for example, with an area sensor in the form of a CCD sensor with a large number of reception areas 34. Each reception area 34 can be implemented, for example, by a group of pixels. The reception matrix 32 has, for example, 320 x 240 reception areas 34. In the 3 For the sake of clarity, only 7 x 7 of the reception areas 34 are indicated as an example.

Anstatt eines CCD-Sensors kann auch ein andersartiger Flächensensor, beispielsweise ein Active-Pixel Sensor oder dergleichen verwendet werden.Instead of a CCD sensor, a different type of surface sensor, for example an active pixel sensor or the like, can also be used.

Mit den Empfangsbereichen 34 der Empfangsmatrix 32 können die jeweils auf sie treffenden Anteile von Empfangslichtsignalen 30 in entsprechende, in der 4 bezeichnete Phasengrößen A0, A1, A2 und A3, welche im Folgenden der Einfachheit halber auch als Phasengrößen Ai bezeichnet werden können, umgewandelt werden. Beispielhaft sind die Phasengrößen A0, A1, A2 und A3 die Amplituden von Phasenbildern (Differtial Correlation Samples) DCS0, DCS1, DCS2 und DCS3, welche im Folgenden der Einfachheit halber auch als Phasenbilder DCSi bezeichnet werden können.With the reception areas 34 of the reception matrix 32, the portions of received light signals 30 that hit them can be divided into corresponding ones 4 designated phase variables A 0 , A 1 , A 2 and A 3 , which for the sake of simplicity can also be referred to below as phase variables Ai, are converted. By way of example, the phase variables A 0 , A 1 , A 2 and A 3 are the amplitudes of phase images (differential correlation samples) DCS 0 , DCS 1 , DCS 2 and DCS 3 , which can also be referred to below as phase images DCS i for the sake of simplicity .

Jeder Empfangsbereich 34 ist über geeignete Verschlussmittel für die Erfassung von Empfangslichtsignalen 30 für definierte Aufnahmezeitbereiche TB0, TB1, TB2 und TB3,, welche im Folgenden der Einfachheit halber auch als Aufnahmezeitbereiche TBi bezeichnet werden können, aktivierbar.Each reception area 34 can be activated via suitable closure means for the detection of received light signals 30 for defined recording time ranges TB 0 , TB 1 , TB 2 and TB 3 , which, for the sake of simplicity, can also be referred to below as recording time ranges TB i .

Beispielhaft sind die Empfangsbereich 34 jeweils in vier Aufnahmezeitbereichen TB0, TB1, TB2 und TB3 zur Erfassung von Empfangssignalen 30 aktivierbar.By way of example, the reception areas 34 can each be activated in four recording time ranges TB0, TB 1 , TB 2 and TB 3 for detecting received signals 30.

Jeder Aufnahmezeitbereich TBi ist durch einen Startzeitpunkt und eine Integrationsdauer tINT definiert. Die Integrationsdauern tINT der Aufnahmezeitbereiche TBi sind deutlich kürzer als eine Periodendauer tMOD der Modulationsperiode MP des Sendelichtsignals 20. Die zeitlichen Abstände zwischen jeweils zwei definierten Aufnahmezeitbereichen TBi sind kleiner als die Periodendauer tMOD der Modulationsperiode MP.Each recording time range TBi is defined by a starting time and an integration period t INT . The integration durations t INT of the recording time ranges TBi are significantly shorter than a period duration t MOD of the modulation period MP of the transmitted light signal 20. The time intervals between two defined recording time ranges TBi are smaller than the period duration t MOD of the modulation period MP.

Während eines Aufnahmezeitbereichs TBi können auf den jeweiligen Empfangsbereich 34 treffende Anteile von Empfangslichtsignalen 30 in entsprechende elektrische Empfangssignale umgewandelt werden. Aus den Empfangssignalen können die jeweiligen Phasenbilder DCSi und deren Amplituden Ai ermittelt werden, welche jeweilige Signalausschnitte des Empfangslichtsignals 30 in den jeweiligen Aufnahmezeitbereichen TBi charakterisieren. Die Phasenbilder DCSi und deren Amplituden, also die Phasengrößen Ai, charakterisieren die jeweilige Lichtmenge, die während den Aufnahmezeitbereichen TBi mit den entsprechend aktivierten Empfangsbereich 34 der Empfangsmatrix 32 gesammelt wird.During a recording time range TBi, portions of received light signals 30 hitting the respective reception area 34 can be converted into corresponding electrical reception signals. The respective phase images DCS i and their amplitudes Ai can be determined from the received signals, which characterize respective signal sections of the received light signal 30 in the respective recording time ranges TBi. The phase images DCS i and their amplitudes, i.e. the phase variables Ai, characterize the respective amount of light that is collected during the recording time ranges TBi with the correspondingly activated reception area 34 of the reception matrix 32.

Beispielhaft kann jeder Empfangsbereich 34 individuell aktiviert und ausgelesen werden. Die Verschlussmittel können auf softwaremäßigem und/oder hardwaremäßigem Wege realisiert sein. Derartige Verschlussmittel können als sogenannte „Shutter“ realisiert werden. Beispielhaft können die Empfangsbereiche 34 mit entsprechenden periodischen Aufnahme-Steuersignalen in Form von Shuttersignalen angesteuert werden. Die Shuttersignale können über die elektrischen Sendesignale, mit denen der Laser der Sendeeinrichtung 24 angesteuert wird, oder gemeinsam mit diesen getriggert werden. So werden die Phasengrößen Ai zu den Sendelichtsignalen 20 in Bezug gebracht. Beispielhaft können die elektrischen Sendesignale zu einem Startzeitpunkt ST getriggert werden. Die Empfangsbereiche 34 werden mit den entsprechend zeitlich versetzten Shuttersignalen getriggert.For example, each reception area 34 can be activated and read out individually. The closure means can be implemented using software and/or hardware. Such closure means can be implemented as so-called “shutters”. For example, the reception areas 34 can be controlled with corresponding periodic recording control signals in the form of shutter signals. The shutter signals can be triggered via the electrical transmission signals with which the laser of the transmission device 24 is controlled, or together with them. The phase variables Ai are thus related to the transmitted light signals 20. For example, the electrical transmission signals can be triggered at a starting time ST. The reception areas 34 are triggered with the corresponding time-offset shutter signals.

Die Empfangseinrichtung 26 kann optional optische Elemente aufweisen, mit denen aus dem Überwachungsbereich 14 kommende Empfangslichtsignale 30 in Richtung der Empfangsbereiche 34 betrachtet abhängig von der Richtung, aus der sie kommen, auf jeweilige Empfangsbereiche 34 abgebildet werden. So kann aus der Position der angeleuchteten Empfangsbereiche 34 innerhalb der Empfangsmatrix 32 die Richtung eines Objekts 18, an dem das Sendelichtsignal 20 reflektiert wird, ermittelt werden.The receiving device 26 can optionally have optical elements with which received light signals 30 coming from the monitoring area 14 are imaged onto respective receiving areas 34 when viewed in the direction of the receiving areas 34, depending on the direction from which they come. The direction of an object 18 on which the transmitted light signal 20 is reflected can thus be determined from the position of the illuminated reception areas 34 within the reception matrix 32.

In der 4 sind eine Modulationsperiode MP einer Empfangs-Hüllkurve 36 der Phasenbilder DCS0, DCS1, DCS2 und DCS3 in einem gemeinsamen Signalstärke-Zeit-Diagramm gezeigt. Dabei ist die Signalstärkenachse mit „S“ und die Zeitachse mit „t“ bezeichnet.In the 4 a modulation period MP of a reception envelope 36 of the phase images DCS 0 , DCS 1 , DCS 2 and DCS 3 is shown in a common signal strength-time diagram. The signal strength axis is labeled “S” and the time axis is labeled “t”.

Die Empfangs-Hüllkurve 36 ist gegenüber dem Startzeitpunkt ST zeitlich versetzt. Der Zeitversatz in Form einer Phasendifferenz Φ charakterisiert die Flugzeit zwischen dem Aussenden des Sendelichtsignals 20 und dem Empfang des entsprechenden Empfangslichtsignals 30.The reception envelope 36 is offset in time from the starting time ST. The time offset in the form of a phase difference Φ characterizes the flight time between the emission of the transmitted light signal 20 and the reception of the corresponding received light signal 30.

Aus der Phasendifferenz Φ kann die Entfernung D des reflektierenden Objekts 18 ermittelt werden. Die Phasenverschiebung Φ kann daher als Entfernungsgröße für die Entfernung D verwendet werden. Die Flugzeit ist bekanntermaßen proportional zur Entfernung D des Objekts 18 relativ zu dem LiDAR-System 12.The distance D of the reflecting object 18 can be determined from the phase difference Φ. The phase shift Φ can therefore be used as a distance quantity for the distance D. The flight time is known to be proportional to the distance D of the object 18 relative to the LiDAR system 12.

Die Empfangs-Hüllkurve 36 kann durch beispielhaft vier Stützstellen in Form der vier Phasenbilder DCS0, DCS1, DCS2 und DCS3 angenähert werden. Alternativ kann die Empfangs-Hüllkurve 36 auch durch mehr oder weniger Stützstellen in Form von Phasenbildern angenähert werden.The reception envelope 36 can be approximated by, for example, four support points in the form of the four phase images DCS 0 , DCS 1 , DCS 2 and DCS 3 . Alternatively, the reception envelope 36 can also be approximated by more or fewer support points in the form of phase images.

Die Aufnahmezeitbereiche TB0, TB1, TB2 und TB3 werden jeweils bezogen auf ein Referenzereignis beispielhaft in Form eines Triggersignals für das elektrische Sendesignal zum Startzeitpunkt ST gestartet. Bei dem Referenzereignis kann es sich beispielsweise um einen Nulldurchgang des elektrischen Signals handeln, mit welchem der Laser zur Erzeugung des Sendelichtsignals 20 angesteuert wird. Beispielhaft erstreckt sich die Modulationsperiode MP des Sendelichtsignals 20 über 360°. Die Aufnahmezeitbereiche TB0, TB1, TB2 und TB3 starten beispielhaft jeweils bezogen auf die Modulationsperiode MP mit einem Abstand von 90° zueinander. Die Aufnahmezeitbereiche TB0, TB1, TB2 und TB3 starten also mit Phasenverschiebungen von 0°, 90°, 180° beziehungsweise 270° gegenüber dem Startzeitpunkt ST.The recording time ranges TB 0 , TB 1 , TB 2 and TB 3 are each started based on a reference event, for example in the form of a trigger signal for the electrical transmission signal at the starting time ST. The reference event can, for example, be a zero crossing of the electrical signal with which the laser is controlled to generate the transmitted light signal 20. By way of example, the modulation period MP of the transmitted light signal 20 extends over 360°. By way of example, the recording time ranges TB 0 , TB 1 , TB 2 and TB 3 each start at a distance of 90° from one another in relation to the modulation period MP. The recording time ranges TB 0 , TB 1 , TB 2 and TB 3 therefore start with phase shifts of 0°, 90°, 180° and 270°, respectively, compared to the starting time ST.

Eine Entfernung D eines erfassten Objekts 18 kann beispielhaft aus den Amplituden, also den Phasengrößen A0, A1, A2 und A3, der Phasenbilder DCS0, DCS1, DCS2 und DCS3 für einen jeweiligen Empfangsbereich 34 in hier nicht weiter interessierenden Weise rechnerisch ermittelt werden.A distance D of a detected object 18 can be determined, for example, from the amplitudes, i.e. the phase variables A 0 , A 1 , A 2 and A 3 , of the phase images DCS 0 , DCS 1 , DCS 2 and DCS 3 for a respective reception area 34, not further here be determined computationally in the manner of interest.

In der 5 ist ein Entfernungsbild einer Szene in Graustufendarstellung gezeigt, welches mit dem LiDAR-System 12 erfasst wurde. Dabei sind in der horizontalen Dimension des Entfernungsbildes die 320 Spalten der Empfangsmatrix 32 angegeben. Jede Spalte charakterisiert die horizontale Richtung, aus der die mit den Empfangsbereichen 34 der Spalte empfangenen Empfangslichtsignale 30 kommen, in der sich also das entsprechende Objekt 18 befindet. In der vertikalen Dimension des Entfernungsbildes sind die 240 Zeilen der Empfangsmatrix 32 angegeben. Jede Zeile charakterisiert die vertikale Richtung, aus der die mit den Empfangsbereichen 34 der Zeile empfangenen Empfangslichtsignale 30 kommen, in der sich also das entsprechende Objekt 18 befindet. Über die Position eines mit Empfangslichtsignalen 30 getroffenen Empfangsbereichs 34 in der Empfangsmatrix 32 kann so die Richtung des Objekts 18 charakterisiert werden, aus dem die entsprechenden Empfangslichtsignale 30 kommen. Die Entfernungen D der erfassten Objekte 18 sind in Graustufen entsprechend einer neben dem Entfernungsbild gezeigten Graustufenskala definiert.In the 5 a distance image of a scene is shown in grayscale, which was captured with the LiDAR system 12. Included The 320 columns of the reception matrix 32 are indicated in the horizontal dimension of the distance image. Each column characterizes the horizontal direction from which the received light signals 30 received with the reception areas 34 of the column come, i.e. in which the corresponding object 18 is located. The 240 lines of the reception matrix 32 are indicated in the vertical dimension of the distance image. Each line characterizes the vertical direction from which the received light signals 30 received with the reception areas 34 of the line come, i.e. in which the corresponding object 18 is located. The direction of the object 18 from which the corresponding received light signals 30 come can be characterized via the position of a reception area 34 in the reception matrix 32 that is hit with received light signals 30. The distances D of the detected objects 18 are defined in gray levels according to a gray level scale shown next to the distance image.

In dem Entfernungsbild sind mehrere Objekte 18, beispielsweise eine Person, ein Stra-ßenschild und eine Tafel, gezeigt. Dabei ist das eigentlich stark reflektierende, beispielsweise retroreflektive Straßenschild, welches der besseren Unterscheidung wegen im Folgenden als Objekt 18R bezeichnet wird, in der in 5 gezeigten Szene mit einer normal reflektierenden Abdeckung versehen. In der 6 ist dieselbe Szene wie in der 5 gezeigt. Hier ist jedoch die Abdeckung des stark reflektierenden Objekts 18R, nämlich des Straßenschilds, entfernt.Several objects 18, for example a person, a street sign and a board, are shown in the distance image. The actually highly reflective, for example retroreflective street sign, which is referred to below as object 18 R for the sake of better distinction, is in the in 5 scene shown with a normal reflective cover. In the 6 is the same scene as in the 5 shown. Here, however, the cover of the highly reflective object 18 R , namely the street sign, is removed.

Die Verwendung des LiDAR-Systems 12 mit langen Integrationsdauern tINT, welche erforderlich sind, um auch schwach reflektierende Objekte 18, wie beispielsweise in den 5 und 6 die Person und die Tafel, im Überwachungsbereich 14 zu erfassen, kann nicht nur zu einer Übersättigung von Empfangsbereichen 34 führen, die von an stark reflektierenden Objekten 18R reflektierten Empfangslichtsignalen 30 getroffen werden, sondern auch zu einer Verfälschung der Signale der Empfangsbereiche 34 in der Nähe der mit den Empfangslichtsignalen 30 von den stark reflektierenden Objekten 18R getroffenen Empfangsbereiche 34. Diese Verfälschung wird als Blooming oder Blendung (glare) bezeichnet. Das Blooming führt zu einem Fehler bei der Bestimmung der Entfernung D von Objekten 18 in der Nähe stark reflektierender Objekte 18R. Die Entfernung D der normal oder schwach reflektierenden Objekte 18 wird, wie in der 6 gezeigt, in Richtung der Entfernung D der stark reflektierenden Objekte 18R verfälscht. In der 6 ist um das retroreflektiven Objekt 18R herum ein ringförmiger Bloomingbereich 38 erkennbar. Der Bloomingbereich 38 erstreckt sich hier über die Empfangsbereiche 34, welche eigentlich die Empfangslichtsignale 30 von den benachbarten normal reflektierenden Objekten 18, nämlich der Tafel und einem Teil der Person, erfassen sollten. Die wahren Entfernungen D der benachbarten normal reflektierenden Objekte 18 können in dem Bloomingbereich 38 nicht ermittelt werden.The use of the LiDAR system 12 with long integration times t INT , which are required to also detect weakly reflecting objects 18, such as in the 5 and 6 Detecting the person and the board in the monitoring area 14 can not only lead to an oversaturation of reception areas 34, which are hit by received light signals 30 reflected on highly reflective objects 18R , but also to a falsification of the signals of the reception areas 34 nearby the reception areas 34 hit by the received light signals 30 from the highly reflective objects 18 R. This distortion is referred to as blooming or glare. Blooming results in an error in determining the distance D from objects 18 near highly reflective objects 18 R. The distance D of the normally or weakly reflecting objects 18 is, as in the 6 shown, falsified in the direction of the distance D of the highly reflective objects 18 R. In the 6 an annular blooming area 38 can be seen around the retroreflective object 18 R. The blooming area 38 extends here over the reception areas 34, which should actually capture the received light signals 30 from the neighboring normally reflecting objects 18, namely the board and part of the person. The true distances D of the neighboring normally reflecting objects 18 cannot be determined in the blooming area 38.

Die Streulichteffekte, welche durch stark reflektierende Objekte 18R hervorgerufen werden, können, wie im Folgenden beschrieben, korrigiert werden. Auf diese Weise können auch für die schwach oder normal reflektierende Objekte 18 in der Nachbarschaft von stark reflektierenden Objekten 18R die jeweils korrekten Entfernungen D ermittelt werden.The scattered light effects caused by highly reflective objects 18 R can be corrected as described below. In this way, the correct distances D can also be determined for the weakly or normally reflecting objects 18 in the vicinity of strongly reflecting objects 18 R.

Zur Korrektur der Streulichteffekte wird von der gleichen Szene in dem Überwachungsbereich 14 mit den Empfangsbereichen 34 sowohl eine Kurzmessung als auch eine Langmessung durchgeführt.To correct the scattered light effects, both a short measurement and a long measurement are carried out of the same scene in the monitoring area 14 with the reception areas 34.

Die Kurzmessung wird mit einer Kurz-Integrationsdauer tINT;k durchgeführt, während der das Licht, also auch Empfangslichtsignale 30, aus dem Überwachungsbereich 14 mit den Empfangsbereichen 34 in den vier Aufnahmezeitbereichen TB0, TB1, TB2 und TB3 empfangen werden. Die Länge der Kurz-Integrationsdauer tINT,K ist so gewählt, dass auch die starken Empfangslichtsignale 30 von dem retroreflektiven Objekt 18R nicht zu einer Übersteuerung in der Empfangsmatrix 32 führt. Beispielsweise beträgt die Kurz-Integrationsdauer tINT,K etwa 1 µs.The short measurement is carried out with a short integration period t INT;k , during which the light, including received light signals 30, are received from the monitoring area 14 with the reception areas 34 in the four recording time areas TB 0 , TB 1 , TB 2 and TB 3 . The length of the short integration period t INT,K is chosen so that even the strong received light signals 30 from the retroreflective object 18 R do not lead to overloading in the reception matrix 32. For example, the short integration period t INT,K is approximately 1 µs.

Mit jedem der Empfangsbereiche 34 wird das jeweils empfangenen Lichts in die vier entsprechenden und dem jeweiligen Empfangsbereich 34 zugeordneten Kurz-Phasengrößen A0,k, A1,k, A2,k und A3,k umgewandelt, welche im Folgenden der Einfachheit halber auch als Kurz-Phasengrößen Ai,k bezeichnet werden können.With each of the reception areas 34, the respectively received light is converted into the four corresponding short phase variables A 0,k , A 1,k , A 2,k and A 3,k assigned to the respective reception area 34, which are described below for the sake of simplicity can also be referred to as short phase variables A i,k .

Die Kurz-Phasengrößen A0,k, A1,k, A2,k und A3,k werden entsprechend ihren jeweiligen Aufnahmezeitbereichen TB0, TB1, TB2 und TB3 einer von vier in der 8 gezeigten Kurz-Phasengrößenmatrizen 400, 401, 402 beziehungsweise 403 zugewiesen, welche im Folgenden der Einfachheit halber auch als Kurz-Phasengrößenmatrizen 40i bezeichnet werden können.The short phase variables A 0,k , A 1,k , A 2,k and A 3,k become one of four in the corresponding recording time ranges TB 0 , TB 1 , TB 2 and TB 3 8th shown short phase size matrices 40 0 , 40 1 , 40 2 and 40 3 respectively, which for the sake of simplicity can also be referred to below as short phase size matrices 40i.

In der 8 ist von links nach rechts ein Ablaufschema zur Faltung der Kurz-Phasengrößen Ai,k mit einer Korrekturfunktionen 42 in Graustufendarstellung gezeigt. 10 zeigt von oben nach unten das entsprechende Ablaufschema beispielhaft für die Reihe 175 der beiden Kurz-Phasengrößenmatrizen 400 und 401 in einer Intensitätsprofil-Darstellung.In the 8th From left to right, a flowchart for folding the short phase variables A i,k with a correction function 42 is shown in grayscale. 10 shows the corresponding flow chart from top to bottom as an example for the row 175 of the two short phase size matrices 40 0 and 40 1 in an intensity profile representation.

In der 8 links sind die vier Kurz-Phasengrößenmatrizen 400, 401, 402, 403 für die in den 5 bis 7 gezeigte Szene nach einer Kurzmessung dargestellt.In the 8th on the left are the four short phase size matrices 40 0 , 40 1 , 40 2 , 40 3 for those in the 5 until 7 The scene shown is shown after a short measurement.

In jeder der Kurz-Phasengrößenmatrizen 400, 401, 402, 403 ist der besseren Übersichtlichkeit wegen lediglich jeweils eine der Kurz-Phasengrößen A0,k, A1,k, A2,k und A3,k, welche mit dem Empfangsbereich 34, beispielsweise dem Empfangsbereich 34 in Reihe 175, Spalte 170, ermittelt wird, der mit einem von dem stark reflektierenden Objekt 18R kommenden Empfangslichtsignal 30 getroffen wird, mit einem Bezugszeichen versehen. Insgesamt enthält jede der Kurz-Phasengrößenmatrizen 400, 401, 402, 403 so viele Kurz-Phasengrößen A0,k, A1,k, A2,k und A3,k, wie die Empfangsmatrix 32 Empfangsbereiche 34 enthält, nämlich 320 x 240.For the sake of clarity, in each of the short phase size matrices 40 0 , 40 1 , 40 2 , 40 3 there is only one of the short phase sizes A 0,k , A 1,k , A 2,k and A 3,k , which with the reception area 34, for example the reception area 34 in row 175, column 170, which is hit with a received light signal 30 coming from the highly reflective object 18 R , provided with a reference number. Overall, each of the short phase size matrices 40 0 , 40 1 , 40 2 , 40 3 contains as many short phase sizes A 0,k , A 1,k , A 2,k and A 3,k as the reception matrix 32 contains reception areas 34 , namely 320 x 240.

Der einfacheren Übersichtlichkeit wegen sind bei den Kurz-Phasengrößenmatrizen 400, 401, 402, 403 in der 8 links, analog zu der Darstellung der Empfangsmatrix 32 aus der 3, die y-Achse und die z-Achse gezeigt, wobei sich dies bei den Kurz-Phasengrößenmatrizen 400, 401, 402, 403 nicht auf eine räumliche Orientierung bezieht. Die jeweiligen Kurz-Phasengrößen A0,k, A1,k, A2,k und A3,k sind beispielsweise als Intensitäten INT mittels Graustufen visualisiert. Die entsprechende Graustufenskala ist rechts neben den Kurz-Phasengrößenmatrizen 400, 401, 402, 403 gezeigt.For the sake of clarity, the short phase size matrices are 40 0 , 40 1 , 40 2 , 40 3 in the 8th left, analogous to the representation of the reception matrix 32 from the 3 , the y-axis and the z-axis are shown, although this does not refer to a spatial orientation in the short phase size matrices 40 0 , 40 1 , 40 2 , 40 3 . The respective short phase variables A 0,k , A 1,k , A 2,k and A 3,k are visualized, for example, as intensities INT using gray levels. The corresponding grayscale scale is shown to the right of the short phase size matrices 40 0 , 40 1 , 40 2 , 40 3 .

Bei der Darstellung in der 8 links handelt es sich lediglich um eine beispielhafte Visualisierung der Kurz-Phasengrößenmatrizen 40i. Die Kurz-Phasengrößenmatrizen 40i sind eigentlich jeweils eine Gruppe von Tupel, deren Anzahl der Anzahl der Empfangsbereiche 34 der Empfangsmatrix 32, nämlich 320 x 240, entspricht. Jedes Tupel enthält wenigstens eine Zuordnungsgröße, beispielsweise Koordinaten, welche die Zuordnung zu dem entsprechenden Empfangsbereich 34 ermöglicht, und die dem entsprechenden Empfangsbereich 34 zugeordnete Kurz-Phasengröße Ai,k.When presented in the 8th On the left it is merely an exemplary visualization of the short phase size matrices 40i. The short phase size matrices 40i are actually each a group of tuples, the number of which corresponds to the number of reception areas 34 of the reception matrix 32, namely 320 x 240. Each tuple contains at least one assignment variable, for example coordinates, which enables the assignment to the corresponding reception area 34, and the short phase variable Ai , k assigned to the corresponding reception area 34.

In der 10 oben links ist beispielhaft ein Intensitätsprofil der Reihe 175 der Kurz-Phasengrößenmatrix 400 gezeigt. 10 oben rechts zeigt ein Intensitätsprofil der Reihe 175 der Kurz-Phasengrößenmatrix 401.In the 10 An example of an intensity profile of row 175 of the short phase size matrix 40 0 is shown at the top left. 10 Top right shows an intensity profile of row 175 of the short phase size matrix 40 1 .

Für jede der Kurz-Phasengrößen A0,k, A1,k, A2,k und A3,k wird, wie in den 8 und 10 gezeigt, mittels einer mathematische Faltung mit einer Korrekturfunktion 42 eine jeweilige Korrektur-Phasengröße A0,c, A1,c, A2,c und A3,c erzeugt, welche im Folgenden der Einfachheit halber auch als Korrektur-Phasengrößen Ai,c bezeichnet werden können.For each of the short phase quantities A 0,k , A 1,k , A 2,k and A 3,k , as in the 8th and 10 shown, by means of a mathematical convolution with a correction function 42, a respective correction phase variable A 0,c , A 1,c , A 2,c and A 3,c is generated, which for the sake of simplicity are also referred to below as correction phase variables A i, c can be referred to.

Die Korrekturfunktion 42 ist in der 8 in der Mitte in einer zweidimensionalen Graustufendarstellung als Korrekturgrößenmatrix und in der 10 in der Mitte in einer dreidimensionalen Gitterdarstellung gezeigt. Die Korrekturfunktion 42 kann mit einem Kernel realisiert sein. Die Korrekturfunktion 42 kann als eine Gruppe von Tupeln mit Spaltenwerten, Zeilenwerten und Intensitätswerten realisiert sein.The correction function 42 is in the 8th in the middle in a two-dimensional grayscale representation as a correction size matrix and in the 10 shown in the middle in a three-dimensional grid representation. The correction function 42 can be implemented with a kernel. The correction function 42 can be implemented as a group of tuples with column values, row values and intensity values.

Die Korrektur-Phasengrößen A0,c, A1,c, A2,c und A3,c werden entsprechend ihren jeweiligen Aufnahmezeitbereichen TB0, TB1, TB2 und TB3 einer von vier Korrektur-Phasengrößenmatrizen 440, 441, 442 beziehungsweise 443 zugewiesen, welche im Folgenden der Einfachheit halber auch als Korrektur-Phasengrößenmatrizen 44i bezeichnet werden können. Auf diese Weise sind die Korrektur-Phasengrößen A0,c, A1,c, A2,c und A3,c auch den entsprechenden Empfangsbereichen 34 und den entsprechenden Aufnahmezeitbereichen TB0, TB1, TB2 und TB3 zugeordnet, welche den zur Faltung verwendeten Kurz-Phasengrößen A0,k, A1,k, A2,k und A3,k entsprechen.The correction phase sizes A 0,c , A 1,c , A 2,c and A 3,c become one of four correction phase size matrices 44 0 , 44 1 according to their respective recording time ranges TB 0 , TB 1 , TB 2 and TB 3 , 44 2 and 44 3 respectively, which for the sake of simplicity can also be referred to below as correction phase size matrices 44i. In this way, the correction phase variables A 0,c , A 1,c , A 2,c and A 3,c are also assigned to the corresponding reception areas 34 and the corresponding recording time areas TB 0 , TB 1 , TB 2 and TB 3 , which correspond to the short phase sizes A 0,k , A 1,k , A 2,k and A 3,k used for folding.

In der 8 rechts sind die vier Korrektur-Phasengrößenmatrizen 440, 441, 442, 443 für die Kurz-Phasengrößenmatrizen 400, 401, 402, 403 aus der 8 links dargestellt. In jeder der Korrektur-Phasengrößenmatrizen 440, 441, 442, 443 ist der besseren Übersichtlichkeit wegen lediglich jeweils die Korrektur-Phasengröße A0,c, A1,c, A2,c und A3,c mit einem Bezugszeichen versehen, welche aus den in den Kurz-Phasengrößenmatrizen 400, 401, 402, 403 bezeichneten Kurz-Phasengrößen A0,k, A1,k, A2,k und A3,k hervorgehen. Insgesamt enthält jede der Korrektur-Phasengrößenmatrizen 440, 441, 442, 443 so viele Korrektur-Phasengrößen A0,c, A1,c, A2,c und A3,c, wie die Kurz-Phasengrößenmatrizen 400, 401, 402, 403 Kurz-Phasengrößen A0,k, A1,k, A2,k und A3,k enthält, nämlich 320 x 240.In the 8th on the right are the four correction phase size matrices 44 0 , 44 1 , 44 2 , 44 3 for the short phase size matrices 40 0 , 40 1 , 40 2 , 40 3 from the 8th shown on the left. For the sake of clarity, in each of the correction phase size matrices 44 0 , 44 1 , 44 2 , 44 3 only the correction phase size A 0,c , A 1,c , A 2,c and A 3,c is given a reference number provided, which emerge from the short phase variables A 0,k , A 1 ,k , A 2 ,k and A 3,k designated in the short phase size matrices 40 0 , 40 1, 40 2, 40 3 . Overall, each of the correction phase size matrices 44 0 , 44 1 , 44 2 , 44 3 contains as many correction phase sizes A 0,c , A 1,c , A 2,c and A 3,c as the short phase size matrices 40 0 , 40 1 , 40 2 , 40 3 short phase sizes A 0,k , A 1,k , A 2,k and A 3,k , namely 320 x 240.

Der einfacheren Übersichtlichkeit wegen sind bei den Korrektur-Phasengrößenmatrizen 44i in der 8 rechts, analog zu der Darstellung der Empfangsmatrix 32 in der 3, die y-Achse und die z-Achse gezeigt, wobei sich dies bei den Korrektur-Phasengrößenmatrizen 44i nicht auf eine räumliche Orientierung bezieht. Die jeweiligen Korrektur-Phasengrößen A0,c, A1,c, A2,c und A3,c sind beispielsweise als Intensitäten INT in Graustufen visualisiert. Die entsprechende Graustufenskala ist rechts neben den Korrektur-Phasengrößenmatrizen 44i gezeigt.For the sake of clarity, the correction phase size matrices 44i are in the 8th right, analogous to the representation of the reception matrix 32 in the 3 , the y-axis and the z-axis are shown, although this does not refer to a spatial orientation in the case of the correction phase size matrices 44i. The respective correction phase variables A 0,c , A 1,c , A 2,c and A 3,c are visualized, for example, as intensities INT in gray levels. The corresponding grayscale scale is shown to the right of the correction phase size matrices 44i.

Bei der Darstellung in der 8 rechts handelt es sich lediglich um eine Visualisierung der Korrektur-Phasengrößenmatrizen 44i. Die Korrektur-Phasengrößenmatrizen 44i sind eigentlich jeweils eine Gruppe von Tupel, deren Anzahl der Anzahl der Empfangsbereiche 34 der Empfangsmatrix 32, nämlich 320 x 240, entspricht. Jedes Tupel enthält wenigstens eine Zuordnungsgröße, beispielsweise Koordinaten, welche die Zuordnung zu dem entsprechenden Empfangsbereich 34 ermöglicht, und die dem entsprechenden Empfangsbereich 34 zugeordnete Korrektur-Phasengröße Ai,c.When presented in the 8th on the right it is simply a visualization of the correction phase size matrices 44i. The correction phase size matrices 44i are actually a group of tuples, the number of which corresponds to the number of reception areas 34 of the reception matrix 32, namely 320 x 240. Each tuple contains at least one assignment variable, for example coordinates, which enables the assignment to the corresponding reception area 34, and the correction phase size A i,c assigned to the corresponding reception area 34.

In der 10 unten links ist beispielhaft ein Intensitätsprofil durch die Reihe 175 der Korrektur-Phasengrößenmatrix 440 gezeigt. 10 unten rechts zeigt ein Intensitätsprofil durch die Reihe 175 der Korrektur-Phasengrößenmatrix 441.In the 10 An example of an intensity profile through row 175 of the correction phase size matrix 44 0 is shown at the bottom left. 10 The bottom right shows an intensity profile through row 175 of the correction phase size matrix 44 1 .

Die Langmessung wird mit einer Lang-Integrationsdauer tINT,L durchgeführt, die länger ist als die Kurz-Integrationsdauer tINT,k. In der 4 ist beispielhaft das mit der Lang-Integrationsdauer tINT,L ermittelte Phasenbild DCS1 gestrichelt angedeutet, wobei die Maßstäbe der Kurz-Integrationsdauer tINT,K und der Lang-Integrationsdauer tINT,L dort übertrieben dargestellt sind. Die Länge der Lang-Integrationsdauer tINT,L ist so gewählt, dass auch die Empfangslichtsignale 30 von den normal oder schwach reflektierenden Objekten 18 zu Signalen auf Seiten der entsprechend angestrahlten Empfangsbereiche 34 führen, die von Rauschen unterscheidbar sind. Beispielsweise beträgt die Lang-Integrationsdauer tINT,L etwa 1000 µs.The long measurement is carried out with a long integration period t INT,L , which is longer than the short integration period t INT,k . In the 4 For example, the phase image DCS 1 determined with the long integration period t INT,L is indicated by dashed lines, with the scales of the short integration period t INT,K and the long integration period t INT,L being exaggerated there. The length of the long integration period t INT,L is chosen so that the received light signals 30 from the normally or weakly reflecting objects 18 also lead to signals on the side of the correspondingly illuminated reception areas 34, which can be distinguished from noise. For example, the long integration time t INT,L is approximately 1000 µs.

Mit jedem der Empfangsbereiche 34 wird das jeweils empfangenen Lichts in die vier entsprechenden und dem jeweiligen Empfangsbereich 34 zugeordneten Lang-Phasengrößen A0,l, A1,l, A2,l und A3,l umgewandelt, welche im Folgenden der Einfachheit halber auch als Lang-Phasengrößen Ai,l bezeichnet werden können.With each of the reception areas 34, the respectively received light is converted into the four corresponding long-phase variables A 0,l , A 1,l , A 2,l and A 3,l assigned to the respective reception area 34, which are described below for the sake of simplicity can also be referred to as long phase variables A i,l .

Die Lang-Phasengrößen A0,I, A1,I, A2,I und A3,I werden entsprechend ihren jeweiligen Aufnahmezeitbereichen TB0, TB1, TB2 und TB3 einer von vier Lang-Phasengrößenmatrizen 460, 461, 462 beziehungsweise 463 zugewiesen, welche im Folgenden der Einfachheit halber auch als Lang-Phasengrößenmatrizen 46i bezeichnet werden können.The long-phase sizes A 0,I , A 1,I , A 2,I and A 3,I become one of four long-phase size matrices 46 0 , 46 1 according to their respective recording time ranges TB 0 , TB 1 , TB 2 and TB 3 , 46 2 and 46 3 respectively, which for the sake of simplicity can also be referred to below as long phase size matrices 46i.

In der 9 ist von links nach rechts ein Ablaufschema zur Differenzbildung zwischen den Lang-Phasengrößen Ai,l und den Kurz-Phasengrößen Ai,k in Graustufendarstellung gezeigt. 11 zeigt von oben nach unten das entsprechende Ablaufschema beispielhaft für die Reihe 175 der beiden Lang-Phasengrößenmatrizen 460 und 461 in einer Intensitätsprofil-Darstellung.In the 9 From left to right, a flow chart for forming the difference between the long phase variables A i,l and the short phase variables A i,k is shown in grayscale representation. 11 shows the corresponding flow chart from top to bottom as an example for the row 175 of the two long-phase size matrices 46 0 and 46 1 in an intensity profile representation.

In der 9 links sind die vier Lang-Phasengrößenmatrizen 460, 461, 462, 463 für die in den 5 bis 7 gezeigte Szene nach einer Langmessung dargestellt.In the 9 on the left are the four long phase size matrices 46 0 , 46 1 , 46 2 , 46 3 for those in the 5 until 7 The scene shown is shown after a long measurement.

In jeder der Lang-Phasengrößenmatrizen 460, 461, 462, 463 ist der besseren Übersichtlichkeit wegen, analog zu den Kurz-Phasengrößenmatrizen 400, 401, 402, 403 aus der 8 links, lediglich die Lang-Phasengröße A0,l, A1,I, A2,I und A3,I mit einem Bezugszeichen versehen, welche mit dem Empfangsbereich 34, beispielsweise dem Empfangsbereich 34 in Reihe 175, Spalte 170, ermittelt wird, der mit einem von dem stark reflektierenden Objekt 18R kommenden Empfangslichtsignal 30 getroffen wird. Insgesamt enthält jede der Lang-Phasengrößenmatrizen 460, 461, 462, 463 so viele Lang-Phasengrößen A0,I, A1,I, A2,I und A3,I, wie die Empfangsmatrix 32 Empfangsbereiche 34 und die Kurz-Phasengrößenmatrizen 400, 401, 402, 403 Kurz-Phasengrößen A0,k, A1,k, A2,k und A3,k enthält, nämlich 320 × 240.In each of the long phase size matrices 46 0 , 46 1 , 46 2 , 46 3 , for the sake of clarity, is analogous to the short phase size matrices 40 0 , 40 1 , 40 2 , 40 3 from the 8th On the left, only the long-phase variables A 0,l , A 1,I , A 2,I and A 3,I are provided with a reference number, which is determined with the reception area 34, for example the reception area 34 in row 175, column 170 , which is hit with a received light signal 30 coming from the highly reflective object 18 R. Overall, each of the long-phase size matrices 46 0 , 46 1 , 46 2 , 46 3 contains as many long-phase sizes A 0,I , A 1,I , A 2,I and A 3,I as the reception matrix 32 reception areas 34 and the short phase size matrices 40 0 , 40 1 , 40 2 , 40 3 contains short phase sizes A 0,k , A 1,k , A 2,k and A 3,k , namely 320 × 240.

Der einfacheren Übersichtlichkeit wegen sind in der 9 links, analog zu der Darstellung der Empfangsmatrix 32 aus der 3, die y-Achse und die z-Achse gezeigt, wobei sich dies bei den Lang-Phasengrößenmatrizen 460, 461, 462, 463 nicht auf eine räumliche Orientierung bezieht. Die jeweiligen Lang-Phasengrößen A0,l, A1,l, A2,l und A3,l sind beispielsweise als Intensitäten INT mittels Graustufen visualisiert. Die entsprechende Graustufenskala ist rechts neben den Lang-Phasengrößenmatrizen 460, 461, 462, 463 gezeigt.For the sake of clarity, there are in the 9 left, analogous to the representation of the reception matrix 32 from the 3 , the y-axis and the z-axis are shown, although this does not refer to a spatial orientation in the long phase size matrices 46 0 , 46 1 , 46 2 , 46 3 . The respective long-phase variables A 0,l , A 1,l , A 2,l and A 3,l are visualized, for example, as intensities INT using gray levels. The corresponding grayscale scale is shown to the right of the long-phase size matrices 46 0 , 46 1 , 46 2 , 46 3 .

Bei der Darstellung in der 9 links handelt es sich lediglich um eine beispielhafte Visualisierung der Lang-Phasengrößenmatrizen 46i. Die Lang-Phasengrößenmatrizen 46i sind wie die Kurz-Phasengrößenmatrizen 40i eigentlich jeweils eine Gruppe von Tupel, deren Anzahl der Anzahl der Empfangsbereiche 34 der Empfangsmatrix 32, nämlich 320 x 240, entspricht. Jedes Tupel enthält wenigstens eine Zuordnungsgröße, beispielsweise Koordinaten, welche die Zuordnung zu dem entsprechenden Empfangsbereich 34 ermöglicht, und die dem entsprechenden Empfangsbereich 34 zugeordnete Lang-Phasengröße Ai,l.When presented in the 9 On the left it is merely an exemplary visualization of the long phase size matrices 46i. The long phase size matrices 46i, like the short phase size matrices 40i, are actually a group of tuples, the number of which corresponds to the number of reception areas 34 of the reception matrix 32, namely 320 x 240. Each tuple contains at least one assignment variable, for example coordinates, which enables the assignment to the corresponding reception area 34, and the long-phase variable A i,l assigned to the corresponding reception area 34.

In der 11 oben links ist beispielhaft ein Intensitätsprofil der Reihe 175 der Lang-Phasengrößenmatrix 460 gezeigt. 11 oben rechts zeigt ein Intensitätsprofil der Reihe 175 der Lang-Phasengrößenmatrix 461.In the 11 An example of an intensity profile of row 175 of the long-phase size matrix 46 0 is shown at the top left. 11 Top right shows an intensity profile of row 175 of the long phase size matrix 46 1 .

Für jede der Lang-Phasengrößen A0,I, A1,I, A2,I und A3,I wird, wie in den 9 und 11 gezeigt, jeweils eine End-Phasengröße A0,e, A1,e, A2,e und A3,e als Differenz aus der Lang-Phasengröße A0,I, A1,I, A2,I beziehungsweise A3,I und der Korrektur-Phasengröße A0,c, A1,c, A2,c beziehungsweise A3,c gebildet, welche dem Empfangsbereich 34 und dem Aufnahmezeitbereich TB0, TB1, TB2 und TB3 der Lang-Phasengröße A0,I, A1,I, A2,I beziehungsweise A3,I entspricht. Die End-Phasengrößen A0,e, A1,e, A2,e und A3,e können im Folgenden der Einfachheit halber auch als End-Phasengrößen Ai,e bezeichnet werden.For each of the long-phase quantities A 0,I , A 1,I , A 2,I and A 3,I , as in the 9 and 11 shown, one final phase size A 0,e , A 1,e , A 2,e and A 3,e as the difference from the long phase size A 0,I , A 1,I , A 2,I and A 3 respectively ,I and the correction phase size A 0,c , A 1,c , A 2,c and A 3,c, respectively, which correspond to the reception area 34 and the recording time range TB 0 , TB 1 , TB 2 and TB 3 of the long phase size A 0,I , A 1,I , A 2,I or A 3,I corresponds. The final phase sizes A 0,e , A 1,e , A 2,e and A 3,e can be found below For the sake of simplicity, they can also be referred to as final phase variables A i,e .

Die End-Phasengrößen A0,e, A1,e, A2,e, A3,e werden entsprechend ihren jeweiligen Aufnahmezeitbereichen TB0, TB1, TB2 und TB3 einer von vier End-Phasengrößenmatrizen 480, 481, 482 beziehungsweise 483 zugewiesen, welche im Folgenden der Einfachheit wegen auch als End-Phasengrößenmatrizen 48i bezeichnet werden können. Auf diese Weise sind die End-Phasengrößen A0,e, A1,e, A2,e, A3,e auch den entsprechenden Empfangsbereichen 34 und den entsprechenden Aufnahmezeitbereichen TB0, TB1, TB2 und TB3 zugeordnet, welche den zur Faltung verwendeten Kurz-Phasengrößen A0,k, A1,k, A2,k und A3,k entsprechen.The final phase sizes A 0,e , A 1,e , A 2,e , A 3,e become one of four final phase size matrices 48 0 , 48 1 according to their respective recording time ranges TB 0 , TB 1 , TB 2 and TB 3 , 48 2 and 48 3 respectively, which for the sake of simplicity can also be referred to below as final phase size matrices 48i. In this way, the final phase variables A 0,e , A 1,e , A 2,e , A 3,e are also assigned to the corresponding reception areas 34 and the corresponding recording time areas TB 0 , TB 1 , TB 2 and TB 3 , which correspond to the short phase sizes A 0,k , A 1,k , A 2,k and A 3,k used for folding.

In der 9 rechts sind die vier End-Phasengrößenmatrizen 480, 481, 482, 483 für die Lang-Phasengrößenmatrizen 460, 461, 462, 463 aus der 9 links dargestellt. In jeder der End-Phasengrößenmatrizen 480, 481, 482, 483 ist der besseren Übersichtlichkeit wegen lediglich die End-Phasengröße A0,e, A1,e, A2,e, A3,e mit einem Bezugszeichen versehen, welche aus den in den Lang-Phasengrößenmatrizen 460, 461, 462, 463 bezeichneten Lang-Phasengröße A0,I, A1,I, A2,I und A3,I hervorgehen. Insgesamt enthält jede der End-Phasengrößenmatrizen 480, 481, 482, 483 so viele End-Phasengrößen A0,e, A1,e, A2,e, A3,e, wie die Lang-Phasengrößenmatrizen 460, 461, 462, 463 Lang-Phasengrößen A0,I, A1,I, A2,I und A3,I enthält, nämlich 320 × 240.In the 9 on the right are the four final phase size matrices 48 0 , 48 1 , 48 2 , 48 3 for the long phase size matrices 46 0 , 46 1 , 46 2 , 46 3 from the 9 shown on the left. In each of the final phase size matrices 48 0 , 48 1 , 48 2 , 48 3 , for the sake of clarity, only the final phase size A 0,e , A 1,e , A 2,e , A 3,e is provided with a reference number , which emerge from the long phase sizes A 0,I , A 1 ,I , A 2 ,I and A 3 ,I designated in the long phase size matrices 46 0 , 46 1 , 46 2 , 46 3 . In total, each of the final phase size matrices 48 0 , 48 1 , 48 2 , 48 3 contains as many final phase sizes A 0,e , A 1,e , A 2,e , A 3,e as the long phase size matrices 46 0 , 46 1 , 46 2 , 46 3 long phase sizes A 0,I , A 1,I , A 2,I and A 3,I , namely 320 × 240.

Der einfacheren Übersichtlichkeit wegen sind bei den End-Phasengrößenmatrizen 48i in der 9 rechts, analog zu Darstellung der Empfangsmatrix 32 aus der 3, die y-Achse und die z-Achse gezeigt, wobei sich dies bei den End-Phasengrößenmatrizen 480, 481, 482, 483 nicht auf eine räumliche Orientierung bezieht. Die jeweiligen End-Phasengrößen A0,e, A1,e, A2,e, A3,e sind beispielsweise als Intensitäten INT in Graustufen visualisiert. Die entsprechende Graustufenskala ist rechts neben den End-Phasengrößenmatrizen 480, 481, 482, 483 gezeigt.For the sake of clarity, the final phase size matrices 48i are in the 9 right, analogous to the representation of the reception matrix 32 from the 3 , the y-axis and the z-axis are shown, although this does not refer to a spatial orientation in the final phase size matrices 48 0 , 48 1 , 48 2 , 48 3 . The respective final phase sizes A 0,e , A 1,e , A 2,e , A 3,e are visualized, for example, as intensities INT in grayscale. The corresponding grayscale scale is shown to the right of the final phase size matrices 48 0 , 48 1 , 48 2 , 48 3 .

Bei der Darstellung in der 9 rechts handelt es sich lediglich um eine Visualisierung der End-Phasengrößenmatrizen 48i. Die End-Phasengrößenmatrizen 48i sind, wie die Kurz-Phasengrößenmatrizen 40i, die Lang-Phasengrößenmatrizen 46i und die Korrektur-Phasengrößenmatrizen 44i, eigentlich jeweils eine Gruppe von Tupel, deren Anzahl der Anzahl der Empfangsbereiche 34 der Empfangsmatrix 32, nämlich 320 x 240, entspricht. Jedes Tupel enthält wenigstens eine Zuordnungsgröße, beispielsweise Koordinaten, welche die Zuordnung zu dem entsprechenden Empfangsbereich 34 ermöglicht, und die dem entsprechenden Empfangsbereich 34 zugeordnete End-Phasengröße Ai,e.When presented in the 9 on the right it is just a visualization of the final phase size matrices 48i. The final phase size matrices 48i, like the short phase size matrices 40i, the long phase size matrices 46i and the correction phase size matrices 44i, are actually each a group of tuples, the number of which corresponds to the number of reception areas 34 of the reception matrix 32, namely 320 x 240 . Each tuple contains at least one assignment variable, for example coordinates, which enables the assignment to the corresponding reception area 34, and the final phase size A i,e assigned to the corresponding reception area 34.

In der 11 unten links ist beispielhaft ein Intensitätsprofil durch die Reihe 175 der End-Phasengrößenmatrix 440 gezeigt. 11 unten rechts zeigt ein Intensitätsprofil durch die Reihe 175 der End-Phasengrößenmatrix 441.In the 11 An example of an intensity profile through row 175 of the final phase size matrix 44 0 is shown at the bottom left. 11 bottom right shows an intensity profile through row 175 of the final phase size matrix 44 1 .

Die Entfernungen D der mit den Empfangsbereichen 34 erfassten Objekte 18 und 18R wird aus den End-Phasengrößen A0,e, A1,e, A2,e und A3,e für jeden Empfangsbereich 34 rechnerisch ermittelt. 7 zeigt das Entfernungsbild der Szene aus der 6 nach der oben beschriebenen Korrektur der Streulichteffekte. In 7 ist ersichtlich, dass der Bloomingbereich 38 gegenüber der Darstellung in der 6 reduziert ist. Die Entfernungen D für die schwach und normal reflektierenden Objekte 18, nämlich für die Person und für die Tafel, sind nach der Korrektur, wie in der 7 dargestellt, genauer angegeben.The distances D of the objects 18 and 18 R detected with the reception areas 34 are determined mathematically from the final phase variables A 0,e , A 1,e , A 2,e and A 3,e for each reception area 34. 7 shows the distance image of the scene from the 6 after correcting the scattered light effects described above. In 7 it can be seen that the blooming area 38 compared to the representation in the 6 is reduced. The distances D for the weakly and normally reflecting objects 18, namely for the person and for the board, are after the correction, as in the 7 shown, specified in more detail.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 2020/0072946 A1 [0004]US 2020/0072946 A1 [0004]

Claims (10)

Verfahren zum Betreiben eines Flash-LiDAR-Systems (12) für ein Fahrzeug (10) nach einer indirekten Time-of-Flight Methode, bei dem wenigstens ein amplitudenmoduliertes Sendelichtsignal (20) mit wenigstens einer Sendeeinrichtung (24) des Flash-LiDAR-Systems (12) in wenigstens einen Überwachungsbereich (14) gesendet wird, aus dem wenigstens einen Überwachungsbereich (14) kommendes Licht (30) mit wenigstens einem Teil der Empfangsbereiche (34) einer Empfangsmatrix (32) einer Empfangseinrichtung (26) des Flash-LiDAR-Systems (12) empfangen und in Empfangsgrößen (A0,k, A1,k, A2,k, A3,k, A0,l A1,l, A2,l, A3,l) umgewandelt wird, wobei die Empfangsgrößen (A0,k, A1,k, A2,k, A3,k, A0,l, A1,l, A2,l, A3,l) den Empfangsbereichen (34) jeweils zuordenbar sind, jeweils eine Menge des mit dem entsprechenden Empfangsbereich (34) empfangenen Lichts (30) charakterisieren und mit einer Prozessoreinrichtung (28) des Flash-LiDAR-Systems (12) verarbeitbar sind, und etwaige Streulichteffekte auf wenigstens einen Teil der Empfangsbereiche (34) mit wenigstens einer Korrekturfunktion (42) korrigiert werden, dadurch gekennzeichnet, dass das aus dem wenigstens einen Überwachungsbereich (14) kommende Licht (30) mit den Empfangsbereichen (34) während wenigstens zwei Aufnahmezeitbereichen (TB0, TB1, TB2, TB3) in jeweilige Empfangsgrößen in Form von Phasengrößen (A0,k, A1,k, A2,k, A3,k, A0,l, A1,l, A2,l, A3,l) umgewandelt wird, wobei wenigstens zwei der Aufnahmezeitbereiche (TB0, TB1, TB2, TB3) bezogen auf eine Modulationsperiode (MP) des wenigstens einen Sendelichtsignals (20) phasenverschoben gestartet werden, für wenigstens einen Teil der Phasengrößen (A0,k, A1,k, A2,k, A3,k, A0,l, A1,l, A2,l, A3,l) unter Verwendung der wenigstens einen Korrekturfunktion (42) korrigierte End-Phasengrößen (A0,e, A1,e, A2,e, A3,e) ermittelt werden.Method for operating a flash LiDAR system (12) for a vehicle (10) according to an indirect time-of-flight method, in which at least one amplitude-modulated transmitted light signal (20) with at least one transmitting device (24) of the flash LiDAR system (12) is sent into at least one monitoring area (14), from which at least one monitoring area (14) coming light (30) with at least part of the reception areas (34) of a reception matrix (32) of a reception device (26) of the Flash LiDAR System (12) is received and converted into reception variables (A 0,k , A 1,k , A 2,k , A 3,k , A 0,l A 1,l , A 2,l , A 3,l ). , where the reception variables (A 0,k , A 1,k , A 2,k , A 3,k , A 0,l , A 1,l , A 2,l , A 3,l ) correspond to the reception areas (34) can each be assigned, characterize a quantity of the light (30) received with the corresponding reception area (34) and can be processed with a processor device (28) of the flash LiDAR system (12), and any scattered light effects on at least some of the reception areas ( 34) can be corrected with at least one correction function (42), characterized in that the light (30) coming from the at least one monitoring area (14) communicates with the reception areas (34) during at least two recording time areas (TB 0 , TB 1 , TB 2 , TB 3 ) into respective reception variables in the form of phase variables (A 0,k , A 1,k , A 2,k , A 3,k , A 0,l , A 1,l , A 2,l , A 3,l ) is converted, with at least two of the recording time ranges (TB 0 , TB 1 , TB 2 , TB 3 ) being started out of phase with respect to a modulation period (MP) of the at least one transmitted light signal (20), for at least a part of the phase variables (A 0, k , A 1,k , A 2,k , A 3,k , A 0,l , A 1,l , A 2,l , A 3,l ) corrected final phase variables using the at least one correction function (42). (A 0,e , A 1,e , A 2,e , A 3,e ) can be determined. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass von der gleichen Szene in dem wenigstens einen Überwachungsbereich (14) mit wenigstens einem Teil der Empfangsbereiche (34) wenigstens eine Kurzmessung und wenigstens eine Langmessung durchgeführt werden, wobei die wenigstens eine Kurzmessung mit einer Kurz-Integrationsdauer (tINT;k) durchgeführt wird, während der das aus dem wenigstens einen Überwachungsbereich (14) kommende Licht (30), insbesondere wenigstens ein von einem reflektierten Sendelichtsignal (20) stammendes Empfangslichtsignal (30), mit den Empfangsbereichen (34) in wenigstens zwei unterschiedlichen Aufnahmezeitbereichen (TB0, TB1, TB2, TB3) empfangen und in entsprechende Kurz-Phasengrößen (A0,k, A1,k, A2,k, A3,k,) umgewandelt wird, und wobei die wenigstens eine Langmessung mit einer Lang-Integrationsdauer (tINT;l), die größer ist als die Kurz-Integrationsdauer (tINT;k), durchgeführt wird, während der das dem wenigstens einen Überwachungsbereich (14) kommende Licht (30), insbesondere wenigstens ein von einem reflektierten Sendelichtsignal (20) stammendes Empfangslichtsignal (30), in den wenigstens zwei unterschiedlichen Aufnahmezeitbereichen (TB0, TB1, TB2, TB3) empfangen und in entsprechende Lang-Phasengrößen (A0,l, A1,l, A2,l, A3,l) umgewandelt wird, für wenigstens einen Teil der Kurz-Phasengrößen (A0,k, A1,k, A2,k, A3,k,) mittels wenigstens einer mathematische Faltung mit der wenigstens einen Korrekturfunktion (42) eine jeweilige Korrektur-Phasengröße (A0,c, A1,c, A2,c, A3,c) erzeugt wird, welche dem Empfangsbereich (34) und dem Aufnahmezeitbereich (TB0, TB1, TB2, TB3), welche der zur Faltung verwendeten Kurz-Phasengröße (A0,k, A1,k, A2,k, A3,k,) entsprechen, zugeordnet wird, und für wenigstens einen Teil der Lang-Phasengrößen (A0,l, A1,l, A2,l, A3,l) jeweils eine End-Phasengröße (A0,e, A1,e, A2,e, A3,e) als Differenz aus der jeweiligen Lang-Phasengröße (A0,l, A1,l, A2,l, A3,l) und der Korrektur-Phasengröße (A0,c, A1,c, A2,c, A3,c), welche dem Empfangsbereich (34) und dem Aufnahmezeitbereich (TB0, TB1, TB2, TB3) der Lang-Phasengröße (A0,l, A1,l, A2,l, A3,l) entspricht, gebildet wird.Procedure according to Claim 1 , characterized in that at least one short measurement and at least one long measurement are carried out of the same scene in the at least one monitoring area (14) with at least part of the reception areas (34), the at least one short measurement having a short integration period (t INT; k ) is carried out, during which the light (30) coming from the at least one monitoring area (14), in particular at least one received light signal (30) originating from a reflected transmitted light signal (20), communicates with the reception areas (34) in at least two different recording time ranges ( TB 0 , TB 1 , TB 2 , TB 3 ) is received and converted into corresponding short phase variables (A 0,k , A 1,k , A 2,k , A 3,k ), and wherein the at least one long measurement with a long integration period (t INT;l ), which is greater than the short integration period (t INT;k ), during which the light (30) coming to the at least one monitoring area (14), in particular at least one of A received light signal (30) originating from a reflected transmitted light signal (20), received in the at least two different recording time ranges (TB 0 , TB 1 , TB 2 , TB 3 ) and converted into corresponding long-phase sizes (A 0,l , A 1,l , A 2,l , A 3,l ) is converted for at least some of the short phase variables (A 0,k , A 1,k , A 2,k , A 3,k ,) by means of at least one mathematical convolution with the at least a correction function (42) generates a respective correction phase variable (A 0,c , A 1,c , A 2,c , A 3,c ), which corresponds to the reception area (34) and the recording time range (TB 0 , TB 1 , TB 2 , TB 3 ), which correspond to the short phase size used for folding (A 0,k , A 1,k , A 2,k , A 3,k ,), and for at least part of the long phase Phase sizes (A 0,l , A 1,l , A 2,l , A 3,l ) each have a final phase size (A 0,e , A 1,e , A 2,e , A 3,e ) as a difference from the respective long phase size (A 0,l , A 1,l , A 2,l , A 3,l ) and the correction phase size (A 0,c , A 1,c , A 2,c , A 3 ,c ), which corresponds to the reception area (34) and the recording time range (TB 0 , TB 1 , TB 2 , TB 3 ) of the long-phase size (A 0,l , A 1,l , A 2,l , A 3,l ) corresponds, is formed. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die wenigstens zwei phasenverschobenen Aufnahmezeitbereiche (TB0, TB1, TB2, TB3) mit einer jeweiligen Phasenverschiebung gegenüber einem Referenzereignis (ST), insbesondere gegenüber einem Referenzereignis des wenigstens einen Sendelichtsignals (20), insbesondere gegenüber einem Intensitäts-Minimum des wenigstens einen Sendelichtsignals und/oder einem Nulldurchgang eines elektrischen Sendesignals, mit welchem eine Lichtquelle der Sendeeinrichtung (24) zum Aussenden des wenigstens einen Sendelichtsignals (20) angesteuert wird, gestartet werden und/oder vier Aufnahmezeitbereiche (TB0, TB1, TB2, TB3) mit Phasenverschiebungen von 0°, 90°, 180° und 270° gegenüber einem Referenzereignis (ST), insbesondere gegenüber einem Referenzereignis des wenigstens einen Sendelichtsignals (20), insbesondere gegenüber einem Intensitäts-Minimum des wenigstens einen Sendelichtsignals (20) und/oder einem Nulldurchgang eines elektrischen Sendesignals, mit welchem eine Lichtquelle der Sendeeinrichtung (24) zum Aussenden des wenigstens einen Sendelichtsignals (20) angesteuert wird, gestartet werden.Procedure according to Claim 1 or 2 , characterized in that the at least two phase-shifted recording time ranges (TB 0 , TB 1 , TB 2 , TB 3 ) with a respective phase shift compared to a reference event (ST), in particular compared to a reference event of the at least one transmitted light signal (20), in particular compared to an intensity -Minimum of the at least one transmitted light signal and/or a zero crossing of an electrical transmitted signal, with which a light source of the transmitting device (24) is controlled for emitting the at least one transmitted light signal (20), are started and/or four recording time ranges (TB 0 , TB 1 , TB 2 , TB 3 ) with phase shifts of 0°, 90°, 180° and 270° compared to a reference event (ST), in particular compared to a reference event of the at least one transmitted light signal (20), in particular compared to an intensity minimum of the at least one transmitted light signal ( 20) and/or a zero crossing of an electrical transmission signal, with which a light source of the transmission device (24) is controlled for emitting the at least one transmission light signal (20). Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass Streulichteffekte von Sendelichtsignalen (20) korrigiert werden, die an stark reflektierenden Objekten (18R), insbesondere retroreflektiven Objekten, in dem wenigstens Überwachungsbereich (14) reflektiert werden.Method according to one of the preceding claims, characterized in that scattered light effects are corrected by transmitted light signals (20) which are reflected on highly reflective objects (18 R ), in particular retroreflective objects, in the at least monitoring area (14). Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Kurz-Integrationsdauer so eingestellt wird, dass lediglich die am stärksten reflektierenden Objekte (18R), insbesondere retroreflektiven Objekte, der Szene in wenigstens einem der Aufnahmezeitbereiche (TB0, TB1, TB2, TB3) zu einer von einem Rauschen unterscheidbaren Kurz-Phasengröße (A0,k, A1,k, A2,k, A3,k,) führen.Procedure according to Claim 2 , characterized in that the short integration period is set so that only the most highly reflective objects (18 R ), in particular retroreflective objects, are included in the scene in at least one of the recording time ranges (TB 0 , TB 1 , TB 2 , TB 3 ). a short phase variable (A 0,k , A 1,k , A 2,k , A 3,k ,) that can be distinguished from noise. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die wenigstens eine Korrekturfunktion (42) für eine Erfassung von retroreflektiven Objekten (18R) vorgegeben werden, die bei einem Betrieb des Flash-LiDAR-Systems (12), insbesondere des Flash-LiDAR-Systems (12) des Fahrzeugs (10), üblicherweise in dem wenigstens einen Überwachungsbereich (14) vorkommen.Method according to one of the preceding claims, characterized in that the at least one correction function (42) is specified for a detection of retroreflective objects (18 R ) that occur during operation of the flash LiDAR system (12), in particular the flash LiDAR -System (12) of the vehicle (10), usually in which at least one monitoring area (14) occurs. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass für wenigstens ein Empfangsbereich (34) aus wenigstens einem Teil der zu diesem Empfangsbereich (34) gehörigen End-Phasengrößen (A0,e, A1,e, A2,e, A3,e) eine jeweilige Entfernung (D) eines mit dem wenigstens einen erfassten Objekts (18, 18R) ermittelt wird, und/oder für wenigstens einen Empfangsbereich (34), welcher von Empfangslichtsignalen (30) eines Objekts (18, 18R) getroffen wird, aus einer Position des Empfangsbereichs (34) innerhalb der Empfangsmatrix (32), eine die Richtung des reflektierenden Objekts (18, 18R) relativ zu dem Flash-LiDAR-System (12) charakterisierende Richtungsinformation ermittelt wird.Method according to one of the preceding claims, characterized in that for at least one reception area (34) from at least a part of the final phase variables (A 0,e , A 1,e , A 2,e , A.) belonging to this reception area (34). 3,e ) a respective distance (D) of a detected object (18, 18 R ) is determined, and/or for at least one reception area (34), which receives light signals (30) of an object (18, 18 R ) is hit, from a position of the reception area (34) within the reception matrix (32), directional information characterizing the direction of the reflecting object (18, 18 R ) relative to the flash LiDAR system (12) is determined. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass das aus dem wenigstens einen Überwachungsbereich (14) kommende Licht (30), insbesondere wenigstens ein Empfangslichtsignal (30), mit Empfangsbereichen einer eindimensionalen, insbesondere linienförmigen, Empfangsmatrix, oder mit Empfangsbereichen (34) einer zweidimensionalen, insbesondere matrixförmigen, Empfangsmatrix (32) empfangen wird und/oder wenigstens eine der Phasengrößen, insbesondere die wenigstens eine dem wenigstens einen Empfangsbereich (34) zuordenbare Phasengröße und/oder wenigstens eine Kurz-Phasengröße (A0,k, A1,k, A2,k, A3,k,) und/oder wenigstens eine Lang-Phasengröße (A0,l, A1,l, A2,l, A3,l) und/oder wenigstens eine Korrektur-Phasengröße (A0,k, A1,k, A2,k, A3,k) und/oder wenigstens eine End-Phasengröße (A0,e, A1,e, A2,e, A3,e), eine entsprechenden eindimensionalen oder zweidimensionalen Phasengrößenmatrix, insbesondere einer Kurz-Phasengrößenmatrix (400, 401, 402, 403) und/oder einer Lang-Phasengrößenmatrix (460, 461, 462, 463) und/oder einer Korrektur-Phasengrößenmatrix (440, 441, 442, 443) und/oder einer End-Phasengrößenmatrix (480, 481, 482, 483), zugewiesen wird und/oder die wenigstens eine Korrekturfunktion (42) mit einer eindimensionalen oder einer zweidimensionalen Korrekturgrößenmatrix realisiert wird.Method according to one of the preceding claims, characterized in that the light (30) coming from the at least one monitoring area (14), in particular at least one received light signal (30), with reception areas of a one-dimensional, in particular line-shaped, reception matrix, or with reception areas (34) a two-dimensional, in particular matrix-shaped, reception matrix (32) is received and/or at least one of the phase variables, in particular the at least one phase variable which can be assigned to the at least one reception area (34) and/or at least one short phase variable (A 0,k , A 1, k , A 2,k , A 3,k ,) and/or at least one long phase variable (A 0,l , A 1,l , A 2,l , A 3,l ) and/or at least one correction phase variable (A 0,k , A 1,k , A 2,k , A 3,k ) and/or at least one final phase size (A 0,e , A 1,e , A 2,e , A 3,e ) , a corresponding one-dimensional or two-dimensional phase size matrix, in particular a short phase size matrix (40 0 , 40 1 , 40 2 , 40 3 ) and/or a long phase size matrix (46 0 , 46 1 , 46 2 , 46 3 ) and/or one Correction phase size matrix (44 0 , 44 1 , 44 2 , 44 3 ) and/or a final phase size matrix (48 0 , 48 1 , 48 2 , 48 3 ) is assigned and/or the at least one correction function (42). a one-dimensional or a two-dimensional correction size matrix is realized. Flash-LiDAR-System (12) für ein Fahrzeug (10), welches zur Durchführung einer indirekten Time-of-Flight Methode ausgestaltet ist, mit wenigstens einer Sendeeinrichtung (24) zum Senden von Sendelichtsignalen (20) in wenigstens ein Überwachungsbereich (14), mit wenigstens einer Empfangseinrichtung (26), die wenigstens eine Empfangsmatrix (32) aufweist, welche mehrere Empfangsbereiche (34) zum empfangen von aus dem wenigstens einen Überwachungsbereich (14) kommenden Lichts (30) und zum Umwandeln in jeweilige Empfangsgrößen (A0,k, A1,k, A2,k, A3,k, A0,l, A1,l, A2,l, A3,l) umfasst, und mit wenigstens einer Korrekturfunktion (42) zum korrigieren etwaiger Streulichteffekte auf Empfangsbereiche (34), dadurch gekennzeichnet, dass das Flash-LiDAR-System (12) Mittel aufweist zur Durchführung des Verfahrens nach einem der vorigen Ansprüche.Flash LiDAR system (12) for a vehicle (10), which is designed to carry out an indirect time-of-flight method, with at least one transmitting device (24) for sending transmitted light signals (20) into at least one monitoring area (14) , with at least one receiving device (26), which has at least one receiving matrix (32), which has a plurality of receiving areas (34) for receiving light (30) coming from the at least one monitoring area (14) and for converting it into respective received variables (A 0, k , A 1,k , A 2,k , A 3,k , A 0,l , A 1,l , A 2,l , A 3,l ), and with at least one correction function (42) to correct any Scattered light effects on reception areas (34), characterized in that the flash LiDAR system (12) has means for carrying out the method according to one of the preceding claims. Fahrzeug (10) mit wenigstens einem Flash-LiDAR-System (12) welches zur Durchführung einer indirekten Time-of-Flight Methode ausgestaltet ist, dadurch gekennzeichnet, dass das Fahrzeug wenigstens ein Flash-LiDAR-System (12) nach Anspruch 9 aufweist.Vehicle (10) with at least one flash LiDAR system (12) which is designed to carry out an indirect time-of-flight method, characterized in that the vehicle has at least one flash LiDAR system (12). Claim 9 having.
DE102022115268.5A 2022-06-20 2022-06-20 Method for operating a flash LiDAR system for a vehicle, flash LiDAR system and vehicle Pending DE102022115268A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022115268.5A DE102022115268A1 (en) 2022-06-20 2022-06-20 Method for operating a flash LiDAR system for a vehicle, flash LiDAR system and vehicle
PCT/EP2023/066536 WO2023247475A1 (en) 2022-06-20 2023-06-20 Method for operating a flash lidar system for a vehicle, flash lidar system, and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022115268.5A DE102022115268A1 (en) 2022-06-20 2022-06-20 Method for operating a flash LiDAR system for a vehicle, flash LiDAR system and vehicle

Publications (1)

Publication Number Publication Date
DE102022115268A1 true DE102022115268A1 (en) 2023-12-21

Family

ID=87059754

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022115268.5A Pending DE102022115268A1 (en) 2022-06-20 2022-06-20 Method for operating a flash LiDAR system for a vehicle, flash LiDAR system and vehicle

Country Status (2)

Country Link
DE (1) DE102022115268A1 (en)
WO (1) WO2023247475A1 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020047248A1 (en) 2018-08-29 2020-03-05 Sense Photonics, Inc. Glare mitigation in lidar applications

Also Published As

Publication number Publication date
WO2023247475A1 (en) 2023-12-28

Similar Documents

Publication Publication Date Title
EP3022584B1 (en) Optoelectronic detection device and method for detecting the environment of a motor vehicle in a scanning manner
DE102010012811B4 (en) Method for measuring speeds and associating the measured speeds with appropriate vehicles by collecting and merging object tracking data and image tracking data
DE102004010197A1 (en) Digital board or car navigation system function checking procedure uses separate object detection imaging system for comparison
DE102011017540A1 (en) Method and device for detecting the presence of objects
DE102019106129A1 (en) Test unit and method for testing a LIDAR unit for a vehicle
WO2023247302A1 (en) Method for determining at least one correction function for a lidar system, lidar system, vehicle comprising at least one lidar system, and measuring system
WO2021213788A1 (en) Method and device for identifying blooming in a lidar measurement
EP3994497A1 (en) Adaptation device and lidar measuring device
DE102022115268A1 (en) Method for operating a flash LiDAR system for a vehicle, flash LiDAR system and vehicle
DE102022115277A1 (en) Method for operating a LiDAR system, LiDAR system and vehicle
WO2021001339A1 (en) Optical measuring device for determining object information of objects in at least one monitoring region
DE102020124017A1 (en) Method for operating an optical detection device, optical detection device and vehicle with at least one optical detection device
DE102020206152A1 (en) Device for determining whether a parking space in a lateral front area and / or rear area of a vehicle is suitable for the vehicle, a driver assistance system with such a device and a vehicle with such a driver assistance system
DE102022115273A1 (en) Method for operating a LiDAR system, LiDAR system and vehicle having at least one LiDAR system
DE102022115275A1 (en) Method for operating a LiDAR system, LiDAR system and vehicle with at least one LiDAR system
DE102021119239A1 (en) Method for operating an optical detection device, optical detection device for monitoring at least one monitoring area and vehicle with at least one detection device
DE102022130410A1 (en) Lidar system for distance determination, method for operating a lidar system and use of the lidar system
DE102020124023A1 (en) Method for detecting objects and detection device
WO2023083737A1 (en) Method for operating a detection device for monitoring at least one monitored region in a spatially resolved manner, detection device, and vehicle comprising at least one detection device
DE102021211500A1 (en) Lidar sensor to detect highly reflective objects
DE102021117361A1 (en) Method for operating an optical detection device, detection device and vehicle with at least one detection device
DE102022119584A1 (en) Method verification of an alignment of at least one optical device of a LiDAR system, LiDAR system, driving assistance system and vehicle with at least one LiDAR system
EP3945339A1 (en) Optical detection device for monitoring at least one surveillance area on objects and method for operating an optical detection device
DE102022214042A1 (en) Method for detecting defocusing of a LIDAR sensor and LIDAR sensor
DE102020128732A1 (en) Method and device for detecting blooming candidates in a lidar measurement