WO2023247302A1 - Verfahren zur ermittlung wenigstens einer korrekturfunktion für ein lidarsystem, lidar-system, fahrzeug mit wenigstens einem lidar-system, messanlage - Google Patents

Verfahren zur ermittlung wenigstens einer korrekturfunktion für ein lidarsystem, lidar-system, fahrzeug mit wenigstens einem lidar-system, messanlage Download PDF

Info

Publication number
WO2023247302A1
WO2023247302A1 PCT/EP2023/066055 EP2023066055W WO2023247302A1 WO 2023247302 A1 WO2023247302 A1 WO 2023247302A1 EP 2023066055 W EP2023066055 W EP 2023066055W WO 2023247302 A1 WO2023247302 A1 WO 2023247302A1
Authority
WO
WIPO (PCT)
Prior art keywords
reception
lidar system
lidar
correction
scanning light
Prior art date
Application number
PCT/EP2023/066055
Other languages
English (en)
French (fr)
Inventor
Hansjoerg Schmidt
Original Assignee
Valeo Detection Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Detection Systems GmbH filed Critical Valeo Detection Systems GmbH
Publication of WO2023247302A1 publication Critical patent/WO2023247302A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/493Extracting wanted echo signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Definitions

  • the invention relates to a method for determining at least one correction function for a LiDAR system, in particular for a LiDAR system for a vehicle, wherein the at least one correction function is designed to correct any scattered light effects on reception areas of a reception matrix of a reception device of the LiDAR system in LiDAR -Measurements with the LiDAR system.
  • the invention further relates to a LiDAR system, in particular a LiDAR system for a vehicle, having at least one transmitting device for sending scanning light beams into a field of view of the LiDAR system, at least one receiving device, which has at least one receiving matrix with a plurality of receiving areas, with which reflected scanning light beams can be received, and means for determining correction functions, the correction functions being designed to correct any scattered light effects on reception areas of the reception matrix during LiDAR measurements.
  • a LiDAR system in particular a LiDAR system for a vehicle, having at least one transmitting device for sending scanning light beams into a field of view of the LiDAR system, at least one receiving device, which has at least one receiving matrix with a plurality of receiving areas, with which reflected scanning light beams can be received, and means for determining correction functions, the correction functions being designed to correct any scattered light effects on reception areas of the reception matrix during LiDAR measurements.
  • the invention further relates to a vehicle with at least one LiDAR system, wherein the at least one LiDAR system has at least one transmitting device for sending scanning light beams into a field of view of the LiDAR system, at least one receiving device, which has at least one receiving matrix with several receiving areas with which reflected scanning light beams can be received, and means for determining correction functions, the correction functions being designed to correct any scattered light effects on reception areas of the reception matrix during LiDAR measurements.
  • the invention also relates to a measuring system which has means for determining at least one correction function for a LiDAR system, in particular for a LiDAR system for a vehicle, the at least one correction function being designed to correct any scattered light effects on reception areas of a reception matrix Receiving device of the LiDAR system for LiDAR measurements with the LiDAR system.
  • a LIDAR (Light Detection and Ranging) device contains one or more optical elements that are configured to direct incident light in one or more directions, as well as a detector arrangement with a plurality of detector pixels configured to output detection signals in response to light provided by the one or more optical elements.
  • the light includes scattered light that is redirected relative to the one or more directions.
  • a circuit is configured to receive the detection signals and generate corrected image data based on the detection signals and an expected spread function for the light.
  • the expected spread function may be a glare spread function (GSF) determined for the optical elements and/or an intensity map determined for the scattered light.
  • GSF glare spread function
  • the circuit may be configured to generate the scattered light intensity map by combining the intensity map of the retroreflective target with a glare scattering function for the one or more optical elements, e.g. B. based on the convolution of the intensity map of the retroreflective target with the glare scattering function.
  • the invention is based on the object of designing a method, a LiDAR system, a vehicle and a measuring system of the type mentioned at the outset, in which any scattered light effects on reception areas can be corrected better, in particular more efficiently and/or more precisely.
  • the object is achieved in the method in that at least one correction measurement is carried out, in which at least one reference object target that reflects electromagnetic scanning light beams is in front of a LiDAR target. Measurements with the LiDAR system based on the reflection of electromagnetic scanning light beams neutral background in a field of view of the LiDAR system is arranged, for at least two different positions of the at least one reference object target in the field of view each with at least one transmitting device of the LiDAR system an electromagnetic scanning light beam is sent into the field of view, at least one short measurement and at least one long measurement is carried out in each of the at least two different positions of the at least one reference object target with at least part of the reception areas, the at least one short measurement having a short integration period is carried out, during which light hitting the reception areas is received with the reception areas in at least two different recording time ranges and converted into corresponding short reception quantities, and wherein the at least one long measurement is carried out with a long integration period that is greater than the short integration period is, during which light hitting the reception areas
  • reference measurements are carried out on at least one reference object target, which is located in front of a background that is neutral with respect to the reflection of scanning light beams. Reflections of the scanning light beams in the field of view outside the at least one reference object target can be avoided using the neutral background. In this way, rays that hit the reception areas come from the at least one reference object target.
  • Reflected scanning light beams can also be referred to as receiving light beams.
  • at least one position variable can be determined from at least some of the short received variables, which characterizes the position of the at least one reference object target in the field of view
  • at least one effect variable can be determined from at least some of the long received variables, which the effect of supersaturating reflected scanning light beams on at least some of the reception areas is characterized
  • the at least one correction function is determined from at least some of the position variables and at least some of the respective effect variables.
  • At least one position variable is determined which characterizes the position of the at least one reference object target in the field of view.
  • the short measurement can also be used to determine the intensity of the light hitting the reception areas.
  • the intensity can be set in relation to the short integration period.
  • the at least one correction function is determined from at least some of the position variables and at least some of the effect variables. With the help of the correction functions, any scattered light effects that can arise from strongly reflected scanning light beams can be corrected in regular LiDAR measurements, i.e. LiDAR measurements when the LiDAR system is used regularly.
  • the method can be used to determine the influence of each individual reception area of the reception matrix with regard to scattered light effects, which come from strongly reflected scanning light beams.
  • the influenceability is quantified using the at least one correction functions.
  • a corresponding scattered light correction can be carried out over the entire receiving matrix. Strongly reflected scanning light rays can be caused by reflections of scanning light rays on highly reflective objects, in particular retroreflective objects.
  • object targets are recorded in the field of view of the LiDAR system, if available. From the LiDAR measurements, corresponding object sizes, which characterize a distance, a direction and/or a speed of the detected object target relative to a reference area, can be determined.
  • the reference area can in particular be characterized by a reference area of the LiDAR system or a vehicle that carries the LiDAR system.
  • a reference area of the LiDAR system can be specified by a coordinate system whose coordinate origin and orientation to the LiDAR system is fixed.
  • a reference area of the vehicle can be defined by a longitudinal axis, a transverse axis and/or a vertical axis of the vehicle.
  • Any scattered light effects in LiDAR measurements can be corrected using the at least one correction function, which can be determined using the method according to the invention.
  • At least one scanning light beam can be sent into at least one monitoring area using at least one transmitting device of the LiDAR system.
  • the at least one monitoring area is defined by the field of view and the orientation of the LiDAR system.
  • the scanning light beam can be an amplitude-modulated scanning light beam. In this way, a so-called indirect time-of-flight method can be used.
  • Light coming from the at least one monitoring area can be received with at least part of the reception areas of the reception matrix of the reception device of the LiDAR system and converted into reception variables.
  • the reception sizes can be assigned to the reception areas.
  • the reception variables can each characterize a quantity of the light received with the corresponding reception area.
  • the received variables can be processed using an evaluation device in the LiDAR system.
  • the light coming from the at least one monitoring area can contain at least one received light beam, which comes from at least one scanning light beam reflected in the at least one monitoring area.
  • the position of the object target in the monitoring area can be determined from the position of the reception areas within the reception matrix hit by the reception light beam, i.e. the reflected scanning light beams. With the reception matrix, a spatially resolved LiDAR measurement is possible.
  • any scattered light effects on reception areas can be corrected based on the reception variables determined.
  • the light coming from the at least one monitoring area can be converted into respective reception variables with the reception areas during at least two recording time ranges. At least two of the recording time ranges can be started out of phase with respect to a modulation period of the at least one scanning light beam.
  • two reception variables namely one reception variable for each of the at least two recording time ranges, can be determined for each of the reception areas used.
  • corrected final received variables can be determined using the at least one correction function.
  • Each of the received variables used can be processed separately into a corresponding final received variable using the at least one correction function. In this way, at least two final reception variables can be determined for each reception area used, depending on the number of recording time areas.
  • a distance variable can be determined for each reception area used, which characterizes the distance of the detected object target relative to the reference system, in particular the reference system of the LiDAR system.
  • a distance image of the field of view can be realized, in which the distances of object targets can be displayed with spatial resolution.
  • the directional variables can characterize the direction of the detected object target relative to the reference system, in particular of the LiDAR system.
  • correspondingly long integration times can be used in LiDAR measurements with a LiDAR system when detecting the light, in particular the reflected scanning light beams, with the reception areas.
  • the integration times can be achieved using appropriate shutter speeds.
  • the use of LiDAR systems with long integration times, especially long shutter speeds, can not only lead to oversaturation of reception areas that are hit by scanning light beams reflected from highly reflective object targets.
  • the scanning light rays reflected on highly reflective object targets also lead to distortions in all other reception areas of the receiving matrix, in particular due to reflections of strong reflected scanning light rays at transitions of media, for example optical lenses, in the optical path of the receiving device, in particular the receiving matrix. This distortion can be referred to as blooming or glare.
  • the blooming signals can lead to errors in determining distance sizes for object targets in surveillance areas with highly reflective object targets.
  • the distance sizes of normally or weakly reflective object targets in surveillance areas in which there are also highly reflective object targets can be falsified in the direction of the distance sizes of the highly reflective object targets.
  • a respective corrective received variable can be generated by means of at least one mathematical convolution with the at least one correction function.
  • a final received variable can be formed as the difference between the respective received variable and the correction received variable.
  • highly reflective objects such as traffic signs with retroreflective properties, and weaker reflective objects, such as pedestrians, obstacles such as walls, or the like, can be distinguished in scenes, particularly in road traffic. and their respective distances can be determined more precisely.
  • the reflected scanning light beams from highly reflective objects, in particular retroreflective objects can be smeared across the receiving matrix, particularly due to internal reflections, in particular in the optical reception path and/or due to optical crosstalk in the receiving device.
  • a recording time range in the sense of the invention is a time range during which portions of reflected scanning light beams striking a respective reception area can be converted into corresponding reception quantities.
  • a recording time range can advantageously be defined by a starting time and an integration period.
  • An object target in the sense of the invention is a location on an object at which scanning light beams sent by the LiDAR system into the at least one monitoring area can be reflected.
  • Each object can have a variety of object targets.
  • An object target used in correction measurements is referred to as a “reference object target” for ease of distinction.
  • the LiDAR system can work according to an indirect time-of-flight method.
  • an indirect time-of-flight method a shift of the reflected scanning light beam relative to the scanning light beam caused by the flight time of an amplitude-modulated scanning light beam and the corresponding reflected scanning light beam can be determined. From the displacement, the distance of an object from which the corresponding scanning light beam is reflected can be determined.
  • laser signals can be sent as scanning light beams with the at least one transmitting device.
  • Laser signals can be precisely defined and sent out over a long range, especially several hundred meters.
  • Laser signals are also light beams that can also be coded.
  • the LiDAR system can be a flash LiDAR system.
  • a Flash LiDAR system each scanning light beam sent lights up - similar to a flash - the entire monitoring area.
  • the LiDAR system can advantageously be designed as a laser-based distance measuring system.
  • a laser-based distance measuring system can have at least one laser, in particular a diode laser, as the light source of a transmitting device.
  • pulsed scanning light beams can be sent with the at least one laser.
  • the laser can be used to emit scanning light beams in wavelength ranges that are visible or invisible to the human eye.
  • the receiving matrix of the receiving device can be implemented with at least one sensor designed for the wavelength of the emitted scanning light beams, in particular a CCD sensor, an active pixel sensor, in particular a CMOS sensor or the like.
  • Such sensors have a plurality of reception areas, in particular pixels or groups of pixels. Such sensors can be operated in such a way that the converted received variables can be assigned to the respective reception areas.
  • the at least one correction function can be determined for a LiDAR system with a one-dimensional, in particular line-shaped, reception matrix or for a LiDAR system with a two-dimensional, in particular flat, reception matrix.
  • a one-dimensional reception matrix the field of view can be recorded in two dimensions, in particular in the dimension of the reception matrix and the dimension perpendicular to the surface of the reception matrix.
  • a two-dimensional reception matrix the field of view can be recorded in three dimensions, in particular in the two dimensions of the reception matrix and the dimension perpendicular to the surface of the reception matrix.
  • the LiDAR system can advantageously be used in vehicles, in particular motor vehicles.
  • the LiDAR system can advantageously be used on land vehicles, in particular passenger cars, trucks, buses, motorcycles or the like, aircraft, in particular drones, and/or watercraft.
  • the LiDAR system can also be used in vehicles that can be operated autonomously or at least partially autonomously.
  • the LiDAR system is not limited to vehicles. It can also be used in stationary operation Robotics and/or machines, especially construction or transport machines, such as cranes, excavators or the like.
  • the LiDAR system can have, in particular, an electronic control and evaluation device with which the LiDAR system can be controlled and received variables can be processed.
  • the LiDAR system can advantageously be connected to or be part of at least one electronic control device of a vehicle or a machine, in particular a driver assistance system and/or a chassis control system and/or a driver information device and/or a parking assistance system and/or a gesture recognition system or the like be. In this way, at least some of the functions of the vehicle or machine can be operated autonomously or semi-autonomously.
  • the LiDAR system can be used to detect stationary or moving objects, in particular vehicles, people, animals, plants, obstacles, uneven road surfaces, in particular potholes or stones, road boundaries, traffic signs, open spaces, in particular parking spaces, precipitation or the like, and/or movements and /or gestures can be used.
  • the background can be selected so that in LiDAR measurements with the LiDAR system, in which no reference object target is arranged in the field of view of the LiDAR system, there are no signals that can be distinguished from noise for the reception areas of the reception matrix can be determined, and / or the sky can be used as at least part of the background and / or at least one medium which has a negligible reflectivity for electromagnetic scanning light beams based on LiDAR measurements can be used as at least part of the background. In this way, a defined neutral background can be achieved.
  • the background can advantageously be selected so that no signals that can be distinguished from noise can be determined with the reception areas during LiDAR measurements without a reference object target. In this way it can be checked whether the background has the required reflection neutrality.
  • the sky can advantageously be used as at least part of the background. Electromagnetic scanning light beams sent towards the sky are not reflected back. This makes it easy to create a background that is neutral in terms of reflection.
  • At least one medium which has a negligible reflectivity for electromagnetic scanning light beams based on LiDAR measurements can advantageously be used as at least part of the background.
  • scanning light beams can be attenuated, in particular swallowed.
  • the at least one medium can be used to create a wall or a ceiling of a measuring room in which the correction measurements can be carried out.
  • the at least one correction function can be implemented as a group of data sets, each data set containing at least one reception range value and at least one correction value, the at least one correction value being able to be assigned to the respective reception range by means of the at least one reception range value, and/ or at least one correction function is implemented as a kernel. In this way, corresponding correction values can be efficiently assigned to the reception areas during regular LiDAR measurements.
  • the correction values can be determined depending on the positions of the supersaturated reception areas within the reception matrix, which characterize the direction of the corresponding object targets in the field of view of the LiDAR system.
  • the reception area values can be represented as coordinates of the reception areas in a coordinate system.
  • the coordinate axes of the Coordinate system can represent the columns and rows of the receiving matrix.
  • the position of the reception area within the reception matrix can be described in particular using two reception area values, i.e. two reception matrix coordinates.
  • the at least one reference object target can be moved between at least two correction measurements within the field of view, in particular moved manually and/or by means of at least one drive means. In this way, correction measurements can be carried out one after the other for different positions of the at least one reference object target within the field of view.
  • the at least one reference object target can be moved continuously through the field of view.
  • correction measurements can be carried out continuously with different positions of the reference object target. This means that a large number of correction measurements can be carried out in a time-saving manner.
  • the at least one reference object target can be moved manually. This way no separate drive is required.
  • the at least one reference object target can be moved by means of at least one drive means.
  • Drive means can be controlled in particular by means of a system control of a measuring system. In this way, the at least one reference object target can be moved precisely.
  • the at least one reference object target can be moved synchronously with the correction measurements.
  • the at least one reference object target can be held in one position during the short measurement and the long measurement of a correction measurement.
  • the short integration period can be specified in such a way that reflected scanning light beams coming from the at least one reference object target do not lead to oversaturation of reception areas of the reception matrix
  • the long integration period can be specified in such a way that from which at least one reference object target comes reflected scanning light beams lead to oversaturation in at least the reception areas of the reception matrix.
  • received variables can be determined from which position variables, in particular distance variables and/or directional variables, which characterize the position of the at least one reference object target relative to at least one reference area of the LiDAR system, can be determined.
  • the short integration period can be predetermined in the order of microseconds, in particular approximately 5 ps.
  • the long integration period can advantageously be specified in the order of milliseconds, in particular approximately 1000 ps.
  • the reflected at least one scanning light beam coming from the field of view of the LiDAR system with the reception areas can be converted into respective reception variables during at least two recording time ranges, with at least two of the recording time ranges being based on a modulation period of the at least one scanning light beam can be started out of phase.
  • the LiDAR system can be operated using an indirect time-of-flight method.
  • the at least two phase-shifted recording time ranges can have a respective phase shift relative to a reference event, in particular relative to a reference event of the at least one scanning light beam, in particular relative to an intensity minimum of the at least one scanning light beam and/or a zero crossing of an electrical transmission signal, with which one Light source of the transmitting device is controlled for emitting the at least one scanning light beam.
  • Enable phase shifts compared to a reference event of the at least one scanning light beam a more precise assignment of the at least one reflected scanning light beam to the at least one transmitted scanning light beam.
  • An intensity minimum of the at least one scanning light beam and a zero crossing of an electrical transmission signal can be easily defined.
  • the displacement of the reflected at least one scanning light beam relative to the at least one scanning light beam and thus the flight time, which characterizes the distance can be determined more precisely.
  • the at least one reference object target can be realized with a retroreflective object.
  • the correction function can also be determined for scanning light beams with lower transmission powers.
  • At least one reference object target can be realized with an object that can appear in the field of view during regular operation of the LiDAR system.
  • the LiDAR system can be specifically conditioned for its intended use.
  • At least one reference object target can be realized with a retroreflective traffic sign, in particular a street sign.
  • the LiDAR system can be conditioned for use in road traffic, particularly in conjunction with a vehicle.
  • the at least one scanning light beam can be sent into the field of view with at least two zones with different transmission power.
  • the range of the at least a scanning light beam can be varied in the zones.
  • a far-field zone can be realized in which scanning light beams are sent with a higher transmission power.
  • the transmission power can be reduced, which reduces the range but also reduces the energy required.
  • an ambient light correction can be carried out when determining the at least one correction function. In this way, interference from ambient light can be reduced. In this way, the accuracy of determining the correction function can be improved.
  • the object is achieved according to the invention in the LiDAR system in that the LiDAR system has at least part of the means for carrying out the method according to the invention.
  • the LiDAR system can be conditioned so that even in scenes with strongly reflective objects, in particular retroreflective objects, such as street signs, road markings or the like, distances from weakly reflective objects, such as pedestrians, other vehicles, cyclists, obstacles or the like , can be determined more precisely.
  • the means for carrying out the method according to the invention can be implemented using software and/or hardware. In this way, components and/or program parts that already exist in the LiDAR system can be used.
  • the object is achieved according to the invention in the vehicle in that the vehicle has at least part of the means for carrying out the method according to the invention.
  • At least one monitoring area in the area surrounding the vehicle and/or in the interior of the vehicle can be monitored for objects.
  • the LiDAR system can be used to determine distances to detected objects.
  • the vehicle has at least some of the means for carrying out the method according to the invention.
  • at least one LiDAR system of the vehicle can have at least part of the means for carrying out the method according to the invention. Since the at least one LiDAR system is part of the vehicle, the part of the means of the at least one LiDAR system for carrying out the method according to the invention is also part of the vehicle, and therefore also part of the means of the vehicle for carrying out the method according to the invention.
  • the at least some of the means for carrying out the method according to the invention can be implemented exclusively in the at least one LiDAR system. Alternatively, the at least some of the means for carrying out the method according to the invention can be implemented in the vehicle but outside of the at least one LiDAR system. Alternatively, at least part of the means for carrying out the method according to the invention can be implemented in the at least one LiDAR system and part of the means for carrying out the method according to the invention can be implemented in the vehicle outside of the at least one LiDAR system.
  • At least some of the means for carrying out the method according to the invention can also be implemented outside of the at least one LiDAR system and/or the vehicle. In this way, the expenditure of resources on the part of the at least one LiDAR system, in particular on the part of the vehicle, can be limited to the functions required in the regular operation of the LiDAR system.
  • At least some of the means for carrying out the method according to the invention can be implemented in an external processing device, in particular in a computer or PC or the like.
  • the vehicle can have at least one driving assistance system.
  • the vehicle can be operated autonomously or at least partially autonomously.
  • at least one LiDAR system can be functionally connected to at least one driver assistance system of the vehicle.
  • information about the at least one monitoring area in particular distance variables and/or directional variables and/or speed variables, which can be determined with the at least one LiDAR system, can be transmitted to the at least one driver assistance system.
  • the vehicle can be operated autonomously or at least partially autonomously, taking into account the information about the at least one monitoring area.
  • the object is achieved according to the invention in the measuring system in that the measuring system has at least one arrangement point for at least one LiDAR system, at least one reference object target, the position of which can be changed in the field of view of the at least one LiDAR system, and one for LiDAR Measurements with the LiDAR system based on the reflection of electromagnetic scanning light rays neutral background, which is located on the side of the at least one reference object target facing away from the arrangement point.
  • a measuring system in which at least one LiDAR system can be arranged at at least one defined location.
  • a defined reference object target can be arranged in different positions in the field of view of the at least one LiDAR system.
  • the measuring system has a neutral background so that sources of stray light can be reduced.
  • the neutral background can be at least partially realized by the sky and/or the neutral background can be at least partially realized by at least one medium which has a negligible reflectivity for electromagnetic scanning light beams based on LiDAR measurements. In this way, a defined neutral background can be achieved.
  • the at least one medium with negligible reflectivity can be implemented as at least one wall. In this way, a measuring space can be limited around the LiDAR system.
  • the measuring system can have at least one drive for moving the at least one reference object target and/or the measuring system can have at least one system control.
  • the at least one reference object target can be moved automatically with at least one drive.
  • the LiDAR system and/or a movement of the at least one reference object target, in particular at least one drive can be controlled with at least one system controller.
  • the measuring system can have at least one external processing device, in particular a computer or PC or the like.
  • at least some of the means for carrying out the method according to the invention can be implemented outside the LiDAR system.
  • Figure 1 shows a vehicle in front view with a driver assistance system and a LiDAR system for determining distances from object targets to the vehicle;
  • Figure 2 shows a functional representation of a part of the vehicle with the driver assistance system and the LiDAR system from Figure 1;
  • Figure 3 shows a front view of a reception matrix of a reception device of the LiDAR system from Figures 1 and 2, the reception matrix having a plurality of reception areas;
  • Figure 4 shows a signal strength-time diagram with four exemplary phase images DCSo to DCS3, which are determined with respective phase shifts of 90° from a received light signal of a reflected transmitted light signal of the LiDAR system from Figures 1 and 2 and their amplitudes as received variables for determining distances of object goals serve;
  • Figure 5 shows a distance image of a scene with a plurality of objects, each of which has a plurality of object targets, in grayscale representation, one of the objects being a retroreflective object in the form of a street sign, which is covered here;
  • FIG. 6 shows a distance image of the scene from FIG. 5, in which case the retroreflective object is not covered and leads to scattered light effects in the receiving matrix;
  • Figure 7 is a distance image of the scene from Figure 5, with the scattered light effects corrected here;
  • Figure 8 shows a process for determining correction reception variables by means of a convolution of short reception variables with a correction function in a grayscale matrix representation
  • Figure 9 shows a process for determining final reception quantities as the difference between long reception quantities and the correction reception quantities from Figure 8 in a grayscale matrix representation
  • Figure 10 is a side view of a measuring system for determining the correction function from Figure 8 according to a first exemplary embodiment
  • Figure 11 shows a side view of a measuring system for determining the correction function from Figure 8 according to a second exemplary embodiment
  • FIG. 12 shows a received size matrix in grayscale representation for the phase image DCSo for a long measurement during a correction measurement to determine the correction function with the measuring system from FIG.
  • Figure 13 shows an axis diagram for the phase image DCSo from Figure 12 along column 173 of the received size matrix there;
  • Figure 14 shows a received size matrix in grayscale representation for the phase image DCSo for a short measurement during the correction measurement corresponding to Figure 12;
  • Figure 15 shows an axis diagram for the phase image DCSo from Figure 14 along column 173 of the received size matrix there;
  • FIG. 16 shows a received size matrix in grayscale representation for the phase image DCSo for a long measurement during a correction measurement to determine the correction function with the measuring system from FIG. 10, the reference object being in a different position in the field of view of the LiDAR system than in the short measurement from the figure 12;
  • Figure 17 shows an axis diagram for the phase image DCSo from Figure 16 along column 119 of the received size matrix there;
  • Figure 18 shows a received size matrix in grayscale representation for the phase image DCSo for a short measurement during the correction measurement from Figure 16;
  • Figure 19 is an axis diagram for the phase image DCSo from Figure 18 along column 119 of the received size matrix there.
  • a vehicle 10 is shown as an example in the form of a passenger car in the front view.
  • Figure 2 shows a functional representation of a part of the vehicle 10.
  • the vehicle 10 has a LiDAR system 12, which is designed as a flash LiDAR system.
  • the LiDAR system 12 is, for example, arranged in the front bumper of the vehicle 10.
  • a monitoring area 14 in the direction of travel 16 in front of the vehicle 10 can be monitored for objects 18.
  • the monitoring area 14 is defined by a field of view 58 of the LiDAR system 12 indicated in FIGS. 10 and 11.
  • the LiDAR system 12 can also be used on others Place on the vehicle 10 and be arranged differently.
  • object information for example distance variables D, directional variables and/or speed variables, which characterize distances, directions or speeds of objects 18 relative to the vehicle 10, also relative to the LiDAR system 12, can be determined.
  • the objects 18 can be stationary or moving objects, for example other vehicles, people, animals, plants, obstacles, bumps in the road, for example potholes or stones, road boundaries, traffic signs, open spaces, for example parking spaces, precipitation or the like.
  • Each object 18 usually has several object targets 19.
  • An object target 19 is a location of an object 18 at which scanning light beams in the form of transmitted light signals 20, which are sent from the LiDAR system 12 into the monitoring area 14, can be reflected.
  • scanning light beams in the form of transmitted light signals 20 which are sent from the LiDAR system 12 into the monitoring area 14, can be reflected.
  • only one of the object targets 19 is provided with a reference number for the sake of clarity.
  • the LiDAR system 12 is connected to a driver assistance system 22. With the driver assistance system 22, the vehicle 10 can be operated autonomously or semi-autonomously.
  • the LiDAR system 12 includes, for example, a transmitting device 24, a receiving device 26 and a control and evaluation device 28.
  • the control and evaluation device 28 is, for example, an electronic control and evaluation device.
  • the functions of the control and evaluation device 28 can be implemented centrally or decentrally using software and/or hardware. Parts of the functions of the control and evaluation device 28 can also be integrated in the transmitting device 24 and/or the receiving device 26.
  • Electrical transmission signals can be generated with the control and evaluation device 28.
  • the transmitting device 24 can be controlled with the electrical transmission signals so that it sends amplitude-modulated transmitted light signals 20 in the form of light pulses into the monitoring area 14.
  • the transmitting device 24 has, for example, a laser as a light source.
  • the laser can be used to generate transmitted light signals 20 in the form of laser pulses.
  • the transmitting device 24 has an optical device with which the transmitted light signals 20 are expanded so that they can spread into the entire monitoring area 14 - similar to a flash. In this way, the entire monitoring area 14 can be illuminated with each transmitted light signal 20.
  • Transmitted light signals 20 reflected on an object 18 in the direction of the receiving device 26, which are referred to as received light signals 30 for better distinction, can be received with the receiving device 26.
  • the receiving device 26 can optionally have a received light signal deflection device with which the received light signals 30 are directed to a receiving matrix 32 of the receiving device 26 shown in detail in FIG.
  • the reception matrix 32 is realized, for example, with an area sensor in the form of a CCD sensor with a large number of reception areas 34.
  • the reception areas 34 of the reception matrix 32 are arranged, for example, in 320 columns with 240 rows.
  • the y-axis and the z-axis of a Cartesian y-z coordinate system are shown in FIGS. 3 and 5 to 19, the y-axis indicating the columns and the z-axis indicating the rows of the receiving matrix 32.
  • Each reception area 34 can be implemented, for example, by a group of pixels.
  • the reception matrix 32 has 320 x 240 reception areas 34. For the sake of clarity, only 7 x 7 of the reception areas 34 are indicated in FIG.
  • the position of a reception area 34 in the reception matrix 32 can be specified by specifying the corresponding row and the corresponding column, i.e. the y coordinate and the z coordinate.
  • reception areas 34 of the reception matrix 32 the portions of received light signals 30 hitting them can be converted into corresponding reception variables Ao, Ai, A2 and A3, designated in FIG.
  • the received variables can also be referred to below as received variables Ai.
  • the received variables Ao, Ai, A2 and A3 are the amplitudes of phase images (differential correlation samples) DCSo, DCS1, DCS2 and DCS3, which can also be referred to below as phase images DCSi for the sake of simplicity.
  • Each reception area 34 can be activated via suitable closure means for the detection of received light signals 30 for defined recording time ranges TBo, TB1, TB2 and TB3, which can also be referred to below as recording time ranges TBi for the sake of simplicity.
  • the reception areas 34 can each be activated in four recording time ranges TBo, TB1, TB2 and TB3 for detecting received signals 30.
  • Each recording time range TBi is defined by a start time and an integration period.
  • the time intervals between two defined recording time ranges TBi are smaller than the period IMOD of the modulation period MP of the transmitted light signal 20.
  • phase images DCSi and their amplitudes Ai can be determined from the received signals, which characterize respective signal sections of the received light signal 30 in the respective recording time ranges TBi.
  • the phase images DCSi and their amplitudes, i.e. the received variables Ai characterize the respective amount of light that is collected during the recording time ranges TBi with the correspondingly activated reception area 34 of the reception matrix 32.
  • each reception area 34 can be activated and read out individually.
  • the closure means can be software and/or hardware ways to be realized. Such closure means can be implemented as so-called “shutters”.
  • the reception areas 34 can be controlled with corresponding periodic recording control signals in the form of shutter signals.
  • the shutter signals can be triggered via the electrical transmission signals with which the laser of the transmission device 24 is controlled, or together with them.
  • the received variables Ai are thus related to the transmitted light signals 20.
  • the electrical transmission signals can be triggered at a starting time ST.
  • the reception areas 34 are triggered with the corresponding time-offset shutter signals.
  • the receiving device 26 can optionally have optical elements with which received light signals 30 coming from the monitoring area 14 are imaged onto respective receiving areas 34 when viewed in the direction of the receiving areas 34, depending on the direction from which they come.
  • the direction of an object target 19 on which the transmitted light signal 20 is reflected can thus be determined from the position of the illuminated reception areas 34 within the reception matrix 32.
  • FIG. 4 shows a modulation period MP of a reception envelope 36 of the phase images DCSo, DCSi, DCS2 and DCS3 in a common signal strength-time diagram.
  • the signal strength axis is labeled “S” and the time axis is labeled “t”.
  • the reception envelope 36 is offset in time from the starting time ST.
  • the time offset in the form of a phase difference characterizes the flight time between the emission of the transmitted light signal 20 and the reception of the corresponding received light signal 30.
  • a distance variable D which characterizes the distance of the reflecting object target 19, can be determined from the phase difference.
  • the phase shift 0 can therefore be used as a distance variable for distance.
  • the flight time is known to be proportional to the distance of the object target 19 relative to the LiDAR system 12.
  • the reception envelope 36 can have, for example, four support points in the form of the four Phase images DCSo, DCSi, DCS2 and DCS3 can be approximated. Alternatively, the reception envelope 36 can also be approximated by more or fewer support points in the form of phase images.
  • the recording time ranges TBo, TB1, TB2 and TB3 are each started based on a reference event, for example in the form of a trigger signal for the electrical transmission signal at the starting time ST.
  • the reference event can, for example, be a zero crossing of the electrical signal with which the laser is controlled to generate the transmitted light signal 20.
  • the modulation period MP of the transmitted light signal 20 extends over 360°.
  • the recording time ranges TBo, TB1, TB2 and TB3 each start at a distance of 90° from one another in relation to the modulation period MP.
  • the recording time ranges TBo, TB1, TB2 and TB3 start with phase shifts of 0°, 90°, 180° and 270°, respectively, compared to the starting time ST.
  • a distance variable D for a detected object target 19 can be determined mathematically, for example, from the amplitudes, i.e. the received variables Ao, Ai, A2 and A3, of the phase images DCSo, DCS1, DCS2 and DCS3 for a respective reception area 34 in a manner that is of no further interest here.
  • a distance image of a scene that was captured with the LiDAR system 12 is shown in grayscale.
  • the 320 columns of the reception matrix 32 are indicated in the horizontal dimension of the distance image in the direction of the y-axis. Each column characterizes the horizontal direction from which the received light signals 30 received with the reception areas 34 of the column come, i.e. in which the corresponding object target 19 is located.
  • the 240 lines of the reception matrix 32 are indicated in the direction of the z-axis. Each line characterizes the vertical direction from which the received light signals 30 received with the reception areas 34 of the line come, i.e. in which the corresponding object target 19 is located.
  • the direction of the object target 19 from which the corresponding received light signals 30 come can be characterized via the position of a reception area 34 in the reception matrix 32 that is hit with received light signals 30.
  • the distance sizes D for the distances of the detected object target 19 are in gray levels corresponding to one grayscale scale shown in the distance image.
  • the street sign is a highly reflective, for example retroreflective object, which is provided with a normally reflective cover in the scene from FIG.
  • the same scene as in Figure 5 is shown in Figure 6.
  • the cover of the retroreflective object 18R is removed.
  • the retroreflective object is referred to as 1 8R and the corresponding retroreflective object targets as 1 9.
  • the use of the LiDAR system 12 with long integration times, which are required in order to detect even weakly reflecting objects 18, such as the person and the board in FIGS. 5 and 6, in the monitoring area 14, can not only result in oversaturation of reception areas 34, which are hit by received light signals 30 reflected on highly reflective objects 18, but also to a falsification of the signals of the reception areas 34 in the vicinity of the reception areas 34 hit by the received light signals 30 from the highly reflective objects 18.
  • This falsification is called Blooming or glare (glare). Blooming leads to an error in determining the distance sizes D for objects 18 in the vicinity of highly reflective objects 1 8 .
  • the distance size D of the normally or weakly reflecting objects 18 is, as shown in FIG.
  • FIG. 6 falsified in the direction of the distance size D of the strongly reflecting objects 18.
  • an annular blooming area 38 can be seen around the retroreflective object 18.
  • the blooming area 38 extends here over the reception areas 34, which should actually capture the received light signals 30 from the neighboring normally reflecting objects 18, namely the board and part of the person.
  • the true distance sizes D of the neighboring normally reflecting objects 18 cannot be determined in the blooming area 38.
  • the scattered light effects caused by highly reflective objects 18 can be corrected as described below.
  • the correct distance values D can also be determined for the weakly or normally reflecting objects 18 in the vicinity of strongly reflecting objects 18.
  • both a short measurement and a long measurement are carried out of the same scene in the monitoring area 14 with the reception areas 34.
  • the short measurement is carried out with a short integration period, during which the light, including received light signals 30, are received from the monitoring area 14 with the reception areas 34 in the four recording time areas TBo, TBi, TB2 and TB3.
  • the length of the short integration period is chosen so that even the strong received light signals 30 from the retroreflective object 1 8R do not lead to overloading in the reception matrix 32.
  • the short integration period is approximately 1 ps.
  • the light received is converted into the four corresponding short reception variables Ao,k, Ai,k, A2,k and As,k assigned to the respective reception area 34, which are also referred to below as short- Reception variables Ai,k can be designated.
  • the short reception quantities Ao,k, Ai,k, A2,k and A3, k become one of four short reception quantity matrices 4Oo, 40i, 402 and 403 shown on the left in Figure 8, corresponding to their respective recording time ranges TBo, TB1, TB2 and TB3 assigned, which for the sake of simplicity can also be referred to below as short received size matrices 40i.
  • each of the short reception size matrices 4Oo, 40i, 402, 403 there is only one of the short reception sizes Ao,k, Ai,k, A2,k and As.k, which is determined with one of the reception areas 34. provided with a reference number.
  • each of the short reception size matrices contains 4Oo, 40i, 402, 403 as many short reception variables Ao,k, Ai,k, A2,k and As.k as the reception matrix 32 contains reception areas 34, namely 320 x 240.
  • the short reception size matrices 4Oo, 40i, 402, 403 in Figure 8 on the left the y-axis and the z-axis of the y-z coordinate system are shown.
  • the corresponding fields of the short reception size matrices 40i can thus be assigned to the corresponding reception areas 34 of the reception matrix 32.
  • the respective short reception variables Ao,k, Ai,k, A2,k and As,k are visualized, for example, as intensities INT using gray levels.
  • the corresponding grayscale scale is shown to the right of the short reception size matrices 4Oo, 40i, 402, 403.
  • the illustration in Figure 8 on the left is merely an exemplary visualization of the short reception size matrices 40i.
  • the short reception size matrices 40i are actually each a group of tuples, the number of which corresponds to the number of reception areas 34 of the reception matrix 32, namely 320 x 240.
  • Each tuple contains at least one assignment variable, for example the y coordinate and the z coordinate, which enables the assignment to the corresponding reception area 34, and the short reception variable Ai,k assigned to the corresponding reception area 34.
  • a respective correction reception quantity Ao,c, Ai, c is created by means of mathematical convolution with the correction function 42 , A2,c and As,c, which for the sake of simplicity can also be referred to below as correction reception variables Ai, c .
  • the correction function 42 is shown in the middle of FIG. 8 in a two-dimensional grayscale representation as a correction size matrix.
  • the correction function 42 can be implemented with a kernel.
  • the correction function 42 can be implemented as a group of data sets with position variables, for example column values and row values, and effect variables. A method for determining the correction function 42 is explained below.
  • the correction reception variables Ao,c, Ai, c , A2, c and As,c are assigned to one of four correction values according to their respective recording time ranges TBo, TB1, TB2 and TB3.
  • Received size matrices 44o, 44i, 442 and 443 are assigned, which for the sake of simplicity can also be referred to below as correction received size matrices 44i.
  • the correction reception variables Ao,c, Ai, c , A2,C and A3,C are also assigned to the corresponding reception areas 34 and the corresponding recording time ranges TBo, TBi, TB2 and TB3, which correspond to the short reception variables Ao ,k, Ai,k, A2,k and As,k correspond.
  • each of the correction reception size matrices 44o, 44i, 442, 443 contains as many correction reception sizes Ao,c, Ai, c , A2,C and A3,C as the short reception size matrices 4Oo, 40i, 402, 403 short reception sizes Ao,k, Ai,k, A2,k and As,k, namely 320 x 240.
  • the y-axis and the z-axis of the yz coordinate system are shown on the right in the correction reception size matrices 44i in FIG. 8.
  • the corresponding fields of the correction reception size matrices 44i can thus be assigned to the corresponding reception areas 34 of the reception matrix 32.
  • the respective correction reception variables Ao,c, Ai, c , A2,C and As,c are visualized, for example, as intensities INT in grayscale.
  • the corresponding gray scale scale is shown to the right of the correction reception size matrices 44i.
  • the representation in Figure 8 on the right is merely a visualization of the correction reception size matrices 44i.
  • the correction reception size matrices 44i are actually each a group of tuples, the number of which corresponds to the number of reception areas 34 of the reception matrix 32, namely 320 x 240.
  • Each tuple contains at least one assignment variable, for example a y coordinate and a z coordinate, which enables the assignment to the corresponding reception area 34, and the correction reception variable Ai, c assigned to the corresponding reception area 34.
  • the long measurement is carried out with a long integration period that is longer than the short integration period.
  • the length of the long integration period is chosen so that the received light signals 30 from the normally or weakly reflecting objects 18 also lead to signals on the side of the correspondingly illuminated reception areas 34, which can be distinguished from noise.
  • the long integration period is approximately 1000 ps.
  • the respectively received light is converted into the four corresponding long reception variables Ao,i, Au, A2,I and Aa,i assigned to the respective reception area 34, which are also referred to below as long reception variables Ai ,i can be designated.
  • the long reception sizes Ao,i, Au, A2,I and Aa,i are assigned to one of four long reception size matrices 46o, 46i, 462 and 463 shown on the left in FIG. 9 in accordance with their respective recording time ranges TBo, TBi, TB2 and TB3.
  • the long reception size matrices can also be referred to below as long reception size matrices 46i.
  • each of the long reception size matrices 46o, 46i, 462, 463 for the sake of clarity, only one of the long reception sizes Ao,i, Au, A2,I and As,i is provided with a reference number, which is determined with one of the reception areas 34 .
  • each of the long reception size matrices 46o, 46i, 462, 463 contains as many long reception sizes Ao,i, Au, A2,I and As as the reception matrix 32 reception areas 34 and the short reception size matrices 4Oo, 40i, 402, 403 short - Receive sizes Ao,k, Ai,k, A2,k and As,k, namely 320 x 240.
  • the long reception size matrices 46o, 46i, 462, 46a in Figure 9 on the left the y-axis and the z-axis of the yz coordinate system are shown.
  • the corresponding fields of the long reception size matrices 46i can thus be assigned to the corresponding reception areas 34 of the reception matrix 32.
  • the respective long reception variables Ao.i, Ai,i, A2,I and Aa,i are visualized, for example, as intensities INT using grayscale.
  • the corresponding grayscale scale is shown to the right of the long reception size matrices 46o, 46i, 462, 463.
  • the illustration in Figure 9 on the left is merely an exemplary visualization of the long reception size matrices 46i.
  • the long reception size matrices 46i like the short reception size matrices 40i, are actually a group of tuples, the number of which corresponds to the number of reception areas 34 of the reception matrix 32, namely 320 x 240.
  • Each tuple contains at least one assignment variable, for example the y coordinate and the z coordinate, which enables the assignment to the corresponding reception area 34, and the long reception size Ai,i assigned to the corresponding reception area 34.
  • the final reception variable Ao,e, Ai, e , A2,e and Aa,e formed as the difference from the long reception variable Ao,i, Ai,i, A21 or As,i and the correction reception variable Ao,c, Ai, c , A2, c or Aa,c, which corresponds to the reception area 34 and the recording time range TBo , TB1, TB2 and TB3 correspond to the long reception size Ao,i, Ai,i, A2,I and As.i respectively.
  • the final received variables Ao,e, Ai, e , A2, e and As,e can also be referred to below as final received variables Ai, e .
  • the final reception quantities Ao,e, Ai, e , A2,e, As,e are assigned to one of four final reception quantity matrices 48o, 48i, 482 and 483, respectively, according to their respective recording time ranges TBo, TB1, TB2 and TB3, which are the following For simplicity, they can also be referred to as final reception size matrices 48i.
  • the final reception quantities Ao,e, Ai, e , A2,e, As,e are also assigned to the corresponding reception areas 34 and the corresponding recording time ranges TBo, TB1, TB2 and TB3, which correspond to the short reception quantities Ao ,k, Ai,k, A2,k and As,k correspond.
  • each of the final reception size matrices 48o, 48i, 482, 48a contains as many final reception sizes Ao,e, Ai, e , A2,e, Aa, e as the long reception size matrices 46o, 46i, 462, 46a long reception sizes Ao,i, Ai,i, Aa and Aa,i, namely 320 x 240.
  • the y-axis and the z-axis of the yz coordinate system are shown on the right in the final reception size matrices 48i in FIG. 9.
  • the corresponding fields of the final reception size matrices 48i can thus be assigned to the corresponding reception areas 34 of the reception matrix 32.
  • the respective final reception variables Ao,e, Ai, e , A2, e, Aa,e are visualized, for example, as intensities INT in grayscale.
  • the corresponding grayscale scale is shown to the right of the final received size matrices 48o, 48i, 482, 48a.
  • the representation in Figure 9 on the right is merely a visualization of the final received size matrices 48i.
  • the final reception size matrices 48i like the short reception size matrices 40i, the long reception size matrices 46i and the correction reception size matrices 44i, are actually each a group of tuples, the number of which corresponds to the number of reception areas 34 of the reception matrix 32, namely 320 x 240 .
  • Each tuple contains at least one assignment size, for example the y coordinate and the z coordinate, which enables the assignment to the corresponding reception area 34, and the final reception size Ai, e assigned to the corresponding reception area 34.
  • the distance variables D for the distances of the object targets 19 and 19n of the objects 18 and 18R detected with the reception areas 34 are determined mathematically from the final reception variables Ao,e, Ai, e , A2, e and Aa,e for each reception area 34.
  • Figure 7 shows the distance image of the scene from Figure 6 after the correction of the scattered light effects described above. From Figure 7 it can be seen that the Blooming area 38 is reduced compared to the representation in Figure 6.
  • the distance sizes D for the weakly and normally reflecting objects 18, namely for the person and for the board, are specified in more detail after the correction, as shown in FIG.
  • the correction function 42 is determined, for example, before the LiDAR system 12 is installed in the vehicle 10. Alternatively, the correction function 42 can also be determined when the LiDAR system 12 is installed.
  • the LiDAR system 12 is arranged in a measuring system 50 to determine the correction function 42.
  • 10 shows a measuring system 50 according to a first exemplary embodiment in a side view.
  • the measuring system 50 has an arrangement point 52, for example in the form of a tripod for the LiDAR system 12.
  • the arrangement point 52 is located in front of a rear wall 54.
  • the rear wall 54 is neutral with respect to reflections of transmitted light signals 20.
  • the rear wall 54 is matt black.
  • “Neutral” in relation to reflections of transmitted light signals 20 in the sense of the invention means that transmitted light signals 20 are reflected.
  • Transmitted light signals 20, i.e. received light signals 30, are not reflected in the corresponding areas or are only reflected in a manner that is negligible for the LiDAR system. This prevents reflections from emanating from the reflection-neutral areas, which cause 12 signals in the LiDAR system that go beyond noise.
  • a system control 56 for the measuring system 50 is arranged on the side of the rear wall 54 opposite the arrangement point 52.
  • the LiDAR system 12 is controllably connected to the system controller 56. With the system control 56, the LiDAR system 12 can be controlled and data determined with the LiDAR system 12 can be retrieved.
  • the LiDAR system 12 is arranged so that the field of view 58 faces away from the rear wall 54.
  • the field of view 58 defines the monitoring area 14 in the measuring system 50.
  • the spatially lower field of view limit 60 of the field of view 58 runs horizontally, for example, at a field of view height 62 of 1.80 m above a floor 64.
  • a vertical image angle 66 of the LiDAR system 12 is, for example, 78 °.
  • the field of view 58 as a whole is directed obliquely upwards when viewed from the lower boundary of the field of view 60.
  • a reference object 1 8REF is arranged, for example, in the form of a retroreflective street sign.
  • the reference object 1 8REF has a large number of reference object targets 1 9REF on which transmitted light signals 20 can be reflected.
  • the reference object 1 8REF is connected to an electric drive 70, for example via a rod 68.
  • the electric drive 70 is located, for example, on the floor 64 of the measuring system 50.
  • the electric drive 70 is arranged, for example, below the lower field of view limit 60 outside the field of view 58.
  • the electric drive 70 is controllably linked to the system control 56.
  • the floor 64 is neutral with respect to reflections of transmitted light signals 20.
  • the floor 64 is matt black.
  • the rod 68 and a housing of the electric drive 70 are neutral with respect to reflections of transmitted light signals 20, for example matt black.
  • the reference object 1 8REF With the drive 70, the reference object 1 8REF can be moved over the rod 68 in the field of view 58. In this way, the position of the reference object 1 8REF and thus the positions of the reference object targets 1 9REF can be changed. To move the reference object 1 8REF, the drive 70 is controlled accordingly with the system control 56.
  • the measuring system 50 On the side of the reference object 1 8REF facing away from the arrangement point 52, the measuring system 50 has a neutral background 72 for LiDAR measurements with the LiDAR system 12 based on reflections of transmitted light signals 20.
  • the neutral background 72 is realized by the sky in the exemplary embodiment shown in FIG. 10.
  • the measuring system 50 is spatially open at the top and on its front side opposite the rear wall 54.
  • the background 72 is chosen so that in LiDAR measurements with the LiDAR system 12, in which no reference object target 1 9REF is arranged in the field of view 58 of the LiDAR system 12, for the reception No signals that can be distinguished from noise are detected in the reception areas 34 of the reception matrix 32.
  • a ceiling 74 is arranged on the top and a front wall 76 on the front. In this way, a closed measuring room is created.
  • the ceiling 74 and the front wall 76 each form a neutral background 72 based on the reflections of transmitted light signals 20.
  • the ceiling 74 and the front wall 76 can be matt black.
  • a large number of correction measurements are carried out with the LiDAR system 12 arranged in the measuring system 50. Between the correction measurements, the position of the reference object 18REF, i.e. the reference object targets 19REF, in the field of view 58 of the LiDAR system 12 is changed. For this purpose, the reference object 1 8REF is moved within the field of view 58 with the electric drive 70 in response to a signal from the system control 56. The correction measurements are carried out in this way in different positions of the reference object targets 1 9REF.
  • the signal from the system control 56 for moving the reference object 1 8REF can be synchronized with a signal for starting a correction measurement with the LiDAR system 12.
  • transmitted light signals 20 are sent into the field of view 58 using the transmitting device 24 of the LiDAR system 12, analogous to the LiDAR measurement described above.
  • the transmitted light signals 20 are sent with different transmission powers in three zones 78 of the field of view 58.
  • a first zone 78i with lower transmission power extends along the lower field of view limit 60.
  • a second zone 782 with lower transmission power extends along the upper field of view limit 80.
  • a third zone 78a with increased transmission power extends between the two zones 78i and 782 with lower transmission power.
  • the third zone 78a with increased transmission power enables a greater range of the transmitted light signals 20 for monitoring the far field.
  • a short measurement and a long measurement are carried out for the same positions of the reference object targets 1 9REF. The short measurements and the long measurements are carried out analogously to the LiDAR measurement described above.
  • the short measurements are carried out with a short integration period.
  • the short integration period for the short measurements of the correction measurement is specified so that received light signals 30 coming from the reference object targets 1 9REF of the reference object 1 8REF do not lead to oversaturation of reception areas 34 of the reception matrix 32.
  • the short integration period for the short measurements of the correction measurements is set to 5 ps.
  • light striking the reception areas 34 is received by the reception areas 34 in the four recording time ranges TBi and converted into corresponding short reception quantities Ai,k.
  • the long measurements are carried out with a long integration period.
  • the long integration period is specified so that received light signals 30 coming from the LiDAR system 12 of the reference object 1 8REF lead to oversaturation in at least one of the reception areas 34 of the reception matrix 32.
  • the long integration period for the long measurements of the correction measurements is set to 1000 ps.
  • light striking the reception areas 34 is received in the four recording time ranges TBi and converted into corresponding long reception variables Ai,i.
  • FIG. 14 shows the corresponding short reception size matrix 4Oo as an example for the phase image DCSo, which was determined during a short measurement with the reference object 1 8REF, i.e. the reference object targets 1 9REF.
  • the reference object 1 8REF is in a position in the area of the lower field of view limit 60.
  • Figure 15 shows an axis diagram for the phase image DCSo along column 173 of the short received size matrix 4Oo from Figure 14.
  • FIG. 12 shows the corresponding long reception size matrix 46o as an example for the phase image DCSo, which was determined during a long measurement with the reference object 1 8REF, i.e. the reference object targets 1 9REF. This is where it is located Reference object in the same position as in the short measurement, the result of which is shown in Figure 12.
  • Figure 13 shows the axis diagram for the phase image DCSo along column 173 of the long reception size matrix 46o from Figure 12.
  • Figure 18 shows the corresponding short reception size matrix 4Oo for a short measurement with the reference object 1 8REF from FIG. 14 in a different position, namely in the center of the field of view 58.
  • Figure 19 shows an axis diagram for the phase image DCSo along column 119 of the short received size matrix 4Oo from Figure 18.
  • FIG 16 shows the long reception size matrix 46o for the long measurement with the reference object 18REF.
  • the reference object 1 8REF is in the same position as in the short measurement, the result of which is shown in Figure 18.
  • Figure 17 shows the axis diagram for the phase image DCSo along column 119 of the long reception size matrix 46o from Figure 16.
  • Respective position variables are determined from the short reception variables Ai,k of the respective reception areas 34.
  • the position size of a reception area 34 characterizes the position of the reference object target 1 9REF detected with the reception area 34, provided that a reference object target 1 9REF was detected with this reception area 34.
  • the respective y coordinates and z coordinates of the yz coordinate system described above can be used as position variables.
  • a respective effect value is determined from long reception variables Ai,i of the respective reception areas 34.
  • the effect size characterizes the effect of supersaturating received light signals 30 on the respective reception area 34.
  • the correction function 42 is determined from the position variables and the respective effect variables.
  • the correction function 42 is implemented, for example, as a group of data records or tuples. Each data set contains, for example, two reception range values and a correction value.
  • the reception area values are represented, for example, as the y coordinate and z coordinate of the corresponding reception area 34 in the yz coordinate system.
  • the reception area values, for example x and y, and the correction value are assigned to the corresponding reception area 34.
  • the correction values are determined via the correction function 42 depending on the positions of the oversaturated reception areas 34 within the reception matrix 32, which characterizes the direction of the corresponding object targets 19REF in the field of view 58 relative to the LiDAR system 12.
  • the correction function 42 can also be implemented as a kernel.
  • an ambient light correction can be carried out when determining the correction function 42. The influence of any ambient light on the correction measurement is corrected.

Abstract

Es wird ein Verfahren zur Ermittlung wenigstens einer Korrekturfunktion für ein LiDAR-System (12), beschrieben. Dabei wird die Korrekturfunktion ausgestaltet zur Korrektur von etwaigen Streulichteffekten auf Empfangsbereiche einer Empfangsmatrix einer Empfangseinrichtung des LiDAR-Systems (12) bei LiDAR-Messungen. Bei dem Verfahren wird wenigstens eine Korrekturmessung durchgeführt, bei der wenigstens ein für elektromagnetische Abtast-Lichtstrahlen reflektierendes Referenz-Objektziel (18REF) vor einem für LiDAR-Messungen mit dem LiDAR-System (12) bezogen auf die Reflexion von elektromagnetischen Abtast-Lichtstrahlen neutralen Hintergrund (72) in einem Sichtfeld (58) des LiDAR-Systems (12) angeordnet wird. Für wenigstens zwei unterschiedliche Positionen des Referenz-Objektziels (18REF) in dem Sichtfeld (58) wird jeweils mit einer Sendeeinrichtung des LiDAR-Systems (12) wenigstens ein elektromagnetischer Abtast-Lichtstrahl in das Sichtfeld (58) gesendet. In jeder der wenigstens zwei unterschiedlichen Positionen des wenigstens einen Referenz-Objektziels (18REF) wird mit wenigstens einem Teil der Empfangsbereiche wenigstens eine Kurzmessung und wenigstens eine Langmessung durchgeführt. Die Kurzmessung wird mit einer Kurz-Integrationsdauer durchgeführt, während der auf die Empfangsbereiche treffendes Licht mit den Empfangsbereichen in wenigstens zwei unterschiedlichen Aufnahmezeitbereichen empfangen und in entsprechende Kurz-Empfangsgrößen umgewandelt wird. Die Langmessung wird mit einer Lang-Integrationsdauer, während der auf die Empfangsbereiche treffendes Licht in den wenigstens zwei unterschiedlichen Aufnahmezeitbereichen empfangen und in entsprechende Lang-Empfangsgrößen umgewandelt. Die Korrekturfunktion wird aus Kurz-Empfangsgrößen und jeweiligen Lang-Empfangsgrößen ermittelt.

Description

Beschreibung
VERFAHREN ZUR ERMITTLUNG WENIGSTENS EINER KORREKTURFUNKTION FÜR EIN LIDARSYSTEM, LIDAR-SYSTEM, FAHRZEUG MIT WENIGSTENS EINEM LI DAR-SYSTEM, MESSANLAGE
Technisches Gebiet
Die Erfindung betrifft ein Verfahren zur Ermittlung wenigstens einer Korrekturfunktion für ein LiDAR-System, insbesondere für ein LiDAR-System für ein Fahrzeug, wobei die wenigstens eine Korrekturfunktion ausgestaltet wird zur Korrektur von etwaigen Streulichteffekten auf Empfangsbereiche einer Empfangsmatrix einer Empfangseinrichtung des LiDAR-Systems bei LiDAR-Messungen mit dem LiDAR-System.
Ferner betrifft die Erfindung ein LiDAR-System, insbesondere LiDAR-System für ein Fahrzeug, aufweisend wenigstens eine Sendeeinrichtung zum Senden von Abtast-Lichtstrahlen in ein Sichtfeld des LiDAR-Systems, wenigstens eine Empfangseinrichtung, welche wenigstens eine Empfangsmatrix mit mehreren Empfangsbereichen aufweist, mit denen reflektierte Abtast-Lichtstrahlen empfangen werden können, und Mitteln zur Ermittlung von Korrekturfunktionen, wobei die Korrekturfunktionen ausgestaltet sind zur Korrektur von etwaigen Streulichteffekten auf Empfangsbereiche der Empfangsmatrix bei LiDAR-Messungen.
Des Weiteren betrifft die Erfindung ein Fahrzeug mit wenigstens einem LiDAR-System, wobei das wenigstens eine LiDAR-System aufweist wenigstens eine Sendeeinrichtung zum Senden von Abtast-Lichtstrahlen in ein Sichtfeld des LiDAR-Systems, wenigstens eine Empfangseinrichtung, welche wenigstens eine Empfangsmatrix mit mehreren Empfangsbereichen aufweist, mit denen reflektierte Abtast-Lichtstrahlen empfangen werden können, und Mittel zur Ermittlung von Korrekturfunktionen, wobei die Korrekturfunktionen ausgestaltet sind zur Korrektur von etwaigen Streulichteffekten auf Empfangsbereiche der Empfangsmatrix bei LiDAR-Messungen. Außerdem betrifft die Erfindung eine Messanlage, welche Mittel aufweist zur Ermittlung wenigstens einer Korrekturfunktionen für ein LiDAR-System, insbesondere für ein Li- DAR-System für ein Fahrzeug, wobei die wenigstens eine Korrekturfunktion ausgestaltet ist zur Korrektur von etwaigen Streulichteffekten auf Empfangsbereiche einer Empfangsmatrix einer Empfangseinrichtung des LiDAR-Systems bei LiDAR-Messungen mit dem LiDAR-System.
Stand der Technik
Aus der US 2020/0072946 A1 ist eine LIDAR-Vorrichtung (Light Detection and Ranging) bekannt, die ein oder mehrere optische Elemente enthält, die so konfiguriert sind, dass sie einfallendes Licht in eine oder mehrere Richtungen lenken, sowie eine Detektoranordnung mit einer Vielzahl von Detektorpixeln, die so konfiguriert sind, dass sie Erkennungssignale in Reaktion auf das von dem einen oder den mehreren optischen Elementen gelieferte Licht ausgeben. Das Licht umfasst gestreutes Licht, das relativ zu der einen oder den mehreren Richtungen umgelenkt wird. Eine Schaltung ist so konfiguriert, dass sie die Erfassungssignale empfängt und korrigierte Bilddaten auf der Grundlage der Erfassungssignale und einer erwarteten Streufunktion für das Licht erzeugt. Die erwartete Streufunktion kann eine Blendungsstreufunktion (GSF) sein, die für die optischen Elemente bestimmt wird, und/oder eine Intensitätskarte, die für das gestreute Licht bestimmt wird. Die Schaltung kann so konfiguriert sein, dass sie die Intensitätskarte des Streulichts durch Kombination der Intensitätskarte des retroreflektierenden Ziels mit einer Blendungsstreufunktion für das eine oder die mehreren optischen Elemente erzeugt, z. B. auf der Grundlage der Faltung der Intensitätskarte des retroreflektierenden Ziels mit der Blendungsstreufunktion.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren, ein LiDAR-System, ein Fahrzeug und eine Messanlage der eingangs genannten Art zu gestalten, bei denen etwaige Streulichteffekte auf Empfangsbereiche besser, insbesondere effizienter und/oder genauer, korrigiert werden können.
Offenbarung der Erfindung
Die Aufgabe wird erfindungsgemäß bei dem Verfahren dadurch gelöst, dass wenigstens eine Korrekturmessung durchgeführt wird, bei der wenigstens ein für elektromagnetische Abtast-Lichtstrahlen reflektierendes Referenz-Objektziel vor einem für LiDAR- Messungen mit dem LiDAR-System bezogen auf die Reflexion von elektromagnetischen Abtast-Lichtstrahlen neutralen Hintergrund in einem Sichtfeld des LiDAR- Systems angeordnet wird, für wenigstens zwei unterschiedliche Positionen des wenigstens einen Referenz- Objektziels in dem Sichtfeld jeweils mit einer Sendeeinrichtung des LiDAR-Systems wenigstens ein elektromagnetischer Abtast-Lichtstrahl in das Sichtfeld gesendet wird, in jeder der wenigstens zwei unterschiedlichen Positionen des wenigstens einen Referenz-Objektziels mit wenigstens einem Teil der Empfangsbereiche wenigstens eine Kurzmessung und wenigstens eine Langmessung durchgeführt wird, wobei die wenigstens eine Kurzmessung mit einer Kurz-Integrationsdauer durchgeführt wird, während der auf die Empfangsbereiche treffendes Licht mit den Empfangsbereichen in wenigstens zwei unterschiedlichen Aufnahmezeitbereichen empfangen und in entsprechende Kurz-Empfangsgrößen umgewandelt wird, und wobei die wenigstens eine Langmessung mit einer Lang-Integrationsdauer, die größer ist als die Kurz-Integrationsdauer, durchgeführt wird, während der auf die Empfangsbereiche treffendes Licht in den wenigstens zwei unterschiedlichen Aufnahmezeitbereichen empfangen und in entsprechende Lang-Empfangsgrößen umgewandelt wird, und die wenigstens eine Korrekturfunktion aus wenigstens einem Teil der Kurz- Empfangsgrößen und wenigstens ein Teil der jeweiligen Lang-Empfangsgrößen ermittelt wird.
Erfindungsgemäß werden Referenzmessungen an wenigstens einem Referenz- Objektziel durchgeführt, welches sich vor einem bezüglich der Reflexion von Abtast- Lichtstrahlen neutralen Hintergrund befindet. Reflexionen der Abtast-Lichtstrahlen im Sichtfeld außerhalb des wenigstens einen Referenz-Objektziels können mithilfe des neutralen Hintergrundes vermieden werden. Auf diese Weise stammen Strahlen, welche auf die Empfangsbereiche treffen, von dem wenigstens einen Referenz-Objektziel.
Reflektierte Abtast-Lichtstrahlen können auch als Empfangs-Lichtstrahlen bezeichnet werden. Bei einer vorteilhaften Ausgestaltung des Verfahrens kann aus wenigstens einem Teil der Kurz-Empfangsgrößen wenigstens eine Positionsgröße ermittelt werden, welche die Position des wenigstens einen Referenz-Objektziels in dem Sichtfeld charakterisiert, aus wenigstens einem Teil der Lang-Empfangsgrößen wenigstens eine Wirkungsgröße ermittelt werden, welche die Wirkung von übersättigenden reflektierten Abtast- Lichtstrahlen auf den wenigstens einen Teil der Empfangsbereiche charakterisiert, und die wenigstens eine Korrekturfunktion aus wenigstens einem Teil der Positionsgrößen und wenigstens ein Teil der jeweiligen Wirkungsgrößen ermittelt werden.
Mithilfe der Kurzmessung mit der Kurz-Integrationsdauer wird wenigstens eine Positionsgröße ermittelt, welche die Position des wenigstens einen Referenz-Objektziels im Sichtfeld charakterisiert. Mit der Kurzmessung kann zusätzlich eine Intensität des auf die Empfangsbereiche treffenden Lichts ermittelt werden. Die Intensität kann in Relation zu der Kurz-Integrationsdauer gesetzt werden. Mithilfe der Langmessung mit der Lang- Integrationsdauer wird die Wirkung von stark reflektierten Abtast-Lichtstrahlen, welche in mit diesen getroffenen Empfangsbereichen zu Übersättigung führen, auf Empfangsbereiche der Empfangsmatrix ermittelt. Dabei wird auch die Wirkung auf diejenigen Empfangsbereiche ermittelt, welche nicht direkt durch die reflektierten Abtast- Lichtstrahlen getroffen werden. Die Wirkung von übersättigenden reflektierten Abtast- Lichtstrahlen auf die Empfangsbereiche wird mit wenigstens einer Wirkungsgröße charakterisiert. Aus wenigstens einem Teil der Positionsgrößen und wenigstens einem Teil der Wirkungsgrößen wird die wenigstens eine Korrekturfunktionen ermittelt. Mithilfe der Korrekturfunktionen können bei regulären LiDAR-Messungen, also LiDAR-Messungen beim regulären Einsatz des LiDAR-Systems, etwaige Streulichteffekte, welche von stark reflektierten Abtast-Lichtstrahlen herrühren können, korrigiert werden.
Insgesamt kann mit dem Verfahren die Beeinflussbarkeit jedes einzelnen Empfangsbereichs der Empfangsmatrix in Bezug auf Streulichteffekte, welche von stark reflektierten Abtast-Lichtstrahlen stammen, ermittelt werden. Die Beeinflussbarkeit wird mithilfe der wenigstens einen Korrekturfunktionen quantifiziert. So kann insbesondere abhängig von der Position des wenigstens einen erfassten Objektziels im Sichtfeld eine entsprechende Streulichtkorrektur über die gesamte Empfangsmatrix durchgeführt werden. Stark reflektierte Abtast-Lichtstrahlen können durch Reflexionen von Abtast- Lichtstrahlen an stark reflektierenden Objekten, insbesondere retroreflektiven Objekten, hervorgerufen werden.
Bei LiDAR-Messungen mit dem LiDAR-System werden, sofern vorhanden, Objektziele im Sichtfeld des LiDAR-Systems erfasst. Aus den LiDAR-Messungen können entsprechende Objektgrößen, welche eine Entfernung, eine Richtung und/oder eine Geschwindigkeit des erfassten Objektziels relativ zu einem Bezugsbereich charakterisieren, ermittelt werden. Der Bezugsbereich kann insbesondere durch einen Bezugsbereich des LiDAR-Systems oder eines Fahrzeugs, welches das LiDAR-System trägt, charakterisiert werden. Ein Bezugsbereich des LiDAR-Systems kann durch ein Koordinatensystem vorgegeben werden, dessen Koordinatenursprung und Orientierung zu dem LiDAR- System fix ist. Ein Bezugsbereich des Fahrzeugs kann durch eine Längsachse, eine Querachse und/oder eine Hochachse des Fahrzeugs definiert werden.
Etwaige Streulichteffekte bei LiDAR-Messungen können mithilfe der wenigstens einen Korrekturfunktion, welche nach dem erfindungsgemäßen Verfahren ermittelt werden kann, korrigiert werden.
Bei einer LiDAR-Messung kann wenigstens ein Abtast-Lichtstrahl mit wenigstens einer Sendeeinrichtung des LiDAR-Systems in wenigstens einen Überwachungsbereich gesendet werden. Der wenigstens eine Überwachungsbereich wird durch das Sichtfeld und die Ausrichtung des LiDAR-Systems definiert. Bei dem Abtast- Lichtstrahl kann es sich um einen amplitudenmodulierten Abtast- Lichtstrahl handeln. Auf diese Weise kann eine sogenannte indirekte Time-of-Flight Methode eingesetzt werden. Aus dem wenigstens einen Überwachungsbereich kommendes Licht kann mit wenigstens einem Teil der Empfangsbereiche der Empfangsmatrix der Empfangseinrichtung des LiDAR-Systems empfangen und in Empfangsgrößen umgewandelt werden. Die Empfangsgrößen können den Empfangsbereichen jeweils zugeordnet werden. Die Empfangsgrößen können jeweils eine Menge des mit dem entsprechenden Empfangsbereich empfangenen Lichts charakterisieren. Die Empfangsgrößen können mit einer Auswerteeinrichtung des LiDAR-Systems verarbeitet werden. Das aus dem wenigstens einen Überwachungsbereich kommende Licht kann wenigstens einen Empfangs-Lichtstrahl enthalten, welcher von wenigstens einem in dem wenigstens einen Überwachungsbereich reflektierten Abtast-Lichtstrahl stammt. Aus der Position der mit dem Empfangs-Lichtstrahl, also dem reflektierten Abtast-Lichtstrahlen, getroffenen Empfangsbereiche innerhalb der Empfangsmatrix kann die Position des Objektziels im Überwachungsbereich ermittelt werden. Mit der Empfangsmatrix ist so eine ortsaufgelöste LiDAR-Messung möglich.
Bei der LiDAR-Messung können etwaige Streulichteffekte auf Empfangsbereiche auf Basis der ermittelten Empfangsgrößen korrigiert werden. Das aus dem wenigstens einen Überwachungsbereich kommende Licht kann mit den Empfangsbereichen während wenigstens zwei Aufnahmezeitbereichen in jeweilige Empfangsgrößen umgewandelt werden. Dabei können wenigstens zwei der Aufnahmezeitbereiche bezogen auf eine Modulationsperiode des wenigstens einen Abtast-Lichtstrahls phasenverschoben gestartet werden. So können für jeden der verwendeten Empfangsbereiche zwei Empfangsgrößen, nämlich für jeden der wenigstens zwei Aufnahmezeitbereiche eine Empfangsgröße, ermittelt werden. Für wenigstens einen Teil der Empfangsgrößen können unter Verwendung der wenigstens einen Korrekturfunktion korrigierte End- Empfangsgrößen ermittelt werden. Dabei kann jede der verwendeten Empfangsgrößen mithilfe der wenigstens einen Korrekturfunktion separat zu einer entsprechenden End- Empfangsgröße verarbeitet werden. So können für jeden verwendeten Empfangsbereich entsprechend der Anzahl der Aufnahmezeitbereiche wenigstens zwei End- Empfangsgrößen ermittelt werden.
Aus den End-Empfangsgrößen kann für jeden verwendeten Empfangsbereich eine Entfernungsgröße ermittelt werden, welche die Entfernung des erfassten Objektziels relativ zu dem Bezugssystem, insbesondere dem Bezugssystem des LiDAR-Systems, charakterisiert. Mit Entfernungsgrößen und Richtungsgrößen von erfassten Objektzielen kann ein Entfernungsbild des Sichtfeldes realisiert werden, in welchem die Entfernungen von Objektzielen ortsaufgelöst dargestellt werden können. Dabei können die Richtungsgrößen die Richtung des erfassten Objektziels relativ zu dem Bezugssystem insbesondere des LiDAR-Systems charakterisieren. Um in einem Überwachungsbereich auch schwach reflektierende Objektziele erfassen zu können, können bei LiDAR-Messungen mit einem LiDAR-System entsprechend lange Integrationsdauern bei der Erfassung des Lichts, insbesondere der reflektierten Ab- tast-Lichtstrahlen, mit den Empfangsbereichen verwendet werden. Je nach Ausgestaltung der Empfangseinrichtung können die Integrationsdauern durch entsprechende Verschlusszeiten erreicht werden. Die Verwendung von LiDAR-Systemen mit langen Integrationsdauern, insbesondere langen Verschlusszeiten, kann nicht nur zu einer Übersättigung von Empfangsbereichen führen, die von an stark reflektierenden Objektzielen reflektierten Abtast-Lichtstrahlen getroffen werden. Die an stark reflektierenden Objektzielen reflektierten Abtast-Lichtstrahlen führen außerdem zu Verfälschungen an allen anderen Empfangsbereichen der Empfangsmatrix insbesondere aufgrund von Reflexionen von starken reflektierten Abtast-Lichtstrahlen an Übergängen von Medien, beispielsweise optischen Linsen, im optischen Pfad der Empfangseinrichtung, im Besonderen der Empfangsmatrix. Diese Verfälschung kann als Blooming oder Blendung (glare) bezeichnet werden. Die Blooming-Signale können zu Fehlern bei der Bestimmung von Entfernungsgrößen für Objektziele in Überwachungsbereichen mit stark reflektierenden Objektzielen führen. Die Entfernungsgrößen von normal oder schwach reflektierenden Objektzielen in Überwachungsbereichen, in denen sich auch stark reflektierende Objektziele befinden, können in Richtung der Entfernungsgrößen der stark reflektierenden Objektziele verfälscht werden.
Bei einem Verfahren zur Korrektur von Streulichteffekten bei LiDAR-Messungen können Kurzmessungen mit kürzeren Integrationsdauern und Langmessungen mit längeren Integrationsdauern durchgeführt werden. Für einen Teil der Empfangsgrößen, welche bei den Kurzmessungen ermittelt werden, kann mittels wenigstens einer mathematische Faltung mit der wenigstens einen Korrekturfunktion eine jeweilige Korrektur- Empfangsgröße erzeugt werden. Für wenigstens einen Teil der Empfangsgrößen kann jeweils eine End-Empfangsgröße als Differenz aus der jeweiligen Empfangsgröße und der Korrektur-Empfangsgröße gebildet werden.
Mit einer bezüglich Streulichteffekten korrigierten LiDAR-Messung können in Szenen insbesondere im Straßenverkehr stark reflektierende Objekte, wie beispielsweise Verkehrsschilder mit retroreflektiven Eigenschaften, und schwächer reflektierende Objekte, wie beispielsweise Fußgänger, Hindernisse, wie Wände, oder dergleichen, unterschie- den werden und ihre jeweiligen Entfernungen genauer ermittelt werden. Ohne die Korrektur der Streulichteffekte können insbesondere aufgrund von internen Reflexionen insbesondere im optischen Empfangspfad und/oder durch optisches Übersprechen in der Empfangseinrichtung die reflektierten Abtast-Lichtstrahlen von stark reflektierenden Objekten, insbesondere retroreflektiven Objekten, über die Empfangsmatrix verschmiert werden.
Ein Aufnahmezeitbereich im Sinne der Erfindung ist ein Zeitbereich, während dem auf einen jeweiligen Empfangsbereich treffende Anteile von reflektierten Abtast- Lichtstrahlen in entsprechende Empfangsgrößen umgewandelt werden können. Vorteilhafterweise kann ein Aufnahmezeitbereich durch einen Startzeitpunkt und eine Integrationsdauer definiert sein.
Ein Objektziel im Sinne der Erfindung ist eine Stelle eines Objekts, an dem Abtast- Lichtstrahlen, welche von dem LiDAR-System in den wenigstens einen Überwachungsbereich gesendet werden, reflektiert werden können. Jedes Objekt kann eine Vielzahl von Objektzielen aufweisen. Ein bei Korrekturmessungen verwendetes Objektziel wird der einfacheren Unterscheidung wegen als „Referenz-Objektziel“ bezeichnet.
Das LiDAR-System kann nach einer indirekten Time-of-Flight Methode (indirekte Flugzeitmethode) arbeiten. Bei einer indirekten Time-of-Flight Methode kann eine durch die Flugzeit eines amplitudenmodulierten Abtast-Lichtstrahls und des entsprechenden reflektierten Abtast-Lichtstrahls bedingte Verschiebung des reflektierten Abtast- Lichtstrahls gegenüber dem Abtast-Lichtstrahl ermittelt werden. Aus der Verschiebung kann die Entfernung eines Objekts ermittelt werden, an dem der entsprechende Abtast- Lichtstrahl reflektiert wird.
Vorteilhafterweise können mit der wenigstens einen Sendeeinrichtung Lasersignale als Abtast-Lichtstrahlen gesendet werden. Lasersignale können präzise definiert und mit großer Reichweite, insbesondere mehreren 100 m, ausgesendet werden. Lasersignale sind darüber hinaus Lichtstrahlen, welche auch codiert werden können.
Vorteilhafterweise kann das LiDAR-System ein Flash-LiDAR-System sein. Bei einem Flash-LiDAR-System leuchtet jeder gesendete Abtast-Lichtstrahl - ähnlich einem Blitz - den gesamten Überwachungsbereich aus.
Vorteilhafterweise kann das LiDAR-System als laserbasiertes Entfernungsmesssystem ausgestaltet sein. Ein laserbasiertes Entfernungsmesssystem kann als Lichtquelle einer Sendeeinrichtung wenigstens einen Laser, insbesondere einen Diodenlaser, aufweisen. Mit dem wenigstens einen Laser können insbesondere gepulste Abtast-Lichtstrahlen gesendet werden. Mit dem Laser können Abtast-Lichtstrahlen in für das menschliche Auge sichtbaren oder nicht sichtbaren Wellenlängenbereichen emittiert werden. Entsprechend kann die Empfangsmatrix der Empfangseinrichtung mit wenigstens einem für die Wellenlänge der ausgesendeten Abtast-Lichtstrahlen ausgelegten Sensor, insbesondere einem CCD-Sensor, einem Active-Pixel-Sensor, insbesondere einen CMOS- Sensor oder dergleichen, realisiert werden. Derartige Sensoren weisen eine Mehrzahl von Empfangsbereichen, insbesondere Pixel oder Pixelgruppen, auf. Solche Sensoren können so betrieben werden, dass die umgewandelten Empfangsgrößen den jeweiligen Empfangsbereichen zugeordnet werden können.
Vorteilhafterweise kann die wenigstens eine Korrekturfunktion für ein LiDAR-System mit einer eindimensionalen, insbesondere linienförmigen, Empfangsmatrix oder für ein LiDAR-System mit einer zweidimensionalen, insbesondere flächigen, Empfangsmatrix ermittelt werden. Mit einer eindimensionalen Empfangsmatrix kann das Sichtfeld in zwei Dimensionen, insbesondere in der Dimension der Empfangsmatrix und der Dimension senkrecht zur Fläche der Empfangsmatrix, erfasst werden. Mit einer zweidimensionalen Empfangsmatrix kann das Sichtfeld in drei Dimensionen, insbesondere in den zwei Dimensionen der Empfangsmatrix und der Dimension senkrecht zur Fläche der Empfangsmatrix, erfasst werden.
Vorteilhafterweise kann das LiDAR-System bei Fahrzeugen, insbesondere Kraftfahrzeugen, verwendet werden. Vorteilhafterweise kann das LiDAR-System bei Landfahrzeugen, insbesondere Personenkraftwagen, Lastkraftwagen, Bussen, Motorrädern oder dergleichen, Luftfahrzeugen, insbesondere Drohnen, und/oder Wasserfahrzeugen verwendet werden. Das LiDAR-System kann auch bei Fahrzeugen eingesetzt werden, die autonom oder wenigstens teilautonom betrieben werden können. Das LiDAR-System ist jedoch nicht beschränkt auf Fahrzeuge. Es kann auch im stationären Betrieb, in der Robotik und/oder bei Maschinen, insbesondere Bau- oder Transportmaschinen, wie Kränen, Baggern oder dergleichen, eingesetzt werden.
Das LiDAR-System kann eine insbesondere eine elektronische Steuer- und Auswerteeinrichtung aufweisen, mit der das LiDAR-System gesteuert und Empfangsgrößen verarbeitet werden können.
Das LiDAR-System kann vorteilhafterweise mit wenigstens einer elektronischen Steuervorrichtung eines Fahrzeugs oder einer Maschine, insbesondere einem Fahrerassistenzsystem und/oder einer Fahrwerksregelung und/oder einer Fahrer- Informationseinrichtung und/oder einem Parkassistenzsystem und/oder einer Gestenerkennung oder dergleichen, verbunden oder Teil einer solchen sein. Auf diese Weise kann wenigstens ein Teil der Funktionen des Fahrzeugs oder der Maschine autonom oder teilautonom betrieben werden.
Das LiDAR-System kann zur Erfassung von stehenden oder bewegten Objekten, insbesondere Fahrzeugen, Personen, Tieren, Pflanzen, Hindernissen, Fahrbahnunebenheiten, insbesondere Schlaglöchern oder Steinen, Fahrbahnbegrenzungen, Verkehrszeichen, Freiräumen, insbesondere Parklücken, Niederschlag oder dergleichen, und/oder von Bewegungen und/oder Gesten eingesetzt werden.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann der Hintergrund so gewählt werden, dass bei LiDAR-Messungen mit dem LiDAR-System, bei denen kein Referenz-Objektziel im Sichtfeld des LiDAR-Systems angeordnet ist, für die Empfangsbereiche der Empfangsmatrix keine von Rauschen unterscheidbare Signale ermittelt werden können, und/oder als wenigstens ein Teil des Hintergrundes der Himmel verwendet werden und/oder als wenigstens ein Teil des Hintergrundes wenigstens ein Medium, welches eine für elektromagnetische Abtast-Lichtstrahlen bezogen auf LiDAR-Messungen vernachlässigbare Reflektivität aufweist, verwendet werden. Auf diese Weise kann ein definierter neutraler Hintergrund realisiert werden. Vorteilhafterweise kann der Hintergrund so gewählt werden, dass bei LiDAR- Messungen ohne Referenz-Objektziel mit den Empfangsbereichen keine von Rauschen unterscheidbaren Signale ermittelt werden können. Auf diese Weise kann geprüft werden, ob der Hintergrund die erforderliche Reflexions-Neutralität aufweist.
Alternativ oder zusätzlich kann vorteilhafterweise als wenigstens ein Teil des Hintergrundes der Himmel verwendet werden. Elektromagnetische Abtast-Lichtstrahlen, welche in Richtung Himmel gesendet werden, werden nicht zurückreflektiert. So wird auf einfache Weise ein bezüglich der Reflexion neutraler Hintergrund realisiert.
Alternativ oder zusätzlich kann vorteilhafterweise als wenigstens ein Teil des Hintergrundes wenigstens ein Medium, welches eine für elektromagnetische Abtast- Lichtstrahlen bezogen auf LiDAR-Messungen vernachlässigbare Reflektivität aufweist, verwendet werden. Mit dem wenigstens einen Medium können Abtast-Lichtstrahlen gedämpft, insbesondere geschluckt, werden. So kann mit dem wenigstens einen Medium insbesondere eine Wand oder eine Decke eines Messraums realisiert werden, in dem die Korrekturmessungen durchgeführt werden können.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann die wenigstens eine Korrekturfunktion als Gruppe von Datensätzen realisiert werden, wobei jeder Datensatz wenigstens einen Empfangsbereichswert und wenigstens ein Korrekturwert enthält, wobei der wenigstens eine Korrekturwert mittels dem wenigstens einen Empfangsbereichswert dem jeweiligen Empfangsbereich zugeordnet werden kann, und/oder die wenigstens eine Korrekturfunktionen als Kernel realisiert werden. Auf diese Weise können bei regulären LiDAR-Messungen den Empfangsbereichen effizient entsprechende Korrekturwerte zugeordnet werden.
Vorteilhafterweise können mittels der wenigstens einen Korrekturfunktionen die Korrekturwerte abhängig von den Positionen der übersättigten Empfangsbereiche innerhalb der Empfangsmatrix, welche die Richtung der entsprechenden Objektziele im Sichtfeld des LiDAR-Systems charakterisieren, ermittelt werden.
Vorteilhafterweise können die Empfangsbereichswerte als Koordinaten der Empfangsbereiche in einem Koordinatensystem dargestellt werden. Die Koordinatenachsen des Koordinatensystems können die Spalten und die Zeilen der Empfangsmatrix darstellen. Auf diese Weise kann insbesondere über zwei Empfangsbereichswerte, also zwei Emp- fangsmatrix-Koordinaten, die Position des Empfangsbereichs innerhalb der Empfangsmatrix beschrieben werden.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann das wenigstens eine Referenz-Objektziel zwischen wenigstens zwei Korrekturmessungen innerhalb des Sichtfeldes bewegt werden, insbesondere manuell und/oder mittels wenigstens eines Antriebsmittels bewegt werden. Auf diese Weise können Korrekturmessungen für unterschiedliche Positionen des wenigstens einen Referenz-Objektziels innerhalb des Sichtfeldes hintereinander durchgeführt werden.
Vorteilhafterweise kann das wenigstens eine Referenz-Objektziel kontinuierlich durch das Sichtfeld bewegt werden. Auf diese Weise können kontinuierlich Korrekturmessungen mit unterschiedlichen Positionen des Referenz-Objektziels durchgeführt werden. So kann eine Vielzahl von Korrekturmessungen zeitsparend durchgeführt werden.
Vorteilhafterweise kann das wenigstens eine Referenz-Objektziel manuell bewegt werden. Auf diese Weise ist kein separater Antrieb erforderlich. Alternativ oder zusätzlich kann das wenigstens eine Referenz-Objektziel mittels wenigstens eines Antriebsmittels bewegt werden. Antriebsmittels können insbesondere mittels einer Anlagensteuerung einer Messanlage angesteuert werden. Auf diese Weise kann das wenigstens eine Referenz-Objektziel präzise bewegt werden.
Vorteilhafterweise kann das wenigstens eine Referenz-Objektziel synchronisiert mit den Korrekturmessungen bewegt werden. Auf diese Weise kann das wenigstens eine Referenz-Objektziel während der Kurzmessung und der Langmessung einer Korrekturmessung in einer Position gehalten werden.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann die Kurz- Integrationsdauer so vorgegeben werden, dass von dem wenigstens einen Referenz- Objektziel kommende reflektierte Abtast-Lichtstrahlen nicht zu Übersättigungen von Empfangsbereichen der Empfangsmatrix führen, und/oder die Lang-Integrationsdauer so vorgegeben werden, dass von der wenigstens einen Referenz-Objektziel kommende reflektierte Abtast-Lichtstrahlen bei wenigstens der Empfangsbereiche der Empfangsmatrix zur Übersättigung führt.
Mithilfe der so gewählten Kurz-Integrationsdauer können Empfangsgrößen ermittelt werden, aus denen Positionsgrößen, insbesondere Entfernungsgrößen und/oder Richtungsgrößen, welche die Position des wenigstens einen Referenz-Objektziels relativ zu wenigstens einem Bezugsbereich des LiDAR-Systems charakterisieren, ermittelt werden können. Vorteilhafterweise kann die Kurz-Integrationsdauer in der Größenordnung von Mikrosekunden, insbesondere etwa 5 ps, vorgegeben sein.
Mithilfe der entsprechend gewählten Lang-Integrationsdauer können Übersättigungen in Empfangsbereichen der Empfangsmatrix ausgelöst werden. Mit den Lang- Empfangsgrößen kann so die Wirkung von Streulichteffekten auf die Empfangsbereiche der Empfangsmatrix charakterisiert werden. Vorteilhafterweise kann die Lang- Integrationsdauer in der Größenordnung von Millisekunden, insbesondere etwa 1000 ps, vorgegeben sein.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann bei der wenigstens einen Korrekturmessung der aus dem Sichtfeld des LiDAR-Systems kommende reflektierte wenigstens eine Abtast-Lichtstrahl mit den Empfangsbereichen während wenigstens zwei Aufnahmezeitbereichen in jeweilige Empfangsgrößen umgewandelt werden, wobei wenigstens zwei der Aufnahmezeitbereiche bezogen auf eine Modulationsperiode des wenigstens einen Abtast-Lichtstrahls phasenverschoben gestartet werden. Auf diese Weise kann das LiDAR-System nach einer indirekten Time-of-Flight Methode betrieben werden.
Vorteilhafterweise können die wenigstens zwei phasenverschobenen Aufnahmezeitbereiche mit einer jeweiligen Phasenverschiebung gegenüber einem Referenzereignis, insbesondere gegenüber einem Referenzereignis des wenigstens einen Abtast- Lichtstrahls, insbesondere gegenüber einem Intensitäts-Minimum des wenigstens einen Abtast-Lichtstrahls und/oder einem Nulldurchgang eines elektrischen Sendesignals, mit welchem eine Lichtquelle der Sendeeinrichtung zum Aussenden des wenigstens einen Abtast-Lichtstrahls angesteuert wird, gestartet werden. Phasenverschiebungen gegenüber einem Referenzereignis des wenigstens einen Abtast-Lichtstrahls ermöglichen eine genauere Zuordnung des wenigstens einen reflektierten Abtast-Lichtstrahls zu dem wenigstens einen gesendeten Abtast-Lichtstrahl. Ein Intensitäts-Minimum des wenigstens einen Abtast-Lichtstrahls und ein Nulldurchgang eines elektrischen Sendesignals können einfach definiert werden.
Vorteilhafterweise können vier Aufnahmezeitbereiche mit Phasenverschiebungen von 0°, 90°, 180° und 270° gegenüber einem Referenzereignis, insbesondere gegenüber einem Referenzereignis des wenigstens einen Abtast-Lichtstrahls, insbesondere gegenüber einem Intensitäts-Minimum des wenigstens einen Abtast-Lichtstrahls und/oder einem Nulldurchgang eines elektrischen Sendesignals, mit welchem eine Lichtquelle der Sendeeinrichtung zum Senden des wenigstens einen Abtast-Lichtstrahls angesteuert wird, gestartet werden. Auf diese Weise kann die Verschiebung des reflektierten wenigstens einen Abtast-Lichtstrahls gegenüber dem wenigstens einen Abtast- Lichtstrahl und damit die Flugzeit, welche die Entfernung charakterisiert, genauer ermittelt werden.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann das wenigstens eine Referenz-Objektziel mit einem retroreflektiven Objekt realisiert werden. Auf diese Weise kann die Korrekturfunktion auch für Abtast-Lichtstrahl mit geringeren Sendeleistungen ermittelt werden.
Vorteilhafterweise kann wenigstens ein Referenz-Objektziel mit einem Objekt realisiert werden, welches beim regulären Betrieb des LiDAR-Systems im Sichtfeld auftauchen kann. Auf diese Weise kann das LiDAR-System gezielt für seinen Verwendungszweck konditioniert werden.
Vorteilhafterweise kann wenigstens ein Referenz-Objektziel mit einem retroreflektiven Verkehrszeichen, insbesondere ein Straßenschild, realisiert werden. Auf diese Weise kann das LiDAR-System für die Verwendung im Straßenverkehr, insbesondere in Verbindung mit einem Fahrzeug, konditioniert werden.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann der wenigstens eine Abtast-Lichtstrahl mit wenigstens zwei Zonen mit unterschiedlicher Sendeleistung in das Sichtfeld gesendet werden. Auf diese Weise kann die Reichweite des wenigstens einen Abtast-Lichtstrahls in den Zonen variiert werden. So kann insbesondere bei der Verwendung des LiDAR-Systems bei einem Fahrzeug eine Fernfeld-Zone realisiert werden, in der Abtast-Lichtstrahlen mit einer größeren Sendeleistung gesendet werden. In der Fernfeld-Zone können Objekte in größerer Entfernung erfasst werden. In einer Nahfeld-Zone kann die Sendeleistung reduziert sein, wodurch zwar die Reichweite verkleinert, aber auch die benötigte Energie verringert werden kann.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann bei der Ermittlung der wenigstens einen Korrekturfunktion eine Umgebungslicht-Korrektur durchgeführt werden. Auf diese Weise können Störeinflüsse von Umgebungslicht verringert werden. So kann die Genauigkeit der Ermittlung der Korrekturfunktion verbessert werden.
Ferner wird die Aufgabe erfindungsgemäß bei dem LiDAR-System dadurch gelöst, dass das LiDAR-System wenigstens einen Teil der Mittel zur Durchführung des erfindungsgemäßen Verfahrens aufweist.
Auf diese Weise kann das LiDAR-System so konditioniert werden, dass auch in Szenen mit stark reflektierenden Objekten, insbesondere retroreflektiven Objekten, wie Straßenschildern, Fahrbahnmarkierungen oder dergleichen, auch Entfernungen von schwächer reflektierenden Objekten, wie Fußgängern, anderen Fahrzeugen, Radfahrern, Hindernissen oder dergleichen, genauer ermittelt werden können.
Die Mittel zur Durchführung des erfindungsgemäßen Verfahrens können auf softwaremäßigem und/oder hardwaremäßigem Wege realisiert sein. Auf diese Weise können in dem LiDAR-System ohnehin vorhandene Bauteile und/oder Programmteile verwendet werden.
Des Weiteren wird die Aufgabe erfindungsgemäß bei dem Fahrzeug dadurch gelöst, dass das Fahrzeug wenigstens einen Teil der Mittel zur Durchführung des erfindungsgemäßen Verfahrens aufweist.
Mit einem LiDAR-System kann wenigstens ein Überwachungsbereich in der Umgebung des Fahrzeugs und/oder im Innenraum des Fahrzeugs auf Objekte hin überwacht wer- den. Mit dem LiDAR-System können Entfernungen zu erfassten Objekten ermittelt werden.
Das Fahrzeug weist wenigstens einen Teil der Mittel zur Durchführung des erfindungsgemäßen Verfahrens auf. Vorteilhafterweise kann wenigstens ein LiDAR-System des Fahrzeugs wenigstens einen Teil der Mittel aufweisen zur Durchführung des erfindungsgemäßen Verfahrens. Da das wenigstens eine LiDAR-System Teil des Fahrzeugs ist, ist somit auch der Teil der Mittel des wenigstens einen LiDAR-Systems zur Durchführung des erfindungsgemäßen Verfahrens Teil des Fahrzeugs, also auch Teil der Mittel des Fahrzeugs zur Durchführung des erfindungsgemäßen Verfahrens. Vorteilhafterweise kann der wenigstens eine Teil der Mittel zur Durchführung des erfindungsgemäßen Verfahrens ausschließlich in dem wenigstens einen LiDAR-System realisiert sein. Alternativ kann der wenigstens eine Teil der Mittel zur Durchführung des erfindungsgemäßen Verfahrens zwar in dem Fahrzeug aber außerhalb des wenigstens einen LiDAR- Systems realisiert sein. Alternativ kann wenigstens ein Teil der Mittel zur Durchführung des erfindungsgemäßen Verfahrens in dem wenigstens einen LiDAR-System und ein Teil der Mittel zur Durchführung des erfindungsgemäßen Verfahrens in dem Fahrzeug außerhalb des wenigstens einen LiDAR-Systems realisiert sein.
Alternativ oder zusätzlich kann wenigstens ein Teil der Mittel zur Durchführung des erfindungsgemäßen Verfahrens auch außerhalb des wenigstens einen LiDAR-Systems und/oder des Fahrzeugs realisiert sein. Auf diese Weise kann ein Aufwand von Mitteln aufseiten des wenigstens einen LiDAR-Systems, insbesondere aufseiten des Fahrzeugs, auf die im Regelbetrieb des LiDAR-Systems erforderlichen Funktionen beschränkt werden.
Vorteilhafterweise kann wenigstens ein Teil der Mittel zur Durchführung des erfindungsgemäßen Verfahrens in einer externen Verarbeitungseinrichtung, insbesondere in einem Rechner oder PC oder dergleichen, realisiert sein.
Vorteilhafterweise kann das Fahrzeug wenigstens ein Fahrassistenzsystem aufweisen. Mit dem Fahrerassistenzsystem kann das Fahrzeug autonom oder wenigstens teilweise autonom betrieben werden. Vorteilhafterweise kann wenigstens ein LiDAR-System mit wenigstens einem Fahrerassistenzsystem des Fahrzeugs funktional verbunden sein. Auf diese Weise können Informationen über den wenigstens einen Überwachungsbereich, insbesondere Entfernungsgrößen und/oder Richtungsgrößen und/oder Geschwindigkeitsgrößen, welche mit dem wenigstens einen LiDAR-System ermittelt werden können, an das wenigstens eine Fahrerassistenzsystem übermittelt werden. Mit dem wenigstens einen Fahrerassistenzsystem kann das Fahrzeug unter Berücksichtigung der Informationen über den wenigstens einen Überwachungsbereich autonom oder wenigstens teilweise autonom betrieben werden.
Außerdem wird die Aufgabe erfindungsgemäß bei der Messanlage dadurch gelöst, dass die Messanlage aufweist wenigstens eine Anordnungsstelle für wenigstens ein LiDAR- System, wenigstens eine Referenz-Objektziel, dessen Position in dem Sichtfeld des wenigstens einen LiDAR-Systems veränderbar ist, und einen für LiDAR-Messungen mit dem LiDAR-System bezogen auf die Reflexion von elektromagnetischen Abtast- Lichtstrahlen neutralen Hintergrund, der sich auf der der Anordnungsstelle abgewandten Seite des wenigstens einen Referenz-Objektziels befindet.
Erfindungsgemäß ist eine Messanlage vorgesehen, in der an wenigstens einer definierten Anordnungsstelle wenigstens ein LiDAR-System angeordnet werden kann. Ein definiertes Referenz-Objektziel kann in unterschiedlichen Positionen im Sichtfeld des wenigstens einen LiDAR-Systems angeordnet werden. Die Messanlage weist einen neutralen Hintergrund auf, sodass Störlichtquellen verringert werden können.
Bei einer vorteilhaften Ausführungsform kann der neutrale Hintergrund wenigstens teilweise vom Himmel realisiert sein und/oder der neutrale Hintergrund wenigstens teilweise durch wenigstens ein Medium realisiert sein, welches eine für elektromagnetische Abtast-Lichtstrahlen bezogen auf LiDAR-Messungen vernachlässigbare Reflektivität aufweist. Auf diese Weise kann ein definierter neutraler Hintergrund realisiert werden. Das wenigstens eine Medium mit einer vernachlässigbaren Reflektivität kann als wenigstens eine Wand realisiert sein. Auf diese Weise kann ein Messraum um das LiDAR- System begrenzt werden. Bei einer weiteren vorteilhaften Ausführungsform kann die Messanlage wenigstens einen Antrieb zum Bewegen des wenigstens einen Referenz-Objektziels aufweisen und/oder die Messanlage wenigstens eine Anlagensteuerung aufweisen. Mit wenigstens einem Antrieb kann das wenigstens eine Referenz-Objektziel automatisch bewegt werden. Mit wenigstens einer Anlagensteuerung kann das LiDAR-System und/oder eine Bewegung des wenigstens einen Referenz-Objektziels, insbesondere wenigstens ein Antrieb, gesteuert werden.
Vorteilhafterweise kann die Messanlage wenigstens eine externe Verarbeitungseinrichtung, insbesondere einen Rechner oder PC oder dergleichen, aufweisen. Auf diese Weise kann wenigstens ein Teil der Mittel zur Durchführung des erfindungsgemäßen Verfahrens außerhalb des LiDAR-Systems realisiert werden.
Im Übrigen gelten die im Zusammenhang mit dem erfindungsgemäßen Verfahren, dem erfindungsgemäßen LiDAR-System, dem erfindungsgemäßen Fahrzeug und der erfindungsgemäßen Messanlage und deren jeweiligen vorteilhaften Ausgestaltungen aufgezeigten Merkmale und Vorteile untereinander entsprechend und umgekehrt. Die einzelnen Merkmale und Vorteile können selbstverständlich untereinander kombiniert werden, wobei sich weitere vorteilhafte Wirkungen einstellen können, die über die Summe der Einzelwirkungen hinausgehen.
Kurze Beschreibung der Zeichnungen
Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung, in der Ausführungsbeispiele der Erfindung anhand der Zeichnung näher erläutert werden. Der Fachmann wird die in der Zeichnung, der Beschreibung und den Ansprüchen in Kombination offenbarten Merkmale zweckmäßigerweise auch einzeln betrachten und zu sinnvollen weiteren Kombinationen zusammenfassen. Es zeigen schematisch
Figur 1 ein Fahrzeug in der Vorderansicht mit einem Fahrerassistenzsystem und einem LiDAR-System zur Bestimmung von Entfernungen von Objektzielen zu dem Fahrzeug;
Figur 2 eine Funktionsdarstellung eines Teils des Fahrzeugs mit dem Fahrerassistenzsystem und dem LiDAR-System aus der Figur 1 ; Figur 3 eine Vorderansicht einer Empfangsmatrix einer Empfangseinrichtung des LiDAR-Systems aus den Figuren 1 und 2, wobei die Empfangsmatrix eine Vielzahl von Empfangsbereichen aufweist;
Figur 4 ein Signalstärke-Zeit-Diagramm mit vier beispielhaften Phasenbildern DCSo bis DCS3, welche mit jeweiligen Phasenverschiebungen von 90° aus einem Empfangslichtsignal eines reflektierten Sendelichtsignals des LiDAR-Systems aus den Figuren 1 und 2 ermittelt werden und deren Amplituden als Empfangsgrößen zur Ermittlung von Entfernungen von Objektzielen dienen;
Figur 5 ein Entfernungsbild einer Szene mit mehreren Objekten, welche jeweils eine Vielzahl von Objektzielen aufweisen, in Graustufendarstellung, wobei eines der Objekte ein retroreflektives Objekt in Form eines Straßenschildes ist, welches hier abgedeckt ist;
Figur 6 ein Entfernungsbild der Szene aus der Figur 5, wobei hier das retroreflek- tive Objekt nicht abgedeckt ist und zu Streulichteffekten in der Empfangsmatrix führt;
Figur 7 ein Entfernungsbild der Szene aus der Figur 5, wobei hier die Streulichteffekte korrigiert sind;
Figur 8 einen Ablauf einer Ermittlung von Korrektur-Empfangsgrößen mittels einer Faltung von Kurz-Empfangsgrößen mit einer Korrekturfunktion in Graustu- fen-Matrix-Darstellung;
Figur 9 einen Ablauf einer Ermittlung von End-Empfangsgrößen als Differenz aus Lang-Empfangsgrößen und den Korrektur-Empfangsgrößen aus Figur 8 in Graustufen-Matrix-Darstellung;
Figur 10 eine Seitenansicht einer Messanlage zur Ermittlung der Korrekturfunktion aus der Figur 8 gemäß einem ersten Ausführungsbeispiel;
Figur 1 1 eine Seitenansicht einer Messanlage zur Ermittlung der Korrekturfunktion aus der Figur 8 gemäß einem zweiten Ausführungsbeispiel;
Figur 12 eine Empfangsgrößenmatrix in Graustufendarstellung für das Phasenbild DCSo für eine Langmessung während einer Korrekturmessung zur Ermittlung der Korrekturfunktion mit der Messanlage aus der Figur 10, wobei sich ein Referenzobjekt mit einer Vielzahl von Referenz-Objektzielen in einer Position im Sichtfeld des LiDAR-Systems befindet; Figur 13 ein Achsendiagramm für das Phasenbild DCSo aus der Figur 12 entlang der Spalte 173 der dortigen Empfangsgrößenmatrix;
Figur 14 eine Empfangsgrößenmatrix in Graustufendarstellung für das Phasenbild DCSo für eine Kurzmessung während der Korrekturmessung entsprechend der Figur 12;
Figur 15 ein Achsendiagramm für das Phasenbild DCSo aus der Figur 14 entlang der Spalte 173 der dortigen Empfangsgrößenmatrix;
Figur 16 eine Empfangsgrößenmatrix in Graustufendarstellung für das Phasenbild DCSo für eine Langmessung während einer Korrekturmessung zur Ermittlung der Korrekturfunktion mit der Messanlage aus der Figur 10, wobei sich das Referenzobjekt in einer anderen Position im Sichtfeld des LiDAR- Systems befindet als bei der Kurzmessung aus der Figur 12;
Figur 17 ein Achsendiagramm für das Phasenbild DCSo aus der Figur 16 entlang der Spalte 119 der dortigen Empfangsgrößenmatrix;
Figur 18 eine Empfangsgrößenmatrix in Graustufendarstellung für das Phasenbild DCSo für eine Kurzmessung während der Korrekturmessung aus der Figur 16;
Figur 19 ein Achsendiagramm für das Phasenbild DCSo aus der Figur 18 entlang der Spalte 119 der dortigen Empfangsgrößenmatrix.
In den Figuren sind gleiche Bauteile mit gleichen Bezugszeichen versehen.
Ausführungsform(en) der Erfindung
In der Figur 1 ist ein Fahrzeug 10 beispielhaft in Form eines Personenkraftwagens in der Vorderansicht gezeigt. Figur 2 zeigt eine Funktionsdarstellung eines Teils des Fahrzeugs 10.
Das Fahrzeug 10 verfügt über ein LiDAR-System 12, das als Flash-LiDAR System ausgestaltet ist. Das LiDAR-System 12 ist beispielhaft in der vorderen Stoßstange des Fahrzeugs 10 angeordnet. Mit dem LiDAR-System 12 kann ein Überwachungsbereich 14 in Fahrtrichtung 16 vor dem Fahrzeug 10 auf Objekte 18 hin überwacht werden. Unter anderem in der Figur 2 sind zwei Objekte 18 beziehungsweise 18R angedeutet. Der Überwachungsbereich 14 wird durch ein in den Figuren 10 und 11 angedeutetes Sichtfeld 58 des LiDAR-Systems 12 definiert. Das LiDAR-System 12 kann auch an anderer Stelle am Fahrzeug 10 angeordnet und anders ausgerichtet sein. Mit dem LiDAR- System 12 können Objektinformationen, beispielsweise Entfernungsgrößen D, Richtungsgrößen und/oder Geschwindigkeitsgrößen, welche Entfernungen, Richtungen beziehungsweise Geschwindigkeiten von Objekten 18 relativ zum Fahrzeug 10, also auch relativ zum LiDAR-System 12, charakterisieren, ermittelt werden.
Bei den Objekten 18 kann es sich um stehende oder bewegte Objekte, beispielsweise um andere Fahrzeuge, Personen, Tiere, Pflanzen, Hindernisse, Fahrbahnunebenheiten, beispielsweise Schlaglöcher oder Steine, Fahrbahnbegrenzungen, Verkehrszeichen, Freiräume, beispielsweise Parklücken, Niederschlag oder dergleichen handeln.
Jedes Objekt 18 weist in der Regel mehrere Objektziele 19 auf. Ein Objektziel 19 ist eine Stelle eines Objekts 18, an dem Abtast-Lichtstrahlen in Form von Sendelichtsignalen 20, welche von dem LiDAR-System 12 in den Überwachungsbereich 14 gesendet werden, reflektiert werden können. In den Figuren ist bei den gezeigten Objekten 18 der besseren Übersichtlichkeit wegen jeweils lediglich eines der Objektziele 19 mit einem Bezugszeichen versehen.
Das LiDAR-System 12 ist mit einem Fahrerassistenzsystem 22 verbunden. Mit dem Fahrerassistenzsystem 22 kann das Fahrzeug 10 autonom oder teilautonom betrieben werden.
Das LiDAR-System 12 umfasst beispielhaft eine Sendeeinrichtung 24, eine Empfangseinrichtung 26 und eine Steuer- und Auswerteeinrichtung 28.
Bei der Steuer- und Auswerteeinrichtung 28 handelt es sich beispielhaft um eine elektronische Steuer- und Auswerteeinrichtung. Die Funktionen der Steuer- und Auswerteeinrichtung 28 können zentral oder dezentral auf softwaremäßigem und/oder hardwaremäßigem Wege realisiert sein. Teile der Funktionen der Steuer- und Auswerteeinrichtung 28 können auch in der Sendeeinrichtung 24 und/oder der Empfangseinrichtung 26 integriert sein.
Mit der Steuer- und Auswerteeinrichtung 28 können elektrische Sendesignale erzeugt werden. Die Sendeeinrichtung 24 kann mit den elektrischen Sendesignalen angesteuert werden, sodass diese amplitudenmodulierte Sendelichtsignale 20 in Form von Lichtpulsen in den Überwachungsbereich 14 sendet.
Die Sendeeinrichtung 24 weist als Lichtquelle beispielhaft einen Laser auf. Mit dem Laser können Sendelichtsignale 20 in Form von Laserpulsen erzeugt werden. Darüber hinaus weist die Sendeeinrichtung 24 eine optische Einrichtung auf, mit welcher die Sendelichtsignale 20 so aufgeweitet werden, dass sie sich - ähnlich einem Blitz - in den gesamten Überwachungsbereich 14 ausbreiten können. Auf diese Weise kann mit jedem Sendelichtsignal 20 der gesamte Überwachungsbereich 14 angeleuchtet werden.
An einem Objekt 18 in Richtung der Empfangseinrichtung 26 reflektierte Sendelichtsignale 20, welche der besseren Unterscheidung wegen als Empfangslichtsignale 30 bezeichnet werden, können mit der Empfangseinrichtung 26 empfangen werden.
Die Empfangseinrichtung 26 kann optional eine Empfangslichtsignal-Umlenkeinrichtung aufweisen, mit der die Empfangslichtsignale 30 zu einer in der Figur 3 ausschnittsweise gezeigten Empfangsmatrix 32 der Empfangseinrichtung 26 gelenkt werden.
Die Empfangsmatrix 32 ist beispielsweise mit einem Flächensensor in Form eines CCD- Sensors mit einer Vielzahl von Empfangsbereichen 34 realisiert. Die Empfangsbereiche 34 der Empfangsmatrix 32 sind beispielhaft in 320 Spalten mit 240 Zeilen angeordnet. In den Figuren 3 und 5 bis 19 sind der besseren Orientierung wegen die y-Achse und die z-Achse eines kartesischen y-z-Koordinatensystems dargestellt, wobei die y-Achse die Spalten und die z-Achse die Zeilen der Empfangsmatrix 32 angibt. Jeder Empfangsbereich 34 kann beispielsweise durch eine Gruppe von Pixeln realisiert werden. Die Empfangsmatrix 32 weist 320 x 240 Empfangsbereiche 34 auf. In der Figur 3 sind der besseren Übersichtlichkeit wegen beispielhaft lediglich 7 x 7 der Empfangsbereiche 34 angedeutet. Die Position eines Empfangsbereichs 34 in der Empfangsmatrix 32 kann durch Angabe der entsprechenden Zeile und der entsprechenden Spalte, also der y-Koordinate und der z-Koordinate, angegeben werden.
Anstatt eines CCD-Sensors kann auch ein andersartiger Flächensensor, beispielsweise ein Active-Pixel Sensor oder dergleichen verwendet werden. Mit den Empfangsbereichen 34 der Empfangsmatrix 32 können die jeweils auf sie treffenden Anteile von Empfangslichtsignalen 30 in entsprechende, in der Figur 4 bezeichnete Empfangsgrößen Ao, Ai, A2 und A3 umgewandelt werden. Im Folgenden können der Einfachheit halber die Empfangsgrößen auch als Empfangsgrößen Ai bezeichnet werden. Beispielhaft sind die Empfangsgrößen Ao, Ai, A2 und A3 die Amplituden von Phasenbildern (Differtial Correlation Samples) DCSo, DCS1, DCS2 und DCS3, welche im Folgenden der Einfachheit halber auch als Phasenbilder DCSi bezeichnet werden können.
Jeder Empfangsbereich 34 ist über geeignete Verschlussmittel für die Erfassung von Empfangslichtsignalen 30 für definierte Aufnahmezeitbereiche TBo, TB1, TB2 und TB3, welche im Folgenden der Einfachheit halber auch als Aufnahmezeitbereiche TBi bezeichnet werden können, aktivierbar.
Beispielhaft sind die Empfangsbereich 34 jeweils in vier Aufnahmezeitbereichen TBo, TB1, TB2 und TB3 zur Erfassung von Empfangssignalen 30 aktivierbar.
Jeder Aufnahmezeitbereich TBi ist durch einen Startzeitpunkt und eine Integrationsdauer definiert. Die zeitlichen Abstände zwischen jeweils zwei definierten Aufnahmezeitbereichen TBi sind kleiner als die Periodendauer IMOD der Modulationsperiode MP des Sendelichtsignals 20.
Während eines Aufnahmezeitbereichs TBi kann auf den jeweiligen Empfangsbereich 34 treffendes Licht, also auch auf den Empfangsbereich 34 treffende Anteile von Empfangslichtsignalen 30, in entsprechende elektrische Empfangssignale umgewandelt werden. Aus den Empfangssignalen können die jeweiligen Phasenbilder DCSi und deren Amplituden Ai ermittelt werden, welche jeweilige Signalausschnitte des Empfangslichtsignals 30 in den jeweiligen Aufnahmezeitbereichen TBi charakterisieren. Die Phasenbilder DCSi und deren Amplituden, also die Empfangsgrößen Ai, charakterisieren die jeweilige Lichtmenge, die während den Aufnahmezeitbereichen TBi mit den entsprechend aktivierten Empfangsbereich 34 der Empfangsmatrix 32 gesammelt wird.
Beispielhaft kann jeder Empfangsbereich 34 individuell aktiviert und ausgelesen werden. Die Verschlussmittel können auf softwaremäßigem und/oder hardwaremäßigem Wege realisiert sein. Derartige Verschlussmittel können als sogenannte „Shutter“ realisiert werden. Beispielhaft können die Empfangsbereiche 34 mit entsprechenden periodischen Aufnahme-Steuersignalen in Form von Shuttersignalen angesteuert werden. Die Shuttersignale können über die elektrischen Sendesignale, mit denen der Laser der Sendeeinrichtung 24 angesteuert wird, oder gemeinsam mit diesen getriggert werden. So werden die Empfangsgrößen Ai zu den Sendelichtsignalen 20 in Bezug gebracht. Beispielhaft können die elektrischen Sendesignale zu einem Startzeitpunkt ST getriggert werden. Die Empfangsbereiche 34 werden mit den entsprechend zeitlich versetzten Shuttersignalen getriggert.
Die Empfangseinrichtung 26 kann optional optische Elemente aufweisen, mit denen aus dem Überwachungsbereich 14 kommende Empfangslichtsignale 30 in Richtung der Empfangsbereiche 34 betrachtet abhängig von der Richtung, aus der sie kommen, auf jeweilige Empfangsbereiche 34 abgebildet werden. So kann aus der Position der angeleuchteten Empfangsbereiche 34 innerhalb der Empfangsmatrix 32 die Richtung eines Objektziels 19, an dem das Sendelichtsignal 20 reflektiert wird, ermittelt werden.
In der Figur 4 sind eine Modulationsperiode MP einer Empfangs-Hüllkurve 36 der Phasenbilder DCSo, DCSi, DCS2 und DCS3 in einem gemeinsamen Signalstärke-Zeit- Diagramm gezeigt. Dabei ist die Signalstärkenachse mit „S“ und die Zeitachse mit „t“ bezeichnet.
Die Empfangs-Hüllkurve 36 ist gegenüber dem Startzeitpunkt ST zeitlich versetzt. Der Zeitversatz in Form einer Phasendifferenz charakterisiert die Flugzeit zwischen dem Aussenden des Sendelichtsignals 20 und dem Empfang des entsprechenden Empfangslichtsignals 30.
Aus der Phasendifferenz kann eine Entfernungsgröße D, welche die Entfernung des reflektierenden Objektziels 19 charakterisiert, ermittelt werden. Die Phasenverschiebung 0 kann daher als Entfernungsgröße für die Entfernung verwendet werden. Die Flugzeit ist bekanntermaßen proportional zur Entfernung des Objektziels 19 relativ zu dem LiDAR-System 12.
Die Empfangs-Hüllkurve 36 kann durch beispielhaft vier Stützstellen in Form der vier Phasenbilder DCSo, DCSi, DCS2 und DCS3 angenähert werden. Alternativ kann die Empfangs-Hüllkurve 36 auch durch mehr oder weniger Stützstellen in Form von Phasenbildern angenähert werden.
Die Aufnahmezeitbereiche TBo, TB1, TB2 und TB3 werden jeweils bezogen auf ein Referenzereignis beispielhaft in Form eines Triggersignals für das elektrische Sendesignal zum Startzeitpunkt ST gestartet. Bei dem Referenzereignis kann es sich beispielsweise um einen Nulldurchgang des elektrischen Signals handeln, mit welchem der Laser zur Erzeugung des Sendelichtsignals 20 angesteuert wird. Beispielhaft erstreckt sich die Modulationsperiode MP des Sendelichtsignals 20 über 360°. Die Aufnahmezeitbereiche TBo, TB1, TB2 und TB3 starten beispielhaft jeweils bezogen auf die Modulationsperiode MP mit einem Abstand von 90° zueinander. Die Aufnahmezeitbereiche TBo, TB1, TB2 und TB3 starten also mit Phasenverschiebungen von 0°, 90°, 180° beziehungsweise 270° gegenüber dem Startzeitpunkt ST.
Eine Entfernungsgröße D für ein erfasstes Objektziel 19 kann beispielhaft aus den Amplituden, also den Empfangsgrößen Ao, Ai, A2 und A3, der Phasenbilder DCSo, DCS1, DCS2 und DCS3 für einen jeweiligen Empfangsbereich 34 in hier nicht weiter interessierenden Weise rechnerisch ermittelt werden.
In der Figur 5 ist ein Entfernungsbild einer Szene, welche mit dem LiDAR-System 12 erfasst wurde, in Graustufendarstellung dargestellt. Dabei sind in der horizontalen Dimension des Entfernungsbildes in Richtung der y-Achse die 320 Spalten der Empfangsmatrix 32 angegeben. Jede Spalte charakterisiert die horizontale Richtung, aus der die mit den Empfangsbereichen 34 der Spalte empfangenen Empfangslichtsignale 30 kommen, in der sich also das entsprechende Objektziel 19 befindet. In der vertikalen Dimension des Entfernungsbildes sind in Richtung der z-Achse die 240 Zeilen der Empfangsmatrix 32 angegeben. Jede Zeile charakterisiert die vertikale Richtung, aus der die mit den Empfangsbereichen 34 der Zeile empfangenen Empfangslichtsignale 30 kommen, in der sich also das entsprechende Objektziel 19 befindet. Über die Position eines mit Empfangslichtsignalen 30 getroffenen Empfangsbereichs 34 in der Empfangsmatrix 32 kann so die Richtung des Objektziels 19 charakterisiert werden, aus dem die entsprechenden Empfangslichtsignale 30 kommen. Die Entfernungsgrößen D für die Entfernungen der erfassten Objektziel 19 sind in Graustufen entsprechend einer neben dem Entfernungsbild gezeigten Graustufenskala definiert.
In dem Entfernungsbild sind mehrere Objekte 18, beispielsweise eine Person, ein Straßenschild und eine Tafel, gezeigt. Das Straßenschild ist ein stark reflektierendes, beispielsweise retroreflektives Objekt, welches der Szene aus der Figur 5 mit einer normal reflektierenden Abdeckung versehen ist. In der Figur 6 ist die gleiche Szene wie in der Figur 5 gezeigt. Hier ist jedoch die Abdeckung des retroreflektiven Objekts 18R entfernt. Im Folgenden werden der besseren Unterscheidung wegen das retroreflektive Objekt mit 1 8R und die entsprechenden retroreflektiven Objektziele mit 1 9 bezeichnet.
Die Verwendung des LiDAR-Systems 12 mit langen Integrationsdauern, welche erforderlich sind, um auch schwach reflektierende Objekte 18, wie beispielsweise in den Figuren 5 und 6 die Person und die Tafel, im Überwachungsbereich 14 zu erfassen, kann nicht nur zu einer Übersättigung von Empfangsbereichen 34 führen, die von an stark reflektierenden Objekten 1 8 reflektierten Empfangslichtsignalen 30 getroffen werden, sondern auch zu einer Verfälschung der Signale der Empfangsbereiche 34 in der Nähe der mit den Empfangslichtsignalen 30 von den stark reflektierenden Objekten 1 8 getroffenen Empfangsbereiche 34. Diese Verfälschung wird als Blooming oder Blendung (glare) bezeichnet. Das Blooming führt zu einem Fehler bei der Bestimmung der Entfernungsgrößen D für Objekte 18 in der Nähe stark reflektierender Objekte 1 8 . Die Entfernungsgröße D der normal oder schwach reflektierenden Objekte 18 wird, wie in der Figur 6 gezeigt, in Richtung der Entfernungsgröße D der stark reflektierenden Objekte 1 8 verfälscht. In der Figur 6 ist um das retroreflektiven Objekt 18 herum ein ringförmiger Bloomingbereich 38 erkennbar. Der Bloomingbereich 38 erstreckt sich hier über die Empfangsbereiche 34, welche eigentlich die Empfangslichtsignale 30 von den benachbarten normal reflektierenden Objekten 18, nämlich der Tafel und einem Teil der Person, erfassen sollten. Die wahren Entfernungsgrößen D der benachbarten normal reflektierenden Objekte 18 können in dem Bloomingbereich 38 nicht ermittelt werden.
Die Streulichteffekte, welche durch stark reflektierende Objekte 1 8 hervorgerufen werden, können, wie im Folgenden beschrieben, korrigiert werden. Auf diese Weise können auch für die schwach oder normal reflektierende Objekte 18 in der Nachbarschaft von stark reflektierenden Objekten 1 8 die jeweils korrekten Entfernungsgrößen D ermittelt werden. Zur Korrektur der Streulichteffekte wird von der gleichen Szene in dem Überwachungsbereich 14 mit den Empfangsbereichen 34 sowohl eine Kurzmessung als auch eine Langmessung durchgeführt.
Die Kurzmessung wird mit einer Kurz-Integrationsdauer durchgeführt, während der das Licht, also auch Empfangslichtsignale 30, aus dem Überwachungsbereich 14 mit den Empfangsbereichen 34 in den vier Aufnahmezeitbereichen TBo, TBi, TB2 und TB3 empfangen werden. Die Länge der Kurz-Integrationsdauer ist so gewählt, dass auch die starken Empfangslichtsignale 30 von dem retroreflektiven Objekt 1 8R nicht zu einer Übersteuerung in der Empfangsmatrix 32 führt. Beispielsweise beträgt die Kurz- Integrationsdauer etwa 1 ps.
Mit jedem der Empfangsbereiche 34 wird das jeweils empfangenen Lichts in die vier entsprechenden und dem jeweiligen Empfangsbereich 34 zugeordneten Kurz- Empfangsgrößen Ao,k, Ai,k, A2,k und As,k umgewandelt, welche im Folgenden der Einfachheit halber auch als Kurz-Empfangsgrößen Ai,k bezeichnet werden können.
Die Kurz-Empfangsgrößen Ao,k, Ai,k, A2,k und A3, k werden entsprechend ihren jeweiligen Aufnahmezeitbereichen TBo, TB1, TB2 und TB3 einer von vier in der Figur 8 links gezeigten Kurz-Empfangsgrößenmatrizen 4Oo, 40i, 402 beziehungsweise 403 zugewiesen, welche im Folgenden der Einfachheit halber auch als Kurz-Empfangsgrößenmatrizen 40i bezeichnet werden können.
In der Figur 8 ist von links nach rechts ein Ablaufschema einer Faltung der Kurz- Empfangsgrößen Ai,k mit einer Korrekturfunktionen 42 in Graustufendarstellung gezeigt.
In der Figur 8 links sind die vier Kurz-Empfangsgrößenmatrizen 4Oo, 40i, 402, 403 für die in der Figur 6 gezeigte Szene nach einer Kurzmessung dargestellt.
In jeder der Kurz-Empfangsgrößenmatrizen 4Oo, 40i, 402, 403 ist der besseren Übersichtlichkeit wegen lediglich jeweils eine der Kurz-Empfangsgrößen Ao,k, Ai,k, A2,k und As.k, welche mit einem der Empfangsbereiche 34 ermittelt wird, mit einem Bezugszeichen versehen. Insgesamt enthält jede der Kurz-Empfangsgrößenmatrizen 4Oo, 40i, 402, 403 so viele Kurz-Empfangsgrößen Ao,k, Ai,k, A2,k und As.k, wie die Empfangsmatrix 32 Empfangsbereiche 34 enthält, nämlich 320 x 240.
Bei den Kurz-Empfangsgrößenmatrizen 4Oo, 40i, 402, 403 in der Figur 8 links sind die y- Achse und die z-Achse des y-z-Koordinatensystems gezeigt. So können die entsprechenden Felder der Kurz-Empfangsgrößenmatrizen 40i den entsprechenden Empfangsbereichen 34 der Empfangsmatrix 32 zugeordnet werden. Die jeweiligen Kurz- Empfangsgrößen Ao,k, Ai,k, A2,k und As,k sind beispielsweise als Intensitäten INT mittels Graustufen visualisiert. Die entsprechende Graustufenskala ist rechts neben den Kurz- Empfangsgrößenmatrizen 4Oo, 40i, 402, 403 gezeigt.
Bei der Darstellung in der Figur 8 links handelt es sich lediglich um eine beispielhafte Visualisierung der Kurz-Empfangsgrößenmatrizen 40i. Die Kurz- Empfangsgrößenmatrizen 40i sind eigentlich jeweils eine Gruppe von Tupel, deren Anzahl der Anzahl der Empfangsbereiche 34 der Empfangsmatrix 32, nämlich 320 x 240, entspricht. Jedes Tupel enthält wenigstens eine Zuordnungsgröße, beispielsweise die y-Koordinate und die z-Koordinate, welche die Zuordnung zu dem entsprechenden Empfangsbereich 34 ermöglicht, und die dem entsprechenden Empfangsbereich 34 zugeordnete Kurz-Empfangsgröße Ai,k.
Für jede der Kurz-Empfangsgrößen Ao,k, Ai,k, A2,k und As,k wird, wie in der Figur 8 gezeigt, mittels der mathematischen Faltung mit der Korrekturfunktion 42 eine jeweilige Korrektur-Empfangsgröße Ao,c, Ai,c, A2,c und As,c erzeugt, welche im Folgenden der Einfachheit halber auch als Korrektur-Empfangsgrößen Ai,c bezeichnet werden können.
Die Korrekturfunktion 42 ist in der Figur 8 in der Mitte in einer zweidimensionalen Graustufendarstellung als Korrekturgrößenmatrix gezeigt. Die Korrekturfunktion 42 kann mit einem Kernel realisiert sein. Die Korrekturfunktion 42 kann als eine Gruppe von Datensätzen mit Positionsgrößen, beispielsweise Spaltenwerten und Zeilenwerten, und Wirkungsgrößen realisiert sein. Ein Verfahren zur Ermittlung der Korrekturfunktion 42 wird weiter unten erläutert.
Die Korrektur-Empfangsgrößen Ao,c, Ai,c, A2, c und As,c werden entsprechend ihren jeweiligen Aufnahmezeitbereichen TBo, TB1, TB2 und TB3 einer von vier Korrektur- Empfangsgrößenmatrizen 44o, 44i, 442 beziehungsweise 443 zugewiesen, welche im Folgenden der Einfachheit halber auch als Korrektur-Empfangsgrößenmatrizen 44i bezeichnet werden können. Auf diese Weise sind die Korrektur-Empfangsgrößen Ao,c, Ai ,c, A2,C und A3,C auch den entsprechenden Empfangsbereichen 34 und den entsprechenden Aufnahmezeitbereichen TBo, TBi, TB2 und TB3 zugeordnet, welche den zur Faltung verwendeten Kurz-Empfangsgrößen Ao,k, Ai,k, A2,k und As,k entsprechen.
In der Figur 8 rechts sind die vier Korrektur-Empfangsgrößenmatrizen 44o, 44i, 442, 443 für die Kurz-Empfangsgrößenmatrizen 4Oo, 40i, 402, 403 aus der Figur 8 links dargestellt. In jeder der Korrektur-Empfangsgrößenmatrizen 44o, 44i, 442, 443 ist der besseren Übersichtlichkeit wegen lediglich jeweils die Korrektur-Empfangsgröße Ao,c, Ai ,c, A2,c und A3,C mit einem Bezugszeichen versehen, welche aus den in den Kurz- Empfangsgrößenmatrizen 4Oo, 40i, 402, 403 bezeichneten Kurz-Empfangsgrößen Ao,k, Ai,k, A2,k und As,k hervorgehen. Insgesamt enthält jede der Korrektur- Empfangsgrößenmatrizen 44o, 44i, 442, 443 so viele Korrektur-Empfangsgrößen Ao,c, Ai,c, A2,C und A3,C, wie die Kurz-Empfangsgrößenmatrizen 4Oo, 40i, 402, 403 Kurz- Empfangsgrößen Ao,k, Ai,k, A2,k und As,k enthält, nämlich 320 x 240.
Bei den Korrektur-Empfangsgrößenmatrizen 44i in der Figur 8 rechts sind die y-Achse und die z-Achse des y-z-Koordinatensystems gezeigt. So können die entsprechenden Felder der Korrektur-Empfangsgrößenmatrizen 44i den entsprechenden Empfangsbereichen 34 der Empfangsmatrix 32 zugeordnet werden. Die jeweiligen Korrektur- Empfangsgrößen Ao,c, Ai,c, A2,C und As,c sind beispielsweise als Intensitäten INT in Graustufen visualisiert. Die entsprechende Graustufenskala ist rechts neben den Kor- rektur-Empfangsgrößenmatrizen 44i gezeigt.
Bei der Darstellung in der Figur 8 rechts handelt es sich lediglich um eine Visualisierung der Korrektur-Empfangsgrößenmatrizen 44i. Die Korrektur-Empfangsgrößenmatrizen 44i sind eigentlich jeweils eine Gruppe von Tupel, deren Anzahl der Anzahl der Empfangsbereiche 34 der Empfangsmatrix 32, nämlich 320 x 240, entspricht. Jedes Tupel enthält wenigstens eine Zuordnungsgröße, beispielsweise eine y-Koordinate und eine z-Koordinate, welche die Zuordnung zu dem entsprechenden Empfangsbereich 34 ermöglicht, und die dem entsprechenden Empfangsbereich 34 zugeordnete Korrektur- Empfangsgröße Ai,c. Die Langmessung wird mit einer Lang-Integrationsdauer durchgeführt, die länger ist als die Kurz-Integrationsdauer. Die Länge der Lang-Integrationsdauer ist so gewählt, dass auch die Empfangslichtsignale 30 von den normal oder schwach reflektierenden Objekten 18 zu Signalen auf Seiten der entsprechend angestrahlten Empfangsbereiche 34 führen, die von Rauschen unterscheidbar sind. Beispielsweise beträgt die Lang- Integrationsdauer etwa 1000 ps.
Mit jedem der Empfangsbereiche 34 wird das jeweils empfangenen Licht in die vier entsprechenden und dem jeweiligen Empfangsbereich 34 zugeordneten Lang- Empfangsgrößen Ao,i, Au, A2,I und Aa,i umgewandelt, welche im Folgenden der Einfachheit halber auch als Lang-Empfangsgrößen Ai,i bezeichnet werden können.
Die Lang-Empfangsgrößen Ao,i, Au, A2,I und Aa,i werden entsprechend ihren jeweiligen Aufnahmezeitbereichen TBo, TBi, TB2 und TB3 einer von vier in der Figur 9 links gezeigten Lang-Empfangsgrößenmatrizen 46o, 46i, 462 beziehungsweise 463 zugewiesen. Die Lang-Empfangsgrößenmatrizen können im Folgenden der Einfachheit halber auch als Lang-Empfangsgrößenmatrizen 46i bezeichnet werden können.
In der Figur 9 ist von links nach rechts ein Ablaufschema einer Differenzbildung zwischen den Lang-Empfangsgrößen Ai,i und den Korrektur-Empfangsgrößen Ai,c in Graustufendarstellung gezeigt.
In der Figur 9 links sind die vier Lang-Empfangsgrößenmatrizen 46o, 46i, 462, 463 für die in der Figur 6 gezeigte Szene nach einer Langmessung dargestellt.
In jeder der Lang-Empfangsgrößenmatrizen 46o, 46i, 462, 463 ist der besseren Übersichtlichkeit wegen lediglich eine der Lang-Empfangsgrößen Ao,i, Au, A2,I und As,i mit einem Bezugszeichen versehen, welche mit einem der Empfangsbereiche 34 ermittelt wird. Insgesamt enthält jede der Lang-Empfangsgrößenmatrizen 46o, 46i, 462, 463 so viele Lang-Empfangsgrößen Ao,i, Au, A2,I und As , wie die Empfangsmatrix 32 Empfangsbereiche 34 und die Kurz-Empfangsgrößenmatrizen 4Oo, 40i, 402, 403 Kurz- Empfangsgrößen Ao,k, Ai,k, A2,k und As,k enthält, nämlich 320 x 240. Bei den Lang-Empfangsgrößenmatrizen 46o, 46i, 462, 46a in der Figur 9 links sind die y- Achse und die z-Achse des y-z-Koordinatensystems gezeigt. So können die entsprechenden Felder der Lang-Empfangsgrößenmatrizen 46i den entsprechenden Empfangsbereichen 34 der Empfangsmatrix 32 zugeordnet werden. Die jeweiligen Lang- Empfangsgrößen Ao.i, Ai,i, A2,I und Aa,i sind beispielsweise als Intensitäten INT mittels Graustufen visualisiert. Die entsprechende Graustufenskala ist rechts neben den Lang- Empfangsgrößenmatrizen 46o, 46i, 462, 463 gezeigt.
Bei der Darstellung in der Figur 9 links handelt es sich lediglich um eine beispielhafte Visualisierung der Lang-Empfangsgrößenmatrizen 46i. Die Lang- Empfangsgrößenmatrizen 46i sind wie die Kurz-Empfangsgrößenmatrizen 40i eigentlich jeweils eine Gruppe von Tupel, deren Anzahl der Anzahl der Empfangsbereiche 34 der Empfangsmatrix 32, nämlich 320 x 240, entspricht. Jedes Tupel enthält wenigstens eine Zuordnungsgröße, beispielsweise die y-Koordinate und die z-Koordinate, welche die Zuordnung zu dem entsprechenden Empfangsbereich 34 ermöglicht, und die dem entsprechenden Empfangsbereich 34 zugeordnete Lang-Empfangsgröße Ai,i.
Für jede der Lang-Empfangsgrößen Ao,i, Ai,i, A2,I und As.i wird, wie in der Figur 9 gezeigt, jeweils eine End-Empfangsgröße Ao,e, Ai,e, A2,e und Aa,e als Differenz aus der Lang-Empfangsgröße Ao,i, Ai,i, A21 beziehungsweise As,i und der Korrektur- Empfangsgröße Ao,c, Ai,c, A2, c beziehungsweise Aa,c gebildet, welche dem Empfangsbereich 34 und dem Aufnahmezeitbereich TBo, TB1, TB2 und TB3 der Lang- Empfangsgröße Ao,i, Ai,i, A2,I beziehungsweise As.i entspricht. Die End-Empfangsgrößen Ao,e, Ai,e, A2, e und As,e können im Folgenden der Einfachheit halber auch als End- Empfangsgrößen Ai,e bezeichnet werden.
Die End-Empfangsgrößen Ao,e, Ai,e, A2,e, As,e werden entsprechend ihren jeweiligen Aufnahmezeitbereichen TBo, TB1, TB2 und TB3 einer von vier End- Empfangsgrößenmatrizen 48o, 48i, 482 beziehungsweise 483 zugewiesen, welche im Folgenden der Einfachheit wegen auch als End-Empfangsgrößenmatrizen 48i bezeichnet werden können. Auf diese Weise sind die End-Empfangsgrößen Ao,e, Ai,e, A2,e, As,e auch den entsprechenden Empfangsbereichen 34 und den entsprechenden Aufnahmezeitbereichen TBo, TB1, TB2 und TB3 zugeordnet, welche den zur Faltung verwendeten Kurz-Empfangsgrößen Ao,k, Ai,k, A2,k und As,k entsprechen. In der Figur 9 rechts sind die vier End-Empfangsgrößenmatrizen 48o, 48i, 482, 48a für die Lang-Empfangsgrößenmatrizen 46o, 46i, 462, 46a aus der Figur 9 links dargestellt. In jeder der End-Empfangsgrößenmatrizen 48o, 48i, 482, 48a ist der besseren Übersichtlichkeit wegen lediglich die End-Empfangsgröße Ao,e, Ai,e, A2,e, Aa,e mit einem Bezugszeichen versehen, welche aus den in den Lang-Empfangsgrößenmatrizen 46o, 46i, 462, 46a bezeichneten Lang-Empfangsgröße Ao,i, Ai,i, Aa und Aa,i hervorgehen. Insgesamt enthält jede der End-Empfangsgrößenmatrizen 48o, 48i, 482, 48a so viele End- Empfangsgrößen Ao,e, Ai,e, A2,e, Aa,e, wie die Lang-Empfangsgrößenmatrizen 46o, 46i, 462, 46a Lang-Empfangsgrößen Ao,i, Ai,i, Aa und Aa,i enthält, nämlich 320 x 240.
Bei den End-Empfangsgrößenmatrizen 48i in der Figur 9 rechts sind die y-Achse und die z-Achse des y-z-Koordinatensystems gezeigt. So können die entsprechenden Felder der End-Empfangsgrößenmatrizen 48i den entsprechenden Empfangsbereichen 34 der Empfangsmatrix 32 zugeordnet werden. Die jeweiligen End-Empfangsgrößen Ao,e, Ai,e, A2, e, Aa,e sind beispielsweise als Intensitäten INT in Graustufen visualisiert. Die entsprechende Graustufenskala ist rechts neben den End-Empfangsgrößenmatrizen 48o, 48i, 482, 48a gezeigt.
Bei der Darstellung in der Figur 9 rechts handelt es sich lediglich um eine Visualisierung der End-Empfangsgrößenmatrizen 48i. Die End-Empfangsgrößenmatrizen 48i sind, wie die Kurz-Empfangsgrößenmatrizen 40i, die Lang-Empfangsgrößenmatrizen 46i und die Korrektur-Empfangsgrößenmatrizen 44i, eigentlich jeweils eine Gruppe von Tupel, deren Anzahl der Anzahl der Empfangsbereiche 34 der Empfangsmatrix 32, nämlich 320 x 240, entspricht. Jedes Tupel enthält wenigstens eine Zuordnungsgröße, beispielsweise die y-Koordinate und die z-Koordinate, welche die Zuordnung zu dem entsprechenden Empfangsbereich 34 ermöglicht, und die dem entsprechenden Empfangsbereich 34 zugeordnete End-Empfangsgröße Ai,e.
Die Entfernungsgrößen D für die Entfernungen der Objektziele 19 und 19n der mit den Empfangsbereichen 34 erfassten Objekte 18 und 18R werden aus den End- Empfangsgrößen Ao,e, Ai,e, A2, e und Aa,e für jeden Empfangsbereich 34 rechnerisch ermittelt. Figur 7 zeigt das Entfernungsbild der Szene aus der Figur 6 nach der oben beschriebenen Korrektur der Streulichteffekte. Aus Figur 7 ist ersichtlich, dass der Bloomingbereich 38 gegenüber der Darstellung in der Figur 6 reduziert ist. Die Entfernungsgrößen D für die schwach und normal reflektierenden Objekte 18, nämlich für die Person und für die Tafel, sind nach der Korrektur, wie in der Figur 7 dargestellt, genauer angegeben.
Im Folgenden wird ein Verfahren zur Ermittlung der Korrekturfunktion 42 für das LiDAR- System 12 beschrieben. Die Ermittlung der Korrekturfunktion 42 erfolgt beispielhaft vor dem Einbau des LiDAR-Systems 12 in das Fahrzeug 10. Alternativ kann die Ermittlung der Korrekturfunktion 42 auch bei eingebautem LiDAR-System 12 erfolgen.
Das LiDAR-System 12 wird zur Ermittlung der Korrekturfunktion 42 in einer Messanlage 50 angeordnet. In der Figur 10 ist eine Messanlage 50 gemäß einem ersten Ausführungsbeispiel in einer Seitenansicht gezeigt.
Die Messanlage 50 weist eine Anordnungsstelle 52 beispielhaft in Form eines Stativs für das LiDAR-System 12 auf. Die Anordnungsstelle 52 befindet sich vor einer Rückwand 54. Die Rückwand 54 ist bezogen auf Reflexionen von Sendelichtsignalen 20 neutral. Beispielhaft ist die Rückwand 54 matt schwarz.
„Neutral“ bezogen auf Reflexionen von Sendelichtsignalen 20 im Sinne der Erfindung bedeutet, dass Sendelichtsignale 20 reflektiert Sendelichtsignale 20, also Empfangslichtsignale 30, nicht oder nur in für das LiDAR-System vernachlässigbarer Weise an den entsprechenden Bereichen reflektiert werden. So wird verhindert, dass von den reflexionstechnisch neutralen Bereichen Reflexionen ausgehen, die im LiDAR-System 12 Signale hervorrufen, welche über ein Rauschen hinausgehen.
Auf der der Anordnungsstelle 52 gegenüberliegenden Seite der Rückwand 54 ist eine Anlagensteuerung 56 für die Messanlage 50 angeordnet. Das LiDAR-System 12 ist mit der Anlagensteuerung 56 steuerbar verbunden. Mit der Anlagensteuerung 56 können das LiDAR-System 12 angesteuert und mit dem LiDAR-System 12 ermittelte Daten abgerufen werden.
Das LiDAR-System 12 wird so angeordnet, dass das Sichtfeld 58 von der Rückwand 54 weg zeigt. Das Sichtfeld 58 definiert den Überwachungsbereich 14 in der Messanlage 50. Die räumlich untere Sichtfeldgrenze 60 des Sichtfeldes 58 verläuft dabei horizontal beispielhaft in einer Sichtfeldhöhe 62 von 1 ,80 m über einem Boden 64. Ein vertikaler Bildwinkel 66 des LiDAR-Systems 12 beträgt beispielhaft 78°. Das Sichtfeld 58 ist insgesamt von der unteren Sichtfeldgrenze 60 aus betrachtet schräg nach oben gerichtet.
In dem Sichtfeld 58 des LiDAR-Systems 12 ist ein Referenzobjekt 1 8REF beispielhaft in Form eines retroreflektiven Straßenschildes angeordnet. Das Referenzobjekt 1 8REF weist eine Vielzahl von Referenz-Objektzielen 1 9REF auf, an denen Sendelichtsignale 20 reflektiert werden können. Das Referenzobjekt 1 8REF ist beispielsweise über eine Stange 68 mit einer elektrischen Antrieb 70 verbunden. Der elektrische Antrieb 70 befindet sich beispielhaft auf dem Boden 64 der Messanlage 50. Der elektrische Antrieb 70 ist beispielhaft unterhalb der unteren Sichtfeldgrenze 60 außerhalb des Sichtfeldes 58 angeordnet. Der elektrische Antrieb 70 ist mit der Anlagensteuerung 56 steuerbar gebunden.
Der Boden 64 ist bezogen auf Reflexionen von Sendelichtsignalen 20 neutral. Beispielhaft ist der Boden 64 matt schwarz. Außerdem sind die Stange 68 und ein Gehäuse des elektrischen Antriebs 70 bezogen auf Reflexionen von Sendelichtsignalen 20 neutral, beispielsweise matt schwarz.
Mit dem Antrieb 70 kann das Referenzobjekt 1 8REF über die Stange 68 in dem Sichtfeld 58 bewegt werden. Auf diese Weise sind die Position des Referenzobjekts 1 8REF und damit die Positionen der Referenz-Objektziele 1 9REF veränderbar. Zum bewegen des Referenzobjekts 1 8REF wird der Antrieb 70 mit der Anlagensteuerung 56 entsprechend angesteuert.
Die Messanlage 50 weist auf der der Anordnungsstelle 52 abgewandten Seite des Referenzobjekts 1 8REF einen für LiDAR-Messungen mit dem LiDAR-System 12 bezogen auf Reflexionen von Sendelichtsignalen 20 neutralen Hintergrund 72 auf. Der neutrale Hintergrund 72 wird bei dem in der Figur 10 gezeigten Ausführungsbeispiel durch den Himmel realisiert. Hierzu ist die Messanlage 50 räumlich oben und an ihrer der Rückwand 54 gegenüberliegenden Vorderseite offen. Der Hintergrund 72 ist so gewählt, dass bei LiDAR-Messungen mit dem LiDAR-System 12, bei denen kein Referenz- Objektziel 1 9REF im Sichtfeld 58 des LiDAR-Systems 12 angeordnet ist, für die Emp- fangsbereiche 34 der Empfangsmatrix 32 keine von Rauschen unterscheidbare Signale ermittelt werden.
Bei einem in der Figur 11 gezeigten zweiten Ausführungsbeispiel der Messanlage 50 ist an der Oberseite eine Decke 74 und an der Vorderseite eine Vorderwand 76 angeordnet. Auf diese Weise wird ein geschlossener Messraum realisiert. Die Decke 74 und die Vorderwand 76 bilden jeweils bezogen auf die Reflexionen von Sendelichtsignalen 20 einen neutralen Hintergrund 72. Beispielsweise können die Decke 74 und die Vorderwand 76 matt schwarz sein.
Mit dem in der Messanlage 50 angeordneten LiDAR-System 12 wird eine Vielzahl von Korrekturmessungen durchgeführt. Zwischen den Korrekturmessungen wird die Position des Referenzobjekts 18REF, also der Referenz-Objektziele 19REF, in dem Sichtfeld 58 des LiDAR-Systems 12 verändert. Hierzu wird das Referenzobjekt 1 8REF auf Signal der Anlagensteuerung 56 hin mit dem elektrischen Antrieb 70 innerhalb des Sichtfeldes 58 bewegt. Die Korrekturmessungen werden auf diese Weise in unterschiedlichen Positionen der Referenz-Objektziele 1 9REF durchgeführt.
Das Signal der Anlagensteuerung 56 zum bewegen des Referenzobjekts 1 8REF kann mit einem Signal zum Starten einer Korrekturmessung mit dem LiDAR-System 12 synchronisiert sein.
Für eine Korrekturmessung werden mit der Sendeeinrichtung 24 des LiDAR-Systems 12, analog zu der oben beschriebenen LiDAR-Messung, Sendelichtsignale 20 in das Sichtfeld 58 gesendet. Dabei werden die Sendelichtsignale 20 mit unterschiedlicher Sendeleistungen in drei Zonen 78 des Sichtfeldes 58 gesendet. Eine erste Zone 78i mit geringerer Sendeleistung erstreckt sich entlang der unteren Sichtfeldgrenze 60. Eine zweite Zone 782 mit geringerer Sendeleistung erstreckt sich entlang der oberen Sichtfeldgrenze 80. Eine dritte Zone 78a mit erhöhter Sendeleistung erstreckt sich zwischen den zwei Zonen 78i und 782 mit geringerer Sendeleistung. Die dritte Zone 78a mit erhöhter Sendeleistung ermöglicht eine größere Reichweite der Sendelichtsignale 20 zu Überwachung des Fernfeldes. Für jede Korrekturmessung werden jeweils eine Kurzmessung und eine Langmessung für dieselben Positionen der Referenz-Objektziele 1 9REF durchgeführt. Die Kurzmessungen und die Langmessungen werden analog zu der weiter oben beschriebenen Li- DAR-Messung durchgeführt.
Die Kurzmessungen werden mit einer Kurz-Integrationsdauer durchgeführt. Die Kurz- Integrationsdauer für die Kurzmessungen der Korrekturmessung sind so vorgegeben, dass von den Referenz-Objektzielen 1 9REF des Referenzobjekts 1 8REF kommende Empfangslichtsignalen 30 nicht zu Übersättigungen von Empfangsbereichen 34 der Empfangsmatrix 32 führen. Beispielhaft wird die Kurz-Integrationsdauer für die Kurzmessungen der Korrekturmessungen auf 5 ps festgelegt. Während der Kurz- Integrationsdauer wird auf die Empfangsbereiche 34 treffendes Licht mit den Empfangsbereichen 34 in den vier Aufnahmezeitbereichen TBi empfangen und in entsprechende Kurz-Empfangsgrößen Ai,k umgewandelt.
Die Langmessungen werden mit einer Lang-Integrationsdauer durchgeführt. Die Lang- Integrationsdauer wird so vorgegeben, dass von den LiDAR-Systems 12 des Referenzobjekts 1 8REF kommende Empfangslichtsignale 30 in wenigstens einem der Empfangsbereiche 34 der Empfangsmatrix 32 zur Übersättigung führt. Beispielhaft wird die Lang-Integrationsdauer für die Langmessungen der Korrekturmessungen auf 1000 ps festgelegt. Während der Lang-Integrationsdauer wird auf die Empfangsbereiche 34 treffendes Licht in den vier Aufnahmezeitbereichen TBi empfangen und in entsprechende Lang-Empfangsgrößen Ai,i umgewandelt.
In der Figur 14 ist die entsprechende Kurz-Empfangsgrößenmatrix 4Oo beispielhaft für das Phasenbild DCSo gezeigt, welche bei einer Kurzmessung mit dem Referenzobjekt 1 8REF, also den Referenz-Objektzielen 1 9REF, ermittelt wurde. Dabei befindet sich das Referenzobjekt 1 8REF in einer Position im Bereich der unteren Sichtfeldgrenze 60. Figur 15 zeigt ein Achsendiagramm für das Phasenbild DCSo entlang der Spalte 173 der Kurz-Empfangsgrößenmatrix 4Oo aus der Figur 14.
In der Figur 12 ist die entsprechende Lang-Empfangsgrößenmatrix 46o beispielhaft für das Phasenbild DCSo gezeigt, welche bei einer Langmessung mit dem Referenzobjekts 1 8REF , also der Referenz-Objektziele 1 9REF, ermittelt wurde. Dabei befindet sich das Referenzobjekt in derselben Position wie bei der Kurzmessung, deren Ergebnis in der Figur 12 dargestellt ist. Figur 13 zeigt das Achsendiagramm für das Phasenbild DCSo entlang der Spalte 173 der Lang-Empfangsgrößenmatrix 46o aus der Figur 12.
In Figur 18 ist die entsprechende Kurz-Empfangsgrößenmatrix 4Oo für eine Kurzmessung mit dem Referenzobjekt 1 8REF aus der Figur 14 in einer anderen Position, nämlich im Zentrum des Sichtfeldes 58, gezeigt. Figur 19 zeigt ein Achsendiagramm für das Phasenbild DCSo entlang der Spalte 119 der Kurz-Empfangsgrößenmatrix 4Oo aus der Figur 18.
In der Figur 16 ist die Lang-Empfangsgrößenmatrix 46o für die Langmessung mit dem Referenzobjekt 1 8REF gezeigt. Dabei befindet sich das Referenzobjekt 1 8REF in derselben Position wie bei der Kurzmessung, deren Ergebnis in der Figur 18 dargestellt ist. Figur 17 zeigt das Achsendiagramm für das Phasenbild DCSo entlang der Spalte 119 der Lang-Empfangsgrößenmatrix 46o aus der Figur 16.
Aus den Kurz-Empfangsgrößen Ai,k der jeweiligen Empfangsbereiche 34 werden jeweilige Positionsgrößen ermittelt. Die Positionsgröße eines Empfangsbereichs 34 charakterisiert die Position des mit dem Empfangsbereich 34 erfassten Referenz-Objektziels 1 9REF, sofern mit diesem Empfangsbereich 34 ein Referenz-Objektziel 1 9REF erfasst wurde. Beispielsweise können als Positionsgrößen die jeweiligen y-Koordinaten und z- Koordinaten des oben beschriebenen y-z-Koordinatensystems verwendet werden.
Aus Lang-Empfangsgrößen Ai,i der jeweiligen Empfangsbereiche 34 wird eine jeweilige Wirkungsgröße ermittelt. Die Wirkungsgröße charakterisiert Wirkung von übersättigenden Empfangslichtsignalen 30 auf den jeweiligen Empfangsbereich 34.
Die Korrekturfunktion 42 wird aus den Positionsgrößen und den jeweiligen Wirkungsgrößen ermittelt. Die Korrekturfunktion 42 wird beispielsweise als Gruppe von Datensätzen oder Tupeln realisiert. Jeder Datensatz enthält beispielsweise zwei Empfangsbereichswerte und einen Korrekturwert. Die Empfangsbereichswerte werden beispielsweise als die y-Koordinate und z-Koordinate des entsprechenden Empfangsbereichs 34 in dem y-z-Koordinatensystem dargestellt. Die Empfangsbereichswerte, beispielsweise x und y, und der Korrekturwert werden dem entsprechenden Empfangsbereich 34 zugeordnet. Die Korrekturwerte werden abhängig von den Positionen der übersättigten Empfangsbereiche 34 innerhalb der Empfangsmatrix 32, welche die Richtung der entsprechenden Objektziele 1 9REF im Sichtfeld 58 relativ zum LiDAR-System 12 charakterisiert, über die Korrekturfunktion 42 ermittelt. Die Korrekturfunktion 42 kann auch als Kernel realisiert werden.
Optional kann bei der Ermittlung der Korrekturfunktion 42 eine Umgebungslicht- Korrektur durchgeführt werden. Dabei wird der Einfluss von etwaigen Umgebungslicht auf die Korrekturmessung korrigiert.

Claims

Ansprüche
1 . Verfahren zur Ermittlung wenigstens einer Korrekturfunktion (42) für ein LiDAR- System (12), insbesondere für ein LiDAR-System (12) für ein Fahrzeug (10), wobei die wenigstens eine Korrekturfunktion (42) ausgestaltet wird zur Korrektur von etwaigen Streulichteffekten auf Empfangsbereiche (34) einer Empfangsmatrix (32) einer Empfangseinrichtung (26) des LiDAR-Systems (12) bei LiDAR-Messungen mit dem LiDAR- System (12), dadurch gekennzeichnet, dass wenigstens eine Korrekturmessung durchgeführt wird, bei der wenigstens ein für elektromagnetische Abtast-Lichtstrahlen (20) reflektierendes Referenz-Objektziel (1 8REF) vor einem für LiDAR-Messungen mit dem LiDAR-System (12) bezogen auf die Reflexion von elektromagnetischen Abtast-Lichtstrahlen (20) neutralen Hintergrund (72) in einem Sichtfeld (58) des LiDAR-Systems (12) angeordnet wird, für wenigstens zwei unterschiedliche Positionen des wenigstens einen Referenz- Objektziels (1 8REF) in dem Sichtfeld (58) jeweils mit einer Sendeeinrichtung (24) des LiDAR-Systems (12) wenigstens ein elektromagnetischer Abtast-Lichtstrahl (20) in das Sichtfeld (58) gesendet wird, in jeder der wenigstens zwei unterschiedlichen Positionen des wenigstens einen Referenz-Objektziels (1 8REF) mit wenigstens einem Teil der Empfangsbereiche (34) wenigstens eine Kurzmessung und wenigstens eine Langmessung durchgeführt wird, wobei die wenigstens eine Kurzmessung mit einer Kurz-Integrationsdauer durchgeführt wird, während der auf die Empfangsbereiche (34) treffendes Licht mit den Empfangsbereichen (34) in wenigstens zwei unterschiedlichen Aufnahmezeitbereichen (TBo, TBi, TB2, TB3) empfangen und in entsprechende Kurz-Empfangsgrößen (Ao,k, Ai,k, As.k, As,k) umgewandelt wird, und wobei die wenigstens eine Langmessung mit einer Lang-Integrationsdauer, die größer ist als die Kurz-Integrationsdauer, durchgeführt wird, während der auf die Empfangsbereiche (34) treffendes Licht in den wenigstens zwei unterschiedlichen Aufnahmezeitbereichen (TBo, TB1, TB2, TB3) empfangen und in entsprechende Lang- Empfangsgrößen (Ao,i, Ai,i, A3,I, A3,I) umgewandelt wird, und die wenigstens eine Korrekturfunktion (42) aus wenigstens einem Teil der Kurz- Empfangsgrößen (Ao,k, Ai,k, As.k, As,k) und wenigstens einem Teil der jeweiligen Lang- Empfangsgrößen (Ao,i, Ai,i, A3,I, A3,I) ermittelt wird.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass aus wenigstens einem Teil der Kurz-Empfangsgrößen (Ao,k, Ai,k, As.k, As,k) wenigstens eine Positionsgröße ermittelt wird, welche die Position des wenigstens einen Referenz- Objektziels (1 8REF) in dem Sichtfeld (58) charakterisiert, aus wenigstens einem Teil der Lang-Empfangsgrößen (Ao.i, Ai,i, Aa.i, Aa.i) wenigstens eine Wirkungsgröße ermittelt wird, welche die Wirkung von übersättigenden reflektierten Abtast-Lichtstrahlen (20) auf den wenigstens einen Teil der Empfangsbereiche (34) charakterisiert, und die wenigstens eine Korrekturfunktion (42) aus wenigstens einem Teil der Positionsgrößen und wenigstens ein Teil der jeweiligen Wirkungsgrößen ermittelt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Hintergrund (72) so gewählt wird, dass bei LiDAR-Messungen mit dem LiDAR-System (12), bei denen kein Referenz-Objektziel (1 8REF) im Sichtfeld (58) des LiDAR-Systems (12) angeordnet ist, für die Empfangsbereiche (34) der Empfangsmatrix (32) keine von Rauschen unterscheidbare Signale ermittelt werden, und/oder als wenigstens ein Teil des Hintergrundes (72) der Himmel verwendet wird und/oder als wenigstens ein Teil des Hintergrundes (72) wenigstens ein Medium, welches eine für elektromagnetische Abtast-Lichtstrahlen (20) bezogen auf LiDAR-Messungen vernachlässigbare Reflektivität aufweist, verwendet wird.
4. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die wenigstens eine Korrekturfunktion (42) als Gruppe von Datensätzen realisiert wird, wobei jeder Datensatz wenigstens einen Empfangsbereichswert und wenigstens ein Korrekturwert enthält, wobei der wenigstens eine Korrekturwert mittels dem wenigstens einen Empfangsbereichswert dem jeweiligen Empfangsbereich (34) zugeordnet wird, und/oder die wenigstens eine Korrekturfunktionen (42) als Kernel realisiert wird.
5. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass das wenigstens eine Referenz-Objektziel (1 8REF) zwischen wenigstens zwei Korrekturmessungen innerhalb des Sichtfeldes (58) bewegt wird, insbesondere manuell und/oder mittels wenigstens eines Antriebsmittels (70) bewegt wird.
6. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die Kurz-Integrationsdauer so vorgegeben wird, dass von dem wenigstens einen Referenz-Objektziel (1 8REF) kommende reflektierte Abtast-Lichtstrahlen (20) nicht zu Übersättigungen von Empfangsbereichen (34) der Empfangsmatrix (32) führen, und/oder die Lang-Integrationsdauer so vorgegeben wird, dass von der wenigstens einen Referenz- Objektziel (1 8REF) kommende reflektierte Abtast-Lichtstrahlen (20) bei wenigstens der Empfangsbereiche (34) der Empfangsmatrix (32) zur Übersättigung führt.
7. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass bei der wenigstens einen Korrekturmessung der aus dem Sichtfeld (58) des LiDAR- Systems (12) kommende reflektierte wenigstens eine Abtast-Lichtstrahl (20) mit den Empfangsbereichen (34) während wenigstens zwei Aufnahmezeitbereichen (TBo, TBi, TB2, TB3) in jeweilige Empfangsgrößen (Ao,k, Ai,k, As.k, As,k; Ao.i, Ai,i, Aa.i, Aa,i) umgewandelt werden, wobei wenigstens zwei der Aufnahmezeitbereiche (TBo, TB1, TB2, TB3) bezogen auf eine Modulationsperiode (MP) des wenigstens einen Abtast-Lichtstrahls (20) phasenverschoben gestartet werden.
8. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass das wenigstens eine Referenz-Objektziel (1 8REF) mit einem retroreflektiven Objekt realisiert wird.
9. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass der wenigstens eine Abtast-Lichtstrahl (20) mit wenigstens zwei Zonen (78i, 782, 78s) mit unterschiedlicher Sendeleistung in das Sichtfeld (58) gesendet wird.
10. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass bei der Ermittlung der wenigstens ein Korrekturfunktion (42) eine Umgebungslicht- Korrektur durchgeführt wird.
1 1. LiDAR-System (12), insbesondere LiDAR-System (12) für ein Fahrzeug (10), aufweisend wenigstens eine Sendeeinrichtung (24) zum Senden von Abtast-Lichtstrahlen (20) in ein Sichtfeld (58) des LiDAR-Systems (12), wenigstens eine Empfangseinrichtung (26), welche wenigstens eine Empfangsmatrix (32) mit mehreren Empfangsbereichen (34) aufweist, mit denen reflektierte Abtast- Lichtstrahlen (20) empfangen werden können, und Mitteln zur Ermittlung von Korrekturfunktionen (42), wobei die Korrekturfunktionen (42) ausgestaltet sind zur Korrektur von etwaigen Streulichteffekten auf Empfangsbereiche (34) der Empfangsmatrix (32) bei LiDAR-Messungen, dadurch gekennzeichnet, dass das LiDAR-System (12) wenigstens einen Teil der Mittel zur Durchführung des Verfahrens nach einem der der Ansprüche 1 bis 10 aufweist.
12. Fahrzeug (10) mit wenigstens einem LiDAR-System (12), wobei das wenigstens eine LiDAR-System (12) aufweist wenigstens eine Sendeeinrichtung (24) zum Senden von Abtast-Lichtstrahlen (20) in ein Sichtfeld (58) des LiDAR-Systems (12), wenigstens eine Empfangseinrichtung (26), welche wenigstens eine Empfangsmatrix (32) mit mehreren Empfangsbereichen (34) aufweist, mit denen reflektierte Abtast- Lichtstrahlen (20) empfangen werden können, und Mittel zur Ermittlung von Korrekturfunktionen (42), wobei die Korrekturfunktionen (42) ausgestaltet sind zur Korrektur von etwaigen Streulichteffekten auf Empfangsbereiche (34) der Empfangsmatrix (32) bei LiDAR-Messungen, dadurch gekennzeichnet, dass das Fahrzeug (10) wenigstens einen Teil der Mittel zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 10 aufweist.
13. Messanlage (50), welche Mittel aufweist zur Ermittlung wenigstens einer Korrekturfunktionen (42) für ein LiDAR-System (12), insbesondere für ein LiDAR-System (12) für ein Fahrzeug (10), wobei die wenigstens eine Korrekturfunktion (42) ausgestaltet ist zur Korrektur von etwaigen Streulichteffekten auf Empfangsbereiche (34) einer Empfangsmatrix (32) einer Empfangseinrichtung (26) des LiDAR-Systems (12) bei LiDAR- Messungen mit dem LiDAR-System (12), dadurch gekennzeichnet, dass die Messanlage (50) aufweist wenigstens eine Anordnungsstelle (52) für wenigstens ein LiDAR-System (12), wenigstens eine Referenz-Objektziel (18REF), dessen Position in dem Sichtfeld (58) des wenigstens einen LiDAR-Systems (12) veränderbar ist, und ei- nen für LiDAR-Messungen mit dem LiDAR-System (12) bezogen auf die Reflexion von elektromagnetischen Abtast-Lichtstrahlen (20) neutralen Hintergrund (72), der sich auf der der Anordnungsstelle (52) abgewandten Seite des wenigstens einen Referenz- Objektziels (18REF) befindet.
14. Messanlage nach Anspruch 13, dadurch gekennzeichnet, dass der neutrale Hintergrund (72) wenigstens teilweise vom Himmel realisiert ist und/oder der neutrale Hintergrund (72) wenigstens teilweise durch wenigstens ein Medium realisiert ist, welches eine für elektromagnetische Abtast-Lichtstrahlen (20) bezogen auf LiDAR- Messungen vernachlässigbare Reflektivität aufweist.
15. Messanlage nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass die Messanlage (50) wenigstens einen Antrieb (70) zum Bewegen des wenigstens einen Referenz-Objektziels (18REF) aufweist und/oder die Messanlage (50) wenigstens eine Anlagensteuerung (56) aufweist.
PCT/EP2023/066055 2022-06-20 2023-06-15 Verfahren zur ermittlung wenigstens einer korrekturfunktion für ein lidarsystem, lidar-system, fahrzeug mit wenigstens einem lidar-system, messanlage WO2023247302A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022115267.7A DE102022115267A1 (de) 2022-06-20 2022-06-20 Verfahren zur Ermittlung wenigstens einer Korrekturfunktionen für ein LiDARSystem, LiDAR-System, Fahrzeug mit wenigstens einem LiDAR-System, Messanlage
DE102022115267.7 2022-06-20

Publications (1)

Publication Number Publication Date
WO2023247302A1 true WO2023247302A1 (de) 2023-12-28

Family

ID=87001843

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/066055 WO2023247302A1 (de) 2022-06-20 2023-06-15 Verfahren zur ermittlung wenigstens einer korrekturfunktion für ein lidarsystem, lidar-system, fahrzeug mit wenigstens einem lidar-system, messanlage

Country Status (2)

Country Link
DE (1) DE102022115267A1 (de)
WO (1) WO2023247302A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230333255A1 (en) * 2022-04-14 2023-10-19 Aurora Operations, Inc. Lidar system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180372481A1 (en) * 2017-06-22 2018-12-27 Hexagon Technology Center Gmbh Calibration of a triangulation sensor
US20200072946A1 (en) 2018-08-29 2020-03-05 Sense Photonics, Inc. Glare mitigation in lidar applications
US10972638B1 (en) * 2019-08-23 2021-04-06 Zoox, Inc. Glare correction in sensors

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007046562A1 (de) 2007-09-28 2009-04-02 Siemens Ag Verfahren und Vorrichtung zum Bestimmen eines Abstands mittels eines optoelektronischen Bildsensors
NZ600821A (en) 2009-12-21 2014-04-30 Mesa Imaging Ag Stray light compensation method and system for time of flight camera systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180372481A1 (en) * 2017-06-22 2018-12-27 Hexagon Technology Center Gmbh Calibration of a triangulation sensor
US20200072946A1 (en) 2018-08-29 2020-03-05 Sense Photonics, Inc. Glare mitigation in lidar applications
US10972638B1 (en) * 2019-08-23 2021-04-06 Zoox, Inc. Glare correction in sensors

Also Published As

Publication number Publication date
DE102022115267A1 (de) 2023-12-21

Similar Documents

Publication Publication Date Title
DE102016117444A1 (de) Fahrzeugprüfstand zum Kalibrieren und/oder Testen von Systemen eines Fahrzeugs, die wenigstens eine Kamera umfassen sowie Verfahren zur Durchführung der Kalibrierung und / oder Tests von Systemen eines Fahrzeugs, die wenigstens eine Kamera umfassen
DE102004010197A1 (de) Verfahren zur Funktionskontrolle einer Positionsermittlungs- oder Umgebungserfassungseinrichtung eines Fahrzeugs oder zur Kontrolle einer digitalen Karte
DE102009047303A1 (de) Einrichtung für die Kalibrierung eines Sensors
DE102007004349A1 (de) Nachtsichtsystem, insbesondere für ein Fahrzeug, und Verfahren zum Erstellen eines Nachtsichtbildes
DE102019106129A1 (de) Testeinheit und Verfahren zum Prüfen einer LIDAR-Einheit für ein Fahrzeug
DE102011077333A1 (de) Fahrerassistenzsystem mit Objektdetektion
WO2023247302A1 (de) Verfahren zur ermittlung wenigstens einer korrekturfunktion für ein lidarsystem, lidar-system, fahrzeug mit wenigstens einem lidar-system, messanlage
DE102009007408B4 (de) Vorrichtung zur Umfelderfassung eines Kraftfahrzeugs
DE102018214140A1 (de) LIDAR-Sensor zur optischen Erfassung eines Sichtfeldes, Arbeitsvorrichtung oder Fahrzeug mit einem LIDAR-Sensor und Verfahren zur optischen Erfassung eines Sichtfeldes
WO2021213788A1 (de) Verfahren und vorrichtung zum erkennen von blooming in einer lidarmessung
DE10122664A1 (de) Kalibrierverfahren
DE102011017707A1 (de) Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera
WO2019110206A1 (de) Lidar-system zur umfelderfassung und verfahren zum betreiben eines lidar-systems
WO2018060408A1 (de) Abtasteinheit einer optischen sende- und empfangseinrichtung einer optischen detektionsvorrichtung eines fahrzeugs
DE102020124017A1 (de) Verfahren zum Betreiben einer optischen Detektionsvorrichtung, optische Detektionsvorrichtung und Fahrzeug mit wenigstens einer optischen Detektionsvorrichtung
DE102022115268A1 (de) Verfahren zum Betreiben eines Flash-LiDAR-Systems für ein Fahrzeug, Flash- LiDAR-System und Fahrzeug
WO2023247395A1 (de) Verfahren zum betreiben eines lidar-systems mit streulicht-korrektur, entsprechendes lidar-system und fahrzeug
WO2021023423A1 (de) Lidar-messsystem mit zwei lidar-messvorrichtungen
WO2023247304A1 (de) Verfahren zum betreiben eines lidar-systems, lidar-system und fahrzeug mit wenigstens einem lidar-system
DE102018219420A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Entfernung von zumindest einem Objekt in einem Umfeld eines Fahrzeugs unter Verwendung einer Lasereinheit und einer Kameraeinheit
WO2023247474A1 (de) Verfahren zum betreiben eines lidar-systems, lidar-system und fahrzeug aufweisend wenigstens ein lidar-system
DE102020124023A1 (de) Verfahren zum Detektieren von Objekten und Detektionsvorrichtung
WO2021001339A1 (de) Optische messvorrichtung zur bestimmung von objektinformationen von objekten in wenigstens einem überwachungsbereich
EP3945339A1 (de) Optische detektionsvorrichtung zur überwachung wenigstens eines überwachungsbereichs auf objekte hin und verfahren zum betreiben einer optischen detektionsvorrichtung
DE102022119584A1 (de) Verfahrensüberprüfung eine Ausrichtung wenigstens einer optischen Einrichtung eines LiDAR-Systems, LiDAR-System, Fahrassistenzsystem und Fahrzeug mit wenigstens einem LiDAR-System

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23733901

Country of ref document: EP

Kind code of ref document: A1