WO2023247395A1 - Verfahren zum betreiben eines lidar-systems mit streulicht-korrektur, entsprechendes lidar-system und fahrzeug - Google Patents

Verfahren zum betreiben eines lidar-systems mit streulicht-korrektur, entsprechendes lidar-system und fahrzeug Download PDF

Info

Publication number
WO2023247395A1
WO2023247395A1 PCT/EP2023/066363 EP2023066363W WO2023247395A1 WO 2023247395 A1 WO2023247395 A1 WO 2023247395A1 EP 2023066363 W EP2023066363 W EP 2023066363W WO 2023247395 A1 WO2023247395 A1 WO 2023247395A1
Authority
WO
WIPO (PCT)
Prior art keywords
reception
received
matrix
areas
short
Prior art date
Application number
PCT/EP2023/066363
Other languages
English (en)
French (fr)
Inventor
Hansjoerg Schmidt
Johannes Michael
Christoph Parl
Thorsten BEUTH
Original Assignee
Valeo Detection Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Detection Systems GmbH filed Critical Valeo Detection Systems GmbH
Publication of WO2023247395A1 publication Critical patent/WO2023247395A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • G01S7/4866Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak by fitting a model or function to the received signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • G01S7/4876Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Definitions

  • the invention relates to a method for operating a LiDAR system, in particular a flash LiDAR system, in particular a LiDAR system for a vehicle, in which at least one electromagnetic scanning beam is sent into at least one monitoring area using at least one transmitting device of the LiDAR system, at least one electromagnetic reception beam coming from the at least one monitoring area, which originates from the at least one scanning beam reflected on at least one object target, is received in at least one of several reception areas of a reception matrix of a reception device of the LiDAR system, the received part of the at least one reception beam in at least a reception variable is converted, which is assigned to the at least reception area in which the part of the at least one reception beam is received, and any scattered light effects which act on at least part of the reception areas are corrected.
  • the invention further relates to a LiDAR system, in particular a flash LiDAR system, in particular a LiDAR system for a vehicle, with at least one transmitting device for transmitting electromagnetic scanning beams into at least one monitoring area, at least one receiving device, which comprises at least one receiving matrix, which has several Reception areas for receiving reception beams coming from the at least one monitoring area, coming from reflected scanning beams and for converting them into respective reception sizes, and with means for correcting any scattered light effects that can act on reception areas.
  • a LiDAR system in particular a flash LiDAR system, in particular a LiDAR system for a vehicle, with at least one transmitting device for transmitting electromagnetic scanning beams into at least one monitoring area, at least one receiving device, which comprises at least one receiving matrix, which has several Reception areas for receiving reception beams coming from the at least one monitoring area, coming from reflected scanning beams and for converting them into respective reception sizes, and with means for correcting any scattered light effects that can act on reception areas.
  • the invention further relates to a vehicle having at least one LiDAR system, in particular at least one flash LiDAR system, with at least one transmitting device for sending electromagnetic scanning beams into at least one monitoring area, with at least one receiving device, which comprises at least one receiving matrix, which has a plurality of receiving areas for receiving received beams coming from the at least one monitoring area and originating from reflected scanning beams and for converting them into respective received variables, and with means for correcting any scattered light effects that can act on receiving areas .
  • LiDAR system in particular at least one flash LiDAR system
  • transmitting device for sending electromagnetic scanning beams into at least one monitoring area
  • at least one receiving device which comprises at least one receiving matrix, which has a plurality of receiving areas for receiving received beams coming from the at least one monitoring area and originating from reflected scanning beams and for converting them into respective received variables, and with means for correcting any scattered light effects that can act on receiving areas .
  • a computing device in a vehicle which can be programmed so that it collects data about the external environment of the vehicle and uses the data to determine trajectories with which a vehicle can move from a current location, for example can be controlled to a destination.
  • Data may include images captured by sensors in the vehicle while a scene visible to the sensor is illuminated with electromagnetic radiation.
  • active illumination sensors include RADAR, LIDAR and video sensors in the visible and infrared (IR) ranges. Collecting data from active lighting sensors while a scene is illuminated can provide data that allows a computing device to operate a vehicle in various environmental conditions, such as at night or other low-light conditions.
  • Described herein is a method that includes acquiring a first image of a scene without active illumination, acquiring a second image of the scene while simultaneously illuminating the scene, identifying pixel blooming in a subtracted image obtained by subtracting the first image from the second image is determined, eliminating pixel blooming based on empirically given parameters and operating a vehicle based on the subtracted image.
  • the invention is based on the object of designing a method, a LiDAR system and a vehicle of the type mentioned at the outset, in which scattered light effects affecting reception areas can be corrected better, in particular more efficiently and/or more precisely.
  • the object is achieved in the method in that of the same scene in the at least one monitoring area with at least part of the reception areas, at least one short measurement and at least one long measurement is carried out, the at least one short measurement being carried out with a short integration period, during which the at least one reception beam coming from the at least one monitoring area is received with the corresponding reception areas in at least one recording time range and converted into corresponding short reception variables, and wherein the at least one long measurement is carried out with a long integration period that is greater than the short integration period, during which the at least one of the at least a reception beam coming from a monitoring area is received in the at least one recording time range and converted into corresponding long reception quantities, for the at least one recording time range, for at least one of the reception areas, a final reception quantity as the difference between the long reception quantity and at least one using the short reception quantities Part of the reception areas weighted at least one model function is determined.
  • At least one short measurement and at least one long measurement are carried out from the same scene.
  • the short received variables, which are determined in the at least one short measurement are used to weight at least one model function.
  • the weighting is used to adapt the at least one model function, which characterizes the ability of the receiving device to be influenced by scattered light effects, to the irradiation situation of the captured scene.
  • the differences between the long reception variables, which are determined in the at least one long measurement, and the weighted at least one model function are used as final reception variables.
  • the invention can be used to combine a comprehensive, in particular global, scattered light correction, in particular a global blooming correction, which affects the entire reception matrix, and a local scattered light correction, in particular a local blooming correction, which affects the individual reception areas.
  • reception quantities which are referred to below as short reception quantities for better differentiation, are determined that are above the noise.
  • the shorter integration duration allows the reception variables for the reception areas hit by strong reception beams, which would be oversaturated or overexposed with longer integration durations, to be determined. Furthermore, the reception areas that are hit by strong reception beams can be identified.
  • reception quantities which are referred to below as long reception quantities for the sake of better differentiation are also determined from those reception areas that are hit by weaker reception beams, which lie above the noise.
  • the short measurements and the long measurements are carried out for the same scene in the monitoring area.
  • the same scene can be almost the same scene, especially at a low speed of the LiDAR system, especially the vehicle.
  • the corresponding distance size can be determined for each affected reception area, which characterizes the distance of the detected object target to the reception area, which reflects the reception beams that hit the corresponding reception area.
  • measurements with a LiDAR system use correspondingly long integration times to detect the received beams with the received areas.
  • the use of LiDAR systems with long integration times can lead to oversaturation of reception areas that are hit by reception beams originating from highly reflective, especially retroreflective, object targets.
  • the reception beams reflected on highly reflective objects also lead to distortions in all other reception areas of the reception matrix, in particular due to reflections of strong reception beams on surfaces. passages of media, for example optical lenses, in the optical path of the receiving device, in particular the receiving matrix. This distortion can be referred to as blooming or glare. Blooming signals lead to errors when determining distance sizes for object targets in surveillance areas with highly reflective object targets.
  • the distance sizes of normally or weakly reflective object targets in surveillance areas with highly reflective object targets are distorted in the direction of the distance sizes of the highly reflective object targets.
  • highly reflective objects such as traffic signs with retroreflective properties, and weaker reflective objects, such as pedestrians, obstacles such as walls, or the like
  • reception beams from highly reflective objects, in particular retroreflective objects can be smeared across the reception matrix, in particular due to internal reflections, in particular in the optical reception path and/or due to optical crosstalk in the reception device.
  • a final reception quantity can be determined for at least one of the reception areas as the difference between the long reception quantity and a short reception quantity which has been adjusted for noise.
  • At least one model function can be determined using weighted reception variables of at least part of the reception areas. By removing noise from the short received variables, a signal-to-noise ratio can be improved, particularly for the final received variables.
  • electromagnetic scanning beams can be sent in the form of electromagnetic scanning signals with the at least one transmitting device. Additional information, in particular coding or the like, can be transmitted using scanning signals.
  • the LiDAR system can advantageously be designed as a flash LiDAR system.
  • a flash LiDAR system is a LiDAR system in which each transmitted scanning beam - similar to a flash - illuminates the entire surveillance area.
  • the LiDAR system can advantageously have a processor device, in particular an electronic control and evaluation device, with which the LiDAR system can be controlled, received variables can be processed and scattered light effects can be corrected.
  • the short reception variables can be reduced by any noise in the corresponding reception areas before they are added. In this way, the influence of the actual beam reception on the model function can be determined more precisely.
  • the at least one model function in particular respective model variables, can be determined in advance for the receiving device.
  • the at least one model function, in particular respective model sizes can be stored in corresponding storage media, in particular of the LiDAR system. In this way, the at least one model function, in particular the respective model sizes, can be accessed more quickly.
  • At least one amplitude-modulated scanning beam can be generated and sent into the at least one monitoring area, the at least one reception beam coming from the at least one monitoring area can be converted into respective reception variables with the reception areas in at least two recording time ranges, at least two of the recording time ranges are started out of phase with respect to a modulation period of the at least one scanning beam, at least one short measurement and at least one long measurement are carried out in at least two recording time ranges and the final reception variables for the corresponding reception ranges are determined for the at least two recording time ranges.
  • an indirect time-of-flight method can be implemented. From the distance variables, distance variables which characterize distances from object targets relative to the LiDAR system can be determined.
  • the at least two phase-shifted recording time ranges can have a respective phase shift relative to a reference event, in particular relative to a reference event of the at least one scanning beam, in particular relative to an intensity minimum of the at least one scanning beam and/or a zero crossing of an electrical transmission signal which a beam source of the transmitting Device for generating the at least one scanning beam can be controlled, started and / or four recording time ranges with phase shifts of 0 °, 90 °, 180 ° and 270 ° compared to a reference event, in particular compared to a reference event of the at least one scanning beam, in particular compared to an intensity Minimum of the at least one scanning beam and / or a zero crossing of an electrical transmission signal, with which a beam source of the transmitting device is controlled to generate the at least one scanning beam, are started.
  • scattered light effects can be corrected which are caused by scanning beams which are directed at highly reflective object targets, in particular retroreflective object targets, in the at least reflected in a surveillance area.
  • the determination of distance variables that characterize distances from object targets from which reception beams hit reception areas which are adjacent to the reception areas on which strong reception beams from highly reflective object targets, in particular retroreflective object targets, hit can be improved. Due to the scattered light effects, which are caused by received beams that are reflected on highly reflective object targets, in particular retroreflective object targets, without the correction according to the invention, the distance sizes for less strongly reflective object targets are incorrectly shifted towards the distance sizes of the highly reflective, in particular retroreflective object targets.
  • the short integration period can be set so that only the most highly reflective object targets, in particular retroreflective object targets, in the scene lead to a short reception quantity that can be distinguished from noise in the at least one recording time range. In this way, those reception areas that are hit by strong reception beams can be localized.
  • the length of the short integration period can be chosen so that even strong received beams from retroreflective object targets do not lead to overloading in the reception matrix.
  • the short integration period can advantageously be set to approximately 1 ps.
  • the at least one model function can be specified for detecting retroreflective object targets that usually occur in the at least one monitoring area during operation of the LiDAR system, in particular the LiDAR system of the vehicle. In this way, the LiDAR system can be optimized for scenes that commonly occur.
  • the at least one model function can be specified for detecting retroreflective road signs or road markings.
  • the LiDAR system can be set for use in road traffic, in particular for use in a vehicle.
  • a distance variable can be determined for at least one reception area from at least a part of the final reception variables belonging to this reception area, which characterizes a respective distance of an object target detected with the at least one reception area, and / or for at least one reception area, which is hit by received beams of an object target, at least one directional variable characterizing the direction of the reflecting object target relative to the LiDAR system can be determined from a position of this reception area within the reception matrix. In this way, distances and/or directions of detected object targets can be determined relative to the LiDAR system.
  • a distance image of the surveillance area can be created, in which the distances of object targets can be displayed with spatial resolution.
  • the at least one reception beam coming from the at least one monitoring area can be received with reception areas of a one-dimensional, in particular line-shaped, reception matrix, or with reception areas of a two-dimensional, in particular area-shaped, reception matrix. In this way, directions of detected object targets can be determined relative to the LiDAR system.
  • the at least one reception beam can be received with reception areas of a one-dimensional reception matrix.
  • the at least one monitoring area with any object targets can be recorded in a spatially resolved manner in one dimension, in particular in azimuth.
  • the at least one reception beam can be received with reception areas of a two-dimensional reception matrix.
  • the at least one monitoring area can thus be recorded with spatial resolution in two dimensions, in particular in azimuth and elevation.
  • the LiDAR system has means with which at least one short measurement and at least one long measurement can be carried out from the same scene in the at least one monitoring area with at least part of the reception areas.
  • the at least one short measurement can be carried out with a short integration period, during which the at least one reception beam coming from the at least one monitoring area can be received with the corresponding reception areas in at least one recording time range and converted into corresponding short reception quantities.
  • the at least one long measurement can be carried out with a long integration period that is greater than the short integration period, during which the at least one reception beam coming from the at least one monitoring area can be received in the at least one recording time range and converted into corresponding long reception variables .
  • a final reception quantity can be determined for at least one of the reception areas as the difference between the long reception quantity and at least one model function weighted by means of the short reception quantities of at least part of the reception areas.
  • the means for carrying out the method according to the invention can be implemented using software and/or hardware. In this way, existing resources can also be used. Furthermore, the object is achieved according to the invention in the vehicle in that the vehicle has means for carrying out the method according to the invention.
  • At least one monitoring area in the surroundings of the vehicle and/or in the interior of the vehicle can be monitored for object targets.
  • distances to detected object targets, or distance sizes can be determined.
  • the vehicle has means for carrying out the method according to the invention.
  • at least one LiDAR system of the vehicle can have means for carrying out the method according to the invention. Since the at least one LiDAR system is part of the vehicle, the means of the at least one LiDAR system for carrying out the method according to the invention are also part of the vehicle, i.e. also means of the vehicle.
  • the vehicle can have at least one driving assistance system.
  • the vehicle can be operated autonomously or at least partially autonomously.
  • At least one LiDAR system can be functionally connected to at least one driver assistance system of the vehicle.
  • information about the at least one monitoring area, in particular distance variables and/or directional variables, which can be determined with the at least one LiDAR system can be transmitted to the at least one driver assistance system.
  • the vehicle With the at least one driver assistance system, the vehicle can be operated autonomously or at least partially autonomously, taking into account the information about the at least one monitoring area.
  • Figure 2 shows a functional representation of a part of the vehicle with the driver assistance system and the flash LiDAR system from Figure 1;
  • Figure 3 shows a front view of a reception matrix of a reception device of the Flash LiDAR system from Figures 1 and 2, the reception matrix having a plurality of reception areas arranged over a surface;
  • Figure 6 is a distance image of the scene from Figure 5, where the retroreflective street sign is not covered and leads to scattered light effects;
  • FIG. 7 shows a flowchart for determining a correction matrix for the phase image DCSo from a product of a model matrix with the sum of short received variables of a short received variable matrix from a short measurement solution, wherein the short received size matrix, the correction matrix in the model matrix are each shown in a three-dimensional representation;
  • Figure 8 shows the flow chart from Figure 7 for the reception areas of a row of the reception matrix
  • Figure 9 shows a flowchart for determining a final received size matrix for the phase image DCSo as a difference from a long received size matrix from a long measurement and the correction matrix from Figure 7, the final received size matrix, the long received size matrix and the correction matrix each in a three-dimensional representation are shown;
  • a vehicle 10 is shown as an example in the form of a passenger car in the front view.
  • Figure 2 shows a functional representation of a part of the vehicle 10.
  • the vehicle 10 has a LiDAR system 12, which is designed as a flash LiDAR system.
  • the LiDAR system 12 is, for example, arranged in the front bumper of the vehicle 10.
  • a monitoring area 14 in the direction of travel 16 in front of the vehicle 10 can be monitored for objects 18.
  • the LiDAR system 12 can also be arranged elsewhere on the vehicle 10 and aligned differently.
  • object information for example received variables D, directional variables and speeds, can be determined, which characterize distances, directions and speeds of objects 18 relative to the vehicle 10 or to the LiDAR system 12.
  • the objects 18 can be stationary or moving objects, for example other vehicles, people, animals, plants, obstacles, bumps in the road, for example potholes or stones, road boundaries, traffic signs, open spaces, for example parking spaces, precipitation or the like.
  • Each object 18 usually has several object targets 19.
  • An object target 19 is a location on an object 18 at which electromagnetic scanning beams in the form of transmitted light signals 20, which are sent from the LiDAR system 12 into the monitoring area 14, can be reflected.
  • the control and evaluation device 28 is, for example, an electronic control and evaluation device.
  • the control and evaluation device 28 can, for example, have processor means, memory means or the like.
  • the functions and/or means of the control and evaluation device 28 can be implemented centrally or decentrally using software and/or hardware. Parts of the functions and/or means of the control and evaluation device 28 can also be integrated in the transmitting device 24 and/or the receiving device 26.
  • the transmitting device 24 has, for example, a laser as a light source.
  • the laser can be used to generate transmitted light signals 20 in the form of laser pulses.
  • the transmitting device 24 has an optical device with which the transmitted light signals 20 are expanded so that they can spread into the entire monitoring area 14 - similar to a flash light. In this way, the entire monitoring area 14 can be illuminated with each transmitted light signal 20.
  • Transmitted light signals 20 reflected on an object 18 in the direction of the receiving device 26 can be received with the receiving device 26.
  • the reflected transmission signals 20 are referred to below as received light signals 30 for better distinction.
  • reception variables Ao, Ai, A2 and A3 designated in FIG.
  • the received variables can also be referred to as “Ai” below.
  • the received variables Ao, Ai, A2 and A3 are the amplitudes of phase images (differential correlation samples) DCSo, DCS1, DCS2 and DCS3.
  • the phase images can For the sake of simplicity, we will also refer to it as “DCSi” in the following.
  • Each reception area 34 can be activated via suitable closure means for the detection of received light signals 30 for defined recording time ranges TBo, TBi, TB2 and TB3.
  • the recording time ranges can also be referred to as “TBi” below.
  • the receiving device 26 can optionally have optical elements with which received light signals 30 coming from the monitoring area 14 are imaged onto respective receiving areas 34 when viewed in the direction of the receiving areas 34, depending on the direction from which they come.
  • a directional variable characterizing the direction of an object target 19 on which the transmitted light signal 20 is reflected can thus be determined from the position of the illuminated reception areas 34 within the reception matrix 32.
  • FIG. 4 shows a modulation period MP of a reception envelope 36 of the phase images DCSo, DCSi, DCS2 and DCS3 in a common signal strength-time diagram.
  • the signal strength axis is labeled “S” and the time axis is labeled “t”.
  • the distance of the reflecting object 18 or the reflected object target 19 can be determined from the phase difference.
  • the phase shift 0 can therefore also be used as a distance variable for the distance.
  • the flight time is known to be proportional to the distance of the object 18, or the object target 19, relative to the LiDAR system 12.
  • the reception envelope 36 can be approximated by, for example, four support points in the form of the four phase images DCSo, DCS1, DCS2 and DCS3. Alternatively, the reception envelope 36 can also be approximated by more or fewer support points in the form of phase images.
  • the recording time ranges TBo, TB1, TB2 and TB3 are each based on a reference renz event started, for example, in the form of a trigger signal for the electrical transmission signal at the starting time ST.
  • the reference event can, for example, be a zero crossing of the electrical signal with which the laser is controlled to generate the transmitted light signal 20.
  • the modulation period MP of the transmitted light signal 20 extends over 360°.
  • the recording time ranges TBo, TBi, TB 2 and TB3 each start at a distance of 90° from one another in relation to the modulation period MP.
  • the recording time ranges TBo, TB1, TB2 and TB3 start with phase shifts of 0°, 90°, 180° and 270°, respectively, compared to the starting time ST.
  • the object targets 19 of several objects 18 are shown in the distance image.
  • a retroreflective object 18R in the form of a street sign and another normally reflective object 18N are provided with reference numbers.
  • the designated retroreflective object 18R in the scene shown in FIG. 5 is provided with a normally reflective cover.
  • Figure 6 is the same scene as shown in Figure 5. Here, however, the cover of the retroreflective object 18R is removed.
  • the received light signals 30 reflected on the highly reflective objects 1 8R also lead to a falsification of the signals of all reception areas 34 of the reception matrix 32, for example due to reflections of strong received light signals 30 at transitions of media, for example optical lenses, in the optical path of the receiving device 26, in particular the reception matrix 32.
  • This distortion is referred to as blooming or glare. Blooming leads to an error in determining the distance sizes D for objects 18 in the entire distance image.
  • the distance sizes D of the normally or weakly reflecting objects 18N are falsified in the direction of the distance size D of the strongly reflecting objects 18R.
  • the scattered light effects caused by highly reflective objects 1 8R can be corrected.
  • the correct distance variables D can also be determined for weakly or normally reflecting objects 1 8N in a distance image in which strongly reflecting, for example retroreflective objects 1 8R are contained.
  • both a short measurement and a long measurement are carried out of the same scene in the monitoring area 14 with the reception areas 34.
  • the short reception variables Ao,k, Ai,k, A2,k and As,k are assigned to one of four data sets according to their respective recording time range TBo, TB1, TB2 and TB3.
  • the data sets are shown by way of example in the form of short received size matrices 4Oo, 40i, 402 and 403.
  • the short reception variables Ao,k, Ai,k, A2,k and As,k shown have been determined in the corresponding reception area 34, for example the reception area 34 in row 75, column 250.
  • the part of the reception areas 34 that is hit with a received light signal 30 coming from the highly reflective object 1 8R is each designated by the reference number 1 8R.
  • each of the short reception size matrices 4Oo, 40i, 402, 403 contains as many short reception sizes Ao,k, Ai,k, A2,k and As.k as the reception matrix 32 contains reception areas 34, namely 320 x 240.
  • the respective Short reception variables Ao,k, Ai,k, A2,k and As,k are visualized, for example, as intensities INT using grayscale.
  • the corresponding grayscale scale is shown to the right of the short reception size matrices 4Oo, 40i, 402, 403.
  • the representation in Figure 7 above is merely an exemplary visualization of the short reception size matrices 40i.
  • the short reception size matrices 40i are actually data sets, for example in the form of tuples, the number of which corresponds to the number of reception areas 34 of the reception matrix 32, namely 320 x 240.
  • Each tuple contains at least one assignment variable, for example coordinates, which enables the assignment to the corresponding reception area 34, and the short reception variable Ai,k assigned to the corresponding reception area 34.
  • the long measurement is carried out with a long integration period that is longer than the short integration period.
  • the length of the long integration period is chosen so that the received light signals 30 from the normally or weakly reflecting objects 1 8N lead to signals on the side of the correspondingly illuminated reception areas 34, which can be distinguished from noise.
  • the long integration period is approximately 1000 ps.
  • the respective received portion of the received light signals 30 is converted into the four long reception variables Ao.i, Au, A2,I and Aa,i corresponding to the respective recording time ranges TBo, TBi, TB2 and TB3.
  • the long reception variables Ao.i, Ai,i, A2,I and Aa,i are assigned to the respective reception area 34.
  • the long reception variables Ao,i, Ai,i, A2,I and Aa,i can also be referred to below as “Ai,i”.
  • each of the long reception size matrices 46o, 46i, 462, 463 analogous to the short reception size matrices 4Oo, 40i, 402, 403 from Figure 7 above, only one of the long reception sizes Ao,i, Au, A21 and As.i provided with a reference number.
  • the long reception quantities shown are Ao,i, Au, A2,I and A3,I have been determined in the reception area 34, for example the reception area 34 in row 75, column 250.
  • the part of the reception areas 34 that is hit with a received light signal 30 coming from the highly reflective object 1 8R is each designated by the reference number 1 8R.
  • each of the long reception size matrices 46o, 46i, 462, 463 contains as many long reception sizes Ao,i, Au, A21 and A3,I as the reception matrix 32 reception areas 34 and the short reception size matrices 4Oo, 40i, 402, 403 short -Reception sizes Ao,k, Ai,k, A2,k and As,k, namely 320 x 240.
  • the respective long reception sizes Ao,i, Au, A2,I and A3,I are visualized, for example, as intensities INT using grayscale .
  • the corresponding grayscale scale is shown to the right of the long reception size matrices 46o, 46i, 462, 463.
  • the representation in Figure 9 above is merely an exemplary visualization of the long reception size matrices 46i.
  • the long reception size matrices 46i like the short reception size matrices 40i, are actually data sets, for example in the form of a group of tuples, the number of which corresponds to the number of reception areas 34 of the reception matrix 32, namely 320 x 240.
  • Each tuple contains at least one assignment variable, for example coordinates, which enables the assignment to the corresponding reception area 34, and the long reception variable Ai,l assigned to the corresponding reception area 34.
  • a final reception quantity Ai, e designated in Figure 9 below, for the reception areas 34 as the difference between the long reception quantity Ai,i and one by means of
  • the model function weighted by the short reception variables Ai, k of the reception areas 34 is determined, for example, in the form of a model matrix 42.
  • FIG. 7 shows, from top to bottom, a flowchart for weighting the model matrix 42 as an example for the short received size matrix 4Oo.
  • Figure 8 shows the corresponding flow chart for weighting the model matrix 42 for the reception areas 34 along the row 75 of the reception matrix 32.
  • the four short reception size matrices 4Oo, 40i, 402, 403 are shown for a scene which is similar to the scene shown in Figures 5 and 6, after a short measurement.
  • model function is shown as an example as a model matrix 42 in a three-dimensional grid representation.
  • the model matrix 42 contains a model data set consisting of a total of 320 x 240 model sizes M, which are each assigned to the reception areas 34. As an example, only one of the model sizes M is provided with a reference number. 7, the values for the model sizes M are between 1 and 2.
  • the model matrix 42 characterizes the ability to influence the individual reception areas 34 through scattered light effects on the reception matrix 32.
  • the model matrix 42 for the LiDAR system 12 is created in advance, for example determined at the end of the production line of the LiDAR system 12.
  • the model matrix 42, or the model data set can be stored, for example, in a storage medium of the LiDAR system 12.
  • the model function can be, for example, a parabolic function.
  • the model function can be implemented, for example, as a model data set in the form of tuples with column values, numerical values and model sizes.
  • the model matrix 42 is multiplied by the sum SUM of the short received variables Ai,k, for example the short received variables Ao,k, of all reception areas 34 of the corresponding short received variable matrix 4Oo, for example the short received variable matrix 4Oo.
  • Figure 7 shows the resulting correction matrix 44i, for example the correction matrix 44o.
  • the short reception variables Ai characterize the light signals received with the respective reception areas 34 above the noise.
  • the long reception variables Ao.i, Au, A2,I and Aa.i are formed as the difference from the long reception variable Ao.i, Ai,i, A21 or Aa.i and the correction variable Ko, Ki, K2 or K3, which corresponds to the reception area 34 and the recording time range TBo, TBi, TB2 and TB3 correspond to the corresponding long reception size Ao,i, Ai,i, A21 and As,i, respectively.
  • the final reception variables Ao,e, Ai, e , A2,e and As,e can also be referred to below as final reception variables Ai, e .
  • the final reception quantities Ao,e, Ai, e , A2, e, As,e are assigned to one of four final reception quantity matrices 48o, 48i, 482 and 483, respectively, according to their respective recording time ranges TBo, TB1, TB2 and TB3, which are described below For simplicity, they can also be referred to as final reception size matrices 48i.
  • the final reception variables Ao,e, Ai, e , A2,e, As,e are also assigned to the corresponding reception areas 34 and the corresponding recording time ranges TBo, TB1, TB2 and TB3, which correspond to the short reception variables Ao,k used , Ai,k, A2,k and As,k correspond.
  • the representation in Figure 9 below is merely an exemplary visualization of the final received size matrices 48i.
  • the final reception size matrices 48i are actually data sets, for example in the form of a group of tuples, the number of which corresponds to the number of reception areas 34 of the reception matrix 32, namely 320 x 240.
  • Each tuple contains at least one assignment variable, for example coordinates, which enables the assignment to the corresponding reception area 34, and the final reception variable Ai, e assigned to the corresponding reception area 34.
  • 10 above shows an example of a profile of the row 75 of the long reception size matrix 46o from FIG. 9.
  • Figure 10 shows a profile of row 75 of correction matrix 44o in the middle.
  • Figure 10 below shows a profile of row 75 of the final received size matrix 48o.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Es wird ein Verfahren zum Betreiben eines LiDAR-Systems beschrieben. Bei dem Verfahren wird wenigstens ein elektromagnetischer Abtaststrahl mit wenigstens einer Sendeeinrichtung in einen Überwachungsbereich gesendet. Wenigstens ein aus dem Überwachungsbereich kommender elektromagnetischer Empfangsstrahl, welcher von dem an einem Objektziel reflektierten Abtaststrahl herrührt, wird in wenigstens einem von mehreren Empfangsbereichen einer Empfangsmatrix einer Empfangseinrichtung des LiDAR-Systems empfangen. Der empfangene Teil des Empfangsstrahls wird in wenigstens eine Empfangsgröße (A0,k, A1,k, A2,k, A3,k) umgewandelt, welche dem Empfangsbereich zugeordnet wird. Etwaige Streulichteffekte, welche auf wenigstens einen Teil der Empfangsbereiche wirken, werden korrigiert. Von der gleichen Szene in dem Überwachungsbereich wird mit wenigstens einem Teil der Empfangsbereiche wenigstens eine Kurzmessung und wenigstens eine Langmessung durchgeführt. Die Kurzmessung wird mit einer Kurz-Integrationsdauer durchgeführt, während der der Empfangsstrahl mit den entsprechenden Empfangsbereichen in wenigstens einem Aufnahmezeitbereich empfangen und in entsprechende Kurz-Empfangsgrößen (A0,k, A1,k, A2,k, A3,k) umgewandelt wird. Die Langmessung wird mit einer Lang-Integrationsdauer durchgeführt, während der der Empfangsstrahl in dem Aufnahmezeitbereich empfangen und in entsprechende Lang-Empfangsgrößen umgewandelt wird. Für den Aufnahmezeitbereich wird jeweils für wenigstens einen der Empfangsbereiche eine End-Empfangsgröße als Differenz aus der Lang-Empfangsgröße und einer mittels der Kurz-Empfangsgrößen (A0,k, A1,k, A2,k, A3,k) wenigstens eines Teils der Empfangsbereiche gewichteten wenigstens einen Modellfunktion (42) ermittelt.

Description

Beschreibung
VERFAHREN ZUM BETREIBEN EINES LIDAR-SYSTEMS MIT STREULICHT-KORREKTUR, ENTSPRECHENDES LIDAR-SYSTEM UND FAHRZEUG
Technisches Gebiet
Die Erfindung betrifft ein Verfahren zum Betreiben eines LiDAR-Systems, insbesondere eines Flash-LiDAR-Systems, insbesondere eines LiDAR-Systems für ein Fahrzeug, bei dem wenigstens ein elektromagnetischer Abtaststrahl mit wenigstens einer Sendeeinrichtung des LiDAR-Systems in wenigstens einen Überwachungsbereich gesendet wird, wenigstens ein aus dem wenigstens einen Überwachungsbereich kommender elektromagnetische Empfangsstrahl, welcher von dem wenigstens einen an wenigstens einem Objektziel reflektierten Abtaststrahl herrührt, in wenigstens einem von mehreren Empfangsbereichen einer Empfangsmatrix einer Empfangseinrichtung des LiDAR-Systems empfangen wird, der empfangene Teil des wenigstens einen Empfangsstrahls in wenigstens eine Empfangsgröße umgewandelt wird, welche dem wenigstens Empfangsbereich zugeordnet wird, in dem der Teil des wenigstens einen Empfangsstrahls empfangen wird, und etwaige Streulichteffekte, welche auf wenigstens einen Teil der Empfangsbereiche wirken, korrigiert werden.
Ferner betrifft die Erfindung ein LiDAR-System, insbesondere Flash-LiDAR-System, insbesondere LiDAR-System für ein Fahrzeug, mit wenigstens einer Sendeeinrichtung zum Senden von elektromagnetischen Abtaststrahlen in wenigstens einen Überwachungsbereich, wenigstens einer Empfangseinrichtung, die wenigstens eine Empfangsmatrix umfasst, welche mehrere Empfangsbereiche zum empfangen von aus dem wenigstens einen Überwachungsbereich kommenden, von reflektierten Abtaststrahlen stammenden Empfangsstrahlen und zum Umwandeln in jeweilige Empfangsgrößen aufweist, und mit Mitteln zur Korrektur etwaiger Streulichteffekte, welche auf Empfangsbereiche wirken können.
Des Weiteren betrifft die Erfindung ein Fahrzeug, aufweisend wenigstens ein LiDAR- System, insbesondere wenigstens ein Flash-LiDAR-System, mit wenigstens einer Sendeeinrichtung zum Senden von elektromagnetischen Abtaststrahlen in wenigstens einen Überwachungsbereich, mit wenigstens einer Empfangseinrichtung, die wenigstens eine Empfangsmatrix umfasst, welche mehrere Empfangsbereiche zum empfangen von aus dem wenigstens einen Überwachungsbereich kommenden, von reflektierten Abtaststrahlen stammenden Empfangsstrahlen und zum Umwandeln in jeweilige Empfangsgrößen aufweist, und mit Mitteln zur Korrektur etwaiger Streulichteffekte, welche auf Empfangsbereiche wirken können.
Stand der Technik
Aus der US 10.593.029 B2 ist eine Rechenvorrichtung in einem Fahrzeug bekannt, die so programmiert werden kann, dass sie Daten über die äußere Umgebung des Fahrzeugs erfasst und die Daten zur Bestimmung von Trajektorien verwendet, mit denen ein Fahrzeug beispielsweise von einem aktuellen Standort zu einem Zielort gesteuert werden kann. Zu den Daten können Bilder gehören, die von Sensoren im Fahrzeug erfasst werden, während eine für den Sensor sichtbare Szene mit elektromagnetischer Strahlung beleuchtet wird. Zu diesen aktiven Beleuchtungssensoren gehören RADAR, LIDAR und Videosensoren im sichtbaren und im Infrarotbereich (IR). Die Erfassung von Daten von aktiven Beleuchtungssensoren, während eine Szene beleuchtet wird, kann Daten liefern, die es einer Rechenvorrichtung ermöglichen, ein Fahrzeug unter verschiedenen Umgebungsbedingungen zu betreiben, beispielsweise bei Nacht oder anderen schlechten Lichtverhältnissen. Hierin wird ein Verfahren beschrieben, das die Erfassung eines ersten Bildes einer Szene ohne aktive Beleuchtung, die Erfassung eines zweiten Bildes der Szene bei gleichzeitiger Beleuchtung der Szene, die Identifizierung von Pixelblooming in einem subtrahierten Bild, das durch Subtraktion des ersten Bildes von dem zweiten Bild bestimmt wird, die Beseitigung des Pixelblooming auf der Grundlage empirisch vorgegebener Parameter und den Betrieb eines Fahrzeugs auf der Grundlage des subtrahierten Bildes umfasst.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren, ein LiDAR-System und ein Fahrzeug der eingangs genannten Art zu gestalten, bei denen auf Empfangsbereiche etwa wirkende Streulichteffekte besser, insbesondere effizienter und/oder genauer, korrigiert werden können.
Offenbarung der Erfindung
Die Aufgabe wird erfindungsgemäß bei dem Verfahren dadurch gelöst, dass von der gleichen Szene in dem wenigstens einen Überwachungsbereich mit wenigstens einem Teil der Empfangsbereiche wenigstens eine Kurzmessung und wenigstens eine Langmessung durchgeführt wird, wobei die wenigstens eine Kurzmessung mit einer Kurz-Integrationsdauer durchgeführt wird, während der der wenigstens eine aus dem wenigstens einen Überwachungsbereich kommende Empfangsstrahl mit den entsprechenden Empfangsbereichen in wenigstens einem Aufnahmezeitbereich empfangen und in entsprechende Kurz- Empfangsgrößen umgewandelt wird, und wobei die wenigstens eine Langmessung mit einer Lang-Integrationsdauer, die größer ist als die Kurz-Integrationsdauer, durchgeführt wird, während der der wenigstens eine aus dem wenigstens einen Überwachungsbereich kommende Empfangsstrahl in dem wenigstens einen Aufnahmezeitbereich empfangen und in entsprechende Lang- Empfangsgrößen umgewandelt wird, für den wenigstens einen Aufnahmezeitbereich jeweils für wenigstens einen der Empfangsbereiche eine End-Empfangsgröße als Differenz aus der Lang-Empfangsgröße und einer mittels den Kurz-Empfangsgrößen wenigstens eines Teils der Empfangsbereiche gewichteten wenigstens einen Modellfunktion ermittelt wird.
Erfindungsgemäß werden von der gleichen Szene wenigstens eine Kurzmessung und wenigstens eine Langmessung durchgeführt. Die Kurz-Empfangsgrößen, welche bei der wenigstens einen Kurzmessung ermittelt werden, werden zur Gewichtung wenigstens einer Modellfunktion verwendet. Durch die Gewichtung wird die wenigstens eine Modellfunktion, welche die Beeinflussbarkeit der Empfangseinrichtung durch Streulichteffekte charakterisiert, an die Bestrahlungssituation der erfassten Szene angepasst. Die Differenzen aus den Lang-Empfangsgrößen, welche bei der wenigstens einen Langmessung ermittelt werden, und der gewichteten wenigstens einen Modellfunktion werden als End-Empfangsgrößen verwendet. Insgesamt können mit der Erfindung eine umfassende, insbesondere globale Streulicht-Korrektur, insbesondere eine globale Blooming-Korrektur, welche die gesamte Empfangsmatrix betrifft, und eine lokale Streulicht-Korrektur, insbesondere eine lokale Blooming-Korrektur, welche die einzelnen Empfangsbereiche betrifft, kombiniert werden.
Bei den Kurzmessungen mit der Kurz-Integrationsdauer werden nur von denjenigen Empfangsbereichen, welche von starken Empfangsstrahlen, insbesondere von Emp- fangsstrahlen, die von retroreflektiven Objektzielen kommen, getroffen werden, Empfangsgrößen, welche im Folgenden der besseren Unterscheidbarkeit wegen als Kurz- Empfangsgrößen bezeichnet werden, ermittelt, die oberhalb des Rauschens liegen. Auf diese Weise können durch die kürzere Integrationsdauer die Empfangsgrößen für die von starken Empfangsstrahlen getroffenen Empfangsbereichen, welche bei längeren Integrationsdauern übersättigt oder überbelichtet wären, ermittelt werden. Ferner können die Empfangsbereiche identifiziert werden, die von starken Empfangsstrahlen getroffen werden.
Bei den Langmessungen mit der längeren Lang-Integrationsdauer werden hingegen auch von denjenigen Empfangsbereichen, die von schwächeren Empfangsstrahlen getroffen werden, Empfangsgrößen, welche im Folgenden der besseren Unterscheidbarkeit wegen als Lang-Empfangsgrößen bezeichnet werden, ermittelt, die oberhalb des Rauschens liegen.
Die Kurzmessungen und die Langmessungen werden für die gleiche Szene im Überwa- chungsbereich durchgeführt. Die gleiche Szene kann nahezu dieselbe Szene, insbesondere bei einer geringen Geschwindigkeit des LiDAR-Systems, insbesondere des Fahrzeugs, sein.
Aus den End-Empfangsgrößen kann für jeden betroffenen Empfangsbereich die entsprechende Entfernungsgröße ermittelt werden, welche die Entfernung des erfassten Objektziels zu dem Empfangsbereich charakterisiert, welches die Empfangsstrahlen reflektiert, die auf den entsprechenden Empfangsbereich treffen.
Um in einem Überwachungsbereich auch schwach reflektierende Objektziele erfassen zu können, werden bei Messungen mit einem LiDAR-System entsprechend lange Integrationsdauern zur Erfassung der Empfangsstrahlen mit den Empfangsbereichen verwendet. Die Verwendung von LiDAR-Systemen mit langen Integrationsdauern kann zu einer Übersättigung von Empfangsbereichen führen, die von an stark reflektierenden, insbesondere retroreflektiven, Objektzielen stammenden Empfangsstrahlen getroffen werden. Die an stark reflektierenden Objekten reflektierten Empfangsstrahlen führen außerdem zu Verfälschungen an allen anderen Empfangsbereichen der Empfangsmatrix insbesondere aufgrund von Reflexionen von starken Empfangsstrahlen an Über- gängen von Medien, beispielsweise optischen Linsen, im optischen Pfad der Empfangseinrichtung, im Besonderen der Empfangsmatrix. Diese Verfälschung kann als Blooming oder Blendung (glare) bezeichnet werden. Blooming-Signale führen zu Fehlern bei der Bestimmung von Entfernungsgrößen für Objektziele in Überwachungsberei- chen mit stark reflektierenden Objektzielen. Die Entfernungsgrößen von normal oder schwach reflektierenden Objektzielen in Überwachungsbereichen mit stark reflektierenden Objektzielen werden in Richtung der Entfernungsgrößen der stark reflektierenden Objektziele verfälscht.
Mit dem erfindungsgemäßen Verfahren können in Szenen insbesondere im Straßenverkehr stark reflektierende Objekte, wie beispielsweise Verkehrsschilder mit retrore- flektiven Eigenschaften, und schwächer reflektierende Objekte, wie beispielsweise Fußgänger, Hindernisse, wie Wände, oder dergleichen, unterschieden werden und die ihre jeweiligen Entfernungen charakterisierende Entfernungsgrößen genauer ermittelt werden. Ohne das erfindungsgemäße Verfahren können insbesondere aufgrund von internen Reflexionen insbesondere im optischen Empfangspfad und/oder durch optisches Übersprechen in der Empfangseinrichtung die Empfangsstrahle von stark reflektierenden Objekten, insbesondere retroreflektiven Objekten, über die Empfangsmatrix verschmiert werden.
Ein Aufnahmezeitbereich im Sinne der Erfindung ist ein Zeitbereich, während dem auf einen jeweiligen Empfangsbereich treffende Anteile von Empfangsstrahlen in entsprechende Empfangsgrößen umgewandelt werden können. Vorteilhafterweise kann ein Aufnahmezeitbereich durch einen Startzeitpunkt und eine Integrationsdauer definiert sein.
Ein Objektziel im Sinne der Erfindung ist eine Stelle eines Objekts, an dem elektromagnetische Abtaststrahlen, welche von dem LiDAR-System in den wenigstens einen Überwachungsbereich gesendet werden, reflektiert werden können. Jedes Objekt kann mehrere Objektziele aufweisen.
Vorteilhafterweise kann für wenigstens einen Aufnahmezeitbereich jeweils für wenigstens einen der Empfangsbereiche eine End-Empfangsgröße als Differenz aus der Lang- Empfangsgröße und einer mittels den um das Rauschen bereinigten Kurz- Empfangsgrößen wenigstens eines Teils der Empfangsbereiche gewichteten wenigstens eine Modellfunktion ermittelt werden. Durch die Rauschbereinigung der Kurz- Empfangsgrößen kann ein Signal-Rausch-Verhältnis insbesondere für die End- Empfangsgrößen verbessert werden.
Vorteilhafterweise können mit der wenigstens einen Sendeeinrichtung optische Abtaststrahlen gesendet werden. Auf diese Weise kann das LiDAR-System optische Bauteile, insbesondere optische Sensoren, optische Systeme wie Linsen, optische Umlenkeinrichtungen wie Spiegel oder dergleichen, aufweisen.
Vorteilhafterweise können mit der wenigstens einen Sendeeinrichtung elektromagnetische Abtaststrahlen in Form von elektromagnetischen Abtastsignalen gesendet werden. Mit Abtastsignalen können zusätzlich Informationen, insbesondere Codierungen oder dergleichen, übermittelt werden.
Vorteilhafterweise können mit der wenigstens einen Sendeeinrichtung Lasersignale als Abtaststrahlen gesendet werden. Lasersignale können präzise definiert und mit großer Reichweite, insbesondere mehreren 100 m, ausgesendet werden.
Vorteilhafterweise kann das LiDAR-System als Flash-LiDAR-System ausgestaltet sein. Ein Flash-LiDAR-System ist ein LiDAR-System, bei dem jeder gesendete Abtaststrahl - ähnlich einem Blitz - den gesamten Überwachungsbereich ausleuchtet.
Vorteilhafterweise kann das LiDAR-System als laserbasiertes Entfernungsmesssystem ausgestaltet sein. Ein laserbasiertes Entfernungsmesssystem kann als Strahlquelle einer Sendeeinrichtung wenigstens einen Laser, insbesondere einen Diodenlaser, aufweisen. Mit dem wenigstens einen Laser können insbesondere gepulste Abtaststrahlen gesendet werden. Mit dem Laser können Abtaststrahlen in für das menschliche Auge sichtbaren oder nicht sichtbaren Wellenlängenbereichen emittiert werden. Entsprechend kann die Empfangsmatrix der Empfangseinrichtung mit wenigstens einem für die Wellenlänge der ausgesendeten Abtaststrahlen ausgelegten Sensor, insbesondere einem CCD-Sensor, einem Active-Pixel-Sensor, insbesondere einen CMOS-Sensor oder dergleichen, realisiert werden. Derartige Sensoren weisen eine Mehrzahl von Empfangsbereichen, insbesondere Pixel oder Pixelgruppen, auf. Derartige Sensoren können so betrieben werden, dass die umgewandelten Empfangsgrößen den jeweiligen Empfangsbereichen zugeordnet werden können.
Vorteilhafterweise können das Verfahren und das LiDAR-System bei Fahrzeugen, insbesondere Kraftfahrzeugen, verwendet werden. Vorteilhafterweise können das Verfahren und das LiDAR-System bei Landfahrzeugen, insbesondere Personenkraftwagen, Lastkraftwagen, Bussen, Motorrädern oder dergleichen, Luftfahrzeugen, insbesondere Drohnen, und/oder Wasserfahrzeugen verwendet werden. Das Verfahren und das LiDAR-System können auch bei Fahrzeugen eingesetzt werden, die autonom oder wenigstens teilautonom betrieben werden können. Das Verfahren und das LiDAR-System sind jedoch nicht beschränkt auf Fahrzeuge. Sie können auch im stationären Betrieb, in der Robotik und/oder bei Maschinen, insbesondere Bau- oder Transportmaschinen, wie Kränen, Baggern oder dergleichen, eingesetzt werden.
Vorteilhafterweise kann das LiDAR-System eine Prozessoreinrichtung, insbesondere eine elektronische Steuer- und Auswerteeinrichtung, aufweisen, mit der das LiDAR- System gesteuert, Empfangsgrößen verarbeitet und Streulichteffekte korrigiert werden können.
Das LiDAR-System kann vorteilhafterweise mit wenigstens einer elektronischen Steuervorrichtung eines Fahrzeugs oder einer Maschine, insbesondere einem Fahrerassistenzsystem und/oder einer Fahrwerksregelung und/oder einer Fahrer- Informationseinrichtung und/oder einem Parkassistenzsystem und/oder einer Gestenerkennung oder dergleichen, verbunden oder Teil einer solchen sein. Auf diese Weise kann wenigstens ein Teil der Funktionen des Fahrzeugs oder der Maschine autonom oder teilautonom betrieben werden.
Das LiDAR-System kann zur Erfassung von stehenden oder bewegten Objekten, insbesondere Fahrzeugen, Personen, Tieren, Pflanzen, Hindernissen, Fahrbahnunebenheiten, insbesondere Schlaglöchern oder Steinen, Fahrbahnbegrenzungen, Verkehrszeichen, Freiräumen, insbesondere Parklücken, Niederschlag oder dergleichen, und/oder von Bewegungen und/oder Gesten eingesetzt werden. Bei einer vorteilhaften Ausgestaltung des Verfahrens kann zum Gewichten der wenigstens einen Modellfunktion diese Modellfunktion mit der Summe aus den Kurz- Empfangsgrößen wenigstens eines Teils der Empfangsbereiche, insbesondere der Summe aus den Kurz-Empfangsgrößen aller Empfangsbereiche, multipliziert werden. Auf diese Weise kann der Einfluss der wenigstens einen Modellfunktion auf die Korrektur an eine von der Szene abhängige Strahlmenge des wenigstens einen Empfangsstrahls, welcher auf die Teile der Empfangsbereiche, insbesondere die Gesamtheit der Empfangsbereiche der Empfangsmatrix, wirkt ermittelt werden. Die wenigstens eine Modellfunktion kann so an die Strahlmenge des wenigstens einen Empfangsstrahls angepasst werden.
Vorteilhafterweise können die Kurz-Empfangsgrößen vor der Addition um etwaiges Rauschen der entsprechenden Empfangsbereiche reduziert werden. Auf diese Weise kann ein Einfluss des tatsächlichen Strahlempfangs auf die Modellfunktion genauer ermittelt werden.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens können mit der wenigstens einen Modellfunktion für wenigstens einen Teil der Empfangsbereiche jeweilige den Empfangsbereichen zugeordnete Modellgrößen realisiert werden, welche mittels den Kurz-Empfangsgrößen gewichtet werden können. Modellgrößen können den jeweiligen Empfangsbereichen der Empfangsmatrix einfacher, insbesondere direkt, zugeordnet werden.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann für wenigstens einen der Empfangsbereiche die End-Empfangsgröße als Differenz aus der dem Empfangsbereich zugehörigen Lang-Empfangsgröße und der dem Empfangsbereich zugehörigen gewichteten Modellgröße ermittelt werden. Auf diese Weise können für jeden Empfangsbereichs separat die jeweilige End-Empfangsgröße aus der entsprechenden Lang-Empfangsgröße und der entsprechenden gewichteten Modellgröße ermittelt werden.
Vorteilhafterweise kann wenigstens eine gewichtete Modellgröße als Korrekturgröße für die Lang-Empfangsgröße des entsprechenden Empfangsbereichs in dem jeweiligen Aufnahmezeitbereich verwendet werden. Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann die wenigstens eine Modellfunktion für die Empfangseinrichtung vorgegeben werden, wobei die wenigstens eine Modellfunktion die Beeinflussbarkeit der einzelnen Empfangsbereiche durch auf die Empfangsmatrix wirkende Streulichteffekte charakterisiert. Auf diese Weise können Eigenschaften der Empfangseinrichtung bezogen auf Streulichteffekte durch die wenigstens eine Modellfunktion, insbesondere jeweilige Modellgrößen, beschrieben werden.
Vorteilhafterweise kann die wenigstens eine Modellfunktion, insbesondere jeweilige Modellgrößen, für die Empfangseinrichtung vorab ermittelt werden. Die wenigstens eine Modellfunktion, insbesondere jeweilige Modellgrößen, kann in entsprechenden Speichermedien insbesondere des LiDAR-Systems hinterlegt werden. Auf diese Weise kann auf die wenigstens eine Modellfunktion, insbesondere die jeweiligen Modellgrößen, schneller zugegriffen werden.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens können die Empfangsgrößen, insbesondere die Kurz-Empfangsgrößen, die Lang- Empfangsgrößen und/oder die End-Empfangsgrößen, als jeweiliger Empfangsgrößen- Datensatz, insbesondere als Kurz-Empfangsgrößen-Datensatz, als Lang- Empfangsgrößen-Datensatz und/oder als End-Empfangsgrößen-Datensatz, realisiert werden, dessen Datenfelder den Empfangsbereichen der Empfangsmatrix zugeordnet werden können, insbesondere können die Empfangsgrößen, insbesondere die Kurz- Empfangsgrößen, die Lang-Empfangsgrößen und/oder die End-Empfangsgrößen, als jeweilige Empfangsgrößen-Matrix, insbesondere als Kurz-Empfangsgrößen-Matrix, als Lang-Empfangsgrößen-Matrix und/oder als End-Empfangsgrößen-Matrix, realisiert werden, dessen Matrixelemente den Matrixelementen der Empfangsmatrix zugeordnet werden können, und/oder die wenigstens eine Modellfunktion als Modell-Datensatz, insbesondere als Modellmatrix, realisiert werden, dessen Datenfelder, insbesondere deren Matrixelemente, den Empfangsbereichen der Empfangsmatrix zugeordnet werden können, und/oder die wenigstens eine gewichtete Modellfunktion als Korrektur-Datensatz, insbesondere als Korrekturmatrix, mit Korrekturgrößen realisiert werden, deren Datenfelder, insbesondere deren Matrixelemente, den Empfangsbereichen der Empfangsmatrix zugeordnet werden können. Auf diese Weise können die Empfangsgrößen, die wenigstens eine Modellfunktion und/oder die wenigstens eine gewichtete Modellfunktion als jeweiliger Datensatz insbesondere in einem Speichermedium hinterlegt und für spätere Verarbeitungen, insbesondere Berechnungen, herangezogen werden.
Die Realisierung von Datensätzen als Matrizen hat den Vorteil, dass die entsprechenden Matrixelemente übersichtlicher insbesondere in einem Quellcode für das Verfahren angeordnet werden können.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens können wenigstens ein amplitudenmodulierter Abtaststrahl erzeugt und in den wenigstens einen Überwachungsbereich gesendet werden, der aus dem wenigstens einen Überwachungsbereich kommende wenigstens eine Empfangsstrahl mit den Empfangsbereichen in wenigstens zwei Aufnahmezeitbereichen in jeweilige Empfangsgrößen umgewandelt werden, wobei wenigstens zwei der Aufnahmezeitbereiche bezogen auf eine Modulationsperiode des wenigstens einen Abtaststrahls phasenverschoben gestartet werden, wenigstens eine Kurzmessung und wenigstens eine Langmessung in wenigstens zwei Aufnahmezeitbereichen durchgeführt werden und für die wenigstens zwei Aufnahmezeitbereiche jeweils die End-Empfangsgrößen für die entsprechenden Empfangsbereiche ermittelt werden. Auf diese Weise kann eine indirekte Time-of-Flight Methode realisiert werden. Aus den Entfernungsgrößen können Entfernungsgrößen, welche Entfernungen von Objektzielen relativ zu dem LiDAR-System charakterisieren, ermittelt werden.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens können die wenigstens zwei phasenverschobenen Aufnahmezeitbereiche mit einer jeweiligen Phasenverschiebung gegenüber einem Referenzereignis, insbesondere gegenüber einem Referenzereignis des wenigstens einen Abtaststrahls, insbesondere gegenüber einem Intensitäts-Minimum des wenigstens einen Abtaststrahls und/oder einem Nulldurchgang eines elektrischen Sendesignals, mit welchem eine Strahlquelle der Sende- einrichtung zum Erzeugen des wenigstens einen Abtaststrahls angesteuert werden kann, gestartet werden und/oder vier Aufnahmezeitbereiche mit Phasenverschiebungen von 0°, 90°, 180° und 270° gegenüber einem Referenzereignis, insbesondere gegenüber einem Referenzereignis des wenigstens einen Abtaststrahls, insbesondere gegenüber einem Intensitäts-Minimum des wenigstens einen Abtaststrahls und/oder einem Nulldurchgang eines elektrischen Sendesignals, mit welchem eine Strahlquelle der Sendeeinrichtung zum Erzeugen des wenigstens einen Abtaststrahls angesteuert wird, gestartet werden.
Phasenverschiebungen gegenüber einem Referenzereignis des wenigstens einen Abtaststrahls ermöglichen eine genauere Zuordnung des wenigstens einen Empfangsstrahls zu dem wenigstens einen Abtaststrahl. Ein Intensitäts-Minimum des wenigstens einen Abtaststrahls und ein Nulldurchgang eines elektrischen Sendesignals können einfach definiert werden.
Mit vier Aufnahmezeitbereichen, deren Phasenverschiebungen sich jeweils um 90° unterscheiden, können insgesamt vier Empfangsgrößen, insbesondere Kurz- Empfangsgrößen und Lang-Empfangsgrößen, erzeugt werden, welche den zeitlichen Verlauf des Empfangsstrahls jeweils charakterisieren. Auf diese Weise kann die Verschiebung des wenigstens einen Empfangsstrahls gegenüber dem wenigstens einen Abtaststrahl und damit die Flugzeit, welche die Entfernung charakterisiert, genauer ermittelt werden.
Vorteilhafterweise kann das LiDAR-System nach einer indirekten Time-of-Flight Methode (indirekte Flugzeitmethode) arbeiten. Bei einer indirekten Time-of-Flight Methode kann eine durch die Flugzeit des amplitudenmodulierten Abtaststrahls und des entsprechenden Empfangsstrahls bedingte Verschiebung des Empfangsstrahls gegenüber dem Abtaststrahl ermittelt werden. Aus der Verschiebung kann die eine Entfernung eines erfassten Objektziels charakterisierende Entfernungsgröße ermittelt werden.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens können Streulichteffekte korrigiert werden, die von Abtaststrahlen hervorgerufen werden, welche an stark reflektierenden Objektzielen, insbesondere retroreflektiven Objektzielen, in dem wenigstens einen Überwachungsbereich reflektiert werden. Auf diese Weise kann die Bestimmung von Entfernungsgrößen, die Entfernungen von Objektzielen charakterisieren, von denen Empfangsstrahlen auf Empfangsbereiche treffen, welche zu den Empfangsbereichen benachbart sind, auf die starke Empfangsstrahlen von stark reflektierenden Objektzielen, insbesondere retroreflektiven Objektzielen, treffen, verbessert werden. Durch die Streulichteffekte, welche durch Empfangsstrahlen hervorgerufen werden, die an stark reflektierenden Objektzielen, insbesondere retroreflektiven Objektzielen, reflektiert werden, werden ohne die erfindungsgemäße Korrektur die Entfernungsgrößen für weniger stark reflektierende Objektziele fälschlicherweise zu den Entfernungsgrößen der stark reflektierenden, insbesondere retroreflektiven Objektziele hin verschoben.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann die Kurz- Integrationsdauer so eingestellt werden, dass lediglich die am stärksten reflektierenden Objektziele, insbesondere retroreflektiven Objektziele, der Szene in dem wenigstens einen Aufnahmezeitbereich zu einer von einem Rauschen unterscheidbaren Kurz- Empfangsgröße führen. Auf diese Weise können diejenigen Empfangsbereiche lokalisiert werden, welche von starken Empfangsstrahlen getroffen werden.
Vorteilhafterweise kann die Länge der Kurz-Integrationsdauer so gewählt werden, dass auch starke Empfangsstrahlen von retroreflektiven Objektzielen nicht zu einer Übersteuerung in der Empfangsmatrix führen. Vorteilhafterweise kann die Kurz- Integrationsdauer etwa auf 1 ps eingestellt werden.
Bei einer weiteren vorteilhaften Ausführungsform kann die wenigstens eine Modellfunktion für eine Erfassung von retroreflektiven Objektzielen vorgegeben werden, die bei einem Betrieb des LiDAR-Systems, insbesondere des LiDAR-Systems des Fahrzeugs, üblicherweise in dem wenigstens einen Überwachungsbereich vorkommen. Auf diese Weise kann das LiDAR-System für Szenen, die üblicherweise auftreten, optimiert werden.
Vorteilhafterweise kann die wenigstens eine Modellfunktion für eine Erfassung von retroreflektiven Straßenschildern oder Straßenmarkierungen vorgegeben werden. Auf diese Weise kann das LiDAR-System für eine Verwendung im Straßenverkehr, insbesondere für eine Verwendung bei einem Fahrzeug, eingestellt werden. Bei einer weiteren vorteilhaften Ausführungsform kann für wenigstens einen Empfangsbereich aus wenigstens einem Teil der zu diesem Empfangsbereich gehörenden End-Empfangsgrößen eine Entfernungsgröße ermittelt werden, welche eine jeweilige Entfernung eines mit dem wenigstens einen Empfangsbereich erfassten Objektziels charakterisiert, und/oder für wenigstens einen Empfangsbereich, welcher von Empfangsstrahlen eines Objektziels getroffen wird, aus einer Position dieses Empfangsbereichs innerhalb der Empfangsmatrix, wenigstens eine die Richtung des reflektierenden Objektziels relativ zu dem LiDAR-System charakterisierende Richtungsgröße ermittelt werden. Auf diese Weise können Entfernungen und/oder Richtungen von erfassten Objektzielen relativ zum LiDAR-System ermittelt werden.
Mit Entfernungen und Richtungen von erfassten Objektzielen kann ein Entfernungsbild des Überwachungsbereichs realisiert werden, in dem die Entfernungen von Objektziele ortsaufgelöst dargestellt werden können.
Bei einer weiteren vorteilhaften Ausführungsform kann der aus dem wenigstens einen Überwachungsbereich kommende wenigstens eine Empfangsstrahl mit Empfangsbereichen einer eindimensionalen, insbesondere linienförmigen, Empfangsmatrix, oder mit Empfangsbereichen einer zweidimensionalen, insbesondere flächenförmigen, Empfangsmatrix empfangen werden. Auf diese Weise können Richtungen von erfassten Objektzielen relativ zu dem LiDAR-System ermittelt werden.
Vorteilhafterweise kann der wenigstens eine Empfangsstrahl mit Empfangsbereichen einer eindimensionalen Empfangsmatrix empfangen werden. Auf diese Weise kann der wenigstens eine Überwachungsbereich mit etwaigen Objektzielen in einer Dimension, insbesondere in Azimut, ortsaufgelöst erfasst werden.
Alternativ kann der wenigstens eine Empfangsstrahl mit Empfangsbereichen einer zweidimensionalen Empfangsmatrix empfangen werden. So kann der wenigstens eine Überwachungsbereich in zwei Dimensionen, insbesondere in Azimut und Elevation, ortsaufgelöst erfasst werden. Ferner wird die Aufgabe erfindungsgemäß bei dem LiDAR-System dadurch gelöst, dass das LiDAR-System Mittel aufweist zur Durchführung des erfindungsgemäßen Verfahrens.
Erfindungsgemäß weist das LiDAR-System Mittel auf, mit welchen von der gleichen Szene in dem wenigstens einen Überwachungsbereich mit wenigstens einem Teil der Empfangsbereiche wenigstens eine Kurzmessung und wenigstens eine Langmessung durchgeführt werden kann. Dabei kann die wenigstens eine Kurzmessung mit einer Kurz-Integrationsdauer durchgeführt werden, während der der wenigstens eine aus dem wenigstens einen Überwachungsbereich kommende Empfangsstrahl mit den entsprechenden Empfangsbereichen in wenigstens einem Aufnahmezeitbereich empfangen und in entsprechende Kurz-Empfangsgrößen umgewandelt werden kann. Die wenigstens eine Langmessung kann mit einer Lang-Integrationsdauer, die größer ist als die Kurz-Integrationsdauer, durchgeführt werden, während der der wenigstens eine aus dem wenigstens einen Überwachungsbereich kommende Empfangsstrahl in dem wenigstens einen Aufnahmezeitbereich empfangen und in entsprechende Lang- Empfangsgrößen umgewandelt werden kann. Für den wenigstens einen Aufnahmezeitbereich kann jeweils für wenigstens einen der Empfangsbereiche eine End- Empfangsgröße als Differenz aus der Lang-Empfangsgröße und einer mittels den Kurz- Empfangsgrößen wenigstens eines Teils der Empfangsbereiche gewichteten wenigstens einen Modellfunktion ermittelt werden.
Auf diese Weise können auch in Szenen mit stark reflektierenden Objekten, insbesondere retroreflektiven Objekten, wie insbesondere Straßenschildern, Fahrbahnmarkierungen oder dergleichen, auch Entfernungen von schwächer reflektierenden Objekten, wie Fußgängern, anderen Fahrzeugen, Radfahrern, Hindernissen oder dergleichen, genauer ermittelt werden.
Die Mittel zur Durchführung des erfindungsgemäßen Verfahrens können auf softwaremäßigem und/oder hardwaremäßigem Wege realisiert sein. Auf diese Weise können auch ohnehin vorhandene Mittel verwendet werden. Des Weiteren wird die Aufgabe erfindungsgemäß bei dem Fahrzeug dadurch gelöst, dass das Fahrzeug Mittel aufweist zur Durchführung des erfindungsgemäßen Verfahrens.
Mit dem wenigstens einen LiDAR-System kann wenigstens ein Überwachungsbereich in der Umgebung des Fahrzeugs und/oder im Innenraum des Fahrzeugs auf Objektziele hin überwacht werden. Mit dem wenigstens einen LiDAR-System können Entfernungen zu erfassten Objektzielen, respektive Entfernungsgrößen, ermittelt werden.
Das Fahrzeug weist Mittel auf zur Durchführung des erfindungsgemäßen Verfahrens auf. Vorteilhafterweise kann wenigstens ein LiDAR-System des Fahrzeugs Mittel aufweisen zur Durchführung des erfindungsgemäßen Verfahrens. Da das wenigstens eine LiDAR-System Teil des Fahrzeugs ist, sind somit auch die Mittel des wenigstens einen LiDAR-Systems zur Durchführung des erfindungsgemäßen Verfahrens Teil des Fahrzeugs, also auch Mittel des Fahrzeugs.
Vorteilhafterweise kann das Fahrzeug wenigstens ein Fahrassistenzsystem aufweisen. Mit dem Fahrerassistenzsystem kann das Fahrzeug autonom oder wenigstens teilweise autonom betrieben werden.
Vorteilhafterweise kann wenigstens ein LiDAR-System mit wenigstens einem Fahrerassistenzsystem des Fahrzeugs funktional verbunden sein. Auf diese Weise können Informationen über den wenigstens einen Überwachungsbereich, insbesondere Entfernungsgrößen und/oder Richtungsgrößen, welche mit dem wenigstens einen LiDAR- System ermittelt werden können, an das wenigstens eine Fahrerassistenzsystem übermittelt werden. Mit dem wenigstens einen Fahrerassistenzsystem kann das Fahrzeug unter Berücksichtigung der Informationen über den wenigstens einen Überwachungsbereich autonom oder wenigstens teilweise autonom betrieben werden.
Im Übrigen gelten die im Zusammenhang mit dem erfindungsgemäßen Verfahren, dem erfindungsgemäßen LiDAR-System und dem erfindungsgemäßen Fahrzeug und deren jeweiligen vorteilhaften Ausgestaltungen aufgezeigten Merkmale und Vorteile untereinander entsprechend und umgekehrt. Die einzelnen Merkmale und Vorteile können selbstverständlich untereinander kombiniert werden, wobei sich weitere vorteilhafte Wirkungen einstellen können, die über die Summe der Einzelwirkungen hinausgehen.
Kurze Beschreibung der Zeichnungen
Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung, in der Ausführungsbeispiele der Erfindung anhand der Zeichnung näher erläutert werden. Der Fachmann wird die in der Zeichnung, der Beschreibung und den Ansprüchen in Kombination offenbarten Merkmale zweckmäßigerweise auch einzeln betrachten und zu sinnvollen weiteren Kombinationen zusammenfassen. Es zeigen schematisch
Figur 1 ein Fahrzeug in der Vorderansicht mit einem Fahrerassistenzsystem und einem Flash-LiDAR-System zur Bestimmung von Entfernungen von Objekten zu dem Fahrzeug;
Figur 2 eine Funktionsdarstellung eines Teils des Fahrzeugs mit dem Fahrerassistenzsystem und dem Flash-LiDAR-System aus der Figur 1 ;
Figur 3 eine Vorderansicht einer Empfangsmatrix einer Empfangseinrichtung des Flash-LiDAR-Systems aus den Figuren 1 und 2, wobei die Empfangsmatrix eine Vielzahl von flächig angeordneten Empfangsbereichen aufweist;
Figur 4 ein Signalstärke-Zeit-Diagramm mit vier beispielhaften Phasenbildern DCSo bis DCS3, welche mit jeweiligen Phasenverschiebungen von 90° aus einem Empfangslichtsignal eines reflektierten Sendelichtsignals des Flash-LiDAR-Systems aus den Figuren 1 und 2 ermittelt werden und deren Amplituden als Empfangsgrößen zur Ermittlung von Entfernungen von Objekten dienen;
Figur 5 ein Entfernungsbild einer Szene mit mehreren Objekten in Graustufendarstellung, wobei eines der Objekte ein retroreflektives Straßenschild ist, welches hier abgedeckt ist;
Figur 6 ein Entfernungsbild der Szene aus der Figur 5, wobei hier das retroreflek- tive Straßenschild nicht abgedeckt ist und zu Streulichteffekten führt;
Figur 7 ein Ablaufschema zur Ermittlung einer Korrekturmatrix für das Phasenbild DCSo aus einem Produkt einer Modellmatrix mit der Summe aus Kurz- Empfangsgrößen einer Kurz-Empfangsgrößenmatrix aus einer Kurzmes- sung, wobei die Kurz-Empfangsgrößenmatrix, die Korrekturmatrix in die Modellmatrix jeweils in einer dreidimensionalen Darstellung gezeigt sind;
Figur 8 das Ablaufschema aus der Figur 7 für die Empfangsbereiche einer Zeile der Empfangsmatrix;
Figur 9 ein Ablaufschema zur Ermittlung einer End-Empfangsgrößenmatrix für das Phasenbild DCSo als Differenz aus einer Lang-Empfangsgrößenmatrix aus einer Langmessung und der Korrekturmatrix aus der Figur 7, wobei die End-Empfangsgrößenmatrix, die Lang-Empfangsgrößenmatrix und die Korrekturmatrix jeweils in einer dreidimensionalen Darstellung gezeigt sind;
Figur 10 das Ablaufschema aus der Figur 9 für die Empfangsbereiche einer Zeile der Empfangsmatrix.
In den Figuren sind gleiche Bauteile mit gleichen Bezugszeichen versehen.
Ausführungsform(en) der Erfindung
In der Figur 1 ist ein Fahrzeug 10 beispielhaft in Form eines Personenkraftwagens in der Vorderansicht gezeigt. Figur 2 zeigt eine Funktionsdarstellung eines Teils des Fahrzeugs 10.
Das Fahrzeug 10 verfügt über ein LiDAR-System 12, das als Flash-LiDAR System ausgestaltet ist. Das LiDAR-System 12 ist beispielhaft in der vorderen Stoßstange des Fahrzeugs 10 angeordnet. Mit dem LiDAR-System 12 kann ein Überwachungsbereich 14 in Fahrtrichtung 16 vor dem Fahrzeug 10 auf Objekte 18 hin überwacht werden. Das LiDAR-System 12 kann auch an anderer Stelle am Fahrzeug 10 angeordnet und anders ausgerichtet sein. Mit dem LiDAR-System 12 können Objektinformationen, beispielsweise Empfangsgrößen D, Richtungsgrößen und Geschwindigkeiten, ermittelt werden, welche Entfernungen, Richtungen und Geschwindigkeiten von Objekten 18 relativ zum Fahrzeug 10, respektive zum LiDAR-System 12, charakterisieren.
Bei den Objekten 18 kann es sich um stehende oder bewegte Objekte, beispielsweise um andere Fahrzeuge, Personen, Tiere, Pflanzen, Hindernisse, Fahrbahnunebenheiten, beispielsweise Schlaglöcher oder Steine, Fahrbahnbegrenzungen, Verkehrszeichen, Freiräume, beispielsweise Parklücken, Niederschlag oder dergleichen handeln. Jedes Objekt 18 weist in der Regel mehrere Objektziele 19 auf. Ein Objektziel 19 ist eine Stelle eines Objekts 18, an dem elektromagnetische Abtaststrahlen in Form von Sendelichtsignalen 20, welche von dem LiDAR-System 12 in den Überwachungsbe- reich 14 gesendet werden, reflektiert werden können.
In der Figur 2 sind beispielhaft zwei Objekte 18 angedeutet, nämlich ein retroreflektives Objekt 1 8R beispielsweise in Form eines Straßenschildes, dessen Bezugszeichen der besseren Unterscheidung wegen mit dem Index „R“ versehen ist, und ein normal reflektierendes Objekt 18N, mit dem Index „N“. Die Oberfläche des retroreflektiven Objekts 18R ist retroreflektiv bezüglich der Sendelichtsignale 20. In der Figur 2 sind der besseren Übersichtlichkeit wegen lediglich ein normal reflektierendes Objektziel 19N und ein retroreflektives Objektziel 1 9R jeweils mit einem Kreuz angedeutet.
Das LiDAR-System 12 ist mit einem Fahrerassistenzsystem 22 verbunden. Mit dem Fahrerassistenzsystem 22 kann das Fahrzeug 10 autonom oder teilautonom betrieben werden.
Das LiDAR-System 12 umfasst beispielhaft eine Sendeeinrichtung 24, eine Empfangseinrichtung 26 und eine Steuer- und Auswerteeinrichtung 28.
Bei der Steuer- und Auswerteeinrichtung 28 handelt es sich beispielhaft um eine elektronische Steuer- und Auswerteeinrichtung. Die Steuer- und Auswerteeinrichtung 28 können beispielsweise Prozessormittel, Speichermittel oder dergleichen aufweisen. Die Funktionen und/oder Mittel der Steuer- und Auswerteeinrichtung 28 können zentral oder dezentral auf softwaremäßigem und/oder hardwaremäßigem Wege realisiert sein. Teile der Funktionen und/oder Mittel der Steuer- und Auswerteeinrichtung 28 können auch in der Sendeeinrichtung 24 und/oder der Empfangseinrichtung 26 integriert sein.
Mit der Steuer- und Auswerteeinrichtung 28 können elektrische Sendesignale erzeugt werden, mit denen die Sendeeinrichtung 24 so angesteuert werden können, dass diese amplitudenmodulierte Sendelichtsignale 20 in Form von Lichtpulsen in den Überwa- chungsbereich 14 sendet. Die Sendeeinrichtung 24 weist als Lichtquelle beispielhaft einen Laser auf. Mit dem Laser können Sendelichtsignale 20 in Form von Laserpulsen erzeugt werden. Darüber hinaus weist die Sendeeinrichtung 24 eine optische Einrichtung auf, mit welcher die Sendelichtsignale 20 so aufgeweitet werden, dass sie sich - ähnlich einem Blitzlicht - in den gesamten Überwachungsbereich 14 ausbreiten können. Auf diese Weise kann mit jedem Sendelichtsignal 20 der gesamte Überwachungsbereich 14 angeleuchtet werden.
An einem Objekt 18 in Richtung der Empfangseinrichtung 26 reflektierte Sendelichtsignale 20 können mit der Empfangseinrichtung 26 empfangen werden. Die reflektierten Sendesignale 20 werden im Folgenden der besseren Unterscheidung wegen als Empfangslichtsignale 30 bezeichnet.
Die Empfangseinrichtung 26 kann optional eine Empfangslichtsignal-Umlenkeinrichtung aufweisen, mit der die Empfangslichtsignale 30 zu einer in der Figur 3 gezeigten Empfangsmatrix 32 der Empfangseinrichtung 26 gelenkt werden.
Die Empfangsmatrix 32 ist beispielsweise mit einem Flächensensor in Form eines CCD- Sensors mit einer Vielzahl von Empfangsbereichen 34 realisiert. Jeder Empfangsbereich 34 kann beispielsweise durch eine Gruppe von Pixeln realisiert werden. Die Empfangsmatrix 32 weist beispielhaft 320 x 240 Empfangsbereiche 34 auf. In der Figur 3 sind der besseren Übersichtlichkeit wegen beispielhaft lediglich 7 x 7 der Empfangsbereiche 34 angedeutet.
Anstatt eines CCD-Sensors kann auch ein andersartiger Flächensensor, beispielsweise ein Active-Pixel Sensor oder dergleichen, verwendet werden. Anstatt eines Flächensensors kann auch ein Zeilensensor verwendet werden, wobei mit diesem die Richtungen lediglich in einer Dimension, beispielsweise in Azimut, ermittelt werden können.
Mit den Empfangsbereichen 34 der Empfangsmatrix 32 können die jeweils auf diese treffenden Anteile von Empfangslichtsignalen 30 in entsprechende, in der Figur 4 bezeichnete Empfangsgrößen Ao, Ai, A2 und A3 umgewandelt werden. Die Empfangsgrößen können im Folgenden der Einfachheit halber auch mit „Ai“ bezeichnet werden. Beispielhaft sind die Empfangsgrößen Ao, Ai, A2 und A3 die Amplituden von Phasenbildern (Differtial Correlation Samples) DCSo, DCS1, DCS2 und DCS3. Die Phasenbilder können im Folgenden der Einfachheit halber auch mit „DCSi“ bezeichnet werden.
Jeder Empfangsbereich 34 ist über geeignete Verschlussmittel für die Erfassung von Empfangslichtsignalen 30 für definierte Aufnahmezeitbereiche TBo, TBi, TB2 und TB3 aktivierbar. Die Aufnahmezeitbereiche können im Folgenden der Einfachheit halber auch mit „TBi“ bezeichnet werden.
Beispielhaft sind die Empfangsbereich 34 jeweils in vier Aufnahmezeitbereichen TBo, TBi, TB2 und TB3 zur Erfassung von Empfangssignalen 30 aktivierbar.
Jeder Aufnahmezeitbereich TBi ist durch einen Startzeitpunkt und eine Integrationsdauer definiert. Die Integrationsdauern der Aufnahmezeitbereiche TBi sind deutlich kürzer als eine Periodendauer IMOD der Modulationsperiode MP des Sendelichtsignals 20. Die zeitlichen Abstände zwischen jeweils zwei definierten Aufnahmezeitbereichen TBi sind kleiner als die Periodendauer IMOD der Modulationsperiode MP.
Während eines Aufnahmezeitbereichs TBi können auf den jeweiligen Empfangsbereich 34 treffende Anteile von Empfangslichtsignalen 30 in entsprechende elektrische Empfangssignale umgewandelt werden. Aus den Empfangssignalen können die jeweiligen Phasenbilder DCSi und deren Amplituden Ai ermittelt werden, welche jeweilige Signalausschnitte des Empfangslichtsignals 30 in den jeweiligen Aufnahmezeitbereichen TBi charakterisieren. Die Phasenbilder DCSi und deren Amplituden, also die Empfangsgrößen Ai, charakterisieren die jeweilige Lichtmenge, die während den Aufnahmezeitbereichen TBi mit den entsprechend aktivierten Empfangsbereich 34 der Empfangsmatrix 32 gesammelt wird.
Beispielhaft kann jeder Empfangsbereich 34 individuell aktiviert und ausgelesen werden. Die Verschlussmittel können auf softwaremäßigem und/oder hardwaremäßigem Wege realisiert sein. Derartige Verschlussmittel können als sogenannte „Shutter“ realisiert werden. Beispielhaft können die Empfangsbereiche 34 mit entsprechenden periodischen Aufnahme-Steuersignalen in Form von Shuttersignalen angesteuert werden. Die Shuttersignale können über die elektrischen Sendesignale, mit denen der Laser der Sendeeinrichtung 24 angesteuert wird, oder gemeinsam mit diesen getriggert werden. So werden die Empfangsgrößen Ai zu den Sendelichtsignalen 20 in Bezug gebracht. Beispielhaft können die elektrischen Sendesignale zu einem Startzeitpunkt ST getriggert werden. Die Empfangsbereiche 34 werden mit den entsprechend zeitlich versetzten Shuttersignalen getriggert.
Die Empfangseinrichtung 26 kann optional optische Elemente aufweisen, mit denen aus dem Überwachungsbereich 14 kommende Empfangslichtsignale 30 in Richtung der Empfangsbereiche 34 betrachtet abhängig von der Richtung, aus der sie kommen, auf jeweilige Empfangsbereiche 34 abgebildet werden. So kann aus der Position der angeleuchteten Empfangsbereiche 34 innerhalb der Empfangsmatrix 32 eine die Richtung eines Objektziels 19, an dem das Sendelichtsignal 20 reflektiert wird, charakterisierende Richtungsgröße ermittelt werden.
In der Figur 4 sind eine Modulationsperiode MP einer Empfangs-Hüllkurve 36 der Phasenbilder DCSo, DCSi, DCS2 und DCS3 in einem gemeinsamen Signalstärke-Zeit- Diagramm gezeigt. Dabei ist die Signalstärkenachse mit „S“ und die Zeitachse mit „t“ bezeichnet.
Die Empfangs-Hüllkurve 36 ist gegenüber dem Startzeitpunkt ST zeitlich versetzt. Der Zeitversatz in Form einer Phasendifferenz charakterisiert die Flugzeit zwischen dem Aussenden des Sendelichtsignals 20 und dem Empfang des entsprechenden Empfangslichtsignals 30.
Aus der Phasendifferenz kann die Entfernung des reflektierenden Objekts 18, respektive des reflektierten Objektziels 19, ermittelt werden. Die Phasenverschiebung 0 kann daher auch als Entfernungsgröße für die Entfernung verwendet werden. Die Flugzeit ist bekanntermaßen proportional zur Entfernung des Objekts 18, respektive des Objektziels 19, relativ zu dem LiDAR-System 12.
Die Empfangs-Hüllkurve 36 kann durch beispielhaft vier Stützstellen in Form der vier Phasenbilder DCSo, DCS1, DCS2 und DCS3 angenähert werden. Alternativ kann die Empfangs-Hüllkurve 36 auch durch mehr oder weniger Stützstellen in Form von Phasenbildern angenähert werden.
Die Aufnahmezeitbereiche TBo, TB1, TB2 und TB3 werden jeweils bezogen auf ein Refe- renzereignis beispielhaft in Form eines Triggersignals für das elektrische Sendesignal zum Startzeitpunkt ST gestartet. Bei dem Referenzereignis kann es sich beispielsweise um einen Nulldurchgang des elektrischen Signals handeln, mit welchem der Laser zur Erzeugung des Sendelichtsignals 20 angesteuert wird. Beispielhaft erstreckt sich die Modulationsperiode MP des Sendelichtsignals 20 über 360°. Die Aufnahmezeitbereiche TBo, TBi, TB2 und TB3 starten beispielhaft jeweils bezogen auf die Modulationsperiode MP mit einem Abstand von 90° zueinander. Die Aufnahmezeitbereiche TBo, TB1, TB2 und TB3 starten also mit Phasenverschiebungen von 0°, 90°, 180° beziehungsweise 270° gegenüber dem Startzeitpunkt ST.
Eine Entfernungsgröße D für die Entfernung eines erfassten Objekts 18 kann beispielhaft aus den Amplituden, also den Empfangsgrößen Ao, Ai, A2 und A3, der Phasenbilder DCSo, DCS1, DCS2 und DCS3 für einen jeweiligen Empfangsbereich 34 in hier nicht weiter interessierenden Weise rechnerisch ermittelt werden.
In der Figur 5 ist ein Entfernungsbild einer Szene in Graustufendarstellung gezeigt, welches mit dem LiDAR-System 12 ermittelt wurde. Dabei sind in der horizontalen Dimension des Entfernungsbildes die 320 Spalten der Empfangsmatrix 32 angegeben. Jede Spalte charakterisiert die horizontale Richtung, aus der die mit den Empfangsbereichen 34 der Spalte empfangenen Empfangslichtsignale 30 kommen. In der vertikalen Dimension des Entfernungsbildes sind die 240 Zeilen der Empfangsmatrix 32 angegeben. Jede Zeile charakterisiert die vertikale Richtung, aus der die mit den Empfangsbereichen 34 der Zeile empfangenen Empfangslichtsignale 30 kommen. Über die Position eines mit Empfangslichtsignalen 30 getroffenen Empfangsbereichs 34 in der Empfangsmatrix 32 kann so die Richtung eines Objektziels 19 eines Objekts 18 charakterisiert werden, von dem die entsprechenden Empfangslichtsignale 30 kommen. Die Entfernungsgrößen D für die erfassten Objektziele 19 sind in Graustufen entsprechend einer neben dem Entfernungsbild gezeigten Graustufenskala definiert.
In dem Entfernungsbild sind die Objektziele 19 von mehreren Objekten 18 gezeigt. Der besseren Übersichtlichkeit wegen sind lediglich ein retroreflektives Objekt 18R in Form eines Straßenschildes und ein weiteres normal reflektierendes Objekt 1 8N mit Bezugszeichen versehen. Dabei ist das bezeichnete retroreflektive Objekt 1 8R in der in Figur 5 gezeigten Szene mit einer normal reflektierenden Abdeckung versehen. In der Figur 6 ist dieselbe Szene wie in der Figur 5 gezeigt. Hier ist jedoch die Abdeckung des retrore- flektiven Objekts 18R entfernt.
Die Verwendung des LiDAR-Systems 12 mit langen Integrationsdauern, welche erforderlich sind, um auch schwach und normal reflektierende Objekte 1 8N im Überwa- chungsbereich 14 zu erfassen, kann zu einer Übersättigung von Empfangsbereichen 34 führen, die von an stark reflektierenden, beispielsweise retroreflektiven Objekten 1 8R reflektierten Empfangslichtsignalen 30 getroffen werden. Die an den stark reflektierenden Objekten 1 8R reflektierten Empfangslichtsignale 30 führen außerdem zu einer Verfälschung der Signale aller Empfangsbereiche 34 der Empfangsmatrix 32 beispielsweise aufgrund von Reflexionen von starken Empfangslichtsignalen 30 an Übergängen von Medien, beispielsweise optischen Linsen, im optischen Pfad der Empfangseinrichtung 26, im Besonderen der Empfangsmatrix 32. Diese Verfälschung wird als Blooming oder Blendung (glare) bezeichnet. Das Blooming führt zu einem Fehler bei der Bestimmung der Entfernungsgrößen D für Objekte 18 im gesamten Entfernungsbild. Die Entfernungsgrößen D der normal oder schwach reflektierenden Objekte 1 8N werden in Richtung der Entfernungsgröße D der stark reflektierenden Objekte 18R verfälscht.
Die Streulichteffekte, welche durch stark reflektierende Objekte 1 8R hervorgerufen werden, können korrigiert werden. Auf diese Weise können auch für schwach oder normal reflektierende Objekte 1 8N in einem Entfernungsbild, in welchem stark reflektierende, beispielsweise retroreflektive Objekte 1 8R enthalten sind, die jeweils korrekten Entfernungsgrößen D ermittelt werden.
Die Korrektur der Streulichteffekte wird im Folgenden für eine Szene mit einem stark reflektierenden Objekt 1 8R ähnlich der in den Figuren 5 und 6 dargestellten Szene unter Zuhilfenahme der Figuren 7 bis 10 beschrieben:
Zunächst wird von der gleichen Szene in dem Überwachungsbereich 14 mit den Empfangsbereichen 34 sowohl eine Kurzmessung als auch eine Langmessung durchgeführt.
Die Kurzmessung wird mit einer Kurz-Integrationsdauer durchgeführt, während der die Empfangslichtsignale 30 aus dem Überwachungsbereich 14 mit den Empfangsberei- chen 34 in den vier Aufnahmezeitbereichen TBo, TBi, TB2 und TB3 empfangen werden. Die Länge der Kurz-Integrationsdauer ist so gewählt, dass auch die starken Empfangslichtsignale 30 von dem retroreflektiven Objekt 1 8R nicht zu einer Übersteuerung in der Empfangsmatrix 32 führt. Beispielsweise beträgt die Kurz-Integrationsdauer etwa 1 ps.
Mit jedem der Empfangsbereiche 34 werden die jeweils empfangenen Anteile der Empfangslichtsignale 30 in die vier, den jeweiligen Aufnahmezeitbereichen TBo, TB1, TB2 und TB3 entsprechenden Kurz-Empfangsgrößen Ao,k, Ai,k, A2,k und As,k umgewandelt. Die Kurz-Empfangsgrößen Ao,k, Ai,k, A2,k und As,k werden dem jeweiligen Empfangsbereich 34 zugeordnet. Die Kurz-Empfangsgrößen können im Folgenden der Einfachheit halber auch mit „Ai,k“ bezeichnet werden. Die Kurz-Empfangsgrößen Ai charakterisieren die mit den jeweiligen Empfangsbereichen 34 empfangenen Lichtsignale oberhalb des Rauschens in dem jeweiligen Aufnahmezeitbereich TBi.
Die Kurz-Empfangsgrößen Ao,k, Ai,k, A2,k und As,k werden entsprechend ihrem jeweiligen Aufnahmezeitbereich TBo, TB1, TB2 und TB3 einem von vier Datensätzen zugewiesen. In der Figur 7 oben sind die Datensätze beispielhaft in Form von Kurz- Empfangsgrößenmatrizen 4Oo, 40i, 402 und 403 gezeigt. Die Kurz-
Empfangsgrößenmatrizen können im Folgenden der Einfachheit halber auch mit „40i“ bezeichnet werden.
In jeder der Kurz-Empfangsgrößenmatrizen 4Oo, 40i, 402, 403 ist der besseren Übersichtlichkeit wegen lediglich jeweils eine der Kurz-Empfangsgrößen Ao,k, Ai,k, A2,k und As,k mit einem Bezugszeichen versehen. Die gezeigten Kurz-Empfangsgrößen Ao,k, Ai,k, A2,k und As,k sind in dem entsprechenden Empfangsbereich 34, beispielsweise dem Empfangsbereich 34 in Reihe 75, Spalte 250, ermittelt worden. Der Teil der Empfangsbereiche 34, der mit einem von dem stark reflektierenden Objekt 1 8R kommenden Empfangslichtsignal 30 getroffen wird, ist jeweils mit dem Bezugszeichen 1 8R bezeichnet. Insgesamt enthält jede der Kurz-Empfangsgrößenmatrizen 4Oo, 40i, 402, 403 so viele Kurz-Empfangsgrößen Ao,k, Ai,k, A2,k und As.k, wie die Empfangsmatrix 32 Empfangsbereiche 34 enthält, nämlich 320 x 240. Die jeweiligen Kurz-Empfangsgrößen Ao,k, Ai,k, A2,k und As,k sind beispielsweise als Intensitäten INT mittels Graustufen visualisiert. Die entsprechende Graustufenskala ist rechts neben den Kurz-Empfangsgrößenmatrizen 4Oo, 40i, 402, 403 gezeigt. Bei der Darstellung in der Figur 7 oben handelt es sich lediglich um eine beispielhafte Visualisierung der Kurz-Empfangsgrößenmatrizen 40i. Die Kurz- Empfangsgrößenmatrizen 40i sind eigentlich jeweils Datensätze beispielsweise in Form von Tupeln, deren Anzahl der Anzahl der Empfangsbereiche 34 der Empfangsmatrix 32, nämlich 320 x 240, entspricht. Jedes Tupel enthält wenigstens eine Zuordnungsgröße, beispielsweise Koordinaten, welche die Zuordnung zu dem entsprechenden Empfangsbereich 34 ermöglicht, und die dem entsprechenden Empfangsbereich 34 zugeordnete Kurz-Empfangsgröße Ai,k.
Die Langmessung wird mit einer Lang-Integrationsdauer durchgeführt, die länger ist als die Kurz-Integrationsdauer. Die Länge der Lang-Integrationsdauer ist so gewählt, dass auch die Empfangslichtsignale 30 von den normal oder schwach reflektierenden Objekten 1 8N ZU Signalen auf Seiten der entsprechend angestrahlten Empfangsbereiche 34 führen, die von Rauschen unterscheidbar sind. Beispielsweise beträgt die Lang- Integrationsdauer etwa 1000 ps.
Mit jedem der Empfangsbereiche 34 werden der jeweils empfangene Anteil der Empfangslichtsignale 30 in die vier, den jeweiligen Aufnahmezeitbereichen TBo, TBi, TB2 und TB3 entsprechenden Lang-Empfangsgrößen Ao.i, Au, A2,I und Aa,i umgewandelt. Die Lang-Empfangsgrößen Ao.i, Ai,i, A2,I und Aa,i werden dem jeweiligen Empfangsbereich 34 zugeordnet. Die Lang-Empfangsgrößen Ao,i, Ai,i, A2,I und Aa,i können im Folgenden der Einfachheit halber auch mit „Ai,i“ bezeichnet werden.
Die Lang-Empfangsgrößen Ao,i, Ai,i, A2,I und Aa,i werden entsprechend ihrem jeweiligen Aufnahmezeitbereich TBo, TB1, TB2 beziehungsweise TB3 einem von vier Datensätzen zugewiesen. In der Figur 9 oben sind die Datensätze beispielhaft in Form von Lang- Empfangsgrößenmatrizen 46o, 46i, 462 und 463 gezeigt. Die Lang-Empfangsgrößen Matrizen können im Folgenden der Einfachheit halber auch mit „46i“ bezeichnet werden.
In jeder der Lang-Empfangsgrößenmatrizen 46o, 46i, 462, 463 ist der besseren Übersichtlichkeit wegen, analog zu den Kurz-Empfangsgrößenmatrizen 4Oo, 40i, 402, 403 aus der Figur 7 oben, lediglich eine der Lang-Empfangsgrößen Ao,i, Au, A21 und As.i mit einem Bezugszeichen versehen. Die gezeigten Lang-Empfangsgrößen Ao,i, Au, A2,I und A3,I sind in dem Empfangsbereich 34, beispielsweise dem Empfangsbereich 34 in Reihe 75, Spalte 250, ermittelt worden. Der Teil der Empfangsbereiche 34, der mit einem von dem stark reflektierenden Objekt 1 8R kommenden Empfangslichtsignal 30 getroffen wird, ist jeweils mit dem Bezugszeichen 1 8R bezeichnet. Insgesamt enthält jede der Lang-Empfangsgrößenmatrizen 46o, 46i, 462, 463 so viele Lang-Empfangsgrößen Ao,i, Au, A21 und A3,I, wie die Empfangsmatrix 32 Empfangsbereiche 34 und die Kurz- Empfangsgrößenmatrizen 4Oo, 40i, 402, 403 Kurz-Empfangsgrößen Ao,k, Ai,k, A2,k und As,k enthält, nämlich 320 x 240. Die jeweiligen Lang-Empfangsgrößen Ao,i, Au, A2,I und A3,I sind beispielsweise als Intensitäten INT mittels Graustufen visualisiert. Die entsprechende Graustufenskala ist rechts neben den Lang-Empfangsgrößenmatrizen 46o, 46i, 462, 463 gezeigt.
Bei der Darstellung in der Figur 9 oben handelt es sich lediglich um eine beispielhafte Visualisierung der Lang-Empfangsgrößenmatrizen 46i. Die Lang- Empfangsgrößenmatrizen 46i sind, wie die Kurz-Empfangsgrößenmatrizen 40i, eigentlich jeweils Datensätze beispielsweise in Form einer Gruppe von Tupeln, deren Anzahl der Anzahl der Empfangsbereiche 34 der Empfangsmatrix 32, nämlich 320 x 240, entspricht. Jedes Tupel enthält wenigstens eine Zuordnungsgröße, beispielsweise Koordinaten, welche die Zuordnung zu dem entsprechenden Empfangsbereich 34 ermöglicht, und die dem entsprechenden Empfangsbereich 34 zugeordnete Lang-Empfangsgröße Ai,l.
Im Folgenden wird in Verbindung mit den Figuren 7 bis 10 beschrieben, wie für die Aufnahmezeitbereiche TBi jeweils für die Empfangsbereiche 34 jeweils eine in der Figur 9 unten bezeichnete End-Empfangsgröße Ai,e als Differenz aus der Lang-Empfangsgröße Ai,i und einer mittels den Kurz-Empfangsgrößen Ai,k der Empfangsbereiche 34 gewichteten Modellfunktion beispielhaft in Form einer Modellmatrix 42 ermittelt wird.
In der Figur 7 ist von oben nach unten ein Ablaufschema zum Gewichten der Modellmatrix 42 beispielhaft für die Kurz-Empfangsgrößenmatrix 4Oo gezeigt. Figur 8 zeigt das entsprechende Ablaufschema zum Gewichten der Modellmatrix 42 für die Empfangsbereiche 34 entlang der Reihe 75 der Empfangsmatrix 32. In der Figur 7 oben sind die vier Kurz-Empfangsgrößenmatrizen 4Oo, 40i, 402, 403 für eine Szene, welche ähnlich ist zu der in den Figuren 5 und 6 gezeigten Szene, nach einer Kurzmessung dargestellt.
In der Figur 7 in der Mitte ist die Modellfunktion beispielhaft als Modellmatrix 42 in einer dreidimensionalen Gitterdarstellung gezeigt. Die Modellmatrix 42 enthält einen Modell- Datensatz aus insgesamt 320 x 240 Modellgrößen M, die den Empfangsbereichen 34 jeweils zugeordnet sind. Beispielhaft ist lediglich eine der Modellgrößen M mit einem Bezugszeichen versehen. Bei dem in der Figur 7 gezeigten Beispiel liegen die Werte für die Modellgrößen M zwischen 1 und 2. Die Modellmatrix 42 charakterisiert die Beeinflussbarkeit der einzelnen Empfangsbereiche 34 durch Streulichteffekte auf die Empfangsmatrix 32. Die Modellmatrix 42 für das LiDAR-System 12 wird vorab, beispielsweise am Ende der Produktionslinie des LiDAR-Systems 12 ermittelt. Die Modellmatrix 42, respektive der Modell-Datensatz, kann beispielsweise in einem Speichermedium des LiDAR-Systems 12 hinterlegt werden. Bei der Modellfunktion kann es sich beispielsweise um eine parabelartige Funktion handeln. Die Modellfunktion kann beispielsweise als Modell-Datensatz in Form von Tupeln mit Spaltenwerten, Zahlenwerten und Modellgrößen realisiert sein.
Zum Gewichten wird die Modellmatrix 42 mit der Summe SUM aus den Kurz- Empfangsgrößen Ai,k, beispielhaft den Kurz-Empfangsgrößen Ao,k, aller Empfangsbereiche 34 der entsprechenden Kurz-Empfangsgrößenmatrix 4Oo, beispielhaft der Kurz- Empfangsgrößenmatrix 4Oo, multipliziert. Figur 7 unten zeigt die resultierende Korrekturmatrix 44i, beispielhaft die Korrekturmatrix 44o. Dabei charakterisieren, wie bereits erläutert, die Kurz-Empfangsgrößen Ai die mit den jeweiligen Empfangsbereichen 34 empfangenen Lichtsignale oberhalb des Rauschens.
Die mit den Kurz-Empfangsgrößenmatrizen 40i jeweils gewichtete Modellfunktion wird in einem jeweiligen Korrektur-Datensatz aus Korrekturgrößen Ki„ von denen beispielhaft in den Figuren 7 und 9 jeweils lediglich eine Korrekturgröße Ko für die Kurz- Empfangsgrößenmatrix 4Oo mit einem Bezugszeichen versehen ist, in Form einer jeweiligen Korrekturmatrix 44i , beispielhafte Korrekturmatrix 44o, hinterlegt. Jede der Korrekturgrößen Ki ist einem der Empfangsbereiche 34 zugeordnet. In der Figur 7 unten und der Figur 9 in der Mitte ist repräsentativ die mit der Kurz-Empfangsgrößenmatrix 4Oo gewichtete Modellfunktion als Korrekturmatrix 44o dargestellt. Die Korrekturmatrizen 44i für die jeweiligen Kurz-Empfangsgrößenmatrizen 40i können jeweils als Korrektur- Datensätze in Form von Tupeln mit Spaltenwerten, Zahlenwerten und Korrekturgrößen K realisiert sein.
In der Figur 8 oben ist beispielhaft ein Profil der Reihe 75 der Kurz- Empfangsgrößenmatrix 4Oo aus der Figur 7 gezeigt. Figur 8 zeigt in der Mitte ein Profil der Reihe 75 der Modellmatrix 42. Figur 8 unten zeigt ein Profil der Reihe 75 der Korrekturmatrix 4Oo.
In der Figur 9 ist von oben nach unten ein Ablaufschema zur Bildung der End- Empfangsgrößen Ai,e als Differenzen aus den Lang-Empfangsgrößen Ai,i der jeweiligen Lang-Empfangsgrößenmatrix 46i und den Korrekturgrößen Ki der entsprechenden Korrekturmatrix 44i gezeigt.
Zur Bildung der End-Empfangsgrößen Ai,e wird für jeden Empfangsbereich 34 aus dem entsprechenden Aufnahmezeitbereich TBi die Differenz aus der entsprechenden Lang- Empfangsgröße Ai,i, welche aus der in der Figur 9 oben gezeigten Lang- Empfangsgrößenmatrix 46i entnommen wird, und der entsprechenden Korrekturgröße Ki gebildet, welche aus der zu dem Aufnahmezeitbereich TBi gehörenden Korrekturmatrix 44i entnommen wird. Die jeweiligen Differenzen zwischen den Lang- Empfangsgrößen Ai,i und den Korrekturgröße Ki werden als entsprechende End- Empfangsgröße Ai,e in entsprechenden Datensätzen beispielsweise in Form einer Figur 9 unten gezeigten End-Empfangsgrößenmatrix 48i hinterlegt.
Für jede der Lang-Empfangsgrößen Ao.i, Au, A2,I und Aa.i wird, wie in der Figur 9 am Beispiel der Lang-Empfangsgrößen Ao.i für den Aufnahmezeitbereich TBo gezeigt, jeweils eine End-Empfangsgröße Ao,e, Ai,e, A2,e und As,e als Differenz aus der Lang- Empfangsgröße Ao.i, Ai,i, A21 beziehungsweise Aa.i und der Korrekturgröße Ko, Ki, K2 beziehungsweise K3 gebildet, welche dem Empfangsbereich 34 und dem Aufnahmezeitbereich TBo, TBi, TB2 und TB3 der entsprechenden Lang-Empfangsgröße Ao,i, Ai,i, A21 beziehungsweise As,i entspricht. Die End-Empfangsgrößen Ao,e, Ai,e, A2,e und As,e können im Folgenden der Einfachheit halber auch als End-Empfangsgrößen Ai,e bezeichnet werden. Die End-Empfangsgrößen Ao,e, Ai,e, A2, e, As,e werden entsprechend ihren jeweiligen Aufnahmezeitbereichen TBo, TB1, TB2 und TB3 einer von vier End- Empfangsgrößenmatrizen 48o, 48i, 482 beziehungsweise 483 zugewiesen, welche im Folgenden der Einfachheit wegen auch als End-Empfangsgrößenmatrizen 48i bezeichnet werden können. Auf diese Weise sind die End-Empfangsgrößen Ao,e, Ai,e, A2,e, As,e auch den entsprechenden Empfangsbereichen 34 und den entsprechenden Aufnahmezeitbereichen TBo, TB1, TB2 und TB3 zugeordnet, welche den verwendeten Kurz- Empfangsgrößen Ao,k, Ai,k, A2,k und As,k entsprechen.
In der Figur 9 unten sind die vier End-Empfangsgrößenmatrizen 48o, 48i, 482 und 483 für die vier Aufnahmezeitbereiche TBo, TB1, TB2 und TB3 für die Szene aus den Figuren 7 und 8 nach einer Langmessung dargestellt.
In jeder der End-Empfangsgrößenmatrizen 48o, 48i, 482 und 483 ist der besseren Übersichtlichkeit wegen lediglich jeweils eine der End-Empfangsgrößen Ao,e, Ai,e, A2,e, As.e, welche mit dem entsprechenden Empfangsbereich 34, beispielsweise dem Empfangsbereich 34 in Reihe 75, Spalte 170, ermittelt wird, mit einem Bezugszeichen versehen. Insgesamt enthält jede der End-Empfangsgrößenmatrizen 48o, 48i, 482 und 483 so viele End-Empfangsgrößen Ao,e, Ai,e, A2,e, As.e, wie die Empfangsmatrix 32 Empfangsbereiche 34 enthält, nämlich 320 x 240. Die jeweiligen End-Empfangsgrößen Ao,e, Ai,e, A2,e, As,e sind beispielsweise als Intensitäten INT mittels Graustufen visualisiert. Die entsprechende Graustufenskala ist rechts neben den End-Empfangsgrößenmatrizen 48o, 48i, 482 und 483 gezeigt.
Bei der Darstellung in der Figur 9 unten handelt es sich lediglich um eine beispielhafte Visualisierung der End-Empfangsgrößenmatrizen 48i. Die End- Empfangsgrößenmatrizen 48i sind eigentlich jeweils Datensätze beispielsweise in Form einer Gruppe von Tupeln, deren Anzahl der Anzahl der Empfangsbereiche 34 der Empfangsmatrix 32, nämlich 320 x 240, entspricht. Jedes Tupel enthält wenigstens eine Zuordnungsgröße, beispielsweise Koordinaten, welche die Zuordnung zu dem entsprechenden Empfangsbereich 34 ermöglicht, und die dem entsprechenden Empfangsbereich 34 zugeordnete End-Empfangsgröße Ai,e. In der Figur 10 oben ist beispielhaft ein Profil der Reihe 75 der Lang- Empfangsgrößenmatrix 46o aus der Figur 9 gezeigt. Figur 10 zeigt in der Mitte ein Profil der Reihe 75 der Korrekturmatrix 44o. Figur 10 unten zeigt ein Profil der Reihe 75 der End-Empfangsgrößenmatrix 48o.
Die Entfernungsgrößen D der mit den Empfangsbereichen 34 erfassten Objekte 18 und 18R werden aus den End-Empfangsgrößen Ao,e, Ai,e, A2,e und Ag,e für jeden Empfangsbereich 34 rechnerisch ermittelt.

Claims

Ansprüche
1. Verfahren zum Betreiben eines LiDAR-Systems (12), insbesondere eines Flash- LiDAR-Systems (12), insbesondere eines LiDAR-Systems (12) für ein Fahrzeug (10), bei dem wenigstens ein elektromagnetischer Abtaststrahl (20) mit wenigstens einer Sendeeinrichtung (24) des LiDAR-Systems (12) in wenigstens einen Überwachungsbereich (14) gesendet wird, wenigstens ein aus dem wenigstens einen Überwachungsbereich (14) kommender elektromagnetische Empfangsstrahl (30), welcher von dem wenigstens einen an wenigstens einem Objektziel (19N,19R) reflektierten Abtaststrahl (20) herrührt, in wenigstens einem von mehreren Empfangsbereichen (34) einer Empfangsmatrix (32) einer Empfangseinrichtung (26) des LiDAR-Systems (12) empfangen wird, der empfangene Teil des wenigstens einen Empfangsstrahls (30) in wenigstens eine Empfangsgröße (Ao,k, Ai,k, A2,k, As.k, Ao.i, Au, A2,I, Aa , Ao,e, Ai,e, A2,e, As,e) umgewandelt wird, welche dem wenigstens Empfangsbereich (34) zugeordnet wird, in dem der Teil des wenigstens einen Empfangsstrahls (30) empfangen wird, und etwaige Streulichteffekte, welche auf wenigstens einen Teil der Empfangsbereiche (34) wirken, korrigiert werden, dadurch gekennzeichnet, dass von der gleichen Szene in dem wenigstens einen Überwachungsbereich (14) mit wenigstens einem Teil der Empfangsbereiche (34) wenigstens eine Kurzmessung und wenigstens eine Langmessung durchgeführt wird, wobei die wenigstens eine Kurzmessung mit einer Kurz-Integrationsdauer durchgeführt wird, während der der wenigstens eine aus dem wenigstens einen Überwachungsbereich (14) kommende Empfangsstrahl (30) mit den entsprechenden Empfangsbereichen (34) in wenigstens einem Aufnahmezeitbereich (TBo, TBi, TB2, TB3) empfangen und in entsprechende Kurz-Empfangsgrößen (Ao,k, Ai,k, A2,k, As,k) umgewandelt wird, und wobei die wenigstens eine Langmessung mit einer Lang-Integrationsdauer, die größer ist als die Kurz-Integrationsdauer, durchgeführt wird, während der der wenigstens eine aus dem wenigstens einen Überwachungsbereich (14) kommende Empfangsstrahl (30) in dem wenigstens einen Aufnahmezeitbereich (TBo, TB1, TB2, TB3) empfangen und in entsprechende Lang-Empfangsgrößen (Ao,i, Ai,i, A2 , As.i) umgewandelt wird, für den wenigstens einen Aufnahmezeitbereich (TBo, TBi, TB2, TB3) jeweils für wenigstens einen der Empfangsbereiche (34) eine End-Empfangsgröße (Ao,e, Ai,e, A2,e, As,e) als Differenz aus der Lang-Empfangsgröße (Ao.i, Ai,i, A2 , Aa,i) und einer mittels den Kurz-Empfangsgrößen (Ao,k, Ai,k, A2,k, As,k) wenigstens eines Teils der Empfangsbereiche (34) gewichteten wenigstens einen Modellfunktion (42) ermittelt wird.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass zum Gewichten der wenigstens einen Modellfunktion (42) diese Modellfunktion (42) mit der Summe (SUM) aus den Kurz-Empfangsgrößen (Ao,k, Ai,k, A2,k, As,k) wenigstens eines Teils der Empfangsbereiche (34), insbesondere der Summe aus den Kurz-Empfangsgrößen (Ao,k, Ai,k, A2,k, As,k) aller Empfangsbereiche (34), multipliziert wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass mit der wenigstens einen Modellfunktion (42) für wenigstens einen Teil der Empfangsbereiche (34) jeweilige den Empfangsbereichen (34) zugeordnete Modellgrößen (M) realisiert werden, welche mittels den Kurz-Empfangsgrößen (Ao,k, Ai,k, A2,k, As,k) gewichtet werden.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass für wenigstens einen der Empfangsbereiche (34) die End-Empfangsgröße (Ao,e, Ai,e, A2,e, As,e) als Differenz aus der dem Empfangsbereich (34) zugehörigen Lang-Empfangsgröße (Ao,i, Au, A21, A3,I) und der dem Empfangsbereich (34) zugehörigen gewichteten Modellgröße (M) ermittelt wird.
5. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die wenigstens eine Modellfunktion (42) für die Empfangseinrichtung (26) vorgegeben wird, wobei die wenigstens eine Modellfunktion (42) die Beeinflussbarkeit der einzelnen Empfangsbereiche (34) durch auf die Empfangsmatrix (32) wirkende Streulichteffekte charakterisiert.
6. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die Empfangsgrößen, insbesondere die Kurz-Empfangsgrößen (Ao,k, Ai,k, A2,k, As.k), die Lang-Empfangsgrößen (Ao,i, Ai,i, A21, As.i) und/oder die End-Empfangsgrößen (Ao,e, Ai,e, A2,e, As,e) , als jeweiliger Empfangsgrößen -Datensatz, insbesondere als Kurz- Empfangsgrößen-Datensatz (4Oo, 40i, 402, 40s), als Lang-Empfangsgrößen-Datensatz (46o, 46i, 462, 463) und/oder als End-Empfangsgrößen-Datensatz (48o, 48i, 482, 48a), realisiert werden, dessen Datenfelder den Empfangsbereichen (34) der Empfangsmatrix (32) zugeordnet werden, insbesondere die Empfangsgrößen, insbesondere die Kurz- Empfangsgrößen (Ao,k, Ai,k, A2,k, As.k), die Lang-Empfangsgrößen (Ao,i, Au, A21, Aa.i) und/oder die End-Empfangsgrößen (Ao,e, Ai ,e, A2,e, As.e), als jeweilige Empfangsgrößen- Matrix, insbesondere als Kurz-Empfangsgrößen-Matrix (4Oo, 40i, 402, 40a), als Lang- Empfangsgrößen-Matrix (46o, 46i, 462, 46a) und/oder als End-Empfangsgrößen-Matrix (48o, 48i, 482, 483), realisiert werden, dessen Matrixelemente den Matrixelementen der Empfangsmatrix (32) zugeordnet werden, und/oder die wenigstens eine Modellfunktion (42) als Modell-Datensatz, insbesondere als Modellmatrix, realisiert wird, dessen Datenfelder, insbesondere deren Matrixelemente, den Empfangsbereichen (34) der Empfangsmatrix (32) zugeordnet werden, und/oder die wenigstens eine gewichtete Modellfunktion (42) als Korrektur-Datensatz (44o, 44i, 442, 443), insbesondere als Korrekturmatrix, mit Korrekturgrößen realisiert wird, dessen Datenfelder, insbesondere deren Matrixelemente, den Empfangsbereichen (34) der Empfangsmatrix (32) zugeordnet werden.
7. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass wenigstens ein amplitudenmodulierter Abtaststrahl (20) erzeugt und in den wenigstens einen Überwachungsbereich (14) gesendet wird, der aus dem wenigstens einen Überwachungsbereich (14) kommende wenigstens eine Empfangsstrahl (30) mit den Empfangsbereichen (34) in wenigstens zwei Aufnahmezeitbereichen (TBo, TB1, TB2, TB3) in jeweilige Empfangsgrößen (Ao,k, Ai,k, A2,k, As.k, Ao,i, Ai,i, A2,I, A3,I) umgewandelt wird, wobei wenigstens zwei der Aufnahmezeitbereiche (TBo, TB1, TB2, TB3) bezogen auf eine Modulationsperiode (MP) des wenigstens einen Abtaststrahls (20) phasenverschoben gestartet werden, wenigstens eine Kurzmessung und wenigstens eine Langmessung in wenigstens zwei Aufnahmezeitbereichen (TBo, TB1, TB2, TB3) durchgeführt werden und für die wenigstens zwei Aufnahmezeitbereiche (TBo, TB1, TB2, TB3) jeweils die End-Empfangsgrößen (Ao,e, Ai,e, A2, e, As,e) für die entsprechenden Empfangsbereiche (34) ermittelt werden.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die wenigstens zwei phasenverschobenen Aufnahmezeitbereiche (TBo, TBi, TB2, TB3) mit einer jeweiligen Phasenverschiebung gegenüber einem Referenzereignis (ST), insbesondere gegenüber einem Referenzereignis des wenigstens einen Abtaststrahls (20), insbesondere gegenüber einem Intensitäts-Minimum des wenigstens einen Abtaststrahls (20) und/oder einem Nulldurchgang eines elektrischen Sendesignals, mit welchem eine Strahlquelle der Sendeeinrichtung (24) zum Erzeugen des wenigstens einen Abtaststrahls (20) angesteuert wird, gestartet wird und/oder vier Aufnahmezeitbereiche (TBo, TB1, TB2, TB3) mit Phasenverschiebungen von 0°, 90°, 180° und 270° gegenüber einem Referenzereignis (ST), insbesondere gegenüber einem Referenzereignis des wenigstens einen Abtaststrahls (20), insbesondere gegenüber einem Intensitäts-Minimum des wenigstens einen Abtaststrahls (20) und/oder einem Nulldurchgang eines elektrischen Sendesignals, mit welchem eine Strahlquelle der Sendeeinrichtung (24) zum Erzeugen des wenigstens einen Abtaststrahls (20) angesteuert wird, gestartet werden.
9. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass Streulichteffekte korrigiert werden, die von Abtaststrahlen (20) hervorgerufen werden, welche an stark reflektierenden Objektzielen (19R), insbesondere retroreflektiven Objektzielen (19R), in dem wenigstens einen Überwachungsbereich (14) reflektiert werden.
10. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die Kurz-Integrationsdauer so eingestellt wird, dass lediglich die am stärksten reflektierenden Objektziele (19R), insbesondere retroreflektiven Objektziele (19R), der Szene in dem wenigstens einen Aufnahmezeitbereich (TBo, TB1, TB2, TB3) zu einer von einem Rauschen unterscheidbaren Kurz-Empfangsgröße (Ao,k, Ai,k, A2,k, As,k) führen.
11 . Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die wenigstens eine Modellfunktion (42) für eine Erfassung von retroreflektiven Objektzielen (19R) vorgegeben wird, die bei einem Betrieb des LiDAR-Systems (12), insbesondere des LiDAR-Systems (12) des Fahrzeugs (10), üblicherweise in dem wenigstens einen Überwachungsbereich (14) vorkommen.
12. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass für wenigstens einen Empfangsbereich (34) aus wenigstens einem Teil der zu diesem Empfangsbereich (34) gehörenden End-Empfangsgrößen (Ao,e, Ai,e, A2,e, As,e) eine Entfernungsgröße (D) ermittelt wird, welche eine jeweilige Entfernung eines mit dem wenigstens einen Empfangsbereich (34) erfassten Objektziels (19N,19R) charakterisiert, und/oder für wenigstens einen Empfangsbereich (34), welcher von Empfangsstrahlen (30) eines Objektziels (19N,19R) getroffen wird, aus einer Position dieses Empfangsbereichs (34) innerhalb der Empfangsmatrix (32), wenigstens eine die Richtung des reflektierenden Objektziels (19N,19R) relativ zu dem LiDAR-System (12) charakterisierende Richtungsgröße ermittelt wird.
13. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass der aus dem wenigstens einen Überwachungsbereich (14) kommende wenigstens eine Empfangsstrahl (30) mit Empfangsbereichen einer eindimensionalen, insbesondere linienförmigen, Empfangsmatrix, oder mit Empfangsbereichen (34) einer zweidimensionalen, insbesondere flächenförmigen, Empfangsmatrix (32) empfangen wird.
14. LiDAR-System (12), insbesondere Flash-LiDAR-System (12), insbesondere LiDAR-System (12) für ein Fahrzeug (10), mit wenigstens einer Sendeeinrichtung (24) zum Senden von elektromagnetischen Abtaststrahlen (20) in wenigstens einen Überwachungsbereich (14), wenigstens einer Empfangseinrichtung (26), die wenigstens eine Empfangsmatrix (32) umfasst, welche mehrere Empfangsbereiche (34) zum empfangen von aus dem wenigstens einen Überwachungsbereich (14) kommenden, von reflektierten Abtaststrahlen (20) stammenden Empfangsstrahlen (30) und zum Umwandeln in jeweilige Empfangsgrößen (Ao,k, Ai,k, A2,k, As.k, Ao.i, Au, A2,I, Aa.i) aufweist, und mit Mitteln zur Korrektur etwaiger Streulichteffekte, welche auf Empfangsbereiche (34) wirken können, dadurch gekennzeichnet, dass das LiDAR-System (12) Mittel aufweist zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 13.
15. Fahrzeug (10), aufweisend wenigstens ein LiDAR-System (12), insbesondere wenigstens ein Flash-LiDAR-System (12), mit wenigstens einer Sendeeinrichtung (24) zum Senden von elektromagnetischen Abtaststrahlen (20) in wenigstens einen Überwachungsbereich (14), mit wenigstens einer Empfangseinrichtung (26), die wenigstens eine Empfangsmatrix (32) umfasst, welche mehrere Empfangsbereiche (34) zum empfangen von aus dem wenigstens einen Überwachungsbereich (14) kommenden, von reflektierten Abtaststrahlen (20) stammenden Empfangsstrahlen (30) und zum Umwandeln in jeweilige Empfangsgrößen (Ao,k, Ai,k, A2,k, As.k, Ao.i, Au, A2,I, Aa.i) aufweist, und mit Mitteln zur Korrektur etwaiger Streulichteffekte, welche auf Empfangsbereiche (34) wirken können, dadurch gekennzeichnet, dass
Fahrzeug (10) Mittel aufweist zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 13.
PCT/EP2023/066363 2022-06-20 2023-06-19 Verfahren zum betreiben eines lidar-systems mit streulicht-korrektur, entsprechendes lidar-system und fahrzeug WO2023247395A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022115277.4 2022-06-20
DE102022115277.4A DE102022115277A1 (de) 2022-06-20 2022-06-20 Verfahren zum Betreiben eines LiDAR-Systems, LiDAR-System und Fahrzeug

Publications (1)

Publication Number Publication Date
WO2023247395A1 true WO2023247395A1 (de) 2023-12-28

Family

ID=87035852

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/066363 WO2023247395A1 (de) 2022-06-20 2023-06-19 Verfahren zum betreiben eines lidar-systems mit streulicht-korrektur, entsprechendes lidar-system und fahrzeug

Country Status (2)

Country Link
DE (1) DE102022115277A1 (de)
WO (1) WO2023247395A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200072946A1 (en) * 2018-08-29 2020-03-05 Sense Photonics, Inc. Glare mitigation in lidar applications
US10593029B2 (en) 2018-03-21 2020-03-17 Ford Global Technologies, Llc Bloom removal for vehicle sensors

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10593029B2 (en) 2018-03-21 2020-03-17 Ford Global Technologies, Llc Bloom removal for vehicle sensors
US20200072946A1 (en) * 2018-08-29 2020-03-05 Sense Photonics, Inc. Glare mitigation in lidar applications

Also Published As

Publication number Publication date
DE102022115277A1 (de) 2023-12-21

Similar Documents

Publication Publication Date Title
EP3729137B1 (de) Multipuls-lidarsystem zur mehrdimensionalen erfassung von objekten
EP1068992A2 (de) Rückfahrhilfe
DE102004010197A1 (de) Verfahren zur Funktionskontrolle einer Positionsermittlungs- oder Umgebungserfassungseinrichtung eines Fahrzeugs oder zur Kontrolle einer digitalen Karte
DE102008004632A1 (de) Vorrichtung und Verfahren zur Vermessung einer Parklücke
DE102011077333A1 (de) Fahrerassistenzsystem mit Objektdetektion
DE102009007408B4 (de) Vorrichtung zur Umfelderfassung eines Kraftfahrzeugs
DE102005003191A1 (de) Vorrichtung und Verfahren zur Umfelderfassung eines bewegbaren Objektes
DE102019217627A1 (de) Lidar mit distanzabhängiger vertikaler Auflösung
WO2023247302A1 (de) Verfahren zur ermittlung wenigstens einer korrekturfunktion für ein lidarsystem, lidar-system, fahrzeug mit wenigstens einem lidar-system, messanlage
EP4139709A1 (de) Verfahren und vorrichtung zum erkennen von blooming in einer lidarmessung
EP3994497A1 (de) Anpassungsvorrichtung und lidar-messvorrichtung
DE102009038406B4 (de) Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs
WO2023247395A1 (de) Verfahren zum betreiben eines lidar-systems mit streulicht-korrektur, entsprechendes lidar-system und fahrzeug
DE102020124017A1 (de) Verfahren zum Betreiben einer optischen Detektionsvorrichtung, optische Detektionsvorrichtung und Fahrzeug mit wenigstens einer optischen Detektionsvorrichtung
DE102022115268A1 (de) Verfahren zum Betreiben eines Flash-LiDAR-Systems für ein Fahrzeug, Flash- LiDAR-System und Fahrzeug
DE102022115273A1 (de) Verfahren zum Betreiben eines LiDAR-Systems, LiDAR-System und Fahrzeug aufweisend wenigstens ein LiDAR-System
WO2023247304A1 (de) Verfahren zum betreiben eines lidar-systems, lidar-system und fahrzeug mit wenigstens einem lidar-system
EP4010737A1 (de) Lidar-messsystem mit zwei lidar-messvorrichtungen
DE102020124023A1 (de) Verfahren zum Detektieren von Objekten und Detektionsvorrichtung
EP3945339A1 (de) Optische detektionsvorrichtung zur überwachung wenigstens eines überwachungsbereichs auf objekte hin und verfahren zum betreiben einer optischen detektionsvorrichtung
DE102021117361A1 (de) Verfahren zum Betreiben einer optischen Detektionsvorrichtung, Detektionsvorrichtung und Fahrzeug mit wenigstens einer Detektionsvorrichtung
WO2023083737A1 (de) Verfahren zum betreiben einer detektionsvorrichtung zur ortsaufgelösten überwachung wenigstens eines überwachungsbereichs, detektionsvorrichtung, fahrzeug mit wenigstens einer detektionsvorrichtung
DE102021112942A1 (de) Verfahren zum Betreiben einer Detektionsvorrichtung, Detektionsvorrichtung und Fahrzeug mit wenigstens einer Detektionsvorrichtung
WO2021001339A1 (de) Optische messvorrichtung zur bestimmung von objektinformationen von objekten in wenigstens einem überwachungsbereich
DE102020003096A1 (de) Verfahren zur Fernerkennung von Objekten in einem Umgebungsfrontbereich eines Fahrzeugs, Steuereinrichtung, Erkennungsvorrichtung sowie Fahrzeug

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23734510

Country of ref document: EP

Kind code of ref document: A1