WO2023247474A1 - Verfahren zum betreiben eines lidar-systems, lidar-system und fahrzeug aufweisend wenigstens ein lidar-system - Google Patents

Verfahren zum betreiben eines lidar-systems, lidar-system und fahrzeug aufweisend wenigstens ein lidar-system Download PDF

Info

Publication number
WO2023247474A1
WO2023247474A1 PCT/EP2023/066535 EP2023066535W WO2023247474A1 WO 2023247474 A1 WO2023247474 A1 WO 2023247474A1 EP 2023066535 W EP2023066535 W EP 2023066535W WO 2023247474 A1 WO2023247474 A1 WO 2023247474A1
Authority
WO
WIPO (PCT)
Prior art keywords
reception
area
electromagnetic
oversaturated
lidar system
Prior art date
Application number
PCT/EP2023/066535
Other languages
English (en)
French (fr)
Inventor
Hansjoerg Schmidt
Johannes Michael
Original Assignee
Valeo Detection Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Detection Systems GmbH filed Critical Valeo Detection Systems GmbH
Publication of WO2023247474A1 publication Critical patent/WO2023247474A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers

Definitions

  • the invention relates to a method for operating a LiDAR system, in particular a LiDAR system of a vehicle, in which at least one electromagnetic scanning beam is sent into at least one monitoring area using at least one transmitting device of the LiDAR system, at least one electromagnetic beam coming from the at least one monitoring area Reception beam, which comes from the at least one electromagnetic scanning beam reflected on at least one object target, is received with at least one of several reception areas of a reception matrix of a reception device of the LiDAR system, at least a part of the at least one received electromagnetic reception beam is converted into reception quantities, the reception quantities are assigned to the reception areas that are hit by the at least one electromagnetic reception beam.
  • the invention further relates to a LiDAR system, in particular a LiDAR system of a vehicle, with at least one transmitting device, with which electromagnetic scanning beams can be sent into at least one monitoring area, with at least one receiving device, which has at least one reception matrix with a plurality of reception areas, with which electromagnetic reception beams coming from the at least one monitoring area, which originate from electromagnetic scanning beams reflected on at least one object target, can be received, and which has means for converting electromagnetic reception beams into reception quantities which can be assigned to the reception areas hit by the corresponding electromagnetic reception beams.
  • the invention also relates to a vehicle having at least one LiDAR system, with at least one transmitting device, with which electromagnetic scanning beams can be sent into at least one monitoring area, with at least one receiving device, which has at least one receiving matrix with a plurality of receiving areas, with which electromagnetic receiving beams coming from the at least one monitoring area, which reflect electromagnetic scanning beams from at least one object target originate, can be received, and which has means for converting electromagnetic reception beams into reception quantities that can be assigned to the reception areas hit by the corresponding electromagnetic reception beams.
  • a flash LIDAR system or circuit that is configured to compensate for the background.
  • the system includes a control circuit, a timing circuit, a transmitter array with a plurality of transmitters and a detector array with a plurality of detectors (e.g. an array of single photon detectors).
  • the control circuit implements a pixel processor that measures the time of flight of the illumination pulse as it travels from the transmitter array to the target and back to the detector array using direct or indirect ToF measurement methods.
  • the invention is based on the object of designing a method, a LiDAR system and a vehicle of the type mentioned at the outset, in which the determination of distance variables can be further improved, in particular errors in the determination of distance variables due to oversaturation of reception areas can be corrected .
  • the object is achieved according to the invention in that for at least a part of the reception areas hit by the at least one electromagnetic reception beam, at least one distance variable is determined from at least a part of the respective reception variables, which is a distance of the at least one object target to the corresponding reception area.
  • rich, on which the at least one electromagnetic reception beam hits characterized if at least one reception area is oversaturated with the at least one electromagnetic reception beam, to which at least one oversaturated reception area a substitute distance size is used, the replacement distance size being determined on the basis of at least one size which was determined for at least one non-oversaturated reception area that is closest to the oversaturated at least one reception area.
  • the measurement of this reception area is corrected by measuring at least one nearest, in particular neighboring, reception area which is not oversaturated. In this way, even if one of the reception areas is oversaturated, a distance size can be determined for an object target from which the at least one reception beam comes, which leads to oversaturation of the corresponding reception area.
  • oversaturation of reception areas can occur due to strong electromagnetic reception beams, which come from scanning beams that are reflected on highly reflective object targets, in particular retroreflective object targets. No valid distance value can be determined from the reception sizes of the oversaturated reception areas. Oversaturation can occur in particular when the received quantity exceeds a predeterminable saturation limit value.
  • the oversaturation of reception areas also leads to a distortion of the reception quantities in non-oversaturated reception areas in the vicinity of the oversaturated reception areas. It has been shown that the distance between the highly reflective object target and the supersaturated reception areas hit by the at least one reception beam can be characterized using the distance sizes of the non-supersaturated reception areas in the vicinity of the supersaturated reception areas.
  • the reception areas in the vicinity of oversaturated reception areas experience a blooming effect that emanates from oversaturated reception areas.
  • the blooming effect in the vicinity of oversaturated reception areas is used according to the invention to determine the distance size for removing the highly reflective object target which causes the oversaturation. In this way, even with integration times that are long enough to detect weakly reflective object targets in the at least one monitoring area with the LiDAR system, the distance sizes can also be determined for highly reflective object targets.
  • the substitute distance size is determined on the basis of at least one size that was determined for a non-oversaturated reception area that is closest to the oversaturated at least one reception area.
  • the at least one closest non-oversaturated reception area can be in the direct vicinity of the at least one oversaturated reception area. If there is no non-supersaturated reception area in the immediate vicinity of the at least one oversaturated reception area, the substitute distance size is determined based on at least one size that was determined for at least one nearest non-supersaturated reception area.
  • a non-supersaturated reception area is closest in the sense of the invention if there is no further non-supersaturated reception area on a straight line between this non-supersaturated reception area and the relevant oversaturated reception area.
  • a direction of the at least one reflecting object target relative to the reception matrix can be determined via the position of the reception areas within the reception matrix hit by the at least one electromagnetic reception beam.
  • the reception matrix With the reception matrix, a spatially resolved LiDAR measurement is possible.
  • the reception matrix can be a one-dimensional reception matrix.
  • a spatial resolution can be achieved in two dimensions, in particular in the horizontal or vertical direction and in the distance direction.
  • the reception matrix can advantageously be a two-dimensional reception matrix.
  • the position of the at least one object target can be divided into three Dimensions, in particular in the horizontal direction, in the vertical direction and in the distance direction, can be determined.
  • the at least one electromagnetic scanning beam may comprise or consist of an electromagnetic scanning signal.
  • additional information can be transmitted with the at least one scanning beam.
  • the at least one scanning signal can be coded. In this way, the assignment of the at least one scanning beam on the receiver side can be simplified.
  • a distance variable in the sense of the invention is a variable that characterizes a distance of a detected object target to a reference point, in particular a reception area of the LiDAR system.
  • a distance quantity can be a shift, in particular a phase shift, between a transmitted scanning beam in the form of an amplitude-modulated scanning beam and the corresponding electromagnetic received beam.
  • a distance quantity can be the amount of a geometric length.
  • An object target in the sense of the invention is a location on an object at which electromagnetic scanning beams, which are sent by the LiDAR system into the at least one monitoring area, can be reflected.
  • Each object can have multiple object targets.
  • electromagnetic scanning beams in the form of laser beams in particular laser signals, can be sent with the at least one transmitting device.
  • Laser beams can be precisely defined and emitted over a long range, especially several hundred meters.
  • the LiDAR system can be a flash LiDAR system.
  • each transmitted electromagnetic scanning beam - similar to a flash - emits large parts of the at least one monitoring area, in particular the entire monitoring area.
  • the LiDAR system can be used as a laser-based distance measuring system be designed.
  • a laser-based distance measuring system can have at least one laser, in particular a diode laser, as the light source of a transmitting device.
  • pulsed scanning beams can be sent with the at least one laser.
  • the laser can be used to emit scanning beams in wavelength ranges that are visible or invisible to the human eye.
  • the receiving matrix of the receiving device can be implemented with at least one sensor designed for the wavelength of the emitted scanning beam, in particular a CCD sensor, an active pixel sensor, in particular a CMOS sensor or the like.
  • Such sensors have a plurality of reception areas, in particular pixels or groups of pixels. Such sensors can be operated in such a way that the received variables determined can be assigned to the respective reception areas
  • the method and the LiDAR system can advantageously be used in vehicles, in particular motor vehicles.
  • the method and the LiDAR system can advantageously be used in land vehicles, in particular passenger cars, trucks, buses, motorcycles or the like, aircraft, in particular drones, and/or watercraft.
  • the method and the LiDAR system can also be used in vehicles that can be operated autonomously or at least partially autonomously.
  • the method and the LiDAR system are not limited to vehicles. They can also be used in stationary operation, in robotics and/or in machines, in particular construction or transport machines, such as cranes, excavators or the like.
  • the LiDAR system can have a processor device, in particular an electronic control and evaluation device, with which the LiDAR system can be controlled and received variables can be determined and/or processed.
  • the LiDAR system can advantageously be connected to or be part of at least one electronic control device of a vehicle or a machine, in particular a driver assistance system or the like. In this way, at least some of the functions of the vehicle or machine can be operated autonomously or semi-autonomously.
  • the LiDAR system can be used to detect stationary or moving objects, in particular vehicles, people, animals, plants, obstacles, uneven road surfaces, in particular potholes or stones, road boundaries, traffic signs, open spaces, in particular parking spaces, precipitation or the like, and/or movements and /or gestures can be used.
  • the substitute distance variable to the at least one oversaturated reception area can be determined on the basis of at least one reception variable and / or at least one distance variable that was determined to at least one nearest non-supersaturated reception area, in particular a distance variable can be used as a substitute distance variable be used, which was determined for a nearest non-oversaturated reception area and / or an individual replacement distance size is used for at least one oversaturated reception area, in particular an individual replacement distance size is used for each oversaturated reception area.
  • the substitute distance variable to the at least one oversaturated reception area can be determined on the basis of at least one reception variable and/or at least one distance variable.
  • the replacement distance variable can be efficiently determined from variables, in particular reception variables and/or distance variables, which have already been obtained for non-oversaturated reception areas.
  • the replacement distance size can be determined on the basis of received sizes.
  • the replacement distance size can be determined directly from at least one distance size. In this way, the effort required to determine the replacement received size can be reduced.
  • An individual substitute distance size can be used for at least one oversaturated reception area.
  • the replacement distance size can be determined individually for at least some of the oversaturated reception areas using the nearest non-oversaturated reception areas. On In this way, a distance profile can also be realized within groups of oversaturated reception areas, which characterizes the distance profile of the object targets responsible for the oversaturated reception areas.
  • an individual replacement distance size can be used for each oversaturated reception area.
  • the distance sizes and / or the reception sizes can be combined, in particular averaged, which were determined for several nearest non-oversaturated reception areas. In this way, the accuracy of determining the substitute distance size can be further improved.
  • At least one amplitude-modulated scanning beam can be sent with the at least one transmitting device, which at least one electromagnetic reception beam coming from the at least one reflected scanning beam and striking at least one reception area is converted into respective reception variables, in particular phase variables, during at least two recording time ranges be, at least two of the recording time ranges being started out of phase with respect to a modulation period of the at least one transmitted scanning beam.
  • the LiDAR system can be operated using an indirect time-of-flight method, also known as the indirect time-of-flight method.
  • the distance sizes can be determined from phase shifts between the transmitted amplitude-modulated scanning beam and the received reflected scanning beam.
  • the corresponding reception variables can be determined separately for each reception area that is hit with a reception beam, at least for the two recording time ranges. In this way, a corresponding distance variable can be determined separately from the received variables for each reception area.
  • the received beam can be converted into respective received variables in the form of phase variables.
  • a phase variable can have an amplitude Characterize phase image of the received beam, which is recorded during a recording time range
  • a reception area can be recognized as oversaturated if it is oversaturated during at least one of the at least two recording time ranges and / or a reception area can be recognized as not oversaturated if it is not oversaturated during all of the at least two recording time ranges. In this way, oversaturation can be detected more reliably. In this way, the overall accuracy of the distance measurement can be further improved.
  • the reception variables and/or the distance variables can be determined using a time-of-flight method, in particular an indirect time-of-flight method. In this way, the distance size and thus the distance of a detected object target can be determined precisely.
  • the LiDAR system can be determined using an indirect time-of-flight method. In this way, the accuracy of distance measurement can be further improved.
  • At least part of the at least one monitoring area can be illuminated with at least one electromagnetic flash scanning beam. In this way, at least part of the at least one monitoring area can be illuminated simultaneously with the same flash scanning beam. In this way, a snapshot of the at least one simultaneously illuminated part of the monitoring area can be realized.
  • a flash scanning beam spreads out in different directions in space, similar to a flash light.
  • the at least one monitoring area can be scanned with at least one electromagnetic scanning beam in a spatial dimension, in particular in the horizontal direction.
  • a two-dimensional Distance image in particular with a dimension in the horizontal direction and a dimension in the distance direction, can be realized.
  • the at least one monitoring area can advantageously be scanned with at least one electromagnetic scanning beam in two spatial dimensions, in particular in the horizontal and vertical directions.
  • at least one electromagnetic scanning beam in two spatial dimensions, in particular in the horizontal and vertical directions.
  • a three-dimensional distance image can be realized, in particular with a dimension in the horizontal direction, a dimension in the vertical direction and a dimension in the distance direction.
  • the object is achieved according to the invention in the LiDAR system in that the LiDAR system has means for carrying out the method according to the invention.
  • the LiDAR system can have means with which distance variables can be determined from respective reception variables for reception areas hit by electromagnetic reception beams, which characterize distances from object targets to the reception areas that are hit by electromagnetic reception beams reflected from the object targets, and, if at least one Reception area is oversaturated with electromagnetic reception beams, for the at least one oversaturated reception area a replacement distance size can be used, wherein the replacement distance size can be determined based on at least one size that was determined for a non-oversaturated reception area closest to the oversaturated reception area.
  • means for carrying out the method according to the invention can be implemented using software and/or hardware. In this way, the funds can be implemented efficiently.
  • the means for carrying out the method according to the invention can be implemented with at least one processor of the LiDAR system, in particular a control and evaluation device.
  • the reception beams can be received with reception areas of a one-dimensional reception matrix.
  • the receiving device of the LiDAR system can have at least one one-dimensional receiving matrix, in particular a line matrix. In this way, the at least one monitoring area can be recorded in a spatially resolved manner in two dimensions, namely one dimension of the reception matrix and a distance dimension.
  • the reception beams can be received with reception areas of a two-dimensional reception matrix.
  • the receiving device of the LiDAR system can have at least one two-dimensional receiving matrix, in particular an area matrix.
  • the at least one monitoring area can thus be recorded in a spatially resolved manner in three dimensions, namely the two dimensions of the reception matrix and a distance dimension.
  • directions of detected object targets can be determined relative to the LiDAR system.
  • the direction of the corresponding object targets can be determined from the positions of the reception areas within the reception matrix hit by reception beams.
  • At least one receiving matrix can be implemented with at least one CCD chip and/or at least one receiving matrix can be implemented with a 3D ToF imager.
  • the electromagnetic reception beams can be received with the corresponding reception areas, which can be referred to as pixels in CCD chips and 3D ToF images, and converted into electrical reception signals.
  • the corresponding received variables can be determined from the electrical received signals.
  • 3D ToF imagers (3D time-of-flight imagers) are known to be three-dimensional time-of-flight imagers. With 3D ToF images, three-dimensional distance images of surveillance areas can be recorded.
  • the object is achieved according to the invention in the vehicle in that the vehicle has means for carrying out the method according to the invention.
  • the means for carrying out the method according to the invention can be implemented with the at least one LiDAR system, in particular a LiDAR system according to the invention.
  • the at least one LiDAR system can be configured before it is installed on the vehicle. After installation, the at least one LiDAR system is part of the vehicle, so that the means of the at least one LiDAR system are also means of the at least one vehicle.
  • At least one LiDAR system at least one monitoring area in the surroundings of the vehicle and/or in the interior of the vehicle can be monitored for object targets. With the at least one LiDAR system, distances to detected object targets can be determined.
  • the vehicle can have at least one driving assistance system.
  • the vehicle can be operated autonomously or at least partially autonomously.
  • At least one LiDAR system can be functionally connected to at least one driver assistance system of the vehicle.
  • information about the at least one monitoring area, in particular distance variables and/or directional variables to detected object targets, which can be determined with the at least one LiDAR system can be transmitted to the at least one driver assistance system.
  • the vehicle With the at least one driver assistance system, the vehicle can be operated autonomously or at least partially autonomously, taking into account the information about the at least one monitoring area.
  • Figure 1 shows a front view of a vehicle with a driver assistance system and a LiDAR system for detecting objects
  • Figure 2 shows a functional representation of a part of the vehicle with the driver assistance system and the LiDAR system from Figure 1;
  • Figure 3 shows a front view of a reception matrix of a reception device of the LiDAR system from Figures 1 and 2, the reception matrix having a plurality of reception areas;
  • Figure 4 shows a signal strength-time diagram with four exemplary phase images DCSo to DCS3, which are determined with respective phase shifts of 90° from a received light signal of a reflected transmitted light signal of the LiDAR system from Figures 1 and 2 and their amplitudes as phase variables for determining distances of objects serve;
  • Figure 5 shows a distance image of a scene with several objects in grayscale representation, one of the objects being a retroreflective street sign, with an integration time of 210 ps;
  • Figure 6 shows an intensity profile through one line of the distance image from Figure 5;
  • Figure 7 shows a distance image of the scene from Figure 5 with an integration time of 1 ps
  • Figure 8 shows an intensity profile through one line of the distance image from Figure 7.
  • a vehicle 10 is shown as an example in the form of a passenger car in the front view.
  • Figure 2 shows a functional representation of a part of the vehicle 10.
  • the vehicle 10 has a LiDAR system 12, which is designed as a flash LiDAR system.
  • the LiDAR system 12 is, for example, arranged in the front bumper of the vehicle 10.
  • a monitoring area 14 in the direction of travel 16 in front of the vehicle 10 can be monitored for objects 18.
  • the LiDAR system 12 can also be arranged elsewhere on the vehicle 10 and aligned differently.
  • object information for example distance variables D, directional variables and speed variables, can be determined, which characterize distances, directions and speeds of objects 18 relative to the vehicle 10 or to the LiDAR system 12.
  • the objects 18 can be stationary or moving objects, for example other vehicles, people, animals, plants, obstacles, bumps in the road, for example potholes or stones, road boundaries, traffic signs, open spaces, for example parking spaces, precipitation or the like.
  • Each object 18 usually has several object targets 19.
  • An object target 19 is a location of an object 18 at which electromagnetic scanning beams in the form of transmitted light signals 20, which are sent from the LiDAR system 12 into the monitoring area 14, can be reflected.
  • FIG. 2 shows an example of an object 18 in the form of a street sign with a gas station symbol.
  • the area of the street sign with the gas station symbol has normal reflectivity with respect to the transmitted light signals 20.
  • the area of the street sign surrounding the gas station symbol has a retroreflective coating.
  • the LiDAR system 12 is connected to a driver assistance system 22. With the driver assistance system 22, the vehicle 10 can be operated autonomously or semi-autonomously.
  • the LiDAR system 12 includes, for example, a transmitting device 24, a receiving device 26 and a control and evaluation device 28.
  • the control and evaluation device 28 is, for example, an electronic control and evaluation device, for example with one or more processors.
  • the functions of the control and evaluation device 28 can be implemented centrally or decentrally using software and/or hardware. Parts of the functions of the control and evaluation device 28 can also be integrated in the transmitting device 24 and/or the receiving device 26.
  • transmission variables can be generated in the form of electrical transmission signals.
  • the transmitting device 24 can be controlled with the electrical transmission signals, so that it sends amplitude-modulated transmitted light signals 20 in the form of laser pulses into the monitoring area 14.
  • the transmitting device 24 has, for example, a laser as a light source.
  • the laser can be used to generate transmitted light signals 20 in the form of laser pulses.
  • the transmitting device 24 has an optical device with which the transmitted light signals 20 are expanded so that they can spread into the entire monitoring area 14 - similar to a flash light. In this way, the entire monitoring area 14 can be illuminated with each transmitted light signal 20.
  • the transmitted light signals 20 can therefore also be referred to as “flash scanning beams”.
  • Transmitted light signals 20 reflected on an object 18 in the direction of the receiving device 26, which are referred to as received light signals 30 for better distinction, can be received with the receiving device 26.
  • the receiving device 26 can optionally have a received light signal deflection device with which the received light signals 30 are sent to a reception shown in FIG. capture matrix 32 of the receiving device 26 are directed.
  • the reception matrix 32 is realized, for example, with an area sensor in the form of a CCD sensor with a large number of reception areas 34.
  • Each reception area 34 can be implemented, for example, by a group of pixels.
  • the reception matrix 32 described here has, for example, 320 columns with 240 reception areas 34 each. For the sake of clarity, only 7 x 7 of the reception areas 34 are indicated in FIG.
  • a different type of surface sensor for example an active pixel sensor or the like, can also be used.
  • Phase variables Ai can be referred to, are converted.
  • the phase variables Ao, Ai, A2 and A3 are the amplitudes of phase images (differential correlation samples) DCSo, DCS1, DCS2 and DCS3, which can also be referred to below as phase images DCSi for the sake of simplicity.
  • the phase variables Ai and the phase images DCSi can be assigned to the respective reception areas 34.
  • Each reception area 34 can be activated via suitable closure means for the detection of received light signals 30 for defined recording time ranges TBo, TB1, TB2 and TB3, which can also be referred to below as recording time ranges TBi for the sake of simplicity.
  • the reception areas 34 can each be activated in four recording time ranges TBo, TB1, TB2 and TB3 for detecting received signals 30.
  • Each recording time range TBi is defined by a start time and an integration period.
  • the time intervals between two defined recording time ranges TBi are smaller than the period IMOD of the modulation period MP.
  • portions of received light signals 30 hitting the respective reception area 34 can be converted into corresponding electrical reception signals.
  • the respective phase images DCSi and their amplitudes Ai can be determined from the received signals, which characterize respective signal sections of the received light signal 30 in the respective recording time ranges TBi.
  • the phase images DCSi and their amplitudes, i.e. the phase variables Ai characterize the respective amount of light that is collected during the recording time ranges TBi with the correspondingly activated reception area 34 of the reception matrix 32.
  • each reception area 34 can be activated and read out individually.
  • the closure means can be implemented using software and/or hardware. Such closure means can be implemented as so-called “shutters”.
  • the reception areas 34 can be controlled with corresponding periodic recording control signals in the form of shutter signals.
  • the shutter signals can be triggered via the electrical transmission signals with which the laser of the transmission device 24 is controlled, or together with them.
  • the phase variables Ai are thus related to the transmitted light signals 20.
  • the electrical transmission signals can be triggered at a starting time ST.
  • the reception areas 34 are triggered with the corresponding time-offset shutter signals.
  • the receiving device 26 can optionally have optical elements with which received light signals 30 coming from the monitoring area 14 are imaged onto respective receiving areas 34 when viewed in the direction of the receiving areas 34, depending on the direction from which they come.
  • the direction of an object target 19 or 19R on which the transmitted light signal 20 is reflected can thus be determined from the position of the illuminated reception areas 34 within the reception matrix 32.
  • the 4 shows a modulation period MP of a reception envelope 36 of the phase images DCSo, DCSi, DCS2 and DCS3 in a common signal strength-time diagram.
  • the signal strength axis is labeled “S” and the time axis is labeled “t”.
  • the reception envelope 36 is offset in time from the starting time ST.
  • the time offset in the form of a phase difference characterizes the flight time between the emission of the transmitted light signal 20 and the reception of the corresponding received light signal 30.
  • the distance size D for the reflecting object 18 can be determined from the phase difference.
  • the phase shift 0 can also itself be used as a distance variable for the distance D.
  • the flight time is known to be proportional to the distance of the object target 19 relative to the LiDAR system 12.
  • the reception envelope 36 can be approximated by, for example, four support points in the form of the four phase images DCSo, DCSi, DCS2 and DCS3. Alternatively, the reception envelope 36 can also be approximated by more or fewer support points in the form of phase images.
  • the recording time ranges TBo, TB1, TB2 and TB3 are each started based on a reference event, for example in the form of a trigger signal for the electrical transmission signal at the starting time ST.
  • the modulation period MP of the transmitted light signal 20 extends over 360°.
  • the recording time ranges TBo, TB1, TB2 and TB3 each start at a distance of 90° from one another in relation to the modulation period MP.
  • the recording time ranges TBo, TB1, TB2 and TB3 start with phase shifts of 0°, 90°, 180° and 270°, respectively, compared to the starting time ST.
  • a distance variable D for a detected object 18 can be determined mathematically, for example, from the amplitudes, i.e. the phase variables Ao, Ai, A2 and A3, of the phase images DCSo, DCS1, DCS2 and DCS3 for a respective reception area 34 in a manner of no further interest here.
  • FIG. 5 shows a distance image of a scene in grayscale representation, which was captured with the LiDAR system 12 with an integration time of 210 ps.
  • Figure 7 shows a distance image of the same scene in grayscale representation, which was captured with the LiDAR system 12 with an integration time of 1 ps.
  • the 320 columns of the reception matrix 32 are indicated in the horizontal dimension. Each column characterizes the horizontal direction from which the received light signals 30 received with the reception areas 34 (pixels) of the column come, i.e. in which the corresponding object target 19 or 19R is located.
  • the 240 lines of the reception matrix 32 are indicated in the vertical dimension of the distance image.
  • Each line characterizes the vertical direction from which the received light signals 30 received with the reception areas 34 (pixels) of the line come, i.e. in which the corresponding object target 19 or 19R is located.
  • the distance sizes D for the detected object targets 19 and 19R are defined in gray levels according to a gray level scale shown next to the distance image.
  • Figure 6 shows an intensity profile through line 90 of the distance image from Figure 5.
  • Figure 8 shows an intensity profile through line 90 of the distance image from Figure 7.
  • the respective distance sizes D for example approximately 1.2 m, of the retroreflective object targets 19R of the street sign (object 18), as shown in the distance image in FIG. 7, can be determined.
  • the integration period of 1 ps is chosen so that the reception areas 34 of the reception matrix 32, which are hit by the reception light signals 30, which come from the retroreflective object targets 19R, are not oversaturated.
  • the received light signals 30 coming from the normally reflecting object targets 19 of the scene are too weak to generate measurable signals in the corresponding reception areas 34.
  • only noise can be seen in the area surrounding the street sign (object 18) and in the area of the normally reflecting gas station symbol.
  • the received light signals 30 reflected by the retroreflective object targets 1 9R are hit, but also a falsification of the signals of the reception areas 34 in the vicinity of the reception areas 34 hit by the received light signals 30 from the retroreflective object targets 1 9R.
  • This falsification is referred to as blooming or glare . Blooming leads to an error in determining the distance sizes D for object targets 19 in the vicinity of highly reflective object targets 1 9R.
  • the distance sizes D of the normally or weakly reflecting object targets 19 are, as shown in FIG. 5, falsified towards the distance size D of the retroreflective object targets 19R.
  • blooming areas 38 can be seen in the vicinity of the reception areas 34, which are hit by the received light signals 30 coming from the retroreflective object targets 19R.
  • the blooming areas 38 extend over the reception areas 34, which are adjacent to the oversaturated reception areas 34.
  • the distance variables D determined with the reception areas 34 from the blooming areas 38 characterize the distances of the respectively neighboring retroreflective object targets 1 9R of the street sign, namely approximately 1.2 m.
  • the LiDAR system 12 is described as follows operated.
  • an amplitude-modulated flash transmitted light signal 20 is sent into the monitoring area 14 using the transmitting device 24.
  • the transmitted light signal 20, if present, is reflected on object targets 19 or 19R.
  • the transmission signal 20 is reflected, for example, on the object targets 19 and 19R of the street sign and the walls. Part of the transmitted light signal 20 is reflected on the object targets 19 and 19R. ted and radiated as received light signals 30 in the direction of the receiving device 26.
  • the receiving device 26 is used to carry out a measurement with an integration period during which the received light signals 30 are received from the monitoring area 14 with the reception areas 34 in the four recording time ranges TBo, TBi, TB2 and TB3.
  • the length of the integration period is chosen so that even the weaker received light signals 30 from the normally reflective object targets 19, for example the gas station symbol on the street sign and the walls, are sufficient to generate received signals that can be distinguished from noise in the reception areas 34.
  • the integration time is approximately 210 ps.
  • the received light signals 30 reflected at the retroreflective object targets 19R are so strong that they lead to overloading in the corresponding reception areas 34 of the reception matrix 32.
  • the overdriven reception areas 34 are shown in black.
  • no values for the distance variables D are entered for the overdriven reception areas 34, since these cannot be determined due to oversaturation.
  • the respective received portion of the received light signals 30 is converted into the four corresponding phase variables Ao, Ai, A2 and A3 assigned to the respective reception area 34.
  • reception areas 34 are then checked for oversaturation.
  • a reception area 34 is recognized as oversaturated if one of the phase variables Ao, Ai, A2 or A3 assigned to this reception area 34 is above a predetermined saturation limit.
  • a reception area 34 is recognized as non-oversaturated if all of the phase variables Ao, Ai, A2 and A3 assigned to this reception area 34 are below the saturation limit.
  • a corresponding distance variable D is determined from their assigned phase variables Ao, Ai, A2 and A3, which characterizes the distance of the object target 19 to the corresponding non-oversaturated reception area 34.
  • a substitute distance size D* is used for each of the oversaturated reception areas 34.
  • the replacement distance size D* is determined from the distance sizes D, which were determined for the nearest non-oversaturated reception areas 34. For this purpose, for each oversaturated reception area 34, all the nearest non-oversaturated reception areas 34 in the first row are used. The first row is formed by the non-supersaturated reception areas 34, between which and the respective supersaturated reception area 34 there is no further non-supersaturated reception area 34 in a straight line. These non-oversaturated reception areas 34 lie in the blooming area 38.
  • the replacement distance size D* for an oversaturated reception area 34 is determined, for example, by averaging the distance sizes D of the corresponding nearest non-oversaturated reception areas 34.
  • the replacement distance sizes D* for the oversaturated reception areas 34 are derived from the distance sizes D of the non-oversaturated reception areas 34, which correspond to the outer ring of the correspond to normally reflective object targets 19 of the gas station symbol of the street sign, and the non-oversaturated reception areas 34, which characterize an imaginary ring around the oversaturated reception areas 34 for the retroreflective object targets 19R.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Es werden ein Verfahren zum Betreiben eines LiDAR-Systems, ein LiDAR-System und ein Fahrzeug beschrieben. Bei dem Verfahren wird wenigstens ein elektromagnetischer Abtaststrahl mit wenigstens einer Sendeeinrichtung des LiDAR-Systems in wenigstens einen Überwachungsbereich gesendet, wenigstens ein aus dem Überwachungsbereich kommender elektromagnetischer Empfangsstrahl, welcher von dem wenigstens einen an wenigstens einem Objektziel (19, 19R) reflektierten elektromagnetischen Abtaststrahl herrührt, mit wenigstens einem von mehreren Empfangsbereichen einer Empfangsmatrix einer Empfangseinrichtung des LiDAR-Systems empfangen, wenigstens ein Teil des empfangenen Empfangsstrahls in Empfangsgrößen umgewandelt, wobei die Empfangsgrößen den Empfangsbereichen, die von dem Empfangsstrahl getroffen werden, jeweils zugeordnet werden. Für wenigstens einen Teil der mit dem Empfangsstrahl getroffenen Empfangsbereiche wird aus wenigstens einem Teil der jeweiligen Empfangsgrößen jeweils wenigstens eine Entfernungsgröße (D) ermittelt, welche eine Entfernung des wenigstens einen Objektziels (19, 19R) zu dem entsprechenden Empfangsbereich, auf den der Empfangsstrahl trifft, charakterisiert. Falls wenigstens ein Empfangsbereich mit dem Empfangsstrahl übersättigt wird, zu dem wenigstens einen übersättigten Empfangsbereich eine Ersatz-Entfernungsgröße (D*) eingesetzt wird, wobei die Ersatz-Entfernungsgröße (D*) auf Basis wenigstens einer Größe (D) ermittelt wird, die zu wenigstens einem zu dem übersättigten wenigstens einen Empfangsbereich nächstliegenden nicht übersättigten Empfangsbereich ermittelt wurde.

Description

Beschreibung
Verfahren zum Betreiben eines LiDAR-Systems, LiDAR-System und Fahrzeug aufweisend wenigstens ein LiDAR-System
Technisches Gebiet
Die Erfindung betrifft ein Verfahren zum Betreiben eines LiDAR-Systems, insbesondere eines LiDAR-Systems eines Fahrzeugs, bei dem wenigstens ein elektromagnetischer Abtaststrahl mit wenigstens einer Sendeeinrichtung des LiDAR-Systems in wenigstens einen Überwachungsbereich gesendet wird, wenigstens ein aus dem wenigstens einen Überwachungsbereich kommender elektromagnetischer Empfangsstrahl, welcher von dem wenigstens einen an wenigstens einem Objektziel reflektierten elektromagnetischen Abtaststrahl herrührt, mit wenigstens einem von mehreren Empfangsbereichen einer Empfangsmatrix einer Empfangseinrichtung des LiDAR-Systems empfangen wird, wenigstens ein Teil des wenigstens einen empfangenen elektromagnetischen Empfangsstrahls in Empfangsgrößen umgewandelt wird, wobei die Empfangsgrößen den Empfangsbereichen, die von dem wenigstens einen elektromagnetischen Empfangsstrahl getroffen werden, jeweils zugeordnet werden.
Ferner betrifft die Erfindung ein LiDAR-System, insbesondere ein LiDAR-System eines Fahrzeugs, mit wenigstens einer Sendeeinrichtung, mit welcher elektromagnetische Abtaststrahlen in wenigstens einen Überwachungsbereich gesendet werden können, mit wenigstens einer Empfangseinrichtung, welche wenigstens eine Empfangsmatrix mit mehreren Empfangsbereichen aufweist, mit denen aus dem wenigstens einen Überwachungsbereich kommende elektromagnetische Empfangsstrahlen, welche von an wenigstens einem Objektziel reflektierten elektromagnetische Abtaststrahlen herrühren, empfangen werden können, und welche Mittel zum Umwandeln von elektromagnetischen Empfangsstrahlen in Empfangsgrößen aufweist, die den mit den entsprechenden elektromagnetischen Empfangsstrahlen getroffenen Empfangsbereichen zuordenbar sind.
Außerdem betrifft die Erfindung ein Fahrzeug aufweisend wenigstens ein LiDAR- System, mit wenigstens einer Sendeeinrichtung, mit welcher elektromagnetische Abtaststrahlen in wenigstens einen Überwachungsbereich gesendet werden können, mit wenigstens einer Empfangseinrichtung, welche wenigstens eine Empfangsmatrix mit mehreren Empfangsbereichen aufweist, mit denen aus dem wenigstens einen Überwachungsbereich kommende elektromagnetische Empfangsstrahlen, welche von wenigstens einem Objektziel reflektierten elektromagnetische Abtaststrahlen herrühren, empfangen werden können, und welche Mittel zum Umwandeln von elektromagnetischen Empfangsstrahlen in Empfangsgrößen aufweist, die den mit den entsprechenden elektromagnetischen Empfangsstrahlen getroffenen Empfangsbereichen zuordenbar sind.
Stand der Technik
Aus der US 2020/0072946 A1 ist ein Flash-LIDAR-System oder -Schaltkreis bekannt, der so konfiguriert ist, dass er den Hintergrund kompensiert. Das System umfasst eine Steuerschaltung, eine Zeitschaltung, eine Sendearray mit einer Vielzahl von Sendern und eine Detektorarray mit einer Vielzahl von Detektoren (z. B. eine Anordnung von Einzelphotonendetektoren). Der Steuerschaltkreis implementiert einen Pixelprozessor, der die Flugzeit des Beleuchtungspulses auf dem Weg von dem Sender Array zum Ziel und zurück zum Detektorarray misst, wobei direkte oder indirekte ToF-Messverfahren verwendet werden.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren, ein LiDAR-System und ein Fahrzeug der eingangs genannten Art zu gestalten, bei denen die Ermittlung von Entfernungsgrößen weiter verbessert werden kann, insbesondere Fehler bei der Ermittlung von Entfernungsgrößen aufgrund von Übersättigung von Empfangsbereichen korrigiert werden können.
Offenbarung der Erfindung
Die Aufgabe wird erfindungsgemäß dadurch gelöst, dass für wenigstens einen Teil der mit dem wenigstens einen elektromagnetischen Empfangsstrahl getroffenen Empfangsbereiche aus wenigstens einem Teil der jeweiligen Empfangsgrößen jeweils wenigstens eine Entfernungsgröße ermittelt wird, welche eine Entfernung des wenigstens einen Objektziels zu dem entsprechenden Empfangsbe- reich, auf den der wenigstens eine elektromagnetische Empfangsstrahl trifft, charakterisiert, falls wenigstens ein Empfangsbereich mit dem wenigstens einen elektromagnetischen Empfangsstrahl übersättigt wird, zu dem wenigstens einen übersättigten Empfangsbereich eine Ersatz-Entfernungsgröße eingesetzt wird, wobei die Ersatz-Entfernungsgröße auf Basis wenigstens einer Größe ermittelt wird, die zu wenigstens einem zu dem übersättigten wenigstens einen Empfangsbereich nächstliegenden nicht übersättigten Empfangsbereich ermittelt wurde.
Erfindungsgemäß wird bei Vorliegen einer Übersättigung eines Empfangsbereichs die Messung dieses Empfangsbereichs korrigiert durch die Messung wenigstens eines nächstliegenden, insbesondere benachbarten, Empfangsbereichs, welcher nicht übersättigt wird. Auf diese Weise kann auch bei einer Übersättigung eines der Empfangsbereiche eine Entfernungsgröße für ein Objektziel ermittelt werden, von dem der wenigstens eine Empfangsstrahl kommt, der zur Übersättigung des entsprechenden Empfangsbereichs führt.
Bei LiDAR-Systemen kann es bei entsprechend langen Integrationszeiten zu Übersättigungen von Empfangsbereichen aufgrund von starken elektromagnetischen Empfangsstrahlen kommen, welche von Abtaststrahlen herrühren, die an hochreflektierenden Objektzielen, insbesondere retroreflektiven Objektzielen, reflektiert werden. Aus den Empfangsgrößen der übersättigten Empfangsbereiche kann keine gültige Entfernungsgröße ermittelt werden. Eine Übersättigung kann insbesondere dann vorliegen, wenn die Empfangsgröße einen vorgebbaren Sättigungsgrenzwert überschreitet.
Die Übersättigung von Empfangsbereichen führt auch zu einer Verzerrung der Empfangsgrößen bei nicht übersättigten Empfangsbereichen in der Umgebung der übersättigten Empfangsbereiche. Es hat sich gezeigt, dass mit den Entfernungsgrößen der nicht übersättigten Empfangsbereiche in der Umgebung der übersättigten Empfangsbereiche die Entfernung zwischen dem hochreflektierenden Objektziel und den von dem wenigstens einen Empfangsstrahl getroffenen, übersättigten Empfangsbereichen charakterisiert werden kann. Die Empfangsbereiche in der Umgebung von übersättigten Empfangsbereichen erfahren einen Blooming-Effekt, der von übersättigten Empfangsbereichen ausgeht. Der Blooming-Effekt in der Umgebung von übersättigten Empfangsbereichen wird erfindungsgemäß zur Ermittlung der Entfernungsgröße für Entfernung des hochreflektierenden Objektziels verwendet, welches die Übersättigung verursacht. Auf diese Weise können auch bei Integrationszeiten, die lang genug sind, um mit dem LiDAR-System schwach reflektierende Objektziele in dem wenigstens einen Überwachungsbereich zu erfassen, die Entfernungsgrößen auch für hochreflektierende Objektziele ermittelt werden.
Die Ersatz-Entfernungsgröße wird auf Basis wenigstens einer Größe ermittelt, die für einen zu dem übersättigten wenigstens einen Empfangsbereich nächstliegenden nicht übersättigten Empfangsbereich ermittelt wurde. Vorteilhafterweise kann der wenigstens eine nächstliegende nicht übersättigte Empfangsbereich in direkter Nachbarschaft zu dem wenigstens einen übersättigten Empfangsbereichs liegen. Falls in der direkten Nachbarschaft des wenigstens einen übersättigten Empfangsbereichs kein nicht übersättigter Empfangsbereichs liegt, wird die Ersatz-Entfernungsgröße auf Basis wenigstens einer Größe ermittelt, die zu wenigstens einem nächstliegenden nicht übersättigten Empfangsbereich ermittelt wurde. Nächstliegend im Sinne der Erfindung ist ein nicht übersättigte Empfangsbereich, wenn auf einer geraden Linie zwischen diesem nicht übersättigten Empfangsbereich und dem betreffenden übersättigten Empfangsbereich kein weiterer nicht übersättigte Empfangsbereich liegt.
Vorteilhafterweise kann über die Position der mit dem wenigstens einen elektromagnetischen Empfangsstrahl getroffenen Empfangsbereiche innerhalb der Empfangsmatrix eine Richtung des wenigstens einen reflektierenden Objektziels relativ zur Empfangsmatrix ermittelt werden. Mit der Empfangsmatrix ist so eine ortsaufgelöste LiDAR- Messung möglich.
Vorteilhafterweise kann die Empfangsmatrix eine eindimensionale Empfangsmatrix sein. Auf diese Weise kann eine Ortsauflösung in zwei Dimensionen, insbesondere in horizontaler oder vertikaler Richtung und in Entfernungsrichtung, realisiert werden. Alternativ kann vorteilhafterweise die Empfangsmatrix eine zweidimensionale Empfangsmatrix sein. Auf diese Weise kann die Position des wenigstens einen Objektziels in drei Dimensionen, insbesondere in horizontaler Richtung, in vertikaler Richtung und in Entfernungsrichtung, ermittelt werden.
Der wenigstens eine elektromagnetische Abtaststrahl kann ein elektromagnetisches Abtastsignal aufweisen oder daraus bestehen. Auf diese Weise können mit dem wenigstens einen Abtaststrahl zusätzliche Informationen übermittelt werden. Vorteilhafterweise können das wenigstens eine Abtastsignal codiert sein. So kann die Zuordnung des wenigstens einen Abtaststrahls auf der Empfängerseite vereinfacht werden.
Eine Entfernungsgröße im Sinne der Erfindung ist eine Größe, welche eine Entfernung eines erfassten Objektziels zu einer Referenzstelle, insbesondere einem Empfangsbereich des LiDAR-Systems, charakterisiert. Bei einem indirekten Flugzeitmethode kann eine Entfernungsgröße eine Verschiebung, insbesondere eine Phasenverschiebung, zwischen einem gesendeten Abtaststrahl in Form eines amplitudenmodulierten Abtaststrahls und dem entsprechenden elektromagnetischen Empfangsstrahl sein. Alternativ oder zusätzlich kann eine Entfernungsgröße der Betrag einer geometrischen Länge sein.
Ein Objektziel im Sinne der Erfindung ist eine Stelle eines Objekts, an dem elektromagnetische Abtaststrahlen, welche von dem LiDAR-System in den wenigstens einen Überwachungsbereich gesendet werden, reflektiert werden können. Jedes Objekt kann mehrere Objektziele aufweisen.
Vorteilhafterweise können mit der wenigstens einen Sendeeinrichtung elektromagnetische Abtaststrahlen in Form von Laserstrahlen, insbesondere Lasersignalen, gesendet werden. Laserstrahlen können präzise definiert und mit großer Reichweite, insbesondere mehreren 100 m, ausgesendet werden.
Vorteilhafterweise kann das LiDAR-System ein Flash-LiDAR-System sein. Bei einem Flash-LiDAR-System strahlt jeder gesendete elektromagnetische Abtaststrahl - ähnlich einem Blitz - große Teile des wenigstens einen Überwachungsbereichs, insbesondere den gesamten Überwachungsbereich, aus.
Vorteilhafterweise kann das LiDAR-System als laserbasiertes Entfernungsmesssystem ausgestaltet sein. Ein laserbasiertes Entfernungsmesssystem kann als Lichtquelle einer Sendeeinrichtung wenigstens einen Laser, insbesondere einen Diodenlaser, aufweisen. Mit dem wenigstens einen Laser können insbesondere gepulste Abtaststrahlen gesendet werden. Mit dem Laser können Abtaststrahlen in für das menschliche Auge sichtbaren oder nicht sichtbaren Wellenlängenbereichen emittiert werden. Entsprechend kann die Empfangsmatrix der Empfangseinrichtung mit wenigstens einem für die Wellenlänge des ausgesendeten Abtaststrahls ausgelegten Sensor, insbesondere einem CCD- Sensor, einem Active-Pixel-Sensor, insbesondere einen CMOS-Sensor oder dergleichen, realisiert werden. Derartige Sensoren weisen eine Mehrzahl von Empfangsbereichen, insbesondere Pixel oder Pixelgruppen, auf. Derartige Sensoren können so betrieben werden, dass die ermittelten Empfangsgrößen den jeweiligen Empfangsbereichen zugeordnet werden können
Vorteilhafterweise können das Verfahren und das LiDAR-System bei Fahrzeugen, insbesondere Kraftfahrzeugen, verwendet werden. Vorteilhafterweise können das Verfahren und das LiDAR-System bei Landfahrzeugen, insbesondere Personenkraftwagen, Lastkraftwagen, Bussen, Motorrädern oder dergleichen, Luftfahrzeugen, insbesondere Drohnen, und/oder Wasserfahrzeugen verwendet werden. Das Verfahren und das LiDAR-System können auch bei Fahrzeugen eingesetzt werden, die autonom oder wenigstens teilautonom betrieben werden können. Das Verfahren und das LiDAR-Systems sind jedoch nicht beschränkt auf Fahrzeuge. Sie können auch im stationären Betrieb, in der Robotik und/oder bei Maschinen, insbesondere Bau- oder Transportmaschinen, wie Kränen, Baggern oder dergleichen, eingesetzt werden.
Vorteilhafterweise kann das LiDAR-System eine Prozessoreinrichtung, insbesondere eine elektronische Steuer- und Auswerteeinrichtung, aufweisen, mit der das LiDAR- System gesteuert und Empfangsgrößen ermittelt und/oder verarbeitet werden können.
Das LiDAR-System kann vorteilhafterweise mit wenigstens einer elektronischen Steuervorrichtung eines Fahrzeugs oder einer Maschine, insbesondere einem Fahrerassistenzsystem oder dergleichen, verbunden oder Teil einer solchen sein. Auf diese Weise kann wenigstens ein Teil der Funktionen des Fahrzeugs oder der Maschine autonom oder teilautonom betrieben werden. Das LiDAR-System kann zur Erfassung von stehenden oder bewegten Objekten, insbesondere Fahrzeugen, Personen, Tieren, Pflanzen, Hindernissen, Fahrbahnunebenheiten, insbesondere Schlaglöchern oder Steinen, Fahrbahnbegrenzungen, Verkehrszeichen, Freiräumen, insbesondere Parklücken, Niederschlag oder dergleichen, und/oder von Bewegungen und/oder Gesten eingesetzt werden.
Bei einer vorteilhaften Ausgestaltung des Verfahrens kann die Ersatz-Entfernungsgröße zu dem wenigstens einen übersättigten Empfangsbereich auf Basis wenigstens einer Empfangsgröße und/oder wenigstens einer Entfernungsgröße ermittelt werden, die zu wenigstens einem nächstliegenden nicht übersättigten Empfangsbereich ermittelt wurde, insbesondere kann eine Entfernungsgröße als Ersatz-Entfernungsgröße verwendet werden, die zu einem nächstliegenden nicht übersättigten Empfangsbereich ermittelt wurde und/oder zu wenigstens einem übersättigten Empfangsbereich eine individuelle Ersatz- Entfernungsgröße eingesetzt werden, insbesondere zu jedem übersättigten Empfangsbereich jeweils eine individuelle Ersatz-Entfernungsgröße eingesetzt werden.
Vorteilhafterweise kann die Ersatz-Entfernungsgröße zu dem wenigstens einen übersättigten Empfangsbereich auf Basis wenigstens einer Empfangsgröße und/oder wenigstens einer Entfernungsgröße ermittelt werden. Auf diese Weise kann aus Größen, insbesondere Empfangsgrößen und/oder Entfernungsgrößen, die für nicht übersättigte Empfangsbereiche bereits gewonnenen wurden, effizient die Ersatz-Entfernungsgröße bestimmt werden.
Vorteilhafterweise kann die Ersatz-Entfernungsgröße auf Basis von Empfangsgrößen ermittelt werden. Vorteilhafterweise kann die Ersatz-Entfernungsgröße direkt aus wenigstens einer Entfernungsgröße ermittelt werden. Auf diese Weise kann der Aufwand zur Ermittlung der Ersatz Empfangsgröße verringert werden.
Zu wenigstens einem übersättigten Empfangsbereich kann eine individuelle Ersatz- Entfernungsgröße eingesetzt werden. Dabei kann wenigstens für einen Teil der übersättigten Empfangsbereiche die Ersatz-Entfernungsgröße jeweils individuell mithilfe der jeweils nächstliegenden nicht übersättigten Empfangsbereiche ermittelt werden. Auf diese Weise kann auch innerhalb von Gruppen von übersättigten Empfangsbereichen ein Entfernungsprofil realisiert werden, welches dem Entfernungsprofil der für die übersättigten Empfangsbereiche verantwortlichen Objektziele charakterisiert. Vorteilhafterweise kann für jeden übersättigten Empfangsbereich jeweils eine individuelle Ersatz- Entfernungsgröße eingesetzt werden.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens können zur Ermittlung der Ersatz-Entfernungsgröße zu dem wenigstens einen übersättigten Empfangsbereich die Entfernungsgrößen und/oder die Empfangsgrößen kombiniert, insbesondere gemittelt, werden, welche zu mehreren nächstliegenden nicht übersättigten Empfangsbereichen ermittelt wurden. Auf diese Weise kann die Genauigkeit der Bestimmung der Er- satz-Entfernungsgröße weiter verbessert werden.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann mit der wenigstens einen Sendeeinrichtung wenigstens ein amplitudenmodulierter Abtaststrahl gesendet werden, der von dem wenigstens einen reflektierten Abtaststrahl stammende wenigstens eine auf wenigstens einen Empfangsbereich treffende elektromagnetische Empfangsstrahl jeweils während wenigstens zwei Aufnahmezeitbereiche in jeweilige Empfangsgrößen, insbesondere Phasengrößen, umgewandelt werden, wobei wenigstens zwei der Aufnahmezeitbereiche bezogen auf eine Modulationsperiode des wenigstens einen gesendeten Abtaststrahls phasenverschoben gestartet werden. Auf diese Weise kann das LiDAR-System nach einem indirekten Flugzeitmethode, die auch als indirekten Time- Of-Flight-Methode bezeichnet wird, betrieben werden. Die Entfernungsgrößen können aus Phasenverschiebungen zwischen dem gesendeten amplitudenmodulierten Abtaststrahl und dem empfangenen reflektierten Abtaststrahl ermittelt werden. Dabei können zu jedem Empfangsbereich, welcher mit einem Empfangsstrahl getroffen wird, separat jeweils wenigstens für die zwei Aufnahmezeitbereiche die entsprechenden Empfangsgrößen ermittelt werden. Auf diese Weise kann für jeden Empfangsbereich separat aus den Empfangsgrößen eine entsprechende Entfernungsgröße ermittelt werden.
Vorteilhafterweise kann der Empfangsstrahl jeweilige Empfangsgrößen in Form von Phasengrößen umgewandelt werden. Eine Phasengrößen kann eine Amplitude eines Phasenbildes des Empfangsstrahls charakterisieren, welches während eines Aufnahmezeitbereichs aufgenommen wird
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann ein Empfangsbereich als übersättigt erkannt werden, wenn dieser während wenigstens einem der wenigstens zwei Aufnahmezeitbereiche übersättigt wird und/oder ein Empfangsbereich als nicht übersättigt erkannt werden, wenn dieser während allen der wenigstens zwei Aufnahmezeitbereiche nicht übersättigt wird. Auf diese Weise kann eine Übersättigung zuverlässiger erkannt werden. So kann insgesamt die Genauigkeit der Entfernungsmessung weiter verbessert werden.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens können die Empfangsgrößen und/oder die Entfernungsgrößen nach einer Flugzeitmethode, insbesondere einer indirekten Flugzeitmethode, ermittelt werden. Auf diese Weise kann die Entfernungsgröße und damit die Entfernung eines erfassten Objektziels präzise ermittelt werden.
Vorteilhafterweise kann das LiDAR-System nach einer indirekten Flugzeitmethode ermittelt werden. Auf diese Weise kann die Genauigkeit bei der Entfernungsmessung weiter verbessert werden.
Bei einer weiteren vorteilhaften Ausgestaltung des Verfahrens kann wenigstens ein Teil des wenigstens einen Überwachungsbereichs mit wenigstens einem elektromagnetischen Flash-Abtaststrahl angestrahlt werden. Auf diese Weise kann wenigstens ein Teil des wenigstens einen Überwachungsbereich mit demselben Flash-Abtaststrahl simultan angestrahlt werden. So kann eine Momentaufnahme des wenigstens einen simultan angestrahlten Teils des Überwachungsbereichs realisiert werden.
Ein Flash-Abtaststrahl breitet sich ähnlich einem Blitzlicht in unterschiedliche Raumrichtungen aus.
Vorteilhafterweise kann der wenigstens eine Überwachungsbereich mit wenigstens einem elektromagnetischen Abtaststrahl in einer räumlichen Dimension, insbesondere in horizontaler Richtung, abgetastet werden. Auf diese Weise kann ein zweidimensionales Entfernungsbild, insbesondere mit einer Dimension in horizontaler Richtung und einer Dimension in Entfernungsrichtung, realisiert werden.
Alternativ kann vorteilhafterweise der wenigstens eine Überwachungsbereich mit wenigstens einem elektromagnetischen Abtaststrahl in zwei räumlichen Dimensionen, insbesondere in horizontaler und in vertikaler Richtung, abgetastet werden. Auf diese Weise kann ein dreidimensionales Entfernungsbild, insbesondere mit einer Dimension in horizontaler Richtung, einer Dimension in vertikaler Richtung und einer Dimension in Entfernungsrichtung, realisiert werden.
Ferner wird die Aufgabe erfindungsgemäß bei dem LiDAR-System dadurch gelöst, dass das LiDAR-System Mittel aufweist zur Durchführung des erfindungsgemäßen Verfahrens.
Erfindungsgemäß kann das LiDAR-System Mittel aufweisen, mit denen für mit elektromagnetischen Empfangsstrahlen getroffene Empfangsbereiche aus jeweiligen Empfangsgrößen Entfernungsgrößen ermittelt werden können, welche Entfernungen von Objektzielen zu den Empfangsbereichen, auf die von den Objektzielen reflektierte elektromagnetische Empfangsstrahlen treffen, charakterisieren, und, falls wenigstens ein Empfangsbereich mit elektromagnetischen Empfangsstrahlen übersättigt wird, für den wenigstens einen übersättigten Empfangsbereich eine Ersatz-Entfernungsgröße eingesetzt werden kann, wobei die Ersatz-Entfernungsgröße auf Basis wenigstens einer Größe ermittelt werden kann, die für einen zu dem übersättigten Empfangsbereich nächstliegenden nicht übersättigten Empfangsbereich ermittelt wurde.
Vorteilhafterweise können Mittel zur Durchführung des erfindungsgemäßen Verfahrens auf softwaremäßigem und/oder hardwaremäßigem Wege realisiert werden. Auf diese Weise können die Mittel effizient realisiert werden.
Vorteilhafterweise kann wenigstens ein Teil der Mittel zur Durchführung des erfindungsgemäßen Verfahrens mit wenigstens einem Prozessor des LiDAR-Systems, insbesondere einer Steuer- und Auswerteeinrichtung, realisiert werden. Auf diese Weise können ohnehin vorhandene Bauteile verwendet werden. Vorteilhafterweise können die Empfangsstrahlen mit Empfangsbereichen einer eindimensionalen Empfangsmatrix empfangen werden. Vorteilhafterweise kann die Empfangseinrichtung des LiDAR-Systems wenigstens eine eindimensionale Empfangsmatrix, insbesondere eine Zeilenmatrix, aufweisen. Auf diese Weise kann der wenigstens eine Überwachungsbereich in zwei Dimensionen nämlich der einen Dimension der Empfangsmatrix und einer Entfernungsdimension, ortsaufgelöst erfasst werden.
Alternativ können die Empfangsstrahlen mit Empfangsbereichen einer zweidimensionalen Empfangsmatrix empfangen werden. Vorteilhafterweise kann die Empfangseinrichtung des LiDAR-Systems wenigstens eine zweidimensionale Empfangsmatrix, insbesondere eine Flächenmatrix, aufweisen. So kann der wenigstens eine Überwachungsbereich in drei Dimensionen, nämlich den zwei Dimensionen der Empfangsmatrix und einer Entfernungsdimension, ortsaufgelöst erfasst werden.
Mit Hilfe einer eindimensionalen oder zweidimensionalen Empfangsmatrix können Richtungen von erfassten Objektzielen relativ zu dem LiDAR-System ermittelt werden. Dabei kann aus den Positionen der mit Empfangsstrahlen getroffenen Empfangsbereiche innerhalb der Empfangsmatrix die Richtung der entsprechenden Objektziele ermittelt werden.
Bei einer vorteilhaften Ausführungsform kann wenigstens eine Empfangsmatrix mit wenigstens einem CCD-Chip realisiert sein und/oder wenigstens eine Empfangsmatrix mit einem 3D-ToF-lmager realisiert sein. Auf diese Weise können die elektromagnetischen Empfangsstrahlen mit den entsprechenden Empfangsbereichen, welche bei CCD-Chips und 3D-ToF-lmagern als Pixel bezeichnet werden können, empfangen und in elektrische Empfangssignale umgewandelt werden. Aus den elektrischen Empfangssignalen können die entsprechenden Empfangsgrößen ermittelt werden.
3D-ToF-lmager (3D- Time-of-Flight - Imager ) sind bekanntermaßen dreidimensionale Flugzeit-Bildgeber. Mit 3D-ToF-lmagern können dreidimensionale Entfernungsbilder von Überwachungsbereichen aufgenommen werden.
Außerdem wird die Aufgabe erfindungsgemäß bei dem Fahrzeug dadurch gelöst, dass das Fahrzeug Mittel aufweist zur Durchführung des erfindungsgemäßen Verfahrens. Vorteilhafterweise können die Mittel zur Durchführung des erfindungsgemäßen Verfahrens mit dem wenigstens einen LiDAR-System, insbesondere einem erfindungsgemäßen LiDAR-System, realisiert sein. Auf diese Weise kann das wenigstens eine LiDAR- System bereits vor dem Einbau am Fahrzeug konfiguriert werden. Das wenigstens eine LiDAR-System ist nach dem Einbau Teil des Fahrzeugs, sodass auch die Mittel des wenigstens einen LiDAR-Systems Mittel des wenigstens einen Fahrzeugs sind.
Mit dem wenigstens einen LiDAR-System kann wenigstens ein Überwachungsbereich in der Umgebung des Fahrzeugs und/oder im Innenraum des Fahrzeugs auf Objektziele hin überwacht werden. Mit dem wenigstens einen LiDAR-System können Entfernungen zu erfassten Objektzielen ermittelt werden.
Vorteilhafterweise kann das Fahrzeug wenigstens ein Fahrassistenzsystem aufweisen. Mit dem Fahrerassistenzsystem kann das Fahrzeug autonom oder wenigstens teilweise autonom betrieben werden.
Vorteilhafterweise kann wenigstens ein LiDAR-System mit wenigstens einem Fahrerassistenzsystem des Fahrzeugs funktional verbunden sein. Auf diese Weise können Informationen über den wenigstens einen Überwachungsbereich, insbesondere Entfernungsgrößen und/oder Richtungsgrößen zu erfassten Objektzielen, welche mit dem wenigstens einen LiDAR-System ermittelt werden können, an das wenigstens eine Fahrerassistenzsystem übermittelt werden. Mit dem wenigstens einen Fahrerassistenzsystem kann das Fahrzeug unter Berücksichtigung der Informationen über den wenigstens einen Überwachungsbereich autonom oder wenigstens teilweise autonom betrieben werden.
Im Übrigen gelten die im Zusammenhang mit dem erfindungsgemäßen Verfahren, dem erfindungsgemäßen LiDAR-System und dem erfindungsgemäßen Fahrzeug und deren jeweiligen vorteilhaften Ausgestaltungen aufgezeigten Merkmale und Vorteile untereinander entsprechend und umgekehrt. Die einzelnen Merkmale und Vorteile können selbstverständlich untereinander kombiniert werden, wobei sich weitere vorteilhafte Wirkungen einstellen können, die über die Summe der Einzelwirkungen hinausgehen. Kurze Beschreibung der Zeichnungen
Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung, in der Ausführungsbeispiele der Erfindung anhand der Zeichnung näher erläutert werden. Der Fachmann wird die in der Zeichnung, der Beschreibung und den Ansprüchen in Kombination offenbarten Merkmale zweckmäßigerweise auch einzeln betrachten und zu sinnvollen weiteren Kombinationen zusammenfassen. Es zeigen schematisch
Figur 1 eine Vorderansicht eines Fahrzeugs mit einem Fahrerassistenzsystem und einem LiDAR-System zur Erfassung von Objekten;
Figur 2 eine Funktionsdarstellung eines Teils des Fahrzeugs mit dem Fahrerassistenzsystem und dem LiDAR-System aus der Figur 1 ;
Figur 3 eine Vorderansicht einer Empfangsmatrix einer Empfangseinrichtung des LiDAR-Systems aus den Figuren 1 und 2, wobei die Empfangsmatrix eine Vielzahl von Empfangsbereichen aufweist;
Figur 4 ein Signalstärke-Zeit-Diagramm mit vier beispielhaften Phasenbildern DCSo bis DCS3, welche mit jeweiligen Phasenverschiebungen von 90° aus einem Empfangslichtsignal eines reflektierten Sendelichtsignals des LiDAR-Systems aus den Figuren 1 und 2 ermittelt werden und deren Amplituden als Phasengrößen zur Ermittlung von Entfernungen von Objekten dienen;
Figur 5 ein Entfernungsbild einer Szene mit mehreren Objekten in Graustufendarstellung, wobei eines der Objekte ein retroreflektives Straßenschild ist, mit einer Integrationsdauer von 210 ps;
Figur 6 ein Intensitätsprofil durch eine Zeile des Entfernungsbildes aus der Figur 5;
Figur 7 ein Entfernungsbild der Szene aus der Figur 5 mit einer Integrationsdauer von 1 ps;
Figur 8 einen Intensitätsprofil durch eine Zeile des Entfernungsbildes aus der Figur 7.
In den Figuren sind gleiche Bauteile mit gleichen Bezugszeichen versehen. Ausführungsform(en) der Erfindung
In der Figur 1 ist ein Fahrzeug 10 beispielhaft in Form eines Personenkraftwagens in der Vorderansicht gezeigt. Figur 2 zeigt eine Funktionsdarstellung eines Teils des Fahrzeugs 10.
Das Fahrzeug 10 verfügt über ein LiDAR-System 12, das als Flash-LiDAR-System ausgestaltet ist. Das LiDAR-System 12 ist beispielhaft in der vorderen Stoßstange des Fahrzeugs 10 angeordnet. Mit dem LiDAR-System 12 kann ein Überwachungsbereich 14 in Fahrtrichtung 16 vor dem Fahrzeug 10 auf Objekte 18 hin überwacht werden. Das LiDAR-System 12 kann auch an anderer Stelle am Fahrzeug 10 angeordnet und anders ausgerichtet sein. Mit dem LiDAR-System 12 können Objektinformationen, beispielsweise Entfernungsgrößen D, Richtungsgrößen und Geschwindigkeitsgrößen ermittelt werden, welche Entfernungen, Richtungen und Geschwindigkeiten von Objekten 18 relativ zum Fahrzeug 10, respektive zum LiDAR-System 12 charakterisieren.
Bei den Objekten 18 kann es sich um stehende oder bewegte Objekte, beispielsweise um andere Fahrzeuge, Personen, Tiere, Pflanzen, Hindernisse, Fahrbahnunebenheiten, beispielsweise Schlaglöcher oder Steine, Fahrbahnbegrenzungen, Verkehrszeichen, Freiräume, beispielsweise Parklücken, Niederschlag oder dergleichen handeln.
Jedes Objekt 18 weist in der Regel mehrere Objektziele 19 auf. Ein Objektziel 19 ist eine Stelle eines Objekts 18, an dem elektromagnetische Abtaststrahlen in Form von Sendelichtsignalen 20, welche von dem LiDAR-System 12 in den Überwachungsbereich 14 gesendet werden, reflektiert werden können.
In der Figur 2 ist beispielhaft ein Objekt 18 in Form eines Straßenschildes mit einem Tankstellensymbol angedeutet. Der Bereich des Straßenschildes mit dem Tankstellensymbol weist eine normale Reflektivität bezüglich der Sendelichtsignale 20 auf. Die dortigen Objektziele sind mit 19 bezeichnet. Der besseren Übersichtlichkeit wegen ist lediglich eines der Objektziele 19 mit einem Kreuz angedeutet. Der das Tankstellensymbol umgebende Bereich des Straßenschildes ist retroreflektiv beschichtet. Die dortigen Objektziele sind der besseren Unterscheidbarkeit wegen mit 19R bezeichnet. Auch hier ist lediglich eines der Objektziele 19R mit einem Kreuz angedeutet. Das LiDAR-System 12 ist mit einem Fahrerassistenzsystem 22 verbunden. Mit dem Fahrerassistenzsystem 22 kann das Fahrzeug 10 autonom oder teilautonom betrieben werden.
Das LiDAR-System 12 umfasst beispielhaft eine Sendeeinrichtung 24, eine Empfangseinrichtung 26 und eine Steuer- und Auswerteeinrichtung 28.
Bei der Steuer- und Auswerteeinrichtung 28 handelt es sich beispielhaft um eine elektronische Steuer- und Auswerteeinrichtung, beispielsweise mit einem oder mehreren Prozessoren. Die Funktionen der Steuer- und Auswerteeinrichtung 28 können zentral oder dezentral auf softwaremäßigem und/oder hardwaremäßigem Wege realisiert sein. Teile der Funktionen der Steuer- und Auswerteeinrichtung 28 können auch in der Sendeeinrichtung 24 und/oder der Empfangseinrichtung 26 integriert sein.
Mit der Steuer- und Auswerteeinrichtung 28 können Sendegrößen in Form von elektrischen Sendesignalen erzeugt werden. Die Sendeeinrichtung 24 kann mit den elektrischen Sendesignalen angesteuert werden, sodass diese amplitudenmodulierte Sendelichtsignale 20 in Form von Laserpulsen in den Überwachungsbereich 14 sendet.
Die Sendeeinrichtung 24 weist als Lichtquelle beispielhaft einen Laser auf. Mit dem Laser können Sendelichtsignale 20 in Form von Laserpulsen erzeugt werden. Darüber hinaus weist die Sendeeinrichtung 24 eine optische Einrichtung auf, mit welcher die Sendelichtsignale 20 so aufgeweitet werden, dass sie sich - ähnlich einem Blitzlicht - in den gesamten Überwachungsbereich 14 ausbreiten können. Auf diese Weise kann mit jedem Sendelichtsignal 20 der gesamte Überwachungsbereich 14 angeleuchtet werden. Die Sendelichtsignale 20 können daher auch als „Flash-Abtaststrahlen“ bezeichnet werden.
An einem Objekt 18 in Richtung der Empfangseinrichtung 26 reflektierte Sendelichtsignale 20, welche der besseren Unterscheidung wegen als Empfangslichtsignale 30 bezeichnet werden, können mit der Empfangseinrichtung 26 empfangen werden.
Die Empfangseinrichtung 26 kann optional eine Empfangslichtsignal-Umlenkeinrichtung aufweisen, mit der die Empfangslichtsignale 30 zu einer in der Figur 3 gezeigten Emp- fangsmatrix 32 der Empfangseinrichtung 26 gelenkt werden.
Die Empfangsmatrix 32 ist beispielsweise mit einem Flächensensor in Form eines CCD- Sensors mit einer Vielzahl von Empfangsbereichen 34 realisiert. Jeder Empfangsbereich 34 kann beispielsweise durch eine Gruppe von Pixeln realisiert werden. Die hier beschriebene Empfangsmatrix 32 weist beispielhaft 320 Spalten mit je 240 Empfangsbereichen 34 auf. In der Figur 3 sind der besseren Übersichtlichkeit wegen beispielhaft lediglich 7 x 7 der Empfangsbereiche 34 angedeutet.
Anstatt eines CCD-Sensors kann auch ein andersartiger Flächensensor, beispielsweise ein Active-Pixel Sensor oder dergleichen, verwendet werden.
Mit hier nicht weiter interessierenden Mitteln des CCD-Sensors können die jeweils auf die Empfangsbereiche 34 der Empfangsmatrix 32 treffenden Anteile von Empfangslichtsignalen 30 in entsprechende, in der Figur 4 bezeichnete Phasengrößen Ao, Ai, A2 und A3, welche im Folgenden der Einfachheit halber auch als Phasengrößen Ai bezeichnet werden können, umgewandelt werden. Beispielhaft sind die Phasengrößen Ao, Ai, A2 und A3 die Amplituden von Phasenbildern (Differtial Correlation Samples) DCSo, DCS1, DCS2 und DCS3, welche im Folgenden der Einfachheit halber auch als Phasenbilder DCSi bezeichnet werden können. Die Phasengrößen Ai und die Phasenbilder DCSi können den jeweiligen Empfangsbereichen 34 zugeordnet werden.
Jeder Empfangsbereich 34 ist über geeignete Verschlussmittel für die Erfassung von Empfangslichtsignalen 30 für definierte Aufnahmezeitbereiche TBo, TB1, TB2 und TB3,, welche im Folgenden der Einfachheit halber auch als Aufnahmezeitbereiche TBi bezeichnet werden können, aktivierbar.
Beispielhaft sind die Empfangsbereich 34 jeweils in vier Aufnahmezeitbereichen TBo, TB1, TB2 und TB3 zur Erfassung von Empfangssignalen 30 aktivierbar.
Jeder Aufnahmezeitbereich TBi ist durch einen Startzeitpunkt und eine Integrationsdauer definiert. Die zeitlichen Abstände zwischen jeweils zwei definierten Aufnahmezeitbereichen TBi sind kleiner als die Periodendauer IMOD der Modulationsperiode MP. Während eines Aufnahmezeitbereichs TBi können auf den jeweiligen Empfangsbereich 34 treffende Anteile von Empfangslichtsignalen 30 in entsprechende elektrische Empfangssignale umgewandelt werden. Aus den Empfangssignalen können die jeweiligen Phasenbilder DCSi und deren Amplituden Ai ermittelt werden, welche jeweilige Signalausschnitte des Empfangslichtsignals 30 in den jeweiligen Aufnahmezeitbereichen TBi charakterisieren. Die Phasenbilder DCSi und deren Amplituden, also die Phasengrößen Ai, charakterisieren die jeweilige Lichtmenge, die während den Aufnahmezeitbereichen TBi mit den entsprechend aktivierten Empfangsbereich 34 der Empfangsmatrix 32 gesammelt wird.
Beispielhaft kann jeder Empfangsbereich 34 individuell aktiviert und ausgelesen werden. Die Verschlussmittel können auf softwaremäßigem und/oder hardwaremäßigem Wege realisiert sein. Derartige Verschlussmittel können als sogenannte „Shutter“ realisiert werden. Beispielhaft können die Empfangsbereiche 34 mit entsprechenden periodischen Aufnahme-Steuersignalen in Form von Shuttersignalen angesteuert werden. Die Shuttersignale können über die elektrischen Sendesignale, mit denen der Laser der Sendeeinrichtung 24 angesteuert wird, oder gemeinsam mit diesen getriggert werden. So werden die Phasengrößen Ai zu den Sendelichtsignalen 20 in Bezug gebracht. Beispielhaft können die elektrischen Sendesignale zu einem Startzeitpunkt ST getriggert werden. Die Empfangsbereiche 34 werden mit den entsprechend zeitlich versetzten Shuttersignalen getriggert.
Die Empfangseinrichtung 26 kann optional optische Elemente aufweisen, mit denen aus dem Überwachungsbereich 14 kommende Empfangslichtsignale 30 in Richtung der Empfangsbereiche 34 betrachtet abhängig von der Richtung, aus der sie kommen, auf jeweilige Empfangsbereiche 34 abgebildet werden. So kann aus der Position der angeleuchteten Empfangsbereiche 34 innerhalb der Empfangsmatrix 32 die Richtung eines Objektziels 19 oder 1 9R an dem das Sendelichtsignal 20 reflektiert wird, ermittelt werden.
In der Figur 4 sind eine Modulationsperiode MP einer Empfangs-Hüllkurve 36 der Phasenbilder DCSo, DCSi, DCS2 und DCS3 in einem gemeinsamen Signalstärke-Zeit- Diagramm gezeigt. Dabei ist die Signalstärkenachse mit „S“ und die Zeitachse mit „t“ bezeichnet. Die Empfangs-Hüllkurve 36 ist gegenüber dem Startzeitpunkt ST zeitlich versetzt. Der Zeitversatz in Form einer Phasendifferenz charakterisiert die Flugzeit zwischen dem Aussenden des Sendelichtsignals 20 und dem Empfang des entsprechenden Empfangslichtsignals 30.
Aus der Phasendifferenz kann die Entfernungsgröße D für das reflektierende Objekt 18 ermittelt werden. Die Phasenverschiebung 0 kann auch selbst als Entfernungsgröße für die Entfernung D verwendet werden. Die Flugzeit ist bekanntermaßen proportional zur Entfernung des Objektziels 19 relativ zu dem LiDAR-System 12.
Die Empfangs-Hüllkurve 36 kann durch beispielhaft vier Stützstellen in Form der vier Phasenbilder DCSo, DCSi, DCS2 und DCS3 angenähert werden. Alternativ kann die Empfangs-Hüllkurve 36 auch durch mehr oder weniger Stützstellen in Form von Phasenbildern angenähert werden.
Die Aufnahmezeitbereiche TBo, TB1, TB2 und TB3 werden jeweils bezogen auf ein Referenzereignis beispielhaft in Form eines Triggersignals für das elektrische Sendesignal zum Startzeitpunkt ST gestartet. Beispielhaft erstreckt sich die Modulationsperiode MP des Sendelichtsignals 20 über 360°. Die Aufnahmezeitbereiche TBo, TB1, TB2 und TB3 starten beispielhaft jeweils bezogen auf die Modulationsperiode MP mit einem Abstand von 90° zueinander. Die Aufnahmezeitbereiche TBo, TB1, TB2 und TB3 starten also mit Phasenverschiebungen von 0°, 90°, 180° beziehungsweise 270° gegenüber dem Startzeitpunkt ST.
Eine Entfernungsgröße D für ein erfasstes Objekt 18 kann beispielhaft aus den Amplituden, also den Phasengrößen Ao, Ai, A2 und A3, der Phasenbilder DCSo, DCS1, DCS2 und DCS3 für einen jeweiligen Empfangsbereich 34 in hier nicht weiter interessierenden Weise rechnerisch ermittelt werden.
In der Figur 5 ist ein Entfernungsbild einer Szene in Graustufendarstellung gezeigt, welches mit dem LiDAR-System 12 mit einer Integrationsdauer von 210 ps erfasst wurde. Figur 7 zeigt ein Entfernungsbild derselben Szene in Graustufendarstellung, welches mit dem LiDAR-System 12 mit einer Integrationsdauer von 1 ps erfasst wurde. Bei den Entfernungsbildern aus den Figuren 5 und 7 sind in der horizontalen Dimension jeweils die 320 Spalten der der Empfangsmatrix 32 angegeben. Jede Spalte charakterisiert die horizontale Richtung, aus der die mit den Empfangsbereichen 34 (Pixel) der Spalte empfangenen Empfangslichtsignale 30 kommen, in der sich also das entsprechende Objektziel 19 beziehungsweise 1 9R befindet. In der vertikalen Dimension des Entfernungsbildes sind die 240 Zeilen der Empfangsmatrix 32 angegeben. Jede Zeile charakterisiert die vertikale Richtung, aus der die mit den Empfangsbereichen 34 (Pixel) der Zeile empfangenen Empfangslichtsignale 30 kommen, in der sich also das entsprechende Objektziel 19 beziehungsweise 1 9R befindet. Die Entfernungsgrößen D für die erfassten Objektziele 19 beziehungsweise 1 9R sind in Graustufen entsprechend einer neben dem Entfernungsbild gezeigten Graustufenskala definiert.
Figur 6 zeigt ein Intensitätsprofil durch die Zeile 90 des Entfernungsbildes aus der Figur 5. Figur 8 zeigt ein Intensitätsprofil durch die Zeile 90 des Entfernungsbildes aus der Figur 7.
In der Szene aus den Figuren 5 und 7 befinden sich mehrere Objekte 18, beispielsweise zwei Wände und das Straßenschild aus der Figur 2, im Überwachungsbereich 14 des LiDAR-Systems 12.
Bei der kürzeren Integrationsdauer von 1 ps können lediglich die jeweiligen Entfernungsgrößen D, beispielhaft etwa 1 ,2 m, der retroreflektiven Objektziele 1 9R des Straßenschilds (Objekt 18), wie in dem Entfernungsbild aus der Figur 7 gezeigt, ermittelt werden. Die Integrationsdauer von 1 ps ist so gewählt, dass die Empfangsbereiche 34 der Empfangsmatrix 32 die von den Empfangslichtsignalen 30 getroffen werden, welche von den retroreflektiven Objektziele 1 9R stammen, nicht übersättigt werden. Die von den normal reflektierenden Objektzielen 19 der Szene kommenden Empfangslichtsignale 30 sind jedoch zu schwach, um in den entsprechenden Empfangsbereichen 34 messbare Signale zu erzeugen. In dem Entfernungsbild in der Figur 7 ist daher in der Umgebung des Straßenschilds (Objekt 18) und im Bereich des normal reflektierenden Tankstellensymbols lediglich Rauschen erkennbar. Die Verwendung des LiDAR-Systems 12 mit der längeren Integrationsdauern von 210 ps, welche erforderlich ist, um auch normal reflektierende Objektziele 19, wie beispielsweise in der Figur 5 die Wände zu erfassen, führt nicht nur zu einer Übersättigung von Empfangsbereichen 34, die von an den retroreflektiven Objektzielen 1 9R reflektierten Empfangslichtsignalen 30 getroffen werden, sondern auch zu einer Verfälschung der Signale der Empfangsbereiche 34 in der Nähe der mit den Empfangslichtsignalen 30 von den retroreflektiven Objektzielen 1 9R getroffenen Empfangsbereiche 34. Diese Verfälschung wird als Blooming oder Blendung (glare) bezeichnet. Das Blooming führt zu einem Fehler bei der Bestimmung der Entfernungsgrößen D für Objektziele 19 in der Nähe stark reflektierender Objektziele 1 9R. Die Entfernungsgrößen D der normal oder schwach reflektierenden Objektziele 19 werden, wie in der Figur 5 gezeigt, zu der Entfernungsgröße D der retroreflektiven Objektziele 1 9R hin verfälscht. In den Figuren 5 und 6 ist in der Nachbarschaft der Empfangsbereiche 34, die von den Empfangslichtsignalen 30 getroffen werden, die von den retroreflektiven Objektzielen 1 9R kommen, Bloomingbereiche 38 erkennbar. Die Bloomingbereiche 38 erstrecken sich über die Empfangsbereiche 34, welche zu den übersättigten Empfangsbereichen 34 benachbart sind. Die mit den Empfangsbereichen 34 aus dem Bloomingbereichen 38 ermittelten Entfernungsgrößen D charakterisierend die Entfernungen der jeweils benachbarten retroreflektiven Objektziele 1 9R des Straßenschilds, nämlich etwa 1 ,2 m.
Um auch bei Integrationsdauern, welche zur Übersättigung von Empfangsbereichen 34 durch von retroreflektiven Objektzielen 1 9R kommenden Empfangslichtsignale 30 führen und daher Entfernungsbestimmungen für die retroreflektiven Objektziele 1 9R unmöglich machen, dennoch die Entfernungsgrößen D zu ermitteln, wird das LiDAR-System 12 wie im Folgenden beschrieben betrieben.
Bei dem Verfahren zum Betreiben des LiDAR-Systems 12 wird mit der Sendeeinrichtung 24 ein amplitudenmoduliertes Flash-Sendelichtsignal 20 in den Überwachungsbe- reich 14 gesendet.
Das Sendelichtsignal 20 wird, sofern vorhanden, an Objektzielen 19 beziehungsweise 1 9R reflektiert. In der in der Figur 5 dargestellten Szene wird das Sendesignal 20 beispielsweise an den Objektzielen 19 und 1 9R des Straßenschilds und den Wänden reflektiert. Ein Teil des Sendelichtsignals 20 wird an den Objektzielen 19 und 1 9R reflek- tiert und als Empfangslichtsignale 30 in Richtung der Empfangseinrichtung 26 gestrahlt.
Mit der Empfangseinrichtung 26 wird eine Messung mit einer Integrationsdauer durchgeführt, während der die Empfangslichtsignale 30 aus dem Überwachungsbereich 14 mit den Empfangsbereichen 34 in den vier Aufnahmezeitbereichen TBo, TBi, TB2 und TB3 empfangen werden.
Die Länge der Integrationsdauer ist so gewählt, dass auch die schwächeren Empfangslichtsignale 30 von den normal reflektiven Objektzielen 19, beispielsweise dem Tankstellensymbol auf dem Straßenschild und den Wänden, ausreichen, um in den Empfangsbereichen 34 von Rauschen unterscheidbare Empfangssignale zu generieren. Beispielsweise beträgt die Integrationsdauer etwa 210 ps. Die an den retroreflektiven Objektzielen 19R reflektierten Empfangslichtsignale 30 sind jedoch so stark, dass sie zu einer Übersteuerung in den entsprechenden Empfangsbereichen 34 der Empfangsmatrix 32 führen. In der Graustufendarstellung der Figur 5 sind die übersteuerten Empfangsbereiche 34 schwarz gezeigt. Bei dem in der Figur 6 gezeigten Intensitätsprofil des Entfernungsbildes sind für die übersteuerten Empfangsbereiche 34 keine Werte für die Entfernungsgrößen D eingetragen, da diese wegen der Übersättigung nicht ermittelt werden können.
Für jeden der Empfangsbereiche 34 wird der jeweils empfangene Anteil der Empfangslichtsignale 30 in die vier entsprechenden und dem jeweiligen Empfangsbereich 34 zugeordneten Phasengrößen Ao, Ai, A2 und A3 umgewandelt.
Anschließend werden die Empfangsbereiche 34 jeweils auf Übersättigung hin überprüft. Ein Empfangsbereich 34 wird als übersättigt erkannt, wenn eine der diesem Empfangsbereich 34 zugeordneten Phasengrößen Ao, Ai, A2 oder A3 oberhalb eines vorgegebenen Sättigungsgrenzwertes liegt. Ein Empfangsbereich 34 wird als nicht-übersättigt erkannt, wenn alle der diesem Empfangsbereich 34 zugeordneten Phasengrößen Ao, Ai, A2 und A3 unterhalb des Sättigungsgrenzwertes liegen.
Für die nicht übersättigten Empfangsbereiche 34 wird jeweils aus deren zugeordneten Phasengrößen Ao, Ai, A2 und A3 eine entsprechende Entfernungsgröße D, ermittelt, welche die Entfernung des Objektziels 19 zu dem entsprechenden nicht übersättigten Empfangsbereich 34 charakterisiert.
Für die übersättigten Empfangsbereiche 34 wird jeweils eine Ersatz-Entfernungsgröße D* eingesetzt. Die Ersatz-Entfernungsgröße D* wird aus den Entfernungsgrößen D ermittelt, welche für die nächstliegenden nicht übersättigten Empfangsbereichen 34 ermittelt wurden. Hierzu werden für jeden übersättigten Empfangsbereich 34 alle nächstliegenden nicht übersättigten Empfangsbereiche 34 der ersten Reihe herangezogen. Die erste Reihe wird von den nicht übersättigten Empfangsbereichen 34 gebildet, zwischen denen und dem jeweiligen übersättigten Empfangsbereich 34 jeweils in gerader Linie sich kein weiterer nicht übersättigter Empfangsbereich 34 befindet. Diese nicht übersättigten Empfangsbereiche 34 liegen im Bloomingbereich 38. Die Ersatz- Entfernungsgröße D* für einen übersättigten Empfangsbereich 34 wird beispielsweise durch Mittelung der Entfernungsgrößen D der entsprechenden nächstliegenden nicht übersättigten Empfangsbereiche 34 ermittelt.
Bei der in den Figuren 5 und 6 gezeigten beispielhaften Szene werden die Ersatz- Entfernungsgrößen D* für die übersättigten Empfangsbereiche 34, welche den retrore- flektiven Objektzielen 19R des Straßenschilds entsprechen, aus den Entfernungsgrößen D der nicht übersättigten Empfangsbereiche 34, welche dem äußeren Ring der normal reflektierenden Objektziele 19 des Tankstellensymbols des Straßenschilds entsprechen, und der nicht übersättigten Empfangsbereiche 34, welche einen gedachten Ring um die übersättigten Empfangsbereiche 34 für die retroreflektiven Objektziele 19R charakterisieren, ermittelt.

Claims

Ansprüche
1 . Verfahren zum Betreiben eines LiDAR-Systems (12), insbesondere eines LiDAR- Systems eines Fahrzeugs (10), bei dem wenigstens ein elektromagnetischer Abtaststrahl (20) mit wenigstens einer Sendeeinrichtung (24) des LiDAR-Systems (12) in wenigstens einen Überwachungsbereich (14) gesendet wird, wenigstens ein aus dem wenigstens einen Überwachungsbereich (14) kommender elektromagnetischer Empfangsstrahl (30), welcher von dem wenigstens einen an wenigstens einem Objektziel (19, 19R) reflektierten elektromagnetischen Abtaststrahl (20) herrührt, mit wenigstens einem von mehreren Empfangsbereichen (34) einer Empfangsmatrix (32) einer Empfangseinrichtung (26) des LiDAR-Systems (12) empfangen wird, wenigstens ein Teil des wenigstens einen empfangenen elektromagnetischen Empfangsstrahls (30) in Empfangsgrößen (Ao, Ai, A2, A3) umgewandelt wird, wobei die Empfangsgrößen (Ao, Ai, A2, A3) den Empfangsbereichen (34), die von dem wenigstens einen elektromagnetischen Empfangsstrahl (30) getroffen werden, jeweils zugeordnet werden, dadurch gekennzeichnet, dass für wenigstens einen Teil der mit dem wenigstens einen elektromagnetischen Empfangsstrahl (30) getroffenen Empfangsbereiche (34) aus wenigstens einem Teil der jeweiligen Empfangsgrößen (Ao, Ai, A2, A3) jeweils wenigstens eine Entfernungsgröße (D) ermittelt wird, welche eine Entfernung des wenigstens einen Objektziels (19, 19R ) zu dem entsprechenden Empfangsbereich (34), auf den der wenigstens eine elektromagnetische Empfangsstrahl (30) trifft, charakterisiert, falls wenigstens ein Empfangsbereich (34) mit dem wenigstens einen elektromagnetischen Empfangsstrahl (30) übersättigt wird, zu dem wenigstens einen übersättigten Empfangsbereich (34) eine Ersatz-Entfernungsgröße (D*) eingesetzt wird, wobei die Ersatz-Entfernungsgröße (D*) auf Basis wenigstens einer Größe (D) ermittelt wird, die zu wenigstens einem zu dem übersättigten wenigstens einen Empfangsbereich (34) nächstliegenden nicht übersättigten Empfangsbereich (34) ermittelt wurde.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Ersatz- Entfernungsgröße (D*) zu dem wenigstens einen übersättigten Empfangsbereich (34) auf Basis wenigstens einer Empfangsgröße (Ao, Ai, A2, A3) und/oder wenigstens einer Entfernungsgröße (D) ermittelt wird, die zu wenigstens einem nächstliegenden nicht übersättigten Empfangsbereich (34) ermittelt wurde, insbesondere eine Entfernungsgröße (D) als Ersatz-Entfernungsgröße (D*) verwendet wird, die zu einem nächstliegenden nicht übersättigten Empfangsbereich (34) ermittelt wurde, und/oder zu wenigstens einem übersättigten Empfangsbereich (34) eine individuelle Ersatz- Entfernungsgröße (D*) eingesetzt wird, insbesondere zu jedem übersättigten Empfangsbereich (34) jeweils eine individuelle Ersatz-Entfernungsgröße (D*) eingesetzt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zur Ermittlung der Ersatz-Entfernungsgröße (D*) zu dem wenigstens einen übersättigten Empfangsbereich (34) die Entfernungsgrößen (D) und/oder die Empfangsgrößen (Ao, Ai, A2, A3) kombiniert, insbesondere gemittelt, werden, welche zu mehreren nächstliegenden nicht übersättigten Empfangsbereichen (34) ermittelt wurden.
4. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass mit der wenigstens einen Sendeeinrichtung (24) wenigstens ein amplitudenmodulierter Abtaststrahl (20) gesendet wird, der von dem wenigstens einen reflektierten Abtaststrahl (20) stammende wenigstens eine auf wenigstens einen Empfangsbereich (34) treffende elektromagnetische Empfangsstrahl (30) jeweils während wenigstens zwei Aufnahmezeitbereichen (TBo, TB1, TB2, TB3) in jeweilige Empfangsgrößen (Ao, Ai, A2, A3) , insbesondere Phasengrößen, umgewandelt wird, wobei wenigstens zwei der Aufnahmezeitbereiche (TBo, TB1, TB2, TB3) bezogen auf eine Modulationsperiode (TMOD) des wenigstens einen gesendeten Abtaststrahls (20) phasenverschoben gestartet werden.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass ein Empfangsbereich (34) als übersättigt erkannt wird, wenn dieser während wenigstens einem der wenigstens zwei Aufnahmezeitbereiche (TBo, TB1, TB2, TB3) übersättigt wird und/oder ein Empfangsbereich (34) als nicht übersättigt erkannt wird, wenn dieser während allen der wenigstens zwei Aufnahmezeitbereiche (TBo, TB1, TB2, TB3) nicht übersättigt wird.
6. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass die Empfangsgrößen (Ao, Ai, A2, A3) und/oder die Entfernungsgrößen (D) nach einer Flugzeitmethode, insbesondere einer indirekten Flugzeitmethode, ermittelt werden.
7. Verfahren nach einem der vorigen Ansprüche, dadurch gekennzeichnet, dass wenigstens ein Teil des wenigstens einen Überwachungsbereichs (14) mit wenigstens einem elektromagnetischen Flash-Abtaststrahl (20) angestrahlt wird.
8. LiDAR-System (12), insbesondere ein LiDAR-System (12) eines Fahrzeugs (10), mit wenigstens einer Sendeeinrichtung (24), mit welcher elektromagnetische Abtaststrahlen (20) in wenigstens einen Überwachungsbereich (14) gesendet werden können, mit wenigstens einer Empfangseinrichtung (26), welche wenigstens eine Empfangsmatrix (32) mit mehreren Empfangsbereichen (34) aufweist, mit denen aus dem wenigstens einen Überwachungsbereich (14) kommende elektromagnetische Empfangsstrahlen (30), welche von an wenigstens einem Objektziel (19, 19R) reflektierten elektromagnetische Abtaststrahlen (20) herrühren, empfangen werden können, und welche Mittel zum Umwandeln von elektromagnetischen Empfangsstrahlen (30) in Empfangsgrößen (Ao, Ai, A2, A3) aufweist, die den mit den entsprechenden elektromagnetischen Empfangsstrahlen (30) getroffenen Empfangsbereichen (34) zuordenbar sind, dadurch gekennzeichnet, dass das LiDAR-System (12) Mittel aufweist zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 8.
9. LiDAR-System nach Anspruch 8, dadurch gekennzeichnet, dass wenigstens eine Empfangsmatrix (32) mit wenigstens einem CCD-Chip realisiert ist und/oder wenigstens eine Empfangsmatrix (32) mit einem 3D-ToF-lmager realisiert ist.
10. Fahrzeug (10) aufweisend wenigstens ein LiDAR-System (12), mit wenigstens einer Sendeeinrichtung (24), mit welcher elektromagnetische Abtaststrahlen (20) in wenigstens einen Überwachungsbereich (14) gesendet werden können, mit wenigstens einer Empfangseinrichtung (26), welche wenigstens eine Empfangsmatrix (32) mit mehreren Empfangsbereichen (34) aufweist, mit denen aus dem wenigstens einen Überwachungsbereich (14) kommende elektromagnetische Empfangsstrahlen (30), welche von wenigstens einem Objektziel (19, 19R) reflektierten elektromagneti- sehe Abtaststrahlen (20) herrühren, empfangen werden können, und welche Mittel zum Umwandeln von elektromagnetischen Empfangsstrahlen (30) in Empfangsgrößen (Ao, Ai, A2, A3) aufweist, die den mit den entsprechenden elektromagnetischen Empfangsstrahlen (30) getroffenen Empfangsbereichen (34) zuordenbar sind, dadurch gekennzeichnet, dass das Fahrzeug (10) Mittel aufweist zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 8.
PCT/EP2023/066535 2022-06-20 2023-06-20 Verfahren zum betreiben eines lidar-systems, lidar-system und fahrzeug aufweisend wenigstens ein lidar-system WO2023247474A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022115273.1A DE102022115273A1 (de) 2022-06-20 2022-06-20 Verfahren zum Betreiben eines LiDAR-Systems, LiDAR-System und Fahrzeug aufweisend wenigstens ein LiDAR-System
DE102022115273.1 2022-06-20

Publications (1)

Publication Number Publication Date
WO2023247474A1 true WO2023247474A1 (de) 2023-12-28

Family

ID=87059749

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/066535 WO2023247474A1 (de) 2022-06-20 2023-06-20 Verfahren zum betreiben eines lidar-systems, lidar-system und fahrzeug aufweisend wenigstens ein lidar-system

Country Status (2)

Country Link
DE (1) DE102022115273A1 (de)
WO (1) WO2023247474A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200011972A1 (en) * 2018-07-04 2020-01-09 Hitachi-Lg Data Storage, Inc. Distance measurement device
US20200072946A1 (en) 2018-08-29 2020-03-05 Sense Photonics, Inc. Glare mitigation in lidar applications
US20200182971A1 (en) * 2018-12-07 2020-06-11 Infineon Technologies Ag Time of Flight Sensor Module, Method, Apparatus and Computer Program for Determining Distance Information based on Time of Flight Sensor Data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200011972A1 (en) * 2018-07-04 2020-01-09 Hitachi-Lg Data Storage, Inc. Distance measurement device
US20200072946A1 (en) 2018-08-29 2020-03-05 Sense Photonics, Inc. Glare mitigation in lidar applications
US20200182971A1 (en) * 2018-12-07 2020-06-11 Infineon Technologies Ag Time of Flight Sensor Module, Method, Apparatus and Computer Program for Determining Distance Information based on Time of Flight Sensor Data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LARRY LI: "Time-of-Flight Camera – An Introduction", 31 May 2014 (2014-05-31), XP055300210, Retrieved from the Internet <URL:http://www.ti.com/lit/wp/sloa190b/sloa190b.pdf> [retrieved on 20160906] *

Also Published As

Publication number Publication date
DE102022115273A1 (de) 2023-12-21

Similar Documents

Publication Publication Date Title
EP2917756B1 (de) Abtastende optoelektronische detektionseinrichtung mit einer detektionsschwelle, kraftfahrzeug und entsprechendes verfahren
DE102010012811B4 (de) Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten
DE102009007408B4 (de) Vorrichtung zur Umfelderfassung eines Kraftfahrzeugs
DE102018214140A1 (de) LIDAR-Sensor zur optischen Erfassung eines Sichtfeldes, Arbeitsvorrichtung oder Fahrzeug mit einem LIDAR-Sensor und Verfahren zur optischen Erfassung eines Sichtfeldes
EP2306217B1 (de) Umgebungserfassung
WO2021213788A1 (de) Verfahren und vorrichtung zum erkennen von blooming in einer lidarmessung
WO2023247302A1 (de) Verfahren zur ermittlung wenigstens einer korrekturfunktion für ein lidarsystem, lidar-system, fahrzeug mit wenigstens einem lidar-system, messanlage
WO2023247474A1 (de) Verfahren zum betreiben eines lidar-systems, lidar-system und fahrzeug aufweisend wenigstens ein lidar-system
WO2023247304A1 (de) Verfahren zum betreiben eines lidar-systems, lidar-system und fahrzeug mit wenigstens einem lidar-system
DE102020124017A1 (de) Verfahren zum Betreiben einer optischen Detektionsvorrichtung, optische Detektionsvorrichtung und Fahrzeug mit wenigstens einer optischen Detektionsvorrichtung
WO2023247395A1 (de) Verfahren zum betreiben eines lidar-systems mit streulicht-korrektur, entsprechendes lidar-system und fahrzeug
DE102022115268A1 (de) Verfahren zum Betreiben eines Flash-LiDAR-Systems für ein Fahrzeug, Flash- LiDAR-System und Fahrzeug
DE102019106213A1 (de) Verfahren zur Bestimmung wenigstens einer Positionsinformation wenigstens eines Objekts in einem Überwachungsbereich mit einer optischen Detektionsvorrichtung und optische Detektionsvorrichtung
WO2023083737A1 (de) Verfahren zum betreiben einer detektionsvorrichtung zur ortsaufgelösten überwachung wenigstens eines überwachungsbereichs, detektionsvorrichtung, fahrzeug mit wenigstens einer detektionsvorrichtung
DE102013018799A1 (de) Verfahren und Vorrichtung zum optischen Bestimmen von Abständen zu Objekten, insbesondere zu Hindernissen für Fahrzeuge, in einem Überwachungsbereich
DE102020124023A1 (de) Verfahren zum Detektieren von Objekten und Detektionsvorrichtung
DE102019124641A1 (de) Detektionsvorrichtung zur Erfassung von Objekten und Verfahren zum Betreiben einer Detektionsvorrichtung
WO2021078511A1 (de) Verfahren zum detektieren von objekten in einem überwachungsbereich mit einer optischen detektionsvorrichtung und optische detektionsvorrichtung
EP3945339A1 (de) Optische detektionsvorrichtung zur überwachung wenigstens eines überwachungsbereichs auf objekte hin und verfahren zum betreiben einer optischen detektionsvorrichtung
EP3994482A1 (de) Optische messvorrichtung zur bestimmung von objektinformationen von objekten in wenigstens einem überwachungsbereich
DE102022119584A1 (de) Verfahrensüberprüfung eine Ausrichtung wenigstens einer optischen Einrichtung eines LiDAR-Systems, LiDAR-System, Fahrassistenzsystem und Fahrzeug mit wenigstens einem LiDAR-System
DE102021117361A1 (de) Verfahren zum Betreiben einer optischen Detektionsvorrichtung, Detektionsvorrichtung und Fahrzeug mit wenigstens einer Detektionsvorrichtung
WO2023006528A1 (de) Optische detektionsvorrichtung zur überwachung eines überwachungsbereichs mit überprüfung der funktionalen sicherheit
DE102021112942A1 (de) Verfahren zum Betreiben einer Detektionsvorrichtung, Detektionsvorrichtung und Fahrzeug mit wenigstens einer Detektionsvorrichtung
WO2021078552A1 (de) Kalibriervorrichtung zur kalibrierung wenigstens einer optischen detektionsvorrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23734546

Country of ref document: EP

Kind code of ref document: A1